Refine
Year of publication
- 2002 (190) (remove)
Document Type
- Doctoral Thesis (190) (remove)
Has Fulltext
- yes (190)
Is part of the Bibliography
- no (190)
Keywords
- Gaschromatographie (3)
- Genexpression (3)
- Authentizität (2)
- Gephyrin (2)
- Halbleiteroberfläche (2)
- Ionenkanal (2)
- Kontamination (2)
- Abmahnung (1)
- Abweichendes Verhalten (1)
- Allosterischer Effektor (1)
Institute
- Medizin (43)
- Biochemie und Chemie (41)
- Biowissenschaften (30)
- Pharmazie (23)
- Physik (17)
- Geowissenschaften (9)
- Informatik (4)
- Geschichtswissenschaften (3)
- Gesellschaftswissenschaften (3)
- Psychologie (3)
Das Ziel dieser Arbeit wurde eingangs über den Begriff der erweiterten Schließung der optischen und mikrophysikalischen Eigenschaften der Partikel definiert. Hierunter versteht man das Zusammenfügen von verschiedenen Messungen zu einem konsistenten Bild der betrachteten Partikeleigenschaften. Darüber hinaus sollen die Messungen auch in anderen Teilgebieten der Aerosolphysik verwendbar sein, um so das konsistente Bild zu erweitern. Dieses so umschriebene Ziel konnte für die mikrophysikalischen und optischen Messergebnisse, die während des LACE 98 Experimentes, einem vom Bundesministerium für Forschung und Bildung (Bmb f) geförderten Schließungsexperiment, in Lindenberg (Brandenburg) rund 50 km südöstlich von Berlin im Juli und August 1998 erfasst wurden, erreicht werden. Die Messungen wurden erfolgreich zu einem konsistenten Datensatz und einem "Bild" der Partikeleigenschaften zusammengefügt. Unter dem Begriff "Bild" subsummiert sich hierbei nicht nur eine Charakterisierung der Variabilität und Abhängigkeit der Partikeleigenschaften, z.B. von der rel. Luftfeuchte, sondern darüber hinaus auch eine Charakterisierung der Beeinflussung verschiedener von den Eigenschaften der Partikel abhängiger Größen. Hierzu zählen Strahlungshaushaltsgrößen (Erwärmungsrate der Luft durch Absorption solarer Strahlung und die Volumenabsorption solarer Strahlung durch Partikel), wolkenphysikalische Größen (maximale Übersättigung der Wolkenluft während der Wolkenentstehung und Anzahlkonzentration der wachsenden Wolkentropfen), die massengewichtete mittlere Sedimentationsgeschwindigkeit von Partikeln und nicht zuletzt gesundheitsrelevante Größen, wie z.B. die vom Menschen beim Atmen aufgenommene und eingelagerte Partikelmasse. Nachfolgende Zusammenstellung soll nochmals die erzielten Ergebnisse zusammenfassen. Für eine detaillierte Darstellung der in den einzelnen Kapiteln erzielten Ergebnisse soll hier nur auf die jeweiligen Zusammenfassungen der einzelnen Kapitel verwiesen werden. . Im Rahmen der direkten Schließung, wurden unterschiedliche Verfahren zur Bestimmung der optischen Eigenschaften der Partikel erfolgreich miteinander verglichen. Beteiligt waren bei diesem Vergleich folgende Methoden: Partikel im trockenen Zustand: -- Aerosolphotometer (alle optischen Eigenschaften, ) -- Nephelometer (Streukoeffizient) -- PSAP (Absorptionskoeffizient) -- IPMethode (Absorptionskoeffizient) -- Telephotometer (Extinktionskoeffizient) Partikel bei Umgebungsfeuchte: -- Telephotometer (Extinktionskoeffizient) -- horizontales Lidar (Extinktionskoeffizient) Es zeigte sich, dass sich das Aerosolphotometer mit seinem schon aus der Theorie des Messverfahrens her begründeten konsistenten Satz aller optischen Eigenschaften als Referenzmethode während LACE 98 bewährte. Mit seiner Hilfe konnte nun auch die Gültigkeit einer empirischen Korrektur des PSAP nach Bond et al. [1999] für natürliche Aerosolpartikel bestätigt werden. Dem Anwender dieses Gerätes, das mit einer hervorragenden zeitlichen Auflösung von wenigen Minuten den Absorptionskoeffizienten bestimmt, stehen somit zwei unabhängig voneinander gewonnene Kalibrierungsfunktionen zur Verfügung, die innerhalb der Fehlergrenzen auch mit einander im Einklang stehen. . Im Rahmen der indirekten Schließung wurde ein Modell entwickelt, mit dem auf Basis eines Kugelschalenmodells der Partikel aus Messungen der mikrophysikalischen Eigenschaften der Partikel den Extinktions, den Streu- und den Absorptionskoeffizienten sowie die Single Scattering Albedo berechnet wurden. Mit Hilfe dieses Modells wurde der Feuchteeffekt der oben genannten optischen Eigenschaften berechnet. Mit diesen Ergebnissen konnten dann die Messwerte des Telephotometers feuchtekorrigiert, und mit den Messungen des Aerosolphotometers verglichen werden, wo bei eine gute Übereinstimmung der Messreihen festgestellt werden konnte. Die beobachteten Unterschiede konnten auf Ernteaktivitäten, die nur die Messungen des Telephotometers beeinflussten, zurückgeführt werden. Ein Vergleich der mit Hilfe des Modells auch direkt berechenbaren optischen Eigenschaften mit den direkten Messwerten der beteiligten Verfahren fiel ebenfalls positiv aus. Anhand aller Modellrechnungen wurde eine physikalisch motivierte Näherungsfunktion für den Feuchteeffekt des Extinktions- und des Streukoeffizienten als Funktion des Aktivierungsparameters bereit gestellt. In Klimamodellen kann mit Hilfe der vorgestellten Näherungsfunktionen der Feuchteeffekt auf einfache Weise parametrisiert werden. Wenn man allerdings konkrete Messergebnisse miteinander vergleichen möchte, ist man auf eine vollständige Erfassung der mikrophysikalischen Eigenschaften der Partikel angewiesen. . Im Teil IV der Arbeit wurden auf der Basis des zuvor vorgestellten Datensatzes und der hierfür entwickelten Verfahren (Algorithmen) weitere Auswertungen zu unterschiedlichen, für die Meteorologie interessanten Themengebieten, vorgestellt und ihre Ergebnisse charakterisiert. . In Kapitel 6.1 wurde mit Hilfe von Auswertegleichungen aus den in dieser Arbeit erstellten Messungen des Sieben-Sensor-Bilanzphotometers und den Messungen des Aerosolphotometers die Volumenabsorptionsrate solarer Strahlung der bodennahen Partikel und die daraus resultierende Erwärmungsrate der Luft berechnet. Die Ergebnisse wurden mit Literaturwerten anderer Messkampagnen verglichen. Insbesondere konnte ein interessantes Ergebnis von Hänel
Ziel dieser Arbeit ist es, Wege darzustellen, wie die Thematik Ökobilanzen im Chemieunterricht allgemeinbildender Schulen behandelt werden kann. Ökobilanzen sind definiert als ein Verfahren zur Ermittlung der potentiellen Umweltbelastungen eines Produktes über dessen gesamten Lebensweg. Ein solcher Lebensweg besteht aus mehreren Abschnitten. Am Anfang steht die Rohstoffgewinnung, dann folgt die Herstellung des Produktes, darauf der Gebrauch/Verbrauch und schließlich die Entsorgung oder das Recycling. Die grundlegende Vorgehensweise, wie eine (klassische) Ökobilanz aufzustellen ist, ist ausführlich in den DIN EN ISO-Normen 14040 bis 14043 beschrieben. Für den Chemieunterricht ist aber ein solche, den gesamten Lebensweg umfassende und DIN-gerechte Betrachtung zu zeitaufwendig und schwierig. Daher wurde nach Lösungsmöglichkeiten gesucht, dieses aufgrund seines Umweltbezuges interessante Thema dennoch für den Unterricht erschließen zu können. Es wurde ein kombinierter experimenteller und computerunterstützter Zugang entwickelt. Schwerpunkt ist der Chemieunterricht der Sekundarstufe II, jedoch kann die Thematik Ökobilanzen aufgrund umfassender didaktischer Reduktion bereits in der Sekundarstufe I oder ganz vereinfacht sogar im Sachunterricht der Grundschule behandelt werden. Methodische Möglichkeiten werden auch für diese Schulstufen vorgestellt. Für die Sekundarstufe II wurden Experimente erarbeitet, deren Daten zu den Stoff- und Energieströmen dazu dienen, eine vereinfachte Ökobilanz im Unterricht aufstellen zu können. Gegenstand der Experimente ist zum einen die Herstellung von entionisiertem Wasser über Destillation und Ionenaustausch, zum anderen die Herstellung und das Recycling von Kunststoffen. Die Experimente sind so konzipiert, daß sie von Schülern selbst durchgeführt werden können. Um die Auswertung und die Aufstellung der Ökobilanz zu vereinfachen und somit zu beschleunigen, wurde das Programm ÖKO-BILLY unter Microsoft Excel 97 entwickelt, welches hier ebenfalls vorgestellt werden soll. Es dient nicht nur Datenerfassung, sondern ist darüber hinaus auch ein Lernprogramm, welches den Aufbau und die Durchführung einer Ökobilanz demonstriert. Durch die Kombination von Experiment und Computerprogramm kann die Thematik Ökobilanzen erfolgreich im Chemieunterricht der gymnasialen Oberstufe vermittelt werden.
Das Photosystem II (PSII) und die F1Fo-ATP-Synthase, zwei Membranproteinkomplexen der Energieumwandlung, wurden im Rahmen dieser Dissertation bearbeitet. Mittels zweidimensionaler (2D) Kristallisation und elektronenkristallographischen Methoden sollte die dreidimensionale (3D) Struktur aufgeklärt werden. PSII katalysiert den ersten Schritt der Lichtreaktion der Photosynthese. Es ist für das Einfangen von Lichtquanten, die Anregung von Elektronen, die Freisetzung von Sauerstoff aus Wasser verantwortlich. Über 25 Untereinheiten sind an diesem Prozess in den Thylakoidmembranen der Chloroplasten beteiligt. Ziel des ersten Projekts war die Verbesserung der 8 Å-Struktur des CP47-RC-Subkomplexes durch neue oder bessere 2D-Kristalle. Die Aufreinigung aus Spinat lieferte reproduzierbar eine gute Ausbeute an aktivem PSII. Das solubilisierte PSII enthielt genug endogenes Lipid, um es ohne den Zusatz von weiterem Lipid direkt durch Mikrodialyse zu rekonstituieren. Während der Rekonstitution verlor der PSII-Komplex CP43 und andere Untereinheiten, wahrscheinlich durch das Detergenz begünstigt, und ergab hoch geordnete Membranen aus CP47-RC. Die besten vesikulären 2D-Kristalle hatten eine tubuläre Morphologie und waren bis zu 1 µm breit und 3 µm lang. Elektronenmikroskopische Bilder unter Cryo-Bedingungen von ihnen aufgenommen zeigten nach der Bildverarbeitung Daten bis 6 Å. Durch Erhöhung der Zinkazetatkonzentration im Dialysepuffer konnten dünne 3D-Kristalle gezüchtet werden, die aus 2D-Kristallstapeln bestanden. Obwohl Elektronenbeugungsmuster Reflexe bis 4,5 Å aufwiesen, konnte auf Grund der unbekannten und veränderlichen Anzahl von Schichten keine 3D-Struktur erstellt werden. Weitere Versuche die Qualität der 2D-Kristalle von CP47-RC zu verbessern waren nicht erfolgreich. Durch die kürzliche Veröffentlichung der Röntgenkristallstruktur des dimeren PSII-Komplexes aus Synechococcus elongatus wurden weitere Untersuchungen eingestellt. Im letzten Schritt der Energieumwandlungskette bildet die F1Fo-ATP-Synthase unter Ausnutzung eines elektrochemischen Gradienten schließlich ATP, die universelle Energieeinheit der Zelle. Die Struktur und Funktion des löslichen, katalytischen F1-Teils sind seit einigen Jahren im Detail bekannt. Im Gegensatz zeichnet sich die Struktur des membranintegrierten, Ionen-translozierenden Fo-Teiles aus den Untereinheiten ab2cx erst langsam ab. Der c-Ring besteht in Hefe aus 10 und in Spinatchloroplasten aus 14 Untereinheiten. Ziel des zweiten Projekts war die Aufklärung der 3D-Struktur des sehr stabilen, undecameren c-Rings aus dem Bakterium Ilyobacter tartaricus, welches Na als Kopplungsion nutzt. Große, tubuläre 2D-Kristalle mit einer Einheitszelle von 89,7 x 91,7 Å und p1-Symmetrie bildeten sich nach der Rekonstitution von gereinigten c-Ringen mit dem Lipid Palmitoyl-Oleoyl-Phosphatidylcholin, nachdem das Detergenz durch Mikrodialyse entzogen wurde. Bilder von in Trehalose eingebetteten 2D-Kristallen wurden im Elektronenmikroskop JEOL 3000 SFF bei 4 K aufgenommen. Ein 3D-Datensatz, bestehend aus 58 Bilder bis zu einem Kippwinkel von 45°, ermöglichte die Berechnung einer 3D-Dichtekarte mit einer Auflösung von 4 Å in der Membranebene und 15 Å senkrecht dazu. Die elffach symmetrisierte Karte eines c-Rings zeigt einen taillierten Zylinder mit einer Höhe von 70 Å und einem äußeren Durchmesser von 50 Å, der aus zwei konzentrischen Ringen von transmembranen (-Helices besteht. Ein C-(-Modell der c-Untereinheit, die eine helikale "hair pin" bildet, konnte in die Dichte eingepaßt werden. Die inneren Helices sind nur 6,5 Å (Zentrum-zu-Zentrum-Abstand) von einander entfernt um eine zentrale Öffnung von 17 Å Durchmesser angeordnet. Die dichte Helixpackung wird durch ein konserviertes Motiv aus vier Glycinresten ermöglicht. Jede innere Helix ist mit einer äußeren, C-terminalen Helix über einen kurzen, wohl geordneten Loop auf der cytoplasmatischen Seite verbunden. Die äußere Helix weist in der Nähe der Ionenbindungsstelle einen Knick auf, der gleichzeitig in der Mitte der Membran liegt, wo sich die äußeren und inneren Helices am nächsten kommen. Dadurch wird es möglich, dass die Ionenbindungsstelle aus den Resten von zwei äußeren (Glu65, Ser66) und einer inneren Helix (Pro28) geformt wird. Zur Unterstützung der Ein-Kanal-Modell der Ionentranslokation konnte ein Zugang von der Ionenbindungsstelle zum Cytoplasma durch polare Reste in der c-Untereinheit vorgeschlagen werden. Des Weiteren kann spekuliert werden, dass drei Ionenbrücken zwischen den c-Untereinheiten für die hohe Temperaturstabilität des Oligomers von I. tartaricus verantwortlich sind. Die Vorstellung dieses 3D-Modells des c-Rings ist ein erster Schritt hin zum Verständnis der Kopplung der Ionentranslokation an die Rotation der F1Fo-ATP-Synthase. Wenn die Struktur der a-Untereinheit gelöst worden ist, wird hoffentlich auch der Mechanismus des kleinsten, biologischen Rotationsmotors entschlüsselt werden.
Dihydrocodein wird im wesentlichen zu Dihydrocodein-6-O-43-ß-glucuronid (DHC6G), Dihydromorphin (DHM), Dihydromorpbin-3-O-ß-D-glucuronid (DHM3G), Dihydromorphin-6-O-ß-D-glucuronid (DHM6G) und Nordihydrocodein (NDHC) biotransformiert. In Analogie zu Codein wird vermutet, dass die Metaboliten DHM und DHM6G pharmkologisch deutlich aktiver als die Muttersubstanz sind und somit zur Wirkung von DHC wesentlich beitragen können, auch wenn sie nur in geringen Mengen gebildet werden. Da die O-Demethylierung von Dihydrocodein zu Dihydromorphin durch das polymorphe Cytochrom P450-Enzym CYP2D6 katalysiert wird, sind in EM (schnelle Metabolisierer) und PM (langsame Metabolisierer, weisen kein funktionelles CYP2D6-Enzym auf) unterschiedliche Metabolitenprofile zu beobachten. In etwa 5-10% der Kaukasier, die PM für CYP2D6 sind, könnte sich somit ein Therapiemisserfolg nach Gabe von therapeutisch empfohlenen Standarddosen an DHC einstellen. Es war daher Ziel der vorliegenden Arbeit, die Bedeutung der Biotransformation für die Wirkung von Dihydrocodein beim Menschen zu untersuchen. Im Rahmen dieser Untersuchung wurden Affinitätsprofile an Hirnmembranpräparationen und Affinitäts- und Aktivitätsprofile an humanen Neuroblastomzellen für DHC und seine Metaboliten erstellt. Des weiteren wurden pharmakokinetische und pharmakodynamische Parameter (und deren Zusammenhang) von Dihydrocodein und seinen Metaboliten beim gesunden Menschen unter Berücksichtigung des CYP2D6-Phänotyps mit Hilfe einer Pilot-Probandenstudie bestimmt. Zuletzt wurden die Ergebnisse der Affinitäts- und Aktivitätsversuche mit den Ergebnissen der Probandenstudie unter Berücksichtigung der verfügbaren Literaturdaten in Zusammenhang gebracht. Di in vitro-Untersuchungen zeigten, dass alls Prüfsubstanzen mit Ausnahme des unwirksamen DHM3G vorwiegend u-selektive Agonisten waren und dass das prinzipielle Verhältnis der Affinitäten bzw. Aktivitäten der einzelnen aktiven Prüfsubstanzen zueinander in allen Untersuchungen annähernd gleich war. Auf Grundlage dieser Daten konnte folgender Grundsatz formuliert werden; Die Affinitäten/Aktivitäten von DHM und DHM6G waren etwa um den Faktor 100 größer als die von DHC, während die anderen Metaboliten (mit Ausnahme des unwirksamen DHM3G) vergleichbare Affinitäten/Aktivitäten besaßen. Die im Rahmen der Probandenstudie ermittelten pharmakokinetischen Werte bestätigten verfügbare Literaturdaten, insbesondere dass CYP2D6 wesentlich für die Bildung von DHM war. So konnten weder DHM, DHM3G noch DHM6G in Plasma und Urin von PM detektiert werden. Die pharmakodynamischep Untersuchungen mittels Pupillometrie zeigten einen signifikanten Unterschied im ursprünglichen Pupillendurchmesser an den Zeitpunkten 1 bis 6 Stunden zwischen Placebo einerseits und EM bzw. PM andererseits. Damit konnte zunächst eine eigene in vivo-Wirkung von DHC beim Menschen nachgewiesen werden. Jedoch ergab sich kein signifikanter Unterschied zwischen EM und PM. Im zweiten pharmakodynamischen Modell (Schmerzmodell) konnten bezüglich der Parameter R-III-Reflexschwelle und VAS-EC30 keine Unterschiede sowohl zwischen EM und PM als auch zwischen Placebo und EM bzw. PM festgestellt werden, so dass 60 mg DHC keine analgetische Wirkung hatte oder das Modell für die Ermittlung der analgetischen Potenz von 60 mg DHC ungeeignet war. Einschränkend muss jedoch hier erwähnt werden, dass die Studie aufgrund der kleinen Fallzahl nur Pilotcharakter aufwies. Die Ergebnisse der vorliegenden Arbeit in Zusammenhang mit den verfügbaren Literaturdaten lassen die Schlussfolgerung zu, dass die pharmakologisch wesentlich aktiveren Metaboliten DHM und DHM6G nicht oder nur geringfügig zur Wirkung von DHC nach oraler Einzelgabe von 60 mg DHC beitragen. Gründe hierfür könnten die geringe Bildung von DHM und seinen Metaboliten (ca. 9%) und/oder durch Verteilung und Ausscheidung bedingte niedrige Konzentrationen am Rezeptor in vivo sein. Somit scheint die Biotransformation keine Bedeutung für die Wirkung von DHC zu haben. Entsprechend sind keine Unterschiede in der Therapie von EM und PM mit niedrigen therapierelevanten DHC-Dosen zu erwarten.
Der Einsatz verschiedenster Substanzen, die die affektive, emotionale oder körperliche Befindlichkeit verändern, ist so alt wie die Menschheit selbst. Rauschmittel im weitesten Sinn werden seit alters her zur Linderung oder Heilung von Krankheiten, bei rituellen Zusammenkünften, zur Bewußtseinsveränderung oder -erweiterung oder einfach als Genußmittel eingesetzt. Als "grundlegende Funktionsbereiche des Drogengebrauchs" werden allgemein "religiöse, medizinische, hedonistische, soziale, kompensatorische, ökonomische und politische" genannt (Blätter, 1995, 279). Im Rahmen einer mehrjährigen Tätigkeit als Sozialpädagogin in einer Jugend- und Drogenberatungsstelle im "Drogenbrennpunkt" Frankfurt hatte ich Gelegenheit festzustellen, daß zumindest bei Heroinkonsumenten in Deutschland soziale und kompensatorische Aspekte gegenüber den anderen genannten Faktoren offensichtlich im Vordergrund stehen. Die häufig gehörte Einschätzung, es handele sich bei Drogenabhängigen um hedonistisch orientiertes "arbeitscheues Gesindel", das sich auf Kosten der Allgemeinheit einen "schönen Lenz mache", erweist sich spätestens dann als falsch, wenn man Gelegenheit erhält, Einblick in ihren hektischen und nicht selten auch mittelbar oder unmittelbar lebensbedrohlichen Alltag zu nehmen. ...
Zur Zeit basiert die Behandlung der Infektion mit dem Humanen-Immunschwäche-Virus (HIV) ausschließlich auf einer Chemotherapie, die das Virus nicht eradiziert, sondern in seiner Vermehrung hemmt. Diese Therapie muß lebenslang erfolgen. Die Wirksamkeit der Medikamente ist, auch in einer Kombinationstherapie, durch die Entwicklung von Resistenzen limitiert. Diese begründet sich zum einen in der Selektion resistenter Virusmutanten. Zum anderen weisen experimentell und in Studien gewonnene Ergebnisse auf die Beteiligung zellulärer Faktoren am Therapieversagen hin. Über die Rolle zellulärer Prozesse bei der Resistenzentwicklung gegen die in der HIV-1 Therapie eingesetzten Nukleosidalen-Reverse-Transkriptase-Inhibitoren ist jedoch noch wenig bekannt. NRTIs sind Prodrugs und werden durch zelleigene Kinasen aktiviert. Eine verminderte Expression oder Aktivität dieser Kinasen kann zu subtherapeutischen intrazellulären Wirkspiegeln führen. In der vorliegenden Arbeit wurden anhand einer T-lymphoiden Zellkultur (H9) die zellulären Mechanismen, die nach einer langdauernden Zidovudin (AZT) Exposition eine zelluläre AZT-Resistenz bewirken, und Methoden diese Resistenz zu umgehen bzw. zu verhindern, untersucht. Es zeigte sich, daß die kontinuierliche AZT-Exposition eine verminderte Expression der Thymidinkinase 1 (TK1) bewirkt. Dies führt zu einer verminderten AZT-Phosphorylierung und letztendlich zu geringeren Wirkstoffspiegeln des antiretroviral wirksamen Metaboliten AZT-Triphosphat (AZT-TP). In AZT resistenten H9 Zellen zeigte AZT eine verminderte Zytotoxizität, und eine um mehr als den Faktor 1000 verminderte antiretrovirale Aktivität. Als mögliche Ursachen für die verminderte Expression der TK1 wurden die DNA-Methylierung und die Histon-Deacetylierung, zwei Faktoren, die Hand in Hand die Genexpression auf transkriptioneller Ebene beinflussen, untersucht. AZT resistente Zellen zeigten in immunzytochemischen Färbungen eine starke Histon-Deacetylierung. Die Behandlung resistenter Zellen mit Trichostatin A (TSA), einem Hemmstoff der Histon-Deacetylierung führte jedoch nicht zu einer Erhöhung der TK1 mRNA-Spiegel. Die Behandlung resistenter Zellen mit 5-AZA-C, einem Inhibitor der Methyltransferase 1 (DNMT1) erhöhte sowohl die Expression der TK1 als auch die Zytotoxizität und die antiretrovirale Aktivität von AZT. Darüber hinaus verminderte die gleichzeitige Behandlung von H9 Zellen mit AZT und 5-AZA-C die Resistenzentwicklung gegen AZT erheblich. Weiterhin konnte gezeigt werden, daß in den AZT resistenten Zellen die Expression der „de novo“ Methyltransferasen 3a und 3b (DNMT3a / 3b) erhöht ist. Diese Ergebnisse weisen darauf hin, daß eine „de novo“ Methylierung des TK1-Gens durch die DNMT3a und DNMT3b die Ursache für die verminderte TK1 Expression in AZT resistenten H9 Zellen ist. Zusätzlich wurde in dieser Arbeit gezeigt, daß einige amphiphile Heterodinukleosidphosphate, die nach intrazellulärer Spaltung monophosphorylierte Nukleosidanaloga freisetzen, die AZT Resistenz überwinden können. Die Ergebnisse dieser Arbeit lassen vermuten, daß eine spezifische Hemmung der „de novo“ Methyltransferasen oder der Einsatz monophosphorylierter Substanzen die Wirksamkeit einer antiretroviralen Therapie erheblich verbessern können, indem sie zelluläre Faktoren, die eine Phosphorylierung von AZT vermindern und dadurch zum Versagen von AZT als antiretroviralem Therapeutikum führen, unterdrücken bzw. umgehen.
In der vorliegenden Arbeit wurden 10 Typen der Gehölzvegetation und 14 Typen der Krautvegetation für das Untersuchungsgebiet Atakora vorgestellt. Dabei konnten nur Sonderstandorte, wie Galeriewälder und Lateritkrusten, klar abgetrennt werden. Viele Arten besitzen keine eindeutigen ökologischen Präferenzen, was sich gut mit der Einschätzung der lokalen Bevölkerung deckt, die für den Großteil der Arten angaben, dass diese wüchsen wo sie wollten. Dabei fällt auf, dass sich die Typen (vor allem in Gehölzschicht aber auch in Krautschicht) in den einzelnen Dörfern oft nur in Teilen entsprechen. Gründe dafür konnten nur teilweise in den unterschiedlichen ökologischen Gegebenheiten und unterschiedlichen Nutzungspräferenzen einzelner wichtiger Trennarten gegeben werden. Selten findet sich ein hundertprozentiges Zusammentreffen eines Gehölztyps mit einem Krauttyp. Damit bestätigt sich die Annahme unterschiedlicher Entwicklungsbedingungen und teilweise unabhängiger Entwicklung dieser beiden Elemente in der westafrikanischen Savanne. Gesellschaften, in denen eine Krautschicht mit einer Gehölzschicht eng korreliert sind, konnten nur für landwirtschaftlich nicht genutzte Sonderstandorten wie Galeriewälder und Lateritkrusten gebildet werden. Zudem zeigt sich, dass die Vegetation in der dichter besiedelten Ebene klarer strukturiert ist, als in der Bergregion. Dies trifft vor allem auf die Gehölzvegetation zu. Dennoch sind erstaunlich viele Gehölzarten auch in der intensiver genutzten Ebene anzutreffen, was für große Regenerationsfähigkeit und die Anpassung der hauptsächlichen Savannengehölze an das menschliche Wirken spricht. Die geringere Zahl an Gehölzarten in der Ebene ist hauptsächlich Resultat der wesentlich stärker degradierten Galeriewälder. In den Berggebieten sind zudem mehr Gehölzschichttypen und mehr krautige Arten angetroffen worden. Hier zeigt sich, dass Berggebiete auch in dieser Untersuchungsregion als Refugium für Vegetationsformationen und Arten gelten können. Die Nutzung von Wildpflanzen für verschiedene Zwecke wurde dokumentiert. Dabei konnte gezeigt werden, dass Präferenzen für diverse Nutzungen auf ethnischen, teilweise auch auf persönlichen Präferenzen, sowie auf der Verfügbarkeit der Pflanzen basieren. Dabei zeigte sich, dass die Präferenzen von Arten als Bau- und Brennholz eher auf der Verfügbarkeit basieren, während die Präferenzen für Medizinalpflanzen eher auf ethnischnen Vorstellungen von Wirksamkeit und teilweise auch auf kollektiven Erfahrungen basieren. Es erwies sich, dass die traditionelle Nutzung von Wildpflanzen als Brenn- und Bauholz und zu zusätzlichen Ernährung in dem Untersuchungsgebiet einen geringen Einfluß auf die Biodiversität hat, solange diese Pflanzen nicht kommerzialisiert werden. Es gibt genügend Pflanzenarten, die leicht zu finden sind und gute Eigenschaften für die eingesetzten Zwecke aufweisen, so dass man meist auf die jeweiligen in einem Dorfgebiet häufig anzutreffenden Arten ausweichen kann. Für diese geringe Auswirkung der traditionellen Nutzung von Gehölzpflanzen auf die Biodiversität sprechen auch die Aussagen der Bevölkerung über die geringere Verfügbarkeit von Gehölzpflanzen zu bestimmten Nutzungen. Dabei ergab sich eine Reihung von Nennungen, die von weniger Bauholz über weniger Brennholz zu weniger Gehölzpflanzen für die traditionelle Medizin abnahmen. Zudem wurde in allen Befragungen verneint, dass eine Art aus dem Dorfgebiet verschwunden wäre. Daraus läßt sich schließen, dass ein Großteil der wichtigen Gehölzpflanzen in dem Untersuchungsgebiet noch vorhanden ist, aber auf Grund der intensivierten Landwirtschaft nicht mehr in der Lage ist, sich zu richtigen Bäumen zu entwickeln. Da sich dadurch einige Gehölzpflanzen nur noch vegetativ vermehren können, kann eine genetische Verarmung von Populationen bestimmter Arten angenommen werden. Dies wäre ein interessanter Ansatzpunkt für zukünftige Forschungen. Ein negativer Einfluß auf die Biodiversität durch traditionelle Nutzungen ist bei der Nutzung von Gehölzpflanzen für die traditionellen Medizin größer, vor allem wenn Wurzeln verwendet werden. Dennoch lässt sich erkennen, dass der Einfluß der traditionellen Nutzungen von Wildpflanzen im Vergleich zu der landwirtschaftlichen Nutzung der Flächen einen marginalen Effekt auf die Vegetation hat. Im Rahmen der ethnobotanischen Befragungen wurden Pflanzennamen, Umweltwahrnehmung und die Vorstellungen von Krankheit der Bétamaribè und Wama dokumentiert. Diese weisen im Gegensatz zu den Vorstellungen anderer afrikanischer Völker kaum Differenzen auf. Die Vorstellungen von Krankheit sind dabei von einem starken Wandel betroffen, da man sich immer stärker auf westliche Konzepte und Medikamente verläßt. Ein positiver Effekt hiervon auf die Phytodiversität ist jedoch nicht zu erwarten, da die Medikamentkosten eine Intensivierung der Landwirtschaft erfordern. Über 240 traditionelle Heilrezepte wurden gesammelt. Die wichtigste Rolle spielen dabei Gehölzpflanzen. Dabei zeigt sich, dass sich die Präferenzen zwischen den einzelnen Dörfern stärker unterscheiden als bei der Nutzung von Pflanzen zu Brenn- und Bauholzzwecken. Auch erweisen sich große Unterschiede zu Verwendungen von Medizinalpflanzen in anderen Untersuchungsgebieten. Dies liegt an unterschiedlichen Vorstellungen und Erfahrungen zur Wirksamkeit von Pflanzen vor allem bei Krankheiten, die auch von alleine wieder vergehen wie Magen-Darm-Erkrankungen. Das Wissen über Heilpflanzen ist in der Ebene geringer ausgeprägt, als in den beiden Bergdörfern. Gründe hierfür können jedoch nicht alleine in den geringeren pflanzlichen Ressourcen gesehen werden. Ein Wandel in der Landwirtschaft bezieht sich hauptsächlich auf die Anbauprodukte. Während traditionelle angepaßte Cerealien seltener angebaut werden, baut man viele Produkte für den Verkauf an. Die herausragende Stellung darunter nimmt die anspruchsvolle und arbeitsintensive Baumwolle ein. Die Auszahlungsmodalitäten der halbstaatlichen Baumwollgesellschaft kommen dabei den bäuerlichen Bedürfnissen am ehesten entgegen. Um den finanziellen Ansprüchen der Verwandtschaft zu entgehen werden kurzfristige Strategien zur Geldbeschaffung angenommen. Es zeigt sich also, dass die Ursachen von Degradation eher in dem Kulturwandel und einer zunehmenden Abhängigkeit der Bauern von Bareinkünften zu sehen ist als in der oft pauschal genannten Überbevölkerung. Zukünftige Forschungen über Biodiversität und Vegetationswandel sollten auch den Kulturwandel stärker berücksichtigen. Die Degradation zeigt sich in dem Untersuchungsgebiet mehr in der Verarmung der Böden als in einem Rückgang der Biodiversität. Obwohl schon historische Vegetationsbeschreibungen von einer starken Beeinträchtigung der vermuteten natürlichen Wälder sprechen, ist nicht davon auszugehen, dass sich die Vegetation in dem Untersuchungsgebiet die letzten 50 Jahre stark verändert hat. Das in nördlicheren Gebieten von der lokalen Bevölkerung beobachtete Verschwinden von Arten wird kategorisch verneint. Bei den genannten zurückgehenden Arten handelt es sich hauptsächlich um wichtige Nutzarten. Da hierzu historische Daten fehlen, kann es sich auch um selektive Wahrnehmung der Bauern handeln. Dennoch ist anzunehmen, dass sich in Zukunft die Degradationsphänomene verschlimmern werden. Da die Bargeldbedürfnisse der Bauern nicht mehr zurückzuschrauben sind und zudem die Experimentiefreudigkeit in der recht unsicheren Umweltsituation gering ist, muss auf bestehende Produkte zurückgegriffen werden, um sowohl diese Bargeldbedürfnisse zu befriedigen, als auch die Umwelt zu schonen. Eine Chance hierfür könnte eine Vermarktung von Fonio, wie bereits in Mali geschehen, darstellen. Dieses anspruchslose, noch auf sehr ausgelaugten Böden wachsende und zudem sehr nahrhafte und wohlschmeckende Getreide sollte wieder vermehrt angebaut werden und auf lange Sicht die anspruchsvolle und Boden auslaugende Baumwolle ersetzten. Dies ist jedoch nur möglich, wenn Fonio über internationale Strukturen auch in Europa und Amerika vermarktet wird. Eine weitere finanziell nicht ausgeschöpfte Ressource bieten die Mangobäume. In der Hochzeit der Mangoernte werden die Bäume vielfach nicht mehr abgeerntet, weil die Preise für die Früchte stark sinken. Die Früchte fallen dann meist Flughunden und Vögeln zum Opfer. Wie das Beispiel Burkina Faso zeigt, könnten diese Früchte getrocknet, zu Marmelade oder Saft verarbeitet werden und selbst in Europa in dieser haltbaren Form verkauft werden. Leider sind bislang die entsprechenden Initiativen und Strukturen dazu in Benin noch nicht geschaffen. Eine weitere, wenn auch langfristigere Möglichkeit wäre die Ersetzung der Baumwollfelder durch Cashjew-Pflanzungen. Diese werden von der Bevölkerung immer mehr angenommen. Dabei könnten neue Gehölzresourcen geschaffen und die Bodenfruchtbarkeit erhöht werden. Einige Initiativen von kleinen NGO's, die das Pflanzen von Bäumen befürworten, finden großen Anklang. Es muß nur eine Möglichkeit gefunden werden, solche Produkte auch international zu kommerzialisieren, um die Böden stark belastende und zudem arbeitsaufwendige Baumwolle zu ersetzten. Zudem sind Initiativen von einzelnen Dörfern in der Atakoraregion, Teile des Dorfgebietes unter Schutz zu stellen und damit Ressourcen und Wissen vor allem für die traditionelle Medizin zu sichern, ermutigend. Es zeigt, dass die lokale Bevölkerung Bedrohungen ihrer Umwelt ernst nimmt und versucht mit Hilfe von NGO's Gegenmaßnahmen zu schaffen. In diesem Hinblick wäre es wichtig, dass sich zukünftige Forschungen mehr den pharmazeutischen Inhaltsstoffen von Heilpflanzen widmen, so wie dies in Südamerika bereits geschieht. Dabei sollten jedoch die Rechte der autochtonen Bevölkerung gewahrt werden. Zudem wäre es wichtig, mehr über die Ökologie einzelner Gehölzpflanzen unter Berücksichtigung der jeweiligen Nutzungsverhältnisse zu kennen. Hierbei wäre es auch interessant über die Naturverjüngung ausgewählter Arten zu arbeiten. Zudem sollten Forscher, die über Degradationsprobleme arbeiten, vor allem in angewandten Bereichen, mehr auf die Erfahrungen der lokalen Bevölkerung hören und weniger scheinbar offensichtliche und populäre Theorien wie Überbevölkerung strapazieren. Dabei sollten auch vermehrt historische Quellen zu Rate gezogen werden, da es scheint, dass die westafrikanische Savanne nicht so degradiert ist, wie es oft behauptet wird und noch große Potentiale besitzt, wenn diese richtig genutzt werden. Abschließend sei bemerkt, dass, wenn man Berichte aus anderen afrikanischen Regionen hört und sieht, der Norden Benins als "Insel der Glückseeligen" betrachtet werden kann. Die politische Lage ist stabil, die Bevölkerung aufgeschlossen und freundlich, es gibt kaum Kriminalität, große Krankheitsepedemien sind in den letzten Jahren ausgeblieben, Hunger wird selten erlitten und auch die Umweltdegradation hält sich in Grenzen. Möge die hier vorliegende Arbeit dazu beitragen, diese Region und die Bétamaribè ein wenig mehr ins Bewußtsein der Öffentlichkeit bringen und ein wenig dazu beitragen, dass die Situation der Region und ihrer Bevölkerung sich nicht verschlechtert.
The substantia nigra is not the induction site in the brain of the neurodegenerative process that underlies Parkinson’s disease. Instead, the results of this semiquantitative study of 30 autopsy cases with incidental Lewy body pathology indicate that Parkinson’s disease in the brain commences with the formation of the very first immunoreactive Lewy neurites and Lewy bodies in noncatecholaminergic visceromotor neurons of the dorsal glossopharyngeusvagus complex, in projection neurons of the intermediate reticular zone, and in specific nerve cell types of the gain setting system (coeruleussubcoeruleus complex, caudal raphe nuclei, gigantocellular reticular nucleus), olfactory bulb, olfactory tract, and/or anterior olfactory nucleus in the absence of nigral involvement. The topographical parcellation of the nuclear grays described here is based upon known architectonic analyses of the human brain stem and takes into consideration the pigmentation properties of a few highly susceptible nerve cell types involved in Parkinson’s disease. In this sample and in all 58 ageand gendermatched controls, Lewy bodies and Lewy neurites do not occur in any of the known telencephalic Parkinson’s disease predilection sites (hippocampal formation, temporal mesocortex, proneocortical cingulate areas, amygdala, basal nucleus of Meynert, interstitial nucleus of the diagonal band of Broca, hypothalamic tuberomamillary nucleus).
ZIELSETZUNG: Die postoperative kardiale Ventrikelfunktion ist stark mit den Auswirkungen der kardialen Ischämie und den Auswirkungen der extrakorporalen Zirkulation (EKZ) assoziiert. Um die alleinigen Auswirkungen der EKZ auf die postoperative linksventrikuläre Herzfunktion zu untersuchen, wurde ein Leitfähigkeitskatheter verwendet mit dem die linksventrikuläre Funktion mit Hilfe der Druck-Volumen Beziehung vor und nach EKZ erfasst werden konnte. METHODEN: 22 drei Wochen alte Schweine wurden sternotomiert und einer normothermen EKZ von 1 h ausgesetzt. Der Leitfähigkeitskatheter wurde in den linken Ventrikel eingeführt. Die endsystolische Druck-Volumen-Beziehung (ESPVR), der linksventrikuläre enddiastolische Druck (LVEDP) und der systemische Gefässwiderstand (SVR) wurden in Ruhephasen vor und 15 Min nach EKZ in Gruppe A (n=11) gemessen. Gruppe B (n=11) diente als Kontrollgruppe ohne EKZ. ERGEBNISSE: Vor der Implementierung der EKZ wurden in beiden Gruppen keine signifikanten Unterschiede efunden. Als Mass für eine eingeschränkte LV Funktion wurde eine signifikant niedrigere Steigung der ESPVR (mmHg/ml) in der EKZ-Gruppe nach Abgang von der HLM im Vergleich zur Kontrollgruppe festgestellt (1,69 ± 0,51 vs. 1,86 ± 0,55; p<0.0081). In der EKZ-Gruppe war der maximale Druckanstiegsgeschwindigkeits- Index dP/dtmax index (mmHg/sec/kg) signifikant erniedrigt (1596,10 ± 339,51 vs. 2045,0 ± 205,57; p<0.03). In Gruppe A war die Steigung der EDPVR (mmHg/ml) signifikant erniedrigt (7,21 ± 2,20 vs. 5,43 ± 1,36; p = 0,0293), während der LVEDP (mmHg) signifikant erhöht war (11,67 ± 2,59 vs. 5,39 ± 0,92; p<0.001). Zudem konnte ein signifikant niedrigerer systemischer Gefässwiderstand- Index(SVR)(dyn.sec.cm-5/kg) in der Kontrollgruppe gemessen werden (1407,30 ± 176,44 vs. 1676,94 ± 312,96; p<0.0001). SCHLUSSFOLGERUNG: Auch ohne ischämischen Arrest führt der Einsatz der EKZ zu einer signifikanten Einschränkung der LV Funktion in der frühen post EKZ Phase. Dies sollte bei der Entscheidungsfindung für die Wahl der Operationsstrategie bedacht werden.
Ziel der Arbeit war es, neue Techniken zur Erschließung und Selektion von Web- basierten Suchservern zu entwickeln und zu evaluieren, um hieraus eine integrierte Architektur für nicht-kooperative Suchserver im WWW abzuleiten. Dabei konnte gezeigt werden, daß die im Sichtbaren Web vorhandene Informationsmenge dazu geeignet ist, um eine effektive Erschließung des Unsichtbaren Webs zu unterstützen. Existierende Strategien für verteiltes Information Retrieval setzen eine explizite Kooperation von Seiten der Suchserver voraus. Insbesondere Verfahren zur Selektion von Suchservern basieren auf der Auswertung von umfangreichen Termlisten bzw. Termhäufigkeiten, um eine Auswahl der potentiell relevantesten Suchserver zu einer gegebenen Suchanfrage vornehmen zu können (z. B. CORI [26] und GlOSS [54]). Allerdings werden derartige Informationen von realen Suchservern des WWW in der Regel nicht zu Verfügung gestellt. Die meisten Web-basierten Suchserver verhalten sich nicht kooperativ gegenüber hierauf aufsetzenden Metasuchsystemen, was die Übertragbarkeit der Selektionsverfahren auf das WWW erheblich erschwert. Außerdem erfolgt die Evaluierung der Selektionsstrategien in der Regel in Experimentumgebungen, die sich aus mehr oder weniger homogenen, künstlich partitionierten Dokumentkollektionen zusammensetzen und somit das Unsichtbare Web und dessen inhärente Heterogenität nur unzureichend simulieren. Dabei bleiben Daten unberücksichtigt, die sich aus der Einbettung von Suchservern in die Hyperlinkstruktur des WWW ergeben. So bietet z. B. die systematische Auswertung von Backlink-Seiten also jener Seiten die einen Hyperlink auf die Start- oder Suchseite eines Suchservers enthalten die Möglichkeit, die im WWW kollektiv geleistete Indexierungsarbeit zu nutzen, um die Erschließung von Suchservern effektiv zu unterstützen. Eine einheitliche Systematik zur Beschreibung von Suchservern Zunächst ist es notwendig alle Informationen, die über einen Suchserver erreichbar sind, in ein allgemeingültiges Beschreibungsmodell zu integrieren. Dies stellt eine Grundvorraussetzung dar, um die einheitliche Intepretierbarkeit der Daten zu gewährleisten, und somit die Vergleichbarkeit von heterogenen Suchservern und den Aufbau komplexer Metasuchsysteme zu erlauben. Ein solche Beschreibung soll auch qualitative Merkmale enthalten, aus denen sich Aussagen über die Reputation einer Ressource ableiten lassen. Existierende Beschreibungen von Suchservern bzw. Dokumentkollektionen wie STARTS-CS [53] oder RSLP-CD [93] realisieren wenn überhaupt nur Teilaspekte hiervon. Ein wichtiger Beitrag dieser Arbeit besteht somit in der Identifizierung und Klassifizierung von suchserverbeschreibenden Metadaten und hierauf aufbauend der Spezifikation eines als Frankfurt Core bezeichneten Metadatensatzes für web-basierte Suchserver, der die genannten Forderungen erfüllt. Der Frankfurt Core berücksichtigt Metadaten, deren Erzeugung eine explizite Kooperation von Seiten der Suchserver voraussetzt, als auch Metadaten, die sich automatisiert z. B. durch linkbasierte Analyseverfahren aus dem sichtbaren Teil des WWW generieren lassen. Integration von Wissensdarstellungen in Suchserver-Beschreibungen Ein wichtige Forderung an Suchserver-Beschreibungen besteht in der zusätzlichen Integration von wissens- bzw. ontologiebasierten Darstellungen. Anhand einer in Description Logic spezifizierten Taxonomie von Suchkonzepten wurde in der Arbeit exemplarisch eine Vorgehensweise aufgezeigt, wie die Integration von Wissensdarstellungen in eine Frankfurt Core Beschreibung praktisch umgesetzt werden kann. Dabei wurde eine Methode entwickelt, um unter Auswertung einer Suchkonzept-Taxonomie Anfragen an heterogene Suchschnittstellen verschiedener Suchserver zu generieren, ohne die Aussagekraft von kollektionsspezifischen Suchfeldern einzuschränken. Durch die Taxonomie wird die einheitliche Verwendung von syntaktisch und semantisch divergierenden Suchfeldern verschiedener Suchserver sowie deren einheitliche Verwendung auf der integrierten Suchschnittstelle eines Metasuchsystems sichergestellt. Damit kann diese Arbeit auch in Zusammenhang mit den Aktivitäten des Semantischen Webs betrachtet werden. Die Abstützung auf Description Logic zur Wissensrepräsentation sowie die Verwendung von RDF zur Spezifikation des Frankfurt Core verhält sich konform zu aktuellen Aktivitäten im Bereich Semantisches Web, wie beispielsweise der Ontology Inference Layer (OIL) [24]. Darüber hinaus konnte durch die Integration der Suchkonzept-Taxonomie in den Arbeitsablauf einer Metasuchmaschine, bereits eine konkrete Anwendung demonstriert werden. Entwicklung neuartiger Verfahren zur Erschließung von Suchservern Für einzelne Felder des Frankfurt Core wurden im Rahmen dieser Arbeit Strategien entwickelt, die aufzeigen, wie sich durch die systematische Auswertung von Backlink- Seiten Suchserver-beschreibende Metadaten automatisiert generieren lassen. Dabei konnte gezeigt werden, daß der Prozeß der automatisierten Erschließung von Suchservern durch die strukturelle und inhaltliche Analyse von Hyperlinks sinnvoll unterstützt werden kann. Zwar hat sich ein HITS-basiertes Clustering-Verfahren als wenig praktikabel erwiesen, um eine effiziente Erschließung von Suchservern zu unterstützen, dafür aber ein hyperlinkbasiertes Kategorisierungsverfahren. Das Verfahren erlaubt eine Zuordnung von Kategorien zu Suchservern und kommt ohne zusätzliche Volltextinformationen aus. Dabei wird das WWW als globale Wissenbasis verwendet: die Zuordnung von Kategorienbezeichnern zu Web-Ressourcen basiert ausschließlich auf der Auswertung von globalen Term- und Linkhäufigkeiten wie sie unter Verwendung einer generellen Suchmaschine ermittelt werden können. Der Grad der Ähnlichkeit zwischen einer Kategorie und einer Ressource wird durch die Häufigkeit bestimmt, mit der ein Kategoriebezeichner und ein Backlink auf die Ressource im WWW kozitiert werden. Durch eine Reihe von Experimenten konnte gezeigt werden, daß der Anteil korrekt kategorisierter Dokumente an Verfahren heranreicht, die auf Lerntechniken basieren. Das dargestellte Verfahren läßt sich leicht implementieren und ist nicht auf eine aufwendige Lernphase angewiesen, da die zu kategorisierenden Ressourcen nur durch ihren URL repräsentiert werden. Somit erscheint das Verfahren geeignet, um existierende Kategorisierungsverfahren für Web-Ressourcen zu ergänzen. Ein Verfahren zur Selektion von Suchservern Ein gewichtiges Problem, durch welches sich die Selektion von Suchservern im WWW erheblich erschwert, besteht in der Diskrepanz zwischen der freien Anfrageformulierung auf Benutzerseite und nur spärlich ausgezeichneten Suchserver-Beschreibungen auf Seiten des Metasuchsystems. Da auf der Basis der geringen Datenmenge eine Zuordnung der potentiell relevantesten Suchserver zu einer Suchanfrage kaum vorgenommen werden kann, wird oft auf zusätzliches Kontextwissen zurückgegriffen, um z. B. ein Anfragerweiterung durch verwandte Begriffe vornehmen zu können (siehe z. B. QPilot [110]). Eine solche Vorgehensweise erhöht allerdings nur die Wahrscheinlichkeit für Treffer von Anfragetermen in den Suchserver-Beschreibungen und liefert noch keine ausreichende Sicherheit. Deshalb wurde in der Arbeit ein Selektionsverfahren entwickelt, das sich auf die Auswertung von Ko-Zitierungs- und Dokumenthäufigkeiten von Termen in großen Dokumentsammlungen abstützt. Das Verfahren berechnet ein Gewicht zwischen einem Anfrageterm und einem Suchserver auf der Basis von einigen wenigen Deskriptortermen, wie sie z. B. aus der FC-Beschreibung eines Suchservers extrahiert werden können. Dies hat den Vorteil, daß die Suchbegriffe nicht explizit in den einzelnen Suchserver-Beschreibungen vorkommen müssen, um eine geeignete Selektion vornehmen zu können. Um die Anwendbarkeit des Verfahrens in einer realistischen Web-Umgebung zu demonstrieren, wurde eine geeignete Experimentumgebung von spezialisierten Suchservern aus dem WWW zusammengestellt. Durch anschließende Experimente konnte die Tauglichkeit des entwickelten Verfahrens aufgezeigt werden, indem es mit einem Verfahren verglichen wurde, das auf Probe-Anfragen basiert. Das heißt, daß eine erfolgreiche Selektion durchgeführt werden kann, ohne daß man explizit auf das Vorhandensein von lokalen Informationen angewiesen ist, die erst aufwendig durch das Versenden von Probe-Anfragen ¨uber die Web-Schnittstelle des Suchservers extrahiert werden müssten. Herleitung einer integrierten Architektur Um das Zusammenspiel der erarbeiteten Strategien und Techniken zur Erschließung, Beschreibung und Selektion in einer integrierten Architektur umzusetzen, wurde die Metasuchmaschine QUEST entwickelt und prototypisch implementiert. QUEST erweitert die Architektur einer traditionellen Metasuchmaschinenarchitektur, um Komponenten, die eine praktische Umsetzung der Konzepte und Techniken darstellen, die im Rahmen dieser Arbeit entwickelt wurden. QUEST bildet einen tragfähigen Ansatz zur Kombination von wissensbasierten Darstellungen auf der einen und eher heuristisch orientierten Methoden zur automatischen Metadatengenerierung auf der anderen Seite. Dabei stellt der Frankfurt Core das zentrale Bindeglied dar, um die einheitliche Behandlung der verfügbaren Daten zu gewährleisten.
Um die Privatsphäre der Kinder und deren Eltern zu schützen, wurden die Fotos der Kinder aus dieser PDF-Datei entfernt. Interessierte Eltern oder Fachleute können die vollständige Arbeit als PDF-Datei (11 MB) zum Download bei http://www.leona-ev.de/piper/ oder chrispiper@freenet.de anfordern. Chromosomenstörungen gehören mit einer Häufigkeit von 1,8/1000 Neugeborene zu den häufigeren angeborenen Störungen. Die Mehrzahl der betroffenen Kinder stirbt bereits intrauterin in der Frühschwangerschaft, weil schon Nidation bzw. die frühe Embryonalentwicklung durch die Chromosomenstörung verhindert werden. Etwa 50% aller Spontanaborte sind durch eine Chromosomenstörung verursacht. Einige Chromosomenstörungen wie z.B. komplette Trisomie 14 oder 16 führen immer zu einem Abort, so daß keine die normale Schwangerschaft überlebenden Patienten bekannt sind. Bei den Trisomien 13 und 18 enden 95% der Schwangerschaften mit einem Abort, bei der häufigeren Trisomie 21 sterben 80% der Patienten intrauterin. Von den lebendgeborenen Kindern mit Chromosomenaberrationen sterben wiederum viele schon im ersten Lebensjahr, zumeist aufgrund schwerer Fehlbildungen, insbesondere Herzfehlern und Nierenfehlbildungen. Während der Phänotyp der häufigeren Chromosomenstörungen gut bekannt ist, gibt es bis auf die Trisomie 21 nur wenige Untersuchungen zu ihrem Verlauf. Systematische Daten zur psychomotorischen Entwicklung der Patienten, zu Komplikationen, zu möglichen Therapien sowie zur Effektivität der Therapien fehlen völlig. So wird auch heute noch in vielen Arztbriefen davon ausgegangen, daß Kinder mit Trisomie 13 oder 18 innerhalb der ersten Lebensmonate versterben und deshalb werden Therapien - wenn überhaupt - nur verzögert oder partiell eingeleitet. Darüber hinaus wird den Eltern durch die Prognose eines schnellen und frühen Todes ein Verlauf suggeriert, der im Einzelfall eben nicht eintreten muß. Die Beziehung zum Patienten, die Erwartungen an den Patienten sowie der Umgang mit dem Patienten, die gesamte Lebensplanung einer Familie und viele Dinge mehr werden dadurch in eine nicht gerechtfertigte Richtung gelenkt. Bei einigen Patienten führte falsche Voraussage eines „baldigen frühen Todes“ soweit, daß die Eltern und die Umgebung ständig darauf wartete, daß der Patient stirbt und die Diagnose von Eltern und Ärzten bezweifelt wurde als das Kind die ersten Lebensjahre überlebte. Mehrfach wurden deshalb Chromosomenanalysen wiederholt, um die Diagnose zu überprüfen. Gerade in unserer Zeit, in der die Intensivmedizin und die operativen Techniken auch Patienten mit komplexen Fehlbildungen ein Überleben ermöglichen, gibt es deshalb immer mehr Patienten mit Chromosomenstörungen, die ein höheres Lebensalter erreichen. Daraus folgt unmittelbar, daß mehr Daten über ältere Patienten mit Chromosomenstörungen gewonnen werden müssen, um bessere und individuellere Therapien zu entwickeln.
Es war Gegenstand dieser Arbeit, die Zahl und das Vorkommen der Sporen der Bacillus Spezies im Vergleich zu anderen Parameter in der Trinkwasseruntersuchung die bisher im §37 des Infektionsschutzgesetzes eingesetzt wurden an 288 Wasserproben von verschiedenen Wassergewinnungsanlagen und Trinkwassersystemen nachzuweisen, um das Verhalten der Sporen der Bacillus Spezies in diesen Bereichen zu beschreiben und mit den bisher üblichen Keimen der Trinkwasseruntersuchung in Beziehung zu setzen. Es sollte überprüft werden, ob eine Korrelation zwischen der Koloniezahl und der Zahl der aeroben Sporenbildner nachgewiesen werden kann. Es wurden 77 Wasserproben aus dem Leitungswassersystem der Uni-Klinik Frankfurt entnommen und auf Vorkommen von Sporen der Bacillus Spezies, Koloniezahl, E. coli und Coliformen Bakterien untersucht. Alle 77 Wasserproben konnten bei einem Erfahrungsrichtwert von 10 KBE in 100 ml Trinkwasser und einer Koloniezahl von 100 pro 1ml Trinkwasser als zufrieden stellend angesehen werden. An keine der Proben konnte ein Wachstum von E. coli festgestellt werden, an 7 Wasserproben konnten Coliforme Bakterien nachgewiesen werden. Es konnte keine Korrelation zwischen Sporen der Bacillus Spezies und der Koloniezahl beim Leitungswassersystem der Uni-Klinik Frankfurt festgestellt werden. Von den 113 untersuchten Flachbrunnen von privaten Haushalten (Oberflächenwasser), konnten nach den strengen Trinkwasserverordnungsrichtlinien nur 60 Proben als zufrieden stellend bezeichnet werden, da aber diese Wassergewinnungsanlagen hauptsächlich zur Bewässerung dient, ist es unbedenklich. An keine der Wasserproben konnten Coliforme Bakterien nachgewiesen werden, und an 10 Wasserproben konnte E. coli nachgewiesen werden. Bei diesen Wassergewinnungsanlagen konnte eine Korrelation zwischen Sporen der Bacillus Spezies und der Koloniezahl nachgewiesen werden. Es wurden 82 Grundwasserproben der Stadtwerke Hanau entnommen, davon waren 35 Wasserproben gechlort und aufbereitet, 28 Wasserproben ungechlort und aufbereitet und 19 Proben waren ungechlortes Rohwasser. Vergleicht man die Werte der einzelnen Wasserarten miteinander, so stellt man fest, dass die Sporenzahl fast identisch ist, Werte zwischen 0-32 pro 100 ml Wasser. Die Aufbereitung und Chlorung des Wassers verändert die Sporenzahl nicht. Die Koloniezahl ist bei Rohwasser aber deutlich höher als bei aufbereiteten und gechlorten Wasser. Der Höchstwert bei gechlorten und aufbereiteten Wasser betrug 200 Kolonien pro 100 ml Wasser, bei aufbereiteten und ungechlorten Wasser stieg der Wert auf 4800 Kolonien an und bei Rohwasser sogar auf 5500 Kolonien pro 100 ml Wasser. In nur einer Rohwasserprobe konnte E. coli nachgewiesen werden, keine der Proben enthielt Coliforme Bakterien. Der Wert des Korrelationskoeffizienten war beim ungechlorten Rohwasser am Höchsten und beim aufbereiteten und gechlorten Wasser am niedrigsten. Vergleicht man die 6 Wasserproben des Oberflächenwassers der Wahnbach Talsperre mit den 4 Proben des Mains und des Rheins miteinander, so stellt man fest, dass in allen Wasserproben alle untersuchten Bakterienarten nachweisbar waren. Die höchste Koloniezahlkonzentration von 1.420.000 pro 100 ml wurde im Oberflächen-wasser des Mains nachgewiesen, der zweithöchste Wert von 960.000 pro 100 ml war im Oberflächenwasser des Rheins. Die höchste Sporenzahl von 26.000 pro 100 ml wurde in der Wasserprobe der Wahnbach Talsperre ermittelt, der Main und der Rhein hatten fast identische Werte zwischen 2700 und 5800 Sporen pro 100 ml Wasser. Der höchste Korrelationskoeffizient wurde hier bei den Wasserproben der Wahnbach Talsperre ermittelt, der niedrigste Wert wurde bei den Wasserproben des Rheins ermittelt. Auf Grund ihres differenzierten Nährstoffbedarfs kann sich die Gattung Bacillus in nährstoffärmeren Biotopen nicht vermehren und befinden sich deshalb vermehrt in Oberflächenwasser und den oberen Erdschichten. Sie stellen im Grundwasser und den Folgebereichen seiner Nutzung einen Indikator für den Grad der Kontamination des Wassers mit Abfallstoffen dar. Obwohl der Nachweis der Sporen der Bacillus Spezies sehr leicht erbracht werden kann, und in jedem Stadium der Untersuchung nachweisbar ist, muß bei der Entnahme der Wasserprobe sehr vorsichtig gearbeitet werden, da es in den oberen Bodenschichten leicht zu einer Einschleppung der Sporen der Bacillus Spezies kommen kann und somit zu einer Ver-fälschung der Ergebnisse. Bei Korrekter Probeentnahme ist aber die Aussagekraft der Sporen der Bacillus Spezies sehr hoch. Ein Vorteil der Auszählung der Sporen ist, dass die analytische Methode nur Sporen misst, andere Bakterienformen werden nicht gezählt. Die Auszählung der Sporen und der Koloniezahl sind zwei der wertvollsten Parameter der Wasserqualität. Die Konzentration der Sporen liegt im Grundwasser und seinem Folgebereich zwischen 0,39 und 1,81 pro 100 ml Wasser. In Oberflächenwasser liegt die Konzentration der Sporen der Bacillus Spezies zwischen 1050 und 4500 pro 100 ml Wasser. Die ermittelten Werte dieser Arbeit entsprechen fast alle den Normwerten. Das Vorkommen aller im Rahmen dieser Arbeit untersuchten Bakterienarten mit sehr hoher Bakterienanzahl konnte nur in den nährstoffreichen Oberflächenwasserproben von Rhein, Main und der Wahnbach Talsperre nachgewiesen werden. Von den 288 untersuchten Wasserproben können 264 Proben unter Betrachtung der Grenzwerte als hygienisch einwandfrei bezeichnet werden. Nach dem heutigen Stand der Literatur ist der Nachweis der Sporen der Bacillus Spezies ein wertvoller und aussagekräftiger Parameter für den Grad der Wasserverschmutzung mit Abfallstoffen, er ist ein Maß für die Effizienz der Aufbereitung bzw. der Kontamination des Grundwassers und somit ein geeigneter Parameter für die hygienische Trinkwasseruntersuchung.
Die vorliegende Arbeit beschreibt Untersuchungen zur Beurteilung der pharmazeutischen Qualität von Phytopharmaka am Beispiel der häufig eingesetzten Johanniskrautextrakt-Präparate. Elf Johanniskrautextrakt-Präparate des deutschen Arzneimittelmarktes wurden hinsichtlich Chargenhomogenität, Chargenkonformität und Gehalt der wirksamkeitsmitbestimmenden Inhaltsstoffe Gesamthypericin und Hyperforin untersucht. Außerdem wurde die Freisetzung von Hyperforin, Hypericinen und Flavonoiden aus verschiedenen Präparaten in kompendialen und biorelevanten Medien geprüft. Zur Analytik des Hyperforins und der Flavonoide wurden zwei HPLC-Verfahren etabliert und nach ICH-Guidelines validiert. Die Analysenzeit der isokratischen Methode zur Bestimmung von Hyperforin war mit 10 Minuten sehr kurz. Somit war die Methode sowohl für die Gehaltsbestimmungen als auch für die Freisetzungsuntersuchungen sehr gut geeignet. Zur Bestimmung der Flavonoide Rutin, Hyperosid/ Isoquercitrin und Quercitrin wurde eine Gradientenelution verwendet, wodurch eine Analysenzeit von 18 Minuten resultierte. Gesamthypericin wurde mittels Differentieller Puls-Polarographie nach Belichtung der Proben bestimmt. Die Ergebnisse der Untersuchung zur Chargenhomogenität von Gesamthypericin und Hyperforin belegten für nahezu alle Präparate eine gute Gleichförmigkeit des Gehaltes der analysierten wirksamkeitsmitbestimmenden Inhaltsstoffe. Im Bezug auf die Chargenkonformität hinsichtlich Gesamthypericin wiesen die Präparate unterschiedliche Resultate auf. Zwar ist es seit Erscheinen des „Bühler-Papiers“ nicht mehr zulässig auf einen definierten Gehalt an Gesamthypericin, zu normieren, einige Extrakthersteller ziehen diese Substanzgruppe jedoch als analytischen Qualitätsparameter bei der Herstellung standardisierter Extrakte heran. So zeigten vier Präparate bei der Untersuchung von je fünf Chargen mit relativen Standardabweichungen von unter 10% eine gute Reproduzierbarkeit des Gesamthypericingehaltes. Die übrigen Präparate wiesen mehr oder weniger starke Schwankungen im Gesamthypericingehalt auf. Die Untersuchung der Chargenkonformität bezüglich Hyperforin führte zu dem Ergebnis, daß lediglich für zwei Präparate (eines Herstellers) eine sehr gute Reproduzierbarkeit des Hyperforingehaltes erreicht wurde. Hier betrugen die relativen Standardabweichungen weniger als 4%. Die übrigen Präparate zeigten mehr oder weniger starke Schwankungen, wobei für ein Präparat der Variationskoeffizient 70% betrug. Auffällig ist, daß die Präparate mit einheitlichen Hyperforingehalten höhere relative Standardabweichungen von ca. 20% bzgl. des Gesamthypericingehaltes zeigten. Umgekehrt zeigten Präparate mit einheitlichem Gesamthypericingehalt oftmals höhere Variationskoeffizienten bei den Hyperforingehalten. Eine gute Chargenkonformität für beide Analyten wiesen lediglich drei Präparate auf. Der relative Gesamthypericingehalt im Extrakt betrug zwischen 0,11 und 0,43%, während der Absolutgehalt an Gesamthypericin Werte zwischen 0,33 und 1,92 mg je Darreichungsform aufwies. Orientiert an den Einnahmeanweisungen der Hersteller lagen die maximalen Tagesdosen Gesamthypericin zwischen 1,00 und 3,69 mg Gesamthypericin. Die gefundenen relativen Hyperforinmengen lagen in der Regel zwischen 1,09 und 4,48% im Extrakt, wobei ein einzelnes Präparat weniger als 0,2% Hyperforin im Extrakt aufwies. Für den Absolutgehalt an Hyperforin wiesen die Präparate Werte zwischen weniger als 0,5 und 28,88 mg auf. Unter Berücksichtigung der Einnahmeempfehlungen des Herstellers ergaben sich daraus Tagesmaximaldosen zwischen < 1 und 53,76 mg Hyperforin. Die Ergebnisse der Freisetzungsuntersuchungen in kompendialen und biorelevanten Medien zeigten, daß Hyperforin im sauren Milieu des Magensaftes nicht freigesetzt wird und es auch unter Bedingungen, die den nüchternen Zustand im proximalen Dünndarm simulieren lediglich zu einer geringfügigen Freisetzung aus der Arzneiform kam. Eine gute Freisetzung konnte hingegen im Medium FeSSIF erreicht werden, daß die Bedingungen des proximalen Dünndarms im gesättigten Zustand simuliert. Gesamthypericin ging zwar im sauren pH-Milieu des Magensaftes ebenfalls nicht in Lösung, unter simulierten Nüchternbedingungen im Dünndarm konnte im Gegensatz zu Hyperforin aber bereits eine gute Freisetzung verzeichnet werden. Die untersuchten Flavonoide zeigten in allen verwendeten Medien eine gute Freisetzung. Der Vergleich verschiedener Präparate ergab starke Unterschiede hinsichtlich ihrer Freisetzungscharakteristik. Dabei ergaben sich Abweichungen sowohl hinsichtlich Geschwindigkeit als auch bezüglich Vollständigkeit der Freisetzung der untersuchten Inhaltsstoffe. Eine Tatsache ist, daß Präparate, die laut Deklaration als pharmazeutisch äquivalent einzustufen wären, sich einerseits im Bezug auf den Gehalt an pharmazeutisch-relevanten Inhaltsstoffen und andererseits auch in ihrem in-vitro-Freisetzungverhalten unterschiedlich verhalten und somit nicht als biopharmazeutisch äquivalent gelten können. Dies läßt den Schluß zu, daß Johnniskrautextrakt-Präparate zur Therapie leichter bis mittelschwerer Depressionen nicht ohne weiteres untereinander ausgetauscht werden sollten. Es ist unumstritten, daß Bedarf an neuen aussagekräftigen Beurteilungsansätzen zur Qualität von Phytopharmaka vorhanden ist. In dieser Arbeit wurde eine neue und verfolgenswerte Idee zur vergleichenden Bewertung der pharmazeutischgalenischen Qualität von Phytopharmaka am Beispiel von Johanniskrautextrakt-Präparaten aufgezeigt.
Vanille ein tropisches Orchideengewächs liefert eines der bedeutendsten Aromen weltweit. Die stetig wachsende Nachfrage und das hohe Preisniveau sind allerdings häufig die Ursache für Verfälschung von Vanilleextrakten und -aromen. Ziel der Arbeit war es daher, die Methoden zur Echtheitsbewertung von Vanille weiter zu entwickeln. Daneben sollten Untersuchungen im Hinblick auf aromaaktive Minorkomponenten durchgeführt werden. Als Basisdaten für die Authentizität von Vanille dienen häufig Verhältniszahlen, die aus den Gehalten der Hauptinhaltsstoffe Vanillin, 4-Hydroxybenzaldehyd, Vanillinsäure und 4-Hydroxybenzoesäure gebildet werden. Um diese Verhältniszahlen zuverlässig bestimmen zu können, wurden eine hochdruckflüssigkeits-chromatographische (HPLC) und zum ersten Mal eine gas-chromatographische (GC) Methode entwickelt. Unter Verwendung von internen Standards konnte mit beiden Methoden eine zuverlässige Quantifizierung erzielt werden. Die ermittelten Werte erwiesen sich als unabhängig von der Analysenmethode, von Erntejahrgang und Herkunft der Schoten. Weiterhin konnte gezeigt werden, dass die bisher zur Bewertung herangezogenen Richtwerte im Vergleich mit den im Rahmen dieser Arbeit ermittelten Werte durchweg zu enge Spannbreiten aufweisen. Die neu bestimmten Daten zur quantitativen Zusammensetzung von Vanilleschoten stellen daher wertvolle Basiskriterien für eine Echtheitsbewertung von Vanille dar. Für eine weitergehende, noch zuverlässigere Authentizitätsbewertung wurden die 13C/12C-Verhältnisse von Vanillin und der zweiten Hauptkomponente 4- Hydroxybenzaldehyd ermittelt. Als grundlegende Voraussetzung für die Bestimmung korrekter Isotopenwerte wurde zum einen die Gerätekonfiguration optimiert, um eine vollständige Verbrennung zu gewährleisten, zum anderen wurde der Einfluss der Schotenaufarbeitung untersucht. Durch Korrelation der Delta13CV-PDB-Werte der beiden Komponenten konnten klare Authentizitätbereiche festgelegt werden. Insbesondere durch die integrale Betrachtungsweise beider Kriterien Verhältniszahlen und Isotopenwerte konnte die Authentizitätsbewertung von Vanille erheblich verbessert werden. Neben den Hauptkomponenten kommen in der Vanille aber auch eine große Zahl von aromaaktiven Minorkomponenten vor. Im Rahmen dieser Arbeit sollten daher auch Untersuchungen zu einigen dieser Minorkomponenten durchgeführt werden. Dabei ermöglichte es der Einsatz der neuen, hochempfindlichen Methode der Stir Bar Sorptive Extraction, eine enantioselektive Analyse von - Nonalacton und verschiedenen Monoterpenen durchzuführen. -Nonalacton konnte dabei in allen untersuchten Proben mit einem nahezu racemischen Enantiomerenverhältnis nachgewiesen werden. Die Enantiomerenreinheit und die Schwankungen der Enantiomerenverhältnisse für die untersuchten Monoterpene waren stark variierend. Es konnte dabei aber weder eine Herkunfts- noch eine Jahrgangsabhängigkeit festgestellt werden. Die sehr geruchsaktive Substanz Guajacol wurde in Schoten der Gattungen V. planifolia und V. tahitensis semiquantitativ untersucht. Es konnte aber auch hier keine Abhängigkeit von der Herkunft der Schoten festgestellt werden. Um weitere geruchsaktive Minorkomponenten zu identifizieren, wurde ein Headspace- Extrakt von Vanilleschoten mittels Gaschromatographie-Olfaktometrie untersucht. Es konnten dabei die beiden Substanzen Kreosol und 4- Hydroxybenzylamin identifiziert werden. Letztgenanntes war bisher als natürlicher Aromastoff nicht bekannt. Obwohl beide Komponenten nur im ppb- Bereich vorkommen, leisten sie dennoch eine Beitrag zum Gesamtaroma von Vanille. Insgesamt konnten im Rahmen dieser Arbeit neue Wege im Hinblick auf die Analytik und Authentizitätsbewertung von Vanille aufgezeigt werden.
An der chemischen Synapse des Nervensystems führt ein präsynaptisches Aktionspotential zur Freisetzung eines Neurotransmitters, der über den synaptischen Spalt diffundiert und an die Rezeptoren der postsynaptischen Membran bindet. Die ionotropen Rezeptoren sind an dieser Membran zu Clustern aggregiert. Entstehung und Dynamik dieser Rezeptoraggregate sind für Funktion und Plastizität der Synapse essentiell. Für die Aggregation der inhibitorischen Glyzin- und der meisten Subtypen der GABAA-Rezeptoren ist das periphere Membranprotein Gephyrin notwendig. Es ist ein Schlüsselfaktor für die Genese und Aufrechterhaltung der glyzinergen postsynaptischen Membran. Dabei bindet es direkt an den GlyR und verbindet diesen über die Bindung von Mikrotubulie an das Zytoskelett. Auch andere Bindungspartner wurden nachgewiesen. Gephyrin ist in einer zweiten Funktion in die Synthese des Molybdän-Cofaktors involviert und weist Sequnezhomologien zu Proteinen anderer Spezies auf, die in diesen Syntheseweg eingebunden sind. Gephyrin ist ubiquitär exprimiert und wird alternativ gespleißt. Möglicherweise existieren verschiedene Varianten mit unterschiedlichen Funktionen. Die Untersuchung der Domänen und Bindungseigenschaften Gephyrins ist daher für das weitere Verständnis über Aufbau und Funktion der Synapse unerlässlich. In dieser Arbeit wurde ein Testsystem etabliert, mit dem sowohl heterolog exprimiertes als auch natives Gephyrin über die hoch-affine Bindung an den GlyR aufgereinigt werden konnte. Mit diesem System konnten erstmals unterschiedliche Varianten Gephyrins nachgewiesen werden. In verschiedenen Organen der adulten Ratte wurden dabei Gephyrinmoleküle mit Molekulargewichten zwischen 52 und den bekannten 93 kDA identifiziert. Auch Bestandteile des GlyR-Komplexes lassen sich mit dieser Methode anreichern. So wurde gezeigt, daß Gephyrin und Collybistin in einem trimeren Komplex mit dem GlyR vorliegen können. Hiermit ist es künftig möglich, in einem proteomischen Ansatz weitere aus dem GlyR-Konmplex anzureichern und zu identifizieren. Mit dem gleichen System wurde auch die Bindungsregion Gephyrins für den GlyR gefunden. Diese diskontinuierliche Bindungsstelle wird aus einer a-Helix der Aminosäuren 164 bis 184, sowie aus hydrophoben Resten gebildet, die von Aminosäure 15 bis 163 unregelmäßig über den gesamten N-Terminus Gephyrins verteilt sind. Zur Bindung an den GlyR werden beide Elemente benötigt. Das kleinste GlyR-bindende Gephyrinfragment erstreckt sich somit über die Aminosäuren 1-184. Mit einem Kosedimentationsassay wurde die Bindung Gephyrins an Mikrotubuli untersucht. Es stellte sich heraus, daß die vermutete Bindungsstelle nicht zur Bindung an Mikrotubuli benötigt wird. Vielmehr ist der C-terminale Abschnitt Gephyrins hierzu ausreichend. Um Regionen Gephyrins zu finden, die die Autoaggregation vermitteln, wurden Bindungsstudien mit dem Zwei-Hybrid-System und ein heterologes Expressionssystem in Zellkulturen durchgeführt. Es wurde gezeigt, daß sowohl die N- als auch der C-terminal gelegene Bereich in der Lage sind, mit Gephyrin zu aggregieren. Im C-Terminus wurde die Domäne auf 62 Aminosäuren eingegrenzt. Zur Erfüllung der verschiedenen Funktionen Gephyrins sind die hierfür notwendigen Domänen offensichtlich in modularer Art organisiert. So lässt sich durch alternatives Spleißen eine Variante exprimieren, die den speziellen Erfordernissen der Zelle gerecht wird. In dieser Arbeit wurden mehrere Domänen und Regionen Gephyrins eingegrenzt, deren Aufgaben von der GlyR-Bindung über die Autoaggregation zur Bildung glyzinerger Proteinkomplexe und der Verknüpfung mit dem Zytoskelett reichen. Somit konnte ein Beitrag zum weiteren Verständnis über die glyzinerge Synapse geleistet werden.
Die hier durchgeführten Untersuchungen an Staphylococcus aureus ATCC 6538 unter Verwendung von Silbernitrat als Desinfektionsmittel auf Standard-CSA sowie Agar-Agar mit Kalliumtelluritzusatz hatten das Ziel, den Einfluss von Silbernitrat-Ionen auf den Keim zu untersuchen. Hier galt es nicht nur die Schädigung von Silbernitrat-Ionen auf Staphylokokken zu untersuchen, sondern zusätzlich zu prüfen, ob eine Reduzierung der Pathogenität der Keime nach vorheriger Desinfektion stattfindet. Die Empfindlichkeit der geschädigten Bakterien gegenüber Tellurit, wie in diesen Untersuchungen verwendet, löste das früher verwendete Mäusepathogenitätsmodell ab. Die Ergebnisse zeigten deutlich, dass die Keimzahl zum einen durch eine erhöhte Konzentration des Silbernitrats, zum anderen durch eine verlängerte Einwirkzeit reduziert wurde. Weiterhin ist ersichtlich, dass eine Minderung der Pathogenität nach Desinfektion eintrat. Der mit Tellurit versetzte CSA-Agar hemmte das Wachstum stärker als bei den Platten ohne Zusatz. Dies zeigt eine erhöhte Empfindlichkeit der Keime gegenüber Tellurit. Eine weitere Virulenzminderung trat mit zunehmender Telluritkonzentration auf. Dies lässt die Schlussfolgerung zu, dass Kalliumtellurit eine Wachstumshemmung auf das Bakterium Staphylococcus aureus bewirkt. Da sich in den Kontrollansätzen ohne Desinfektionsmittel die Keimzahl ebenfalls mit zunehmender Telluritkonzentration reduzierte, bestätigt dies, dass die Eignung von Hemmstoffen - im vorliegendem Fall Kalliumtellurit - nur in einem engen Konzentrationsbereich für die Erfassung geschädigter Keime geeignet ist.
In der vorliegenden Untersuchung wurden Populationen der Gattung Corbicula im Rhein mit Individuen aus der Mosel, der Weser sowie aus Frankreich, Spanien, Nordamerika und dem Nahen und Fernen Osten sowohl mit genetischen als auch morphologischen Methoden untersucht. Aus diesen Daten sollte ermittelt werden, wie viele Taxa bei der rezenten Besiedelung Europas auftraten und welche Migrationsrouten hierbei nachgewiesen werden konnten. Es konnte gezeigt werden, dass im Rhein zwei hybridisierende genetische Linien auftraten, wobei keine Rückkreuzung mit den Eltern nachgewiesen werden konnte. Die Hybride waren morphologisch nicht zu unterscheiden. Hinweise auf einen unterschiedlichen Chromosomensatz dieser Linien bzw. eine Polyploidie konnte nicht gefunden werden. In der Rhone wurde eine weitere Linie entdeckt. Eine der genetischen Linien im Rhein konnte im Vergleich zu Individuen aus Fernost als C. fluminea identifiziert werden. Die Herkunft der beiden Linien aus Rhein und Rhone blieb unklar, da sie nicht Individuen aus Israel oder Nordamerika zugeordnet werden konnten. Eine Polytomie der MP- und ML-Analysen war nicht auf einen zu geringen Datensatz zurückzuführen, vielmehr konnte gezeigt werden, dass Corbicula im Pleistozän eine Radiation durchief. Schalenmorphologisch konnten die genetischen Linien aus dem Rhein nicht durchgehend den zwei auftretenden Morphen zugeordnet werden. Gleichzeitig schienen diese Individuen die Extreme einer weltweiten Variabilität der Schalenform darzustellen. Ein morphologischer Vergleich von Schalen aus der Sammlung Senckenberg zeigte keine Unterschiede zwischen Individuen, die als C. fluminalis und C. fluminea bezeichnet waren. Vielmehr scheint die Schalenform nicht genügend conchologischen Merkmale zu besitzen, um die genetischen Linien zu unterscheiden. Die Besiedelung Europas durch die Körbchenmuschel erfolgte mehrfach unabhängig in verschiedenen Flusssystemen Südwest- und Mitteleuropas Anfang der 1980er Jahre. Auf- grund der hier nachgewiesenen Isolationswirkung von Stauwehren der Bundeswasserstrassen auf Makroinvertebraten und der Ergebnisse der DAF-Fingerprints von Corbicula- Populationen wurde die Mosel vermutlich von Frankreich aus besiedelt.
Die Peritonitis bezeichnet eine durch Bakterien oder chemische Noxen ausgelöste Entzündung des Peritoneums. Entwickelt sich aus der lokalisierten Entzündung der Bauchhöhle durch Abstrom bakterieller Bestandteile in die systemische Zirkulation eine generalisierte Sepsis mit multiplem Organversagen, beträgt die Letalität trotz chirurgischer Herdsanierung, intensivmedizinischer Betreuung und potenter Antibiotikatherapie 20-50%. Eine entscheidende Rolle in der Abwehr der Peritonitis tragen polymorphkernige Leukozyten. PMNL werden bei einer Infektion der Abdominalhöhle durch chemotaktile Botenstoffe zum Fokus gelockt und tragen durch Phagozytose der Bakterien und Sauerstoffradikalproduktion entscheidend zur Elimination der Mikroorganismen bei. Viele Untersuchungen weisen jedoch auch darauf hin, daß überschießend aktivierte zirkulierende PMNL für die Pathologie des septischen multiplen Organversagens mitverantwortlich sind. Die vorliegende Studie dient der Charakterisierung der Sauerstoffradikalproduktion emigrierter und zirkulierender PMNL bei Patienten mit sekundärer Peritonitis. Hierfür wurde mit Hilfe der luzigenin- bzw. luminolverstärkten Chemilumineszenz die extra- sowie intrazelluläre Sauerstoffradikalproduktion polymorphkerniger Leukozyten bestimmt. Dabei wurde die Sauerstoffradikalproduktion von Patienten mit unkompliziertem Verlauf einer Peritonitis mit der der Peritonitispatienten mit systemischen Komplikationen (septischer Schock, multiples Organversagen) verglichen. Acht Patienten nach abdominalchirurgischer Operation ohne Infektion dienten als Kontrollen. Eine Aktivierung der extrazellulären und intrazellulären Sauerstoffradikalproduktion polymorphkerniger Leukozyten war durch rezeptorabhängige und rezeptor-unabhängige Stimuli möglich. Bei Patienten nach abdominalchirurgischer Operation ohne Infektion war die Sauerstoffradikalproduktion der in die Bauchhöhle emigrierten PMNL höher als die zirkulierender PMNL. Auch bei Patienten mit einer unkomplizierten Peritonitis war die Sauerstoffradikalproduktion der intraabdominalen Granulozyten stärker aktivierbar als die der zPMNL. Im Gegensatz hierzu war jedoch bei Peritonitispatienten mit systemischen Komplikationen die extrazelluläre sowie auch die intrazelluläre Sauerstoffradikal-produktion emigrierter, intraabdominaler PMNL reduziert. Die stimulierte Sauerstoff-radikalproduktion zirkulierender PMNL war bei Patienten mit schwerer Peritonitis hochgradig aktivierbar und übertraf die der emigrierten PMNL. Die hohe Sauerstoffradikalproduktion zirkulierender PMNL bei Patienten mit kompliziertem Verlauf einer Peritonitis verbunden mit einer erniedrigten Sauerstoffradikalproduktion emigrierter polymorphkerniger Leukozyten sprechen für eine überaus starke systemische Aktivierung der Leukozyten. Dagegen scheint die lokale Abwehr im Rahmen einer schweren Peritonitis supprimiert. Die bei der vorliegenden Untersuchung erfaßten hohen intraabdominalen Zytokinkonzen-trationen könnten für eine Deaktivierung emigrierter Leukozyten verantwortlich sein. Zudem könnte die systemische Hyperinflammation polymorphkerniger Leukozyten mit einer vorzeitigen Einleitung der Apoptose und konsekutiver lokaler Immunparalyse verbunden sein. Wenig ist bis heute über die Modulierbarkeit emigrierter, intraabdominaler polymorphkerniger Leukozyten durch antiinflammatorische Substanzen bekannt. Daher wurde in der vorliegenden Untersuchung die Suppression der Sauerstoff-radikalproduktion emigrierter polymorphkerniger Leukozyten durch verschiedene antiinflammatorische Substanzen erprobt. Der Einfluß dieser Substanzen auf die Phagozytoseaktivität emigrierter PMNL wurde mit Hilfe der Durchflußzytometrie evaluiert. Chloramin, Buflomedilhydrochlorid und Pentoxiphyllin konnten die Sauerstoffradikal-produktion der emigrierten polymorphkernigen Leukozyten supprimieren, ohne die Phagozytosekapazität der Leukozyten zu beeinträchtigen.
Untersuchungen zur Funktion von Koaktivatoren in der JAK-STAT-vermittelten Transkriptionsaktivierung
(2002)
STAT-Proteine sind latente Transkriptionsfaktoren, die durch Stimulation mit Zytokinen aktiviert werden. STAT5 vermittelt beispielsweise die durch Prolaktin-Stimulation induzierte Bildung von Milchproteinen während der Schwangerschaft. STAT6 wird durch die Zytokine IL-4 und IL-13 aktiviert, die die humorale Immunität regulieren. STAT-Proteine schalten die Transkription ihrer Zielgene an, indem sie bestimmte Koaktivatorkomplexe, die p300/CBP enthalten, an den Promotor rekrutieren. In dieser Arbeit wurde die Bedeutung der NCoA-Koaktivatorfamilie (p160/SRC) für die Transkriptionsaktivierung durch STAT5a, STAT5b und STAT6 untersucht. In transienten Transfektionsexperimenten konnte gezeigt werden, daß NCoA-1, jedoch nicht die beiden anderen Vertreter NCoA-2 und NCoA-3, als essentieller Koaktivator dieser STAT-Proteine wirkt. Obwohl NCoA-l von den Transaktivierungsdomänen der drei STAT-Proteine gleichermaßen rekrutiert wird, wird die Bindung über verschiedene Kontaktstellen vermittelt: STAT5 bildet einen Komplex mit NCoA-1 in Zellen, wobei die Interaktion vermutlich durch sekundäre Modifikationen in NCoA-l reguliert ist. Dagegen bindet STAT6 direkt an die aminoterminale Region von NCoA-l in vitro und in vivo. Die Bindungsregion wurde auf einen Bereich von AS 257-420 von NCoA-l kartiert. Somit wurde eine neue Interaktionsdomäne von NCoA-l identifiziert. Die Rekrutierung von NCoA-l wird durch ein LXXLL-Motiv innerhalb der Interaktionsdomäne von STAT6 (AS 792-847) vermittelt, das spezifisch für STAT6 ist. Das LXXLL-Motiv ist essentiell für die Funktion von STAT6, z. B. bei der Expression des endogenen Zielgens Eotaxin-3. Die STAT6/NCoA-l-Interaktion kann kompetitiv durch Peptide bzw. Polypeptide, die von den interagierenden Domänen abgeleitet wurden, und durch spezifische Antikörper inhibiert werden. Diese Inhibitoren haben keinen Effekt auf die Interaktion von nukleären Hormonrezeptoren mit NCoA-l, die ebenfalls durch LXXLL-Motive vermittelt wird. Die Blockierung der STAT6/NCoA-l-Interaktion führt zu einer verminderten Expression des endogenen STAT6-Zielgens Lipoxygenase. In dieser Arbeit wurde erstmals demonstriert, daß über die gezielte Blockierung von Kontaktstellen zwischen Transkriptionsfaktoren und ihren Koaktivatoren endogene Signalwege inhibiert werden können. Somit ergeben sich neuartige Möglichkeiten für die therapeutische Interferenz von Signalwegen, z. B. bei asthmatischen Erkrankungen.
Gephyrin ist ein Protein mit strukturellen und enzymatischen Eigenschaften. Ein Aspekt der strukturellen Funktion ist die synaptische Verankerung inhibitorischer Rezeptoren an das Zytoskelett. Darüber hinaus besteht die Möglichkeit, dass ein Interaktionspartner von Gephyrin, Collybistin, die Organistion des Aktin-Zytoskeletts reguliert. Die enzymatische Funktion von Gephyrin besteht in der Synthese eines Kofaktors, welcher für die Aktivität von Molybdoenzymen notwendig ist. Das gezielte Ausschalten des für Gephyrin kodierenden Gens weist im Mausmodell einen letalen Phänotyp auf. Als Ursache hierfür kommen die fehlende synaptische Aggregation von Glyzin- und GABAA-Rezeptoren in neuronalem Gewebe, sowie die fehlende Aktivität von Molybdoenzymen in peripheren Organen in Frage. Da sowohl Molybdän-Kofaktor-Defizienzen beim Menschen, wie auch bestimmte Mutationen von Glyzin- und GABAA-Rezeptoren bei Mäusen letal sind, kann der beobachtete Phänotyp nicht eindeutig zugeordnet werden. Die vorliegende Arbeit verfolgt zwei Ziele. Das erste ist eine Einengung der Binderegion von Collybistin an Gephyrin. Dabei konnte diese durch immunzytochemische und biochemische Methoden auf wenige Aminosäuren genau beschrieben werden. Verschiedene Strukturvorhersageprogramme weisen auf eine helikale Struktur für diesen Sequenzabschnitt hin. Der Austausch der Aminosäuren R107, D108, R111 und E117 mit Alanin führt über den Verlust ionischer Ladungen zum Verlust der Bindungseigenschaft. Das zweite verfolgte Ziel ist die Einführung eines transgenen Konstrukts, welches nur die Molybdän-Kofaktor-Synthesefunktion wiederherstellen soll, in den genetischen Hintergrund der Gephyrin-„knock-out“ Maus. Ziel dieser Analyse ist die Herstellung eines Phänotyps, bei dem die inhibitorische Transmission in einer Weise gestört ist, welche Symptome der Molybdän-Kofaktor-Insufizienz ausschließt. So sollte die Ursache für die Letalität der Gephyrin-Mutation zugeordnet werden können. Dazu wurde das pflanzliche Gephyrin-Homolog Cnx1 in ein Expressionskonstrukt kloniert, und nach biochemischer, immunzytochemischer und funktioneller Analyse in heterologen Zellen in eine Wildtyp-Mauslinie injiziert. Diese wurde mit Geph-/--Mäusen gekreuzt und die daraus resultierenden homozygoten, transgenen Tiere analysiert. Diese Tiere sterben ebenso wie die Geph-/--Mäuse am Tag der Geburt. mRNA des Transgens konnte in Hirn und Leber nachgewiesen werden, das Protein allerdings nur in Hirnextrakten. Dementsprechend lag die Aktivität des für die Lebensfähigkeit von Säugetieren wichtigsten Molybdoenzyms, der Sulfitoxidase, in Leberextrakten nur bei 30%. Eine morphologische Untersuchung von Gehirnschnitten ergab keine Auffälligkeiten. Eine Immunhistochemische Analyse von Rückenmarkschnitten zeigte in Übereinstimmung mit Beobachtungen an Gephyrin-„knock out“-Mäusen diffus verteilte Glyzin-Rezeptoren. Somit wurde eine Maus mit beeinträchtigter inhibitorischer synaptischer Transmission und partiell wiederhergestellter Molybdän-Kofaktor Biosynthese hergestellt. Aufgrund der großen Schwankungsbreite der Aktivität der Sulfitoxidase in Leberextrakten verschiedener Geph-/- + cnx Tiere wäre ein Unterschied in der Lebenserwartung verschiedener Tiere zu erwarten gewesen, wenn die Defizienz dieses Molybdoenzyms die Ursache für den letalen Phänoyp gewesen wäre. Da die transgenen Tiere aber wie die Geph-/- Mäuse wenige Stunden nach der Geburt sterben, ist davon auszugehen, dass der beschriebene Phänotyp auf das Fehlen der strukturellen Eigenschaften von Gephyrin zurückzuführen ist, und nicht von einer durch Beeinträchtigung des Schwefelstoffwechsels hervorgerufene progressive Schädigung des ZNS.
Untersuchungen zum technischen und teilchenoptischen Design kompakter Speicherringe für Ionen
(2002)
Die vorliegende Arbeit befasst sich mit der Berechnung und dem Bau von elektrostatischen Speicherringen. Eine solche Maschine kann als eine Kreuzung zwischen elektrostatischen Fallen und "klassischen" magnetischen Ringen angesehen werden. Kompakte Bauform, gute Zugänglichkeit der Elemente und vergleichsweise niedrigen Kosten werden mit hoher Flexibilität in Bezug auf mögliche Experimente kombiniert. Im 1. Kapitel werden zunächst die Unterschiede der Bewegung von Ionen in elektrostatischen und magnetischen Speicherringen untersucht. Die Massenunabhängigkeit der Teilchenbewegung bei gegebener Energie und Ladung in rein elektrostatischen Feldern erlaubt es, unterschiedlichste Ionen im Prinzip in direkter Folge in einen elektrostatischen Ring einzuschießen, ohne dass die Felder der optischen Elemente verändern werden müssen. Die Felder in den für einen Speicherring notwendigen Strahlführungskomponenten werden berechnet, die zugehörigen Bewegungsgleichungen aufgestellt und in linearer Näherung gelöst. Dabei werden zunächst die Bahnen einzelner Teilchen untersucht und dann das Strahlverhalten insgesamt durch Übergang auf einen Matrizenformalismus beschrieben. Die aus dieser Darstellung resultierenden Trajektorien stellen eine starke Vereinfachung dar. Die Untersuchung der realen Teilchenbewegung mit Einfluss von Randfeldern, Positionierungsfehlern und die Berechnung der dreidimensionalen Feldverteilung ist Gegenstand des 2. Kapitels. Ein kritischer Punkt bei der Bewegung von Teilchen in Ringbeschleunigern sind durch Feldfehler induzierten Resonanzerscheinungen. Zur Diskussion der verschiedenen möglichen Resonanzen werden im 3. Kapitel die Effekte durch zusätzliche Dipol- und Quadrupolfelder analysiert, dargestellt und schließlich anhand eines Resonanzdiagramms erläutert. In den geplanten Speicherring werden Ionen in einem einzigen Bunch, mit einer Ausdehnung von rund dem halben Ringumfang, injiziert. Ihre Lebensdauer hängt wesentlich von dem erzielbaren Vakuumenddruck ab. Die vorgesehenen Getterpumpen weisen eine sehr hohe Pumpleistung für die meisten Gase auf. Ihre Wirkungsweise wird im 4. Kapitel beschrieben und praktische Aspekte ihrer Handhabung diskutiert. Für den Betrieb eines Speicherrings ist es notwendig, die Parameter des umlaufenden Strahls zu jeder Zeit zu kennen und gegebenenfalls modifizieren zu können. Zentrales Element des Kontroll- und Diagnosesystems sind Strahlpositionsmonitore. In elektrostatischen Pickup-Elektroden induziert der Strahl beim Durchgang Spannungen über die eine Positionsbestimmung möglich ist. Die Wirkungsweise dieser Sonden wird in der zweiten Hälfte des 4. Kapitels diskutiert und Methoden zur Signalaufbereitung und -analyse beschrieben. Die allgemeinen Ergebnisse der Überlegungen zu elektrostatischen Speicherringen aus den ersten Kapiteln werden schließlich auf spezielle Fälle übertragen. Im Rahmen dieser Arbeit wurden verschiedene Entwürfe für einen elektrostatischen Speicherring angefertigt und ein Viertelringsegment zu Testzwecken entworfen und aufgebaut. Die Ergebnisse sind Inhalt des abschließenden 5. Kapitels. Mit den in dieser Arbeit vorgestellten Methoden ist es möglich, elektrostatische Speicherringe detailliert zu berechnen und an die experimentellen Rahmenbedingungen anzupassen. Sämtliche Rechnungen wurden im Hinblick auf den geplanten Bau eines Rings für Teilchen mit Energien bis 50 keV durchgeführt.
In dieser Arbeit erfolgt eine Untersuchung der intrazellulären Transporteigenschaften des Na /Glucose Cotransporters SGLT1 aus dem Kaninchen. Der Transporter wird dazu heterolog in Xenopus laevis Oozyten exprimiert. Die hohe Expressionsdichte erlaubt die Anwendung der "giant excised patch clamp"-Technik in der inside-out Konfiguration. Die Patches mit Durchmessern von 20-30 µm enthalten ca. 2,5 - 5·10 hoch 6 Transportern bei einem durchschnittlichen Strom von 20-40 pA. Der Transport des Substrats Glucose bzw. des hier verwendeten alpha MDG wird angetrieben durch den elektrochemischen Gradienten für das Cosubstrat Na . Bei 0 mV Haltepotential wird zuerst die reine Konzentrationsabhängigkeit des Auswärtstransports durch die Bestimmung der apparenten intrazellulären Affinität für alpha MDG bei verschiedenen festen Na -Konzentrationen untersucht. Es kann eine deutliche Abhängigkeit des KM alpha MDG von der Na -Konzentration festgestellt werden. Eine Erhöhung der intrazellulären Na -Konzentration von 10 mM auf 400 mM führt zu einer ca. 12fachen Abnahme des KM alpha MDG. Experimente mit symmetrischer Na -Verteilung zeigen, dass auch ohne Na -Konzentrations-Gradient Transport stattfinden kann, allerdings mit einer deutlich geringeren Affinität für alpha MDG. Verglichen mit Literaturwerten für die extrazelluläre alpha MDG-Affinität ist die intrazelluläre Affinität 10-15mal geringer ist als die extrazelluläre. Die Untersuchung der Abhängigkeit von der Na -Konzentration bei verschiedenen festen MDG-Konzentrationen zeigt, dass KM Na eine geringe Abhängigkeit von der alpha MDG- Konzentration besitzt. Die 10fache Erhöhung der alpha MDG-Konzentration von 25 mM auf 250 mM führt nur zu einer leichten Erniedrigung des KM Na. Die intrazelluläre Na - Affinität liegt in der gleichen Größenordnung wie die extrazelluläre. Zur Untersuchung der intrazellulären Bindungsreihenfolge werden die gemessenen Abhängigkeiten des KM alpha MDG und des I Max von der Na -Konzentration mit Simulationen für die 3 möglichen Bindungsreihenfolgen (2Na :G), (Na :G:Na ) und (G:2Na ) verglichen. Mit den hier gemachten Annahmen für die intrazellulären Bindungskonstanten für MDG und Na wird die beste Übereinstimmung für die intrazelluläre Bindungsreihenfolge (2Na :G) gefunden. Zur Untersuchung des spannungsabhängigen Verhaltens der Affintitäten für alpha MDG und Na werden Spannungssprünge unter denselben Konzentrationsbedingungen wie vorher durchgeführt. Die Strom-Spannungs-Kennlinien zeigen eine Zunahme der zuckerinduzierten Stromamplituden zu positiven Potentialen hin. Dabei wird weder bei hyperpolarisierenden noch bei depolarisierenden Potentialen eine Sättigung erreicht. Dies läßt den Rückschluss, dass im betrachteten Spannungsbereich ein spannungsabhängiger Schritt im Transportzyklus geschwindigkeitsbestimmend ist. Die apparenten Affinitäten für alpha MDG und Na besitzen eine geringe Spannungsabhängigkeit. Der KM alpha MDG bei annähernd sättigender Na -Konzentration fällt zwischen 40 mV und 40 mV um einen Faktor 4,4. Bei verringerter Na -Konzentration beeinflusst das Membranpotential die MDG-Affinität stärker. Der KM Na fällt unter sättigenden Zuckerbedingungen im gleichen Spannungsbereich auf die Hälfte ab, wobei der Hill-Koeffizient konstant bleibt. Die Erniedrigung der alpha MDG-Konzentration verursacht keine Veränderung des spannungsabhängigen Verlaufs. Die Ergebnisse zeigen, dass SGLT1 ein reversibler Transporter ist, der sowohl Einwärts-, aber auch Auswärtstransport von Glucose generieren kann. Er zeigt dabei eine starke Abhängigkeit von der Na -Konzentration und eine geringe Abhängigkeit vom Membranpotential. Die hier bestimmten Eigenschaften zeigen aber auch, dass unter physiologischen Bedingungen ein Auswärtstransport von Glucose sehr unwahrscheinlich ist. Das Zusammenwirken der Faktoren Richtung des Na -Gradient, geringe Zuckeraffinität, negatives Membranpotential und geringe intrazelluläre Na - Konzentration verhindern den Auswärtstransport. Der physiologische Na -Gradient ist dem Auswärtstransport entgegengerichtet. Die geringe intrazelluläre Na -Konzentration und das negative Membranpotential verursachen eine sehr geringe intrazelluläre Zuckeraffinität von ca. 75 mM alpha MDG, so dass ein merklicher Auswärtstransport nur bei einer hohen Zuckerkonzentration innerhalb der Epithelzellen stattfinden kann. Dies wird jedoch durch basolaterale Glucose-Transporter verhindert. Das negative Membran- potential führt zu einer geringen Aktivität des Auswärtstransports. Die geringe intrazelluläre Na -Konzentration liegt weit unterhalb es KM Na , so dass auch hier die Transporteraktivität gering ist. Die asymmetrische Funktionsweise des SGLT1 gewährleistet, dass der Glucose- Transport nur in eine physiologisch sinnvolle Richtung, nämlich der Aufnahme von Glucose in die Epitheltzellen, stattfindet.
Mit der fortschreitenden Verkleinerung von Prozessoren und Speicherbausteinen in der Mikroelektronik ist der Einsatz neuer Materialien oft unumgänglich. Zur Zeit steht Siliciumdioxid, das als Dielektrikum in Transistoren eingesetzt wird, im Blickfeld des Interesses. Die kleiner werdenden Strukturen führen hier zu dünneren SiO2-Schichten, was bei Schichtdicken unter 2 nm einen Anstieg der Tunnelströme im SiO2 zur Folge hat. Dies stellt für die Bauelemente ein erhöhtes (Kurzschluss-) Risiko dar. Seit geraumer Zeit finden spezielle Speicherzellen große Aufmerksamkeit, in denen Perowskite für die Gate-Oxidschichten zum Einsatz kommen. Sie sind charakterisiert durch hohe Dielektrizitätskonstanten (ε > 20, SiO2 ~ 4 ) oder weisen ferroelektrische Eigenschaften auf. Als interessante Kanditaten für das Dielektrikum gelten zur Zeit BST (Barium-Strontium-Titanat), SBT (Strontium-Bismut-Tantalat) oder PZT (Blei-Zirkonium-Titanat). Die Einführung neuer Materialien in die Chip-Technologie ist immer mit einem Risiko verbunden. Einer der Hauptfaktoren für die Ausbeutelimitierung bei der Produktion von Halbleiterbauelementen ist die Metallkontamination auf Silicium-Oberflächen. Aufgrund ihrer Eigenschaften können Metallverunreinigungen die elektrischen Eigenschaften von Halbleiterbauelementen schädigen. Bisherige Untersuchungen an oben genannten Schichten konzentrierten sich auf das elektrische und physikalische Verhalten. Wenig war bislang bekannt über das Kontaminationsverhalten und dadurch bedingte Auswirkungen/Risiken auf die Bauelemente. Im Rahmen der vorliegenden Arbeit wurden Kontaminationsaspekte, insbesondere während Hochtemperaturprozessen, einiger Metalle auf Silicium (100)-Oberflächen näher untersucht. Das Hauptaugenmerk lag hierbei neben dem Adsorptions- und Desorptionsverhalten auf der Diffusion folgender Elemente: Barium, Strontium, Bismut, Iridium und Platin. Erkenntnisse über die Reaktivität der Metalle bei unterschiedlichen Reaktionsbedingungen sollten mögliche Risikofaktoren des Einsatzes neuer obiger Dielektrikum-Schichten aufzeigen. Die Ergebnisse für die untersuchten Elemente der II. Hauptgruppe, Barium und Strontium sprechen für ein träges Reaktionsverhalten während der Temperprozesse. Unter den vorliegenden Bedingungen wurden die Metalle im nativen oder thermischen Oxid eingelagert (gute Oxidbildner) und ließen sich mittels einer Oxid-Ätzung vollständig von der Si-Oberfläche entfernen. Unabhängig von der Atmosphäre (N2, O2) und der Si-Oberfläche (hydrophil, hydrophob) waren keine Quer-Kontaminationen durch Desorption zu beobachten. Angesichts der starken Tendenz zur Oxid-Bildung bzw. Einlagerung ließ sich keine nennenswerte Diffusion ins Si-Substrat erkennen. Ferner war ein Einfluss auf die Oxidationsrate und Oberflächenrauhigkeit nicht zu beobachten. Mit Blick auf den Einsatz in der CMOS-Technologie stellen Barium und Strontium, wegen ihres geringen Diffusionsvermögens, keine Gefahr für die Si-Substrateigenschaften dar. Sie können jedoch als Verunreinigungen Si-Oxid zu einer Anreicherung an zusätzlichen positiven Ladungen führen und sich negativ auf die Qualität des Oxids auswirken. Bismut präsentierte sich auf hydrophilen Si-Substraten insbesondere unter N2-Atmosphäre als sehr volatil. Dieses Verhalten, höchstwahrscheinlich flüchtiger Bi-Oxide, kann durch Gasphasentransport zu Quer-Kontaminationen benachbarter Si-Substrate führen. Unabhängig von der Temperatmosphäre lassen sich Quer-Kontaminationen ausschließlich auf oxidierten Si-Substraten beobachten, was auf die Notwendigkeit eines bereits vorhandenen dünnen Siliciumoxids als Voraussetzung für eine Quer-Kontamination hindeutet. Eine mögliche Erklärung wäre in der Bildung von weniger flüchtigen Bi-Silikaten zu finden. Die enormen Verluste an Bismut auf hydrophoben Oberflächen finden eine Begründung in dem hohen Abdampfverhalten des vermutlich reduktiv abgeschiedenen Bismuts auf dem Silicium Ähnlich wie Barium und Strontium bevorzugt Bismut den Verbleib im Oxid während Oxidationsprozessen (Bildung von Oxiden und mgl. Bi-Silikaten). Auch hier wiesen die Verunreinigungen keinen Einfluss auf das Oxidwachstum sowie dessen Oberflächenrauhigkeit auf und ließen sich mit einer Oxid-Ätzung von der Si-Oberfläche entfernen. Tiefenprofil- und ELYMAT-Untersuchungen ließen keine Diffusion und schädliche Einflüsse auf die Eigenschaften des Siliciums beobachten. Prozesstechnisch gesehen ist die Bildung möglicher Bi-Silikate unerwünscht, da sie wegen der unterschiedlichen Dichte des SiO2 zu Stress-Regionen auf dem Wafer führen können [21]. Weiterhin besteht gerade in der hohen Flüchtigkeit und Quer-Kontamination ein hohes Kontaminationsrisiko für die Prozess-Apparaturen, andere Wafer und somit der „Verschleppung“ in andere Technologien. Von einer anderen Seite zeigten sich die untersuchten Metalle der Platingruppe, Iridium und Platin. Verunreinigungen an Iridium diffundieren, unabhängig von den RTPBedingungen, ins Si-Substrat und führen zu einer eindeutigen Verringerung der Ladungsträgerlebensdauer („Liftime-Killer“ [45]). Hier zeigten in O2 behandelte Substrate niedrigere Eindringtiefen, was auf eine stärkere Desorption flüchtiger Oxidverbindungen und denkbaren Ir-O-Si-Verbindungen im SiO2 [174] zurückgeht. Parallel hierzu waren Quer-Kontaminationen zu beobachten die durch die Flüchtigkeit von IrO3 erklärt werden können. Ferner führen Verunreinigungen an Iridium zu einem geringeren Oxidwachstum. AFM-Untersuchungen unterstützen die Vermutung einer Ir-Silicidierung an der SiO2/Si-Grenzfläche unter N2-Atmosphäre und forcieren die Bildung von diffusionseinschränkenden Ir-Verbindungen unter O2. Das in der Halbleiter-Technologie bereits eingesetzte Platin ist ausreichend untersucht worden [45] und begleitete die Untersuchungen als Referenzelement. Aus der Literatur bereits bekannt, zeigt Platin ein ausgeprägtes Diffusionsvermögen in das Si-Substrat, unabhängig von dem Temperaturprozess. Dort wirkt es als Generations-/ Rekombinationszentrum und reduziert die Lebensdauer der Ladungsträger. Quer-Kontaminationen waren generell nicht zu beobachten, da unter den vorliegenden Versuchsbedingungen keine flüchtigen Pt-Verbindungen gebildet werden. Dem Iridium ähnlich zeigte Platin bei 1000°C unter O2 im Vergleich eine etwas niedrigere Oxiddicke, was ebenfalls in der Bildung einer Diffusionsbarriere bzw. Pt-O-Si-Bereichen [174] einen möglichen Interpretationsansatz findet. Hinsichtlich des Einsatzes in der Halbleitertechnologie stellen Iridium und Platin wegen ihrer Eigenschaften (hohe Mobilität sowohl im SiO2 und Si, Gasphasentransfer (Ir unter O2), Reduktion der Ladungsträgerlebensdauer) ein enormes Risiko- und Störpotential dar. Während bei Bismut ebenso die Gefahr der Quer-Kontamination besteht, sind die Metalle Barium und Strontium dagegen als weniger kritisch einzustufen.
Die Messung von heteronuklearen 15N-Relaxationszeiten (Longitudinale, transversale sowie heteronukleare NOE) bei verschiedenen Magnetfeldstärken (500, 600 und 800 MHz 1H Larmorfrequenz) ergeben Informationen über interne dynamische Prozesse in Biomolekülen. Diese verschiedenen Relaxationsraten sind voneinander abhängig und über die spektrale Leistungsdichtefunktion miteinander gekoppelt. Die mikrodynamischen Parameter des NH-Peptidrückgratvektors (der Ordnungsparameter S2 und die effektive interne Korrelationszeit te) sowie der Beitrag des konformationellen Austausches zur transversalen Relaxationsrate der Austauschparameter Rex wurden für einige Proteine errechnet und angepaßt. Das Human ILBP gehört zur Familie der intrazellulären Lipidbindungsproteine (LBP), die in der Lage sind, Fett- und Gallensäuren spezifisch zu binden und in Cytosol zu transportieren. Viele verschiedene Typen von LBPs sind bis heute identifiziert worden. Diese Proteine enthalten 127 - 135 Aminosäurereste und werden nach dem Gewebe benannt, aus dem sie isoliert wurden. Human-ILBP enthält 127 Aminosäurereste und besteht haupsächlich aus 10 antiparallelen beta-Faltblattsträngen, die eine beta-Fassstruktur mit einer großen Bindungstasche bilden, und zwei alpha-Helices. ILBP hat die Tendenz, Gallensäuren oder Fettsäuren zu binden. Diese geringe Tendenz zur liganden Spezifität ist entweder in der Struktur oder in seiner Dynamik begründet. Aus diesem Grund kann die Untersuchung der Dynamik des Human ILBP (apo- und holo-Form) in zwei Zeitfenstern zum besseren Verständnis der Funktion führen. Für die nicht-terminalen Peptidrückgratgruppen wurde ein S2-Parameter> 0,8 mit einen Durchschnitt von 0,88 beobachtet, was auf eine niedrige Mobilität im ganzen Protein in einem Nano- zu Picosekunden-Zeitfenster deutet, wobei eine Korrelationszeit von tc = 6.25 ns für ILBP (apo-form) und tc = 6.10 ns für ILBP (holo-Form) beobachtet wurde. Apo- und holo-Form (mit Taurocholat als Ligand) zeigen eine ähnliche Dynamik in diesem Zeitfenster. Überdurchschnittliche S2-Werte der alpha-Helix I deuten eine geringe Flexibilität des Peptidrückgrats an, während alpha-Helix II als Teil der Portalregion eine höhere Beweglichkeit zeigt. Austauschparameter Rex wurden hauptsächlich in den Regionen der Ligandenbindung nachgewiesen. Die hier beschriebenen Eigenschaften unterscheiden sich von denen des H-FABP und des E-FABP. Offensichtlich unterscheiden sich verschiedene Mitglieder der LBP-Familie wie ILBP (Human oder Schwein), H-FABP und E-FABP in der Funktion und Dynamik des Peptidrückgrats. In der vorliegenden Arbeit wurden die transversalen 15N CSA/DD-kreuzkorrelierten Kreuzrelaxationsraten bestimmt. Für die Bestimmung der Anisotropie des chemischen Verschiebungstensors wurde des Verhältnis zwischen den Auto- und Kreuzrelaxationsraten in Abhängigkeit von der magnetischen Feldstärke genutzt, wobei es möglich war, die Orientierung und Größe des CSA-Tensors einzelner Aminosäurereste zu bestimmen. Bei dieser Methode (wie auch in vielen anderen Studien gezeigt) wurde keine Korrelation zwischen der Sekundärstruktur des Proteins und den 15N CSA-Werten festgestellt. Zum Vergleich der CSA-Konstanten der ILBP-Spezies wurden die entsprechenden Parameter der RNaseT1 gemessen. Alle Daten wurden im Hinblick auf strukturelle Details kritisch diskutiert.
Das Genom des Archaeons Halobacterium salinarum kodiert vier Proteine der SMC Protein Superfamilie. Zwei Proteine bilden dabei eine neue Gruppe und werden "SMC-artige Proteine von H. salinarum" (Sph1 und Sph2) genannt. Eine Transkriptanalyse ergab, dass sph1 und das 114 bp stromabwärts gelegene hp24 Gen ausschließlich in exponentiell wachsenden Zellen transkribiert werden. In Zellen der stationären Wachstumsphase ist keines der beiden Transkripte nachweisbar. Die Funktion von Sph1 wurde durch Versuche mit Überproduktions- und Depletionsstämmen von H. salinarum untersucht. Die konditionale Überproduktion von Sph1 inhibiert die weitere Zellteilung und führt zu einer Längenzunahme der Zellen. Erstmals wurde durch ein antisense-mRNA-System in einem Archaeon ein Protein, Sph1, depletiert. Die Depletion führt ebenfalls zur Inhibition der weiteren Zellteilungsereignisse. Beide Phänotypen zeigen, dass Sph1 eine essentielle Rolle im Verlauf des Zellzyklusses einnimmt. Um Zellzyklus spezifische Ereignisse zu analysieren wurde eine Synchronisationsprozedur für H. salinarum entwickelt. Dazu wurde der Effekt von sechs eukaryalen Zellzyklusinhibitoren auf den Zellzyklus von H. salinarum untersucht. Bei geeigneter Konzentration verursacht der effizienten DNA Polymerase Inhibitor Aphidicolin eine schnelle und reversible Zellzyklusblockade, während andere zelluläre Prozesse nicht beeinflusst werden. Durch Ermittlung der Zelldichte, der mittleren Zelllänge und des Anteils an Septum bildenden Zellen wurde festgestellt, dass nach Entfernen des Inhibitors ca. 70 % der in der Kultur vorhandenen Zellen den Zellzyklus synchron durchlaufen. Diese Prozedur erlaubt erstmals die Untersuchung der Zellzyklus abhängigen Regulation der Transkription, Proteinakkumulation sowie der intrazellulären DNA-Lokalisation in einem Archaeon. Transkriptionsstudien mit synchron wachsenden H. salinarum-Kulturen ergaben, dass das sph1 Transkript eindeutig Zellzyklus abhängig reguliert ist. Die maximale Transkriptmenge ist dabei zum Zeitpunkt der Septumbildung nachweisbar. Die Expression des hp24 Gens beginnt etwa eine Stunde vor der Expression des sph1 Gens. Bevor die sph1 Transkriptmenge ihr Maximum erreicht, nimmt die hp24 Expression wieder ab. Das cdcH Gen, das für ein Protein der Cdc48 Familie kodiert, ist wie das sph1 Gen um den Zeitpunkt der Septumbildung stark induziert, während ein ftsZ Allel nicht in Zellzyklus abhängiger Weise reguliert ist. Die Transkriptionsmuster zeigen, dass die Transkription verschiedener Gene im Verlauf des haloarchaealen Zellzyklusses präzise reguliert wird. Die Sph1 Proteinmenge ist ebenfalls während des Zellzyklusses reguliert; sie ist erhöht, wenn die Segregation der neuen Chromosomen nahezu abgeschlossen ist. Folglich hat Sph1 vermutlich eine Funktion in der späten Phase der Replikation, z.B. in der DNA-Reparatur wie auch die eukaryalen Rad18 Proteine. Im Gegensatz zum sph1 Transkript ist das Protein während des gesamten Zellzyklusses in H. salinarum nachweisbar. Es ist daher nicht auszuschließen, dass Sph1 eine weitere Funktion ausübt, die eine Präsenz während des gesamten Zellzyklusses benötigt. Ein Färbeprotokoll mit einem DNA spezifischen Fluoreszenzfarbstoff wurde entwickelt, um die intrazelluläre Lokalisation des Nukleoids in H. salinarum zu bestimmen und seine differenzierte Positionierung im Verlauf des Zellzyklusses in synchronisierten Zellen zu verfolgen. Synchronisierte Kulturen wurden mit Fluoreszenzmikroskopie untersucht. Es zeigte sich, dass das haloarchaeale Nukleoid nach einer anfänglichen Verteilung auf die gesamte Zelle in der Zellteilungsebene kondensiert. Im weiteren Verlauf wird die DNA zügig an die 1/4 und 3/4 Positionen transportiert. Alle DNA-Strukturen wurden auch in unbehandelten Zellen beobachtet, so dass Synchronisationsartefakte ausgeschlossen werden können. Diese Daten beweisen, dass die DNA in Haloarchaea aktiv zu spezifischen intrazellulären Regionen transportiert wird und legen nahe, dass die Replikation in der Zellteilungsebene erfolgt, wie es in den letzten Jahren für einige bakterielle Arten nachgewiesen wurde. Die Untersuchungen bilden die Grundlage für weitere Untersuchungen molekularer Details des archaealen Zellzyklusses.
In der vorliegenden Arbeit wurden die Eigenschaften heißer dichter Kernmaterie in relativistischen Schwerionenkollisionen mit Hilfe transporttheoretischer Methoden untersucht. Dabei wurden über einen weiten Energiebereich von 1 A GeV am GSI/SIS18 über BNL/AGS und GSI/SIS200 bis hin zu 160A GeV Einschußenergie am CERN/SPS verschiedene Observablen diskutiert und mit eigenen Modellrechnungen verglichen. Zunächst wurden in Kapitel 1 in die theoretischen Grundlagen der mikroskopischen Transporttheorie eingeführt und die wichtigsten semiklassischen mikroskopischen Transportmodelle vorgestellt. Das unter eigener Mitwirkung am Institut für Theoretische Physik entstandene Transportmodell, das UrQMD-Modell, wurde im Rahmen dieser Arbeit bis zur Versionsnummer 1.3 verbessert und erweitert. Das Modell und ein Überblick verschiedener Observablen im Modell wurden bereits früher gemeinsam publiziert. Die ausführliche Diskussion dieses Modells in der jetzigen Fassung findet sich in Kapitel 2. Besonders der komplexe Kollisionsterm wird detailliert und systematisch beschrieben. Wo vorhanden, werden die implementierten Kanäle und Wirkungsquerschnitte den experimentellen Daten gegenübergestellt. In Kapitel 3 wurde eine Methode zur relativistisch korrekten Berechnung von Baryon und Mesonendichten sowie von Energiedichten entwickelt. Mit dieser Methode konnten Zeitentwicklungen und Ortsraumverteilungen von Dichten im Bereich von 1 bis 160 A GeV erstellt werden. Im Vordergrund der Analysen stand die Fragestellung, welches Raum-Zei-tVolumen die Hochdichtephase in Abhängigkeit von der Einschuß energie einnehmen kann. Bemerkenswertes Ergebnis dieser Untersuchungen war, daß die maximal erreichbare Dichte zwar mit der Einschußenergie monoton ansteigt, je doch eine besonders ausgedehnte und langlebige Phase hoher Baryonendichte bei Einschußenergien zwischen 5 und 10 GeV/Nukleon erreicht wird. Auch wurde am Beispiel des Systems Uran-Uran bei 23 A GeV untersucht, inwieweit durch den Einsatz deformierter Kerne die Hochdichtephase intensiviert werden kann. Die Rechnungen haben gezeigt, daß die vorhergesagte Steigerung der Baryondichte um 30% bei Verlängerung der Hochdichtephase um 50% nicht realistisch ist. In weiteren Analysen wurden die in Schwerionenkollisionen erreichbaren Energiedichten diskutiert, sowie eine Interpretation der nichtformierten Hadronen als ein "partonischer" Freiheitsgrad vorgestellt. Es hat sich gezeigt, daß der partonische Beitrag zur Energiedichte vor allem in der Frühphase der Kollision bei weitem überwiegt. Im Kapitel 4 wurde ein Modell zur Produktion von Kaonen in der Nähe der Produktionsschwelle vorgestellt. Die elementaren Produktionskanäle wurden hier über hoch massige Resonanzen modelliert, im Gegensatz zu anderen vorgeschlagenen Modellen, die direkte Parametrisierungen vornehmen. Desweiteren wurden alle implementierten Produktions und Streukaäale von seltsamen Hadronen im Vergleich mit experimentellen Daten diskutiert. Das Kapitel 5 widmete sich ausschließlich der Produktion von Mesonen bei SIS18 Energien. Zunächst wurde ausführlich auf den Produktions und Absorptionsprozeß von Pionen im System Pi-N-Delta eingegangen. Sowohl Spektren als auch Multiplizitäten in Abhängigkeit von der Anzahl an Partizipanten im UrQMD wurden mit experimentellen Daten von TAPS und FOPI verglichen. Die Ergebnisse legen nahe, daß die Pionproduktion bis 2 A GeV im Rahmen der mikroskopischen Transporttheorie vollständig verstanden werden kann, wenn neben dem Delta1232 auch alle höheren Resonanzzustände sowie multiste-pAnregungen in die Rechnung einbezogen werden. Auch die Produktion von Kaonen in Abhängigkeit von der Anzahl an Partizipanten und der Systemgröße wurde diskutiert. Auch hier können die gemessenen Zusammenhänge qualitativ im Rahmen des mikroskopischen Modells verstanden werden. Zum Abschluß des Kapitels wurden Ausfrierzeiten, radien und dichten für einzelne Baryonen und Mesonenspezies analysiert. Zentrales Ergebnis dieser Untersuchungen ist, daß es bei einer Schwerionenreaktion keineswegs zu einem simultanen Ausfrieren aller Hadronspezies bei gleicher Dichte und gleichem Radius kommt, sondern daß die Ausfrierverteilungen eine komplexe Zeit und Ortsraumstruktur aufweisen, die u.a. von den Wirkungsquerschnitten und Produktionsmechanismen für die einzelnen Spezies abhängt. In Kapitel 6 wurden die erst kürzlich publizierten Daten der NA49Kollaboration bei 40, 80 und 160 A GeV einer detaillierten Analyse mit dem UrQMD-Modell unterzogen, sowie Vorhersagen für die geplanten Messungen bei 20 A GeV gemacht. Es konnte gezeigt werden, daß es für den Vergleich von Modellrechnung mit dem Experiment notwendig ist, genau die gleiche Zentralitätsbestimmung wie im Experiment zu benutzen. Eine einfache Beschränkung auf ein festes Stoßparameterintervall führt zur Selektion einer falschen Gruppe von Ereignissen. Ein Vergleich des Abstoppverhaltens von Protonen, Hyperonen, Antiprotonen und Antihyperonen hat gezeigt, daß zwar die Dynamik der Baryonen im Rahmen des UrQMD-Modells gut verstanden werden kann, jedoch die Produktion der Antibaryonen um ein mehrfaches unterschätzt wird. Verschiedene Erklärungsmodelle, wie screening oder die Verletzung des detaillierten Gleichgewichts bei Stringzerfällen wurden diskutiert. Auch der starke Einfluß der Implementierung von Annihilationskanälen konnte aufgezeigt werden. Zum Schluß des Kapitels wurde die Produktion von Kaonen und Antikaonen im Modell und im Experiment einer genauen Analyse unterzogen. Die Modellrechnungen legen nahe, daß bei SPS-Energien weder Kaonen noch Antikaonen als direkte Signael der frühen Phase der Kollision betrachtet werden können. Zwar wird die Gesamtseltsamkeit des Systems im wesentlichen in den ersten, harten Kollisionen erzeugt, jedoch finden hinterher noch zahllose Kollisionen mit Seltsamkeitsaustausch statt, bevor Kaonen und Antikaonen endlich ausfrieren. Im letzten Kapitel schließlich wurden die Analysen auf die Daten vom BNL/AGS ausgedehnt und ein vergleichender Überblick über den gesamten Energiebereich von SIS18 bis SPS vorgenommen. Um die Robustheit sowohl der Observablen als auch der mikroskopischen Transporttheorie zu testen, wurden bei acht Energien die Form der Spektren von Protonen, Pionen, Kaonen, Lambdas und Sigmas in Rechnungen mit zwei unabhängigen Transportmodellen und den experimentellen Daten verglichen. Desweiteren wurden für alle Spektren sowohl die 4-Pi -Daten als die Werte bei Mittrapidität ermittelt und als Funktion der Einschußenergie mit den experimentellen Daten verglichen. Schließlich wurden aus den Multiplizitäten Hadron-Hadron-Verhältnise gebildet und diese wiederum mit den Daten verglichen. Neben vielen interessanten Detailerkenntnissen konnte das folgende grobe Bild entwickelt werden: Die korrekte Produktion von Seltsamkeit, sowohl in Hyperonen als auch in Kaonen, gelingt beiden hadronischen Modellen, ohne daß besondere nichthadronische Effekte angenommen werden müßten, über den gesamten Energiebereich. Die Pionproduktion wird bei den verschiedenen Energien mal von dem einen, mal von dem anderen Modell besser beschrieben, nie jedoch sind die Abweichungen größer als etwa 20%. Die Teilchenverhältnisse, deren qualitativer Verlauf ein mögliches Signal für einen Phasenübergang sein soll, werden trotz guter Beschreibung der Pionen und sehr guter Beschreibung der Kaonen von beiden Modellen qualitativ völlig unterschiedlich vorhergesagt. Die im Rahmen dieser Arbeit durchgeführten Rechnungen legen also nahe, daß zum einen die Rolle der Seltsamkeitsproduktion als Indikator für nichthadronische Physik überdacht werden sollte, und zum anderen der qualitative Verlauf des K +/Pi -Verhältnisses aufgrund der geringen Fehlertolleranz nicht als belastbarer Beweis eines Phasenübergangs gesehen werden sollte.
Untersuchung biochemischer Parameter des Lipidstoffwechsels bei chirurgischen Intensivpatienten
(2002)
Das Ziel der vorliegenden Arbeit war, die biochemischen Zusammenhänge von häufig auftretenden Störungen des Fettstoffwechsels unter den Bedingungen der längerfristigen postoperativen Intensivtherapie zu untersuchen. In die Untersuchung eingeschlossen wurden Patienten mit einer Mindestaufenthaltsdauer auf der chirurgischen Intensivpflegestation von sieben Tagen, bei denen im Verlauf dieses Aufenthalts der prozentuale Anteil der alpha-Lipoproteine (elektrophoretisch) auf 20 % oder darunter bzw. der Cholesterinesterquotient auf 50 % oder darunter sank. Die Ergebnisse der Lipidelektrophorese korrelieren bei Seren von Gesunden gut mit Ergebnissen der Referenzmethode Ultrazentrifugation. Bei chirurgischen Intensivpatienten, die z. T. starke Veränderungen des Lipoproteinstoffwechsels aufweisen, ist die Lipidelektrophorese als Methode nur bedingt geeignet, denn es ergeben sich deutliche Abweichungen der Ergebnisse im Vergleich zu denen der Ultrazentrifugation. Bei den untersuchten Intensivpatienten, in deren Seren keine elektrophoretische Mobilität der alpha-Lipoproteine feststellbar war, konnten dennoch Lipoproteine mit hoher Dichte (HDL2 und HDL3) per Ultrazentrifugation nachgewiesen werden. Im Vergleich zu gesunden Kontrollpersonen waren in diesen Fraktionen allerdings die Konzentrationen von Apolipoprotein AI und auch die berechnete Gesamtmasse der Fraktionen signifikant vermindert. Mit der elektrophoretischen Trennmethode wurde der prozentuale beta-Lipoproteinanteil im Serum signifikant höher berechnet als der Anteil der Lipoproteine mit geringer Dichte (LDL) nach Trennung durch Ultrazentrifugation, der alpha-Lipoproteinanteil wurde signifikant niedriger berechnet als der HDL-Anteil. Nach Ultrazentrifugation der Patientenseren wurden stark veränderte Zusammensetzungen der einzelnen Lipoproteinfraktionen beobachtet. Der Anteil des freien Cholesterins war bei diesen Patienten in allen vier Lipoproteinfraktionen signifikant erhöht. Extrem niedrige Cholesterinesteranteile fanden sich in LDL- und HDL-Fraktionen. Da in diesen Fraktionen andererseits die Triglycerid-Anteile erhöht waren, wiesen die Lipoproteinpartikel im Vergleich zum Normbereich veränderte Kernzusammensetzungen auf. Bei den Intensivpatienten war der Quotient Kernbestandteile/Oberflächenbestandteile insbesondere in den beiden HDL-Fraktionen signifikant erniedrigt, woraus sich auf verkleinerte Lipoproteinpartikel schließen läßt. Erniedrigte Serumkonzentrationen von Cholesterinestern und abnormale Lipoproteinzusammensetzungen korrelierten mit signifikant verminderter, teils ganz fehlender in vitro Cholesterinveresterung. Zugleich lag Apolipoprotein AI, welches als Cofaktor des Enzyms Lecithin-Cholesteryl-Acyl-Transferase (LCAT) fungiert, in den HDL-Fraktionen nur in sehr niedrigen Konzentrationen vor. Bei den Patienten, in deren Serum keine LCAT-Aktivität nachweisbar war, konnten dennoch Cholesterinester in allen Fraktionen gemessen werden. Eine stark erniedrigte oder fehlende LCAT-Aktivität gilt als prognostisch ungünstig, kann aber reversibel sein. Signifikant erniedrigt war der prozentuale Anteil des Linolats an den Esterfettsäuren im Serum, während der prozentuale Anteil des Oleats signifikant erhöht war. Dadurch erhöhte sich auch der Quotient Oleat/Linolat (18:1 / 18:2) in signifikanter Weise. Der signifikant erhöhte Serumacylquotient (18:1 + 18:2) / 16:0 weist darauf hin, daß die Konzentrationen der freien ungesättigten C 18–Fettsäuren im Vergleich zur Palmitinsäure erhöht waren. Die vorgestellten Ergebnisse verdeutlichen die Komplexität des Fettstoffwechsels insbesondere im Hinblick auf die Entgleisungen bei intensivpflegepflichtigen chirurgischen Patienten.
Mycophenolat Mofetil hat die Zulassung zur immunsuppressiven Behandlung nierentransplantierter Patienten seit sieben Jahren. Mycophenolat Mofetil entfaltet seine immunsuppressive Wirkung über eine Hemmung der Lymphozytenproliferation. Das Nebenwirkungsprofil dieser Substanz unterscheidet sich in klinisch bedeutsamen Aspekten von den der überwiegend verwendeten Immunsuppressiva vom Typ der Calcineurininhibitoren wie Cyclosporin A und Tacrolimus und der heute seltener verwendeten antiproliferativen Substanz Azathioprin. In der vorliegenden Arbeit werden die klinischen Daten des Verlaufes über 6 Monate von 85 nierentransplantierten Patienten untersucht, deren immunsuppressives Therapieschema wegen unerwünschter Nebenwirkungen der bisherigen Therapie auf Mycophenolat umgesetzt wurden. Grund der Therapieumstellung war am häufigsten (48,2%) eine Nierenfunktionsverschlechterung unter der bisherigen Therapie, die überwiegend mit den potentiell nephrotoxischen Calcineurininhibitoren durchgeführt wurde. Die Umstellung war von einer signifikanten Besserung der Nierenfunktion, gemessen an dem Serumkreatinin und der Kreatininclearance, gefolgt. Ebenso war eine Verbesserung der Blutdruckeinstellung zu beobachten, die Anzahl der eingenommenen Blutdruckmedikamente konnte reduziert werden. Eine typische Nebenwirkung der Therapie mit Azathioprin sind Veränderungen im Blutbild mit reduzierter Leukozytenzahl und Störung der Erythropoese. Mit der Umstellung auf Mycophenolat Mofetil wurde eine deutliche Besserung der Blutbildindizes erreicht. Die Hepatoxizität des Azathioprins war ebenfalls reversibel, unter Mycophenolat Mofetil war ein signifikanter Abfall der Serumaktivität der Leberindikatorenzyme zu beobachten. Bei 13% der Patienten mußte Mycophenolat Mofetil wegen darunter aufgetretener neuer Nebenwirkungen abgesetzt werden. Diarrhoen traten bei fast 5% der Patienten auf, sie waren der häufigste Grund zum Absetzen des Medikamentes. Weitere für Mycophenolat typische Nebenwirkungen waren andere gastrointestinale Störungen wie Übelkeit, Erbrechen und abdominelle Schmerzen. Die immunsuppressive Wirkung des Mycophenolat Mofetil war gut, es wurden keine gehäuften Abstoßungsreaktionen nach der Umstellung beobachtet. Es fanden sich auch keine Zeichen einer Überimmunsuppression, die sich beispielsweise durch eine Zunahme von Infekten bemerkbar gemacht hätte. Die Daten dieser Untersuchung legen den Schluß nahe, daß im Falle ernster Nebenwirkungen der herkömmlichen immunsuppressiven Therapie eine Umstellung auf Mycophenolat Mofetil erfolgversprechend durchgeführt werden kann.
Die analytische Ultrazentrifuge ist ein unverzichtbares Instrument zur Charakterisierung von schwachen Protein-Protein-Wechselwirkungen und deren funktioneller oder regulatorischer Bedeutung. Eine besondere Gruppe von Untersuchungsobjekten bilden die integralen Membranproteine, die für eine Ultrazentrifugenanalyse solubilisiert, d.h. aus ihrer natürlichen, hydrophoben Umgebung in wäßriges Milieu überführt werden müssen. Diese Aufgabe wird vom Standpunkt der Erhaltung des natürlichen Proteinzustands am besten von nichtionischen Detergenzien erfüllt, wobei das biochemisch optimale Detergens von Protein zu Protein i.A. verschieden ist. Die notwendige Anwesenheit von Detergens während der Zentrifugenanalyse belastet diese andererseits, da freies wie proteingebundenes Detergens zusätzliche unbekannte Größen darstellen. Diese Unbekannten können durch experimentelle Gleichsetzung von Detergensdichte und Lösungsdichte eliminiert werden (Dichtekompensation). Die Möglichkeiten der etablierten Dichtekompensationsverfahren sind allerdings beschränkt, insbesondere Detergenzien mit hoher Dichte sind damit nicht erfaßbar - ein Mangel, der manche Untersuchung be- oder verhindert. Aus diesem Grund wurden neue Dichtekompensationsverfahren entwickelt und bestehende verbessert bzw. erweitert: zum einen die Erhöhung der Lösungsdichte durch Zusatz von Saccharose, Glyzerin oder einer Saccharose-D2O-Kombination, zum anderen die Anpassung der Detergensdichte durch Mischen von Detergenzien mit niedriger und mit hoher Dichte. Die neuen Verfahren wurden überprüft, indem ein integrales Membranprotein mit bekannten Eigenschaften, Cytochrom c-Oxidase von Paracoccus denitrificans, unter Anwendung sowohl der neuen Verfahren als auch der etablierten D2O-Methode im Sedimentationsgleichgewicht analysiert wurde. Der Vergleich der Ergebnisse zeigte zum einen die Äquivalenz der verschiedenen Methoden im Falle der Kompensation von Detergensdichten, die auf herkömmliche Weise kompensierbar sind, zum andern, daß nach Kompensation deutlich höherer Dichten das partialspezifische Volumen des Proteins zu korrigieren ist. Eine derartige Korrektur wurde nötig beim Vorhaben, den oligomeren Zustand des Cytochrom bc1-Komplexes von Paracoccus denitrificans zu bestimmen, da dieses Atmungskettenenzym nur in Gegenwart von DDM, einem Detergens mit hoher Dichte, stabil war. Die Unsicherheit, die sich aus der via Vergleich mit Cytochrom c-Oxidase durchgeführten Korrektur ergab, war nicht relevant, da sich der intakte bc1-Komplex in DDM-Lösung als einheitliche Substanz erwies und er damit ein "einfaches" Problem darstellte. Die Sedimentationsgleichgewichtsuntersuchung des Proteins unter der Bedingung der Dichtekompensation ergab nach Berücksichtigung des Korrekturterms, daß der solubilisierte, enzymatisch aktive bc1-Komplex als Dimer vorliegt. Dieses Ergebnis korreliert mit der aktuellen Vorstellung von der Funktionsweise des Enzyms, derzufolge die dimere Form für den Elektronentransfer notwendig ist. Komplizierter als der oligomere Zustand des bc1-Komplexes ist offenbar das Selbstassoziationsverhalten des Bande 3-Proteins, des Anionenaustauschers aus der menschlichen Erythrozytenmembran: Entgegen der vorherrschenden Meinung, eine in Detergenslösung vorliegende intakte Bande 3 bilde stabile Dimere, weisen die vorliegenden Ergebnisse darauf hin, daß das solubilisierte Protein aus mehreren Oligomeren besteht. So zeigen die vorhandenen Daten neben dimerer Bande 3 die Existenz von monomerem und tetramerem Protein, letztere Form vermutlich in unterschiedlichen Zuständen, und verweisen auf ein Assoziationsgleichgewicht zwischen den Oligomeren, vermutlich überlagert durch stabiles Dimer. Letzteres erscheint als "Grenzfall" eines Bande 3-Präparats, der nach langer Lagerung und/ oder nach suboptimaler Behandlung eintritt. Wegen der Komplexität des Bande 3-Verhaltens konnten die Zentrifugenuntersuchungen nur in Gegenwart von Detergenzien durchgeführt werden, deren Dichte eine Kompensation ohne Korrekturbedarf zuläßt. Darüber hinaus kamen wegen der offensichtlichen Empfindlichkeit der Bande 3 nur sehr milde Detergenzien zum Einsatz: C12E9 und Triton X-100 (reduzierte Form). Aus selbigem Grund wurde die Detergensdichte bevorzugt mit Saccharose oder Glyzerin kompensiert, deren proteinstabilisierende Wirkung bekannt ist.
Die Physik beschäftigt sich seit jeher mit der Frage nach dem Aufbau und der Struktur der Materie. Die Antworten änderten sich im Laufe der Zeit, der gegenwärtige Stand der Erkenntnis ist im sogenannten Standardmodell zusammengefasst. Dort werden die Elementarteilchen in Leptonen und Quarks unterteilt, die Wechselwirkungen zwischen ihnen beschreibt man durch vier fundamentale Kräfte: die Gravitation, die elektromagnetischen Kraft, die schwache und die starke Kernkraft. Gemäß dem Standardmodell sind Nukleonen, also Protonen und Neutronen, aus Quarks aufgebaut. Das Proton ist beispielsweise ein gebundener Zustand aus zwei up und einem down Quark. Die Nukelonen bilden ihrerseits die Atomkerne, welche die Systematik der Elemente bestimmen. Quarks treten in sechs verschiedenen Arten (flavours) auf: up, down, strange, charm, bottom und top. Freie Quarks konnten bislang nicht nachgewiesen werden, sie werden nur als Quark-Antiquark Paar (Meson) oder als Kombination aus drei Quarks (Baryon) beobachtet. Mesonen und Baryonen werden unter dem Begriff Hadronen zusammengefaßt. Die starke Kernkraft beruht letztlich auf der Wechselwirkung zwischen Quarks, diese wird durch die Quantenchromodynamik (QCD) beschrieben. Ähnlich der Glashow- Salam-Weinberg Theorie (GSW), die die elektromagnetische und die schwache Kernkraft beschreibt, ist die Quantenchromodynamik durch Austauschteilchen charakterisiert. Im Fall der GSW wurden die Photonen bzw. W± oder Z-Teilchen als Austauschteilchen identifiziert, in der QCD fungieren Gluonen als Austauschteilchen. Photonen vermitteln die elektromagnetische Kraft zwischen allen Teilchen, die elektrische Ladung tragen. Analog wirkt die Kraft, die durch den Austausch von Gluonen beschrieben wird, zwischen Teilchen, die eine Farbladung tragen. Anders als das neutrale Photon trägt das Gluon selbst Farbe und wechselwirkt daher mit anderen Teilchen, die Farbe tragen. Dieser Umstand zeigt bereits, dass in der QCD ganz andere Phänomene zu erwarten sind als in der GSW. Die Tatsache, dass Quarks nur in gebundenen Zuständen vorliegen, erschwert die direkte Beobachtung der Wechselwirkung zwischen ihnen. Ein indirekter Weg, um die Wirkungweise diese Kraft zu untersuchen, liegt in der Erzeugung hoher Kernmateriedichten und hoher Kerntemperaturen. Die Idee besteht darin, das Phasendiagramm von Kernmaterie experimentell zu bestimmen (Abbildung 1.3) und dann auf die zugrundeliegende Kraft zu schließen. Unter anderem führen die Kräfte, die zwischen den Einzelteilchen des Mediums herrschen, zu charakteristischen Phasenübergängen. Im Fall der Kernmaterie hofft man insbesondere, den Übergang von gebundenen Zuständen in eine Quark-Gluon-Plasma Phase (QGP), in der sich Quarks und Gluonen frei bewegen, zu beobachten. Zwei prominente Beispiele demonstrieren, warum die Eigenschaften dieses Materiezustandes - und ob er überhaupt existiert - auch für andere Teilgebiete der Physik von großem Interesse sind. Zum einen geht man davon aus, dass in der Frühphase des Universums, 10-12 s nach dem Urknall, die Energiedichte so hoch war, dass die Materie in einem Plasmazustand vorlag. In diesem Bild führt die Expansion des Raumes zu einer Abkühlung des Plasmas und schließlich zum Ausfrieren in Hadronen. Zum anderen zeigen viele Modellstudien, dass im Innern von Neutronensternen mit extremen Dichten zu rechnen ist. Unter Umständen werden Energiedichten erreicht, die hoch genung sind, um einen Phasenübergang in ein Quark Gluon Plasma zu erzwingen. Die Beschreibung dieser astronomischen Objekte setzt somit auch die Kenntnis der Kräfte zwischen den Quarks voraus. Der einzige Weg, dichte Kernmaterie im Labor zu erzeugen, stellen Schwerionenreaktionen dar. Wenn zwei ultrarelativistische schwere Kerne zentral kollidieren, entsteht für kurze Zeit eine Region hoher Energiedichte (Abbildung 1.1). QCD-Gitter-Rechnungen deuten darauf hin, dass die Dichte, die man in Schwerionreaktion gegenwärtig erreicht, hoch genung ist, um einen Übergang der Kernmaterie in eine Plasma-Phase zu erzwingen. Aufgrund des hohen Drucks expandiert die verdichtete, heiße Kernmaterie in longitudinaler (entlang des Strahls) und transversaler (senkrecht zum Strahl) Richtung und die Dichte nimmt ab. Vorausgesetzt am Anfang der Reaktion wurde ein Quark-Gluon-Plasma erzeugt, dann friert diese Phase in Hadronen aus (chemisches Ausfrieren), wenn Dichte und Temperatur einen kritischen Wert unterschreiten. Die erzeugten Hadronen wechselwirken zunächst noch elastisch miteinander, d.h. die Impulse der Teilchen ändern sich, die Identität der Teilchen bleibt jedoch erhalten. Schließlich enden auch diese Wechselwirkungen (thermisches Ausfrieren), und die Teilchen verlassen die Reaktionszone (Abbildung 1.4). Der Ablauf einer solchen Schwerionenreaktion dauert einige 10-23s und ihre räumliche Ausdehnung liegt in der Größenordnung von 10-15m, damit ist die Reaktion selbst nicht beobachtbar. Nur der Endzustand, also die Identitäten und Impluse der emittierten Teilchen, kann bestimmt werden. Um den Ablauf der Reaktion zu rekonstruieren, ist man daher auf Modellrechnungen angewiesen. Aufgrund dieser Modellrechnungen wurden einige Observablen vorgeschlagen, die einen Phasenübergang kennzeichnen. Neben anderen Signaturen führt ein Phasenübergang wahrscheinlich zu einer verlängerten Emissionsdauer. Dieser Effekt kann möglicherweise durch die Analyse von Zwei-Teilchen-Korrelationen sichtbar gemacht werden. Ganz allgemein stellt die Untersuchung von Teilchenkorrelationen die einzige Möglichkeit dar, die raum-zeitlichen Strukturen während des thermischen Ausfrierens experimentell zu bestimmen. Korrelationen zwischen Teilchen, die von einer hinreichend kleinen Quelle emittiert werden, haben verschiedene Ursachen. Betrachtet man beispielsweise die Häufigkeitsverteilung der Impulsdifferenz zwischen zwei elektrisch gleich geladenen Teilchen, so stellt man fest, dass Paare mit geringer Impulsdifferenz weniger häufig vorkommen, als man anhand der Ein-Teilchen Impulsverteilung vorhersagen würde. Dieser Effekt ist auf die Abstoßung zwischen zwei elektrisch gleich geladenen Teilchen zurückzuführen, die mit kleiner Impulsdifferenz emittiert wurden. Eine weniger offensichtliche Korrelation wird durch den Quantencharakter identischer Teilchen verursacht. Zwei identische Bosonen, die im Phasenraum nahe beieinander liegen, können gemäß den Prinzipien der Quantentheorie nicht unterschieden werden. Die Wellenfunktion, die diesen Zwei-Teilchen-Zustand beschreibt, muß beim Vertauschen der Teilchen erhalten bleiben. Diese Forderung führt zu einem Interferenzterm in der Zwei-Teilchen Intensitätsverteilung. Diese Verteilung ist proportional zur Wahrscheinlichkeit, ein Teilchenpaar mit der Impulsdifferenz q zu messen. Berechnet man die Impulsdifferenzverteilung von Pionenpaaren und berücksichtig nur quanten- statistische Effekte, so findet man, dass Paare mit geringem Impulsunterschied bis zu zweimal häufiger vorkommen, als man aufgrund einfacher statistischer Überlegungen erwarten würde. Um diesen Effekt experimentell sichtbar zu machen, konstruiert man die Korrelationsfunktion, die die gemessene Impulsdifferenzverteilung in Relation zu einer Untergrundverteilung setzt. Experimentell gewinnt man diese Referenzverteilung, indem Paare aus Spuren aus verschiedenen Ereignissen gebildet werden. Die Referenzverteilung entspricht damit der Verteilung, die man messen würde, wenn die Teilchen nicht der Quantenstatistik unterlägen. Die Korrelationsfunktion wird im allgemeinen durch eine Gauß-Funktion angenähert. Das Inverse der Standardabweichung dieser Funktion wird nach den Pionieren der Intensitätsinterferometrie R. Hanbury Brown und R. Twiss als HBT-Radius bezeichnet. Teilchen interferieren nur dann, wenn sie im Phasenraum nahe beieinander liegen, das heißt sowohl die Impulsdifferenz als auch der räumliche Abstand muß hinreichend klein sein. Diese Bedingung kann genutzt werden, um von der gemessenen Korrelationsfunktion, die nur auf den Impulskomponenten basiert, auf die räumliche Verteilung der Teilchenproduktion zu schließen. Eine detaillierte Betrachtung erlaubt sogar, aufgrund der gemessenen Korrelationsfunktion quantitative Aussagen über die räumlichen Aspekte der Teilchenquelle zu machen. Beispielsweise können im Rahmen eines Modells die Stärke der transversalen Expansion oder die Emissionsdauer in Relation zu den HBT-Radien gesetzt werden. In Kapitel 2 sind die Grundlagen der Teilcheninterferometrie ausführlicher dargestellt. Der eigentliche Gegenstand dieser Arbeit ist experimentelle Analyse der Zwei- Teilchen-Korrelationen in einer Schwerionenreaktion. Dazu wird zunächst in Kapitel 3 das STAR Experiment am RHIC vorgestellt, in dem die Daten aufgezeichnet wurden, die Grundlage dieser Analyse sind. Am RHIC-Beschleuniger am BNL in den USA werden AuAu Kollisionen bis zu einer Schwerpunktsenergie von Wurzel aus SNN=200 GeV erzeugt. Figur 3.1 zeigt den Beschleuniger-Ring und die vier Experimente Brahms, Phenix, Phobos und STAR. Der hier analysierte Datensatz wurde bei der Datennahme im Jahr 2000 aufgezeichnet. Zu dieser Zeit wurde am RHIC eine Schwerpunktsenergie von Wurzel aus SNN=130 GeV erreicht. Bei einer zentralen AuAu Kollision werden mehrere Tausend Teilchen produziert. Der STAR Detektor ist dafür konzipiert, hadronische Teilchen kleiner Rapidität (d.h. großer Winkel zur Strahlachse) zu messen, innerhalb der Akzeptanz werden etwa 80% der produzierten geladenen Teilchen nachgewiesen. Der schematische Aufbau des STAR Detektorsystems ist in Figur 3.2 dargestellt. Der zentrale Detektor ist eine TPC (Zeit-Projektions-Kammer). Dieser Detektor basiert darauf, dass geladene Teilchen beim Durchgang durch ein Messgas eine Spur von Ionen hinterlassen. Ein starkes elektrisches Feld driftet die Elektronen, die bei den Ionisationsprozessen freigesetzt wurden, zu einer Ausleseebene. Der Punkt, an dem die Elektronen auf der Ausleseebene ein Signal erzeugen, entspricht der Projektion des Ionisationpunktes auf die Ausleseebene. Die dritte Komponente, die den Raumpunkt der Ionisation festlegt, ist durch die Driftzeit bei bekannter Driftgeschwindigkeit gegeben. So erscheint eine Teilchenspur als eine Kette von Ionisationspunkten im Detektorgas. Ein magnetisches Feld parallel zur Strahlachse führt zu einer Ablenkung der geladenen Teilchen. Die Krümmung der Spur ist dabei umgekehrt proportional zum transversalen Impuls. Abbildung 3.6 zeigt ein typisches Ereignis mit etwa 105 Ionisationspunkten und den entsprechenden Teilchenspuren. Der spezifische Energieverlust eines Teilchens beim Durchgang durch das Messgas hängt von seinem Impuls und seiner Masse ab. Die Stärke des auf der Ausleseebene induzierten Signals erlaubt den spezifischen Energieverlust zu bestimmen. Da der Impuls durch die Krümmung der Spur bekannt ist, kann so die Masse und damit die Identität des Teilchens bestimmt werden (siehe Abbildung 3.7). In Kapitel 4 wird der Datensatz beschrieben, der als Grundlage für diese Analyse dient. Während der Datennahme werden die digitalisierten Daten der TPC auf ein Speichermedium geschrieben. Der erste Schritt bei der Rekonstruktion der Ereignisse besteht darin, die Ionisationspunkte zu lokalisieren. Dies leistet der Clusterfinder- Algorithmus, der in Kapitel 4.1.1 beschrieben ist. Die Spurpunkte werden dann durch den Tracking-Algorithmus zu Teilchenspuren verbunden. Die erreichte Effizienz, Akzeptanz und Impulsauflösung der Rekonstruktion sind in Kapitel 4.1.2 zusammengefaßt. Die Zwei-Teilchen-Korrelationen werden nur für zentrale Kollisionen betrachtet, das sind Ereignisse mit kleinem Stoßparameter. Die Multipliztät der gemessenen Spuren ist in erster Näherung ein Maß für die Zentralität des Ereignisses. Für diese Analyse werden nur die 12% zentralsten Ereignisse zugelassen. Die Selektion der Ereignisse ist in Kapitel 4.2 beschrieben. Die Auswahl der Spuren, die in der Analyse verwendet werden, ist in Kapitel 4.3 beschrieben. Es werden nur Spuren zugelassen, deren Impulse in einem Bereich hinreichend hoher Akzeptanz und Effizienz liegen. Außerdem werden die Spuren ausgewählt, die mit hoher Wahrscheinlichkeit von Pionen stammen. Eine weitere Auswahl wird auf der Paarebene getroffen. Die Korrelationsfunktion wird in einzelnen Intervallen transversalen Paarimpulses kt und Paarrapidität Yðð gebildet. Damit kann die Abhängigkeit der HBT-Radien von diesen Größen dargestellt werden. Zwei weitere Auswahlkriterien sollen die Qualität der Spurpaare garantieren. Zum einen werden solche Paare verworfen, die im Detektor zu nahe beieinander liegen. Für die HBT-Analyse sind Paare mit geringem Impulsunterschied entscheidend, ein geringer Impulsunterschied heißt notwendigerweise, dass die Spuren räumlich nicht sehr weit getrennt sind. Wenn die Spuren aber zu nahe liegen, können sie vom Detektor und von der Rekonstruktionskette nicht mehr aufgelöst werden. Damit verliert man einen Teil der Paare in der Signalverteilung, nicht aber in der Untergrundverteilung, da in diesem Fall die endliche Zwei-Spur-Auflösung keine Rolle spielt. Um die Korrelationsfunktion nicht durch einen Detektoreffekt zu verfälschen, entfernt man die Paare, die im Detektor nahe beieinander liegen, sowohl in der Signal- als auch in der Untergrundverteilung. Ein weiteres Problem stellen "gebrochene" Spuren dar. In einigen Fällen wird eine Teilchenspur von der Rekonstruktionskette nicht als Ganzes erkannt, vielmehr werden zwei Spurstücke im Dektor gefunden. Da diese Spurstücke vom selben Teilchen stammen, haben sie eine sehr geringe Impulsdifferenz. Diese Paare können anhand ihrer Topologie im Detekor erkannt werden. Wie im Fall der begrenzten Zwei-Spur-Auflösung werden sie sowohl für die Signal- als auch für die Untergrundverteilung nicht zugelassen. In Kapitel 5 werden schließlich die Ergebnisse der Korrelationsanalyse dargestellt. Die Korrelationsfunktion wird in verschiedenen Parametrisierungen betrachtet. In der einfachsten Form betrachtet man nur den Betrag des Impulsdifferenzvektors. Dieser Ansatz bedeutet aber, dass der entsprechende HBT-Radius alle Raum-Zeit Komponenten mischt und damit nur wenig Aussagekraft bezüglich der Quellfunktion besitzt. Eine differenzierte Analyse in drei unabhängigen Komponenten ermöglichen die Pratt-Bertsch (PB) und die Yano-Koonin-Podgoretskii (YKP) Parametrisierung. Die beiden Parametrisierungen unterscheiden sich in der Zerlegung des Impulsdifferenzvektors in drei unabhängige Komponenten. Im ersten Fall bezeichnet man die Komponenten als qout, qlong und qside, im zweiten Fall als qpara, qperp und q0 (Kapitel 2.7 und 2.8). Die entsprechenden Korrelationsfunktionen sind in Gleichung 2.31 bzw. 2.34 gegeben. Die jeweiligen HBT-Radien Rout, Rlong und Rside bzw. Rpara, Rperp und R0 können in Relation zu den Parametern der Quellfunktion (Gleichung 2.43) gesetzt werden. Die beiden Parametrisierungen liefern im Prinzip die gleiche Information und die beiden Sätze von HBT-Radien können in Beziehung zueinander gesetzt werden (Gleichung 2.41). Beispielsweise entspricht der HBT-Radius R0 in der YKP-Parametrisierung in erster Näherung der Emissionsdauer, während in der PB- Parametrisierung diese Größe Verhältnis von Rout zu Rside abhängt. Zusätzlich zu den Radien enthält die YKP-Parametrisierung einen Parameter ß, der erlaubt, die longitudinale Geschwindigkeit des betrachteten Quellelementes zu bestimmen. Die Abbildungen 5.7 bis 5.10 zeigen die HBT-Radien beider Parametrisierungen in Abhänigigkeit vom transversalen Paarimpuls kt und von der Paarrapidität Yðð. Die Größe der gemessenen Radien bewegt sich zwischen 3 und 7 fm. Nur der Radius R0 verschwindet in den meisten kt-Yðð Intervallen. Die anderen Radien nehmen mit steigendem kt ab und sind unabhängig von Yðð . Abbildung 5.11 demonstriert, dass die beiden Parametrisierungen -dort wo sie vergleichbar sind- konsistente Ergebnisse liefern. Eine Diskussion der Ergebnisse schließt sich in Kapitel 6 an. Die Abhänigigkeit des Parameters ß von Yðð zeigt eine starke longitudinale Expansion an. Ein ähnliches Verhalten wurde bei niedrigeren Schwerpunktsenergien beobachtet, wo man allerdings eine schwächere longitudinale Expansion erwarten würde. Die Lebensdauer der Quelle, also die Zeit vom anfänglichen Überlapp der Kerne bis zum thermischen Ausfrieren, bestimmt die kt-Abhänigigkeit des Parameters Rlong. Dieser Zusammenhang wurde von Mahklin und Sinyukow formuliert, eine Anpassung der entsprechenden Funktion an die gemessene kt Abhänigigkeit von Rlong ergibt eine Lebensdauer von etwa 8 fm/c bei einer Ausfriertemperatur von etwa 126 MeV. Entsprechende Messungen bei niedrigeren Kollisionsenergien lieferten ähnliche Resultate. Die kt-Abhängigkeit des Parameters Rside ist mit der Stärke der transversalen Expansion gemäß Gleichung 6.3 verknüpft. Da die Relation nicht eindeutig ist, muß entweder eine feste Ausfriertemperatur angenommen werden oder es werden gleichzeitig Einteilchenspektren betrachtet, um die Mehrdeutigkeit zu eliminieren. Eine vorläufige Abschätzung ergibt eine mittlere transversale Expansions- geschwindigkteit von v ungefähr gleich 0.6 und einen gemetrischen Radius von RG ungefähr gleich 7.4 fm . Auch diese Ergebnisse sind vergleichbar mit entsprechenden Resultaten bei niedrigeren Kollisionsenergien. Ein weiterer Parameter der Quellfunktion ist die Emissionsdauer. Die Pionen werden nicht zu einem festen Zeitpunkt emittiert, man geht vielmehr davon aus, dass die Zeitpunkte der letzten elastischen Wechselwirkung in der Quelle gaußförmig verteilt sind. Den Mittelwert dieser Verteilung bezeichnet man als Lebensdauer der Quelle, die Breite als Emissionsdauer. Entsprechend Gleichung 6.4 bzw. 6.5 ist die Emissionsdauer mit dem Radius R0 bzw. dem Verhältnis Rout zu Rside verbunden. Wie in Abbildung 5.8 ersichtlich verschwindet der Parameter R0 , außer im kleinsten kt Intervall. Dies entspricht in der PB-Parametrisierung der Tatsache, dass das Verhältnis Rout zu Rside bei hohen kt kleiner als eins ist. Diese Resultate sind nicht vereinbar mit herkömmlichen Modellen. Insbesondere weil eine verlängerte Emissionsdauer als Signatur für die Bildung eines Quark-Gluon-Plasmas vorgeschlagen wurde, wird dieses Ergebnis derzeit intensiv diskutiert. Die Ergebnisse dieser Analyse sind sowohl mit bereits publizierten Daten der STAR Kollaboration als auch mit Resultaten von anderen RHIC Experimenten verträglich (siehe Abbildung 6.8). In Abbildung 6.9 ist die Abhängigkeit der HBT-Radien von kt bei verschiedenen Schwerpunktsenergien dargestellt. Im Gegensatz zu vielen anderen Observablen ändern sich die HBT Radien nur geringfügig. Da man erwartet, dass die Reaktion bei hohen Energien vollkommen anders abläuft, würde man auch davon ausgehen, dass sich die Ausfrierbedingungen ändern. Dass dies nicht in den Zwei-Teilchen- Korrelationen sichtbar wird, deutet darauf hin, dass die Näherungen die notwendig sind, um die gemessenen Radien mit Modellparametern zu verbinden, nicht gültig sind. Die Systematik der HBT Parameter als Funktion der Schwerpunktsenergie enthält damit keinen direkten Hinweis, dass die kritische Energiedichte überschritten wurde, ab der die Kernmaterie in einer Plasmaphase vorliegt. Andererseits werden weder die verschwindende Emissionsdauer noch die Tatsache, dass die anderen HBT-Parameter sich nur wenig mit der Schwerpunktsenergie ändern, als Argument dafür gewertet, dass die kritische Energiedichte nicht überschritten wurde. Die Frage, ob ein Quark- Gluon-Plasma im Labor erzeugt und analysiert werden kann, bleibt damit offen. Das thermische Ausfrieren einer Pionenquelle scheint hingegen anders zu verlaufen, als bisher angenommen wurde. Systematische Studien der Korrelationsfunktion in AA Kollisionen am RHIC in Kombination mit Fortschritten im theoretischen Verständnis der Teilcheninterferometrie in Schwerionenreaktion werden in Zukunft hoffentlich erlauben, die gemessenen Radien in ein konsistentes Bild einzuordnen. In zukünftigen Experimenten am LHC werden noch weit höhere Dichten erreicht als bisher, damit sollten sich auch die Ausfrierbedingungen stark verändern. Es wird sich dann zeigen, ob die Teilcheninterferometrie das geeignete Instrument ist, um die Quellfunktion einer Schwerionenreaktion zu messen.
Mithilfe der klinischen Routinemethode, TRAK-Assay®, wurden bei Patienten TSH-Rezeptor-Antikörpern (TRAK) nachgewiesen, um die Diagnose M. Basedow zu erhärten oder auszuschließen. Diese Methode ist aber nur in der Lage die Gesamtheit aller TRAK zu erfassen. In dieser Studie wurde eine andere Methode, der cAMP-Assay verwendet, bei welchem Chinesische Hamster Ovarien (CHO)-Zellen eingesetzt wurden, die auf ihrer Oberfläche stabil exprimierte humane TSH-Rezeptoren besitzen, und welcher in der Lage ist, zwischen dem Vorhandensein von funktionsstimulierenden und funktionsblockierenden Antikörpern zu unterscheiden. Die Differenzierung zwischen diesen verschiedenen Antikörper-Typen kann wichtige Hinweise dafür liefern, warum das klinische Bild bei vielen Erkrankten nicht mit dem Vorhandensein oder der Höhe der TRAK korreliert und Anhaltspunkte über die Prognose über den weiteren Verlauf der Erkrankung geben. Große Patientenkollektive von insgesamt mehr als 300 Patienten wurden auf das Vorhandensein von TRAK im Serum untersucht, getrennt nach TRAK mit stimulierender und blockierender Funktion. Neben Patienten mit M. Basedow wurden in diese Studie auch Patienten einbezogen, welche an Hashimoto-Thyreoiditis, an einer anderen Autoimmunerkrankung, an nicht-autoimmunen Schilddrüsenerkrankungen oder an Thyreoiditis de Quervain erkrankt waren. Bei Patienten mit M. Basedow wurde außerdem der Einfluß der thyreostatischen Behandlungsdauer auf das Auftreten von TRAK mit stimulierender und blockierender Funktion untersucht. Material und Methode Es wurde die CHO- Zelllinie JP 26 verwendet. Die Zellen wurden kultiviert mit IMDM- Medium, 100 U/ml Penicillin, 100 U/ml Streptomycin, 5% FCS in einer 5%igen CO2-Atmosphäre bei 37°C. Für den cAMP-Assay wurden die Zellen in 96-Well-Platten angezüchtet. 24 Stunden später wurden die CHO-Zellen, nach Entfernung des Kulturmediums, zur Ermittlung funktionsstimulierender TRAK, mit 60 µl hypotonem KRB- Puffer, 20 µl IMBX (Isobutylmethylxanthine) und 20 µl Patientenserum für zwei Stunden inkubiert. Zur Ermittlung funktionsblockierender TRAK wurden 40 µl KRB, 20 µl IMBX, 20 µl Patientenserum und 20 µl TSH (Konz. 0,5 mU/ml) verwendet. Die cAMP-Konzentration wurde mittels eines kompetitiven Radioimmunoassays (BIOTRAK® cAMP) und eines Gamma-Counters gemessen. Ergebnisse Mit dieser Methode läßt sich zeigen, dass nicht nur bei Patienten mit M. Basedow signifikant hohe Titer mit funktionsstimulierenden und funktionsblockierenden Antikörpern vorhanden sind. Funktionsstimulierende TRAK wurden bei 25,7% der Hashimoto-Thyreoiditis-Patienten, bei 5,56% der Patienten mit schilddrüsenunabhängigen Autoimmunerkrankungen (M. Addison, Diabetes mellitus Typ 1) und bei 17,4% der Patienten mit nicht-autoimmunen Schilddrüsenerkrankungen detektiert. Funktionsblockierende TRAK waren in signifikanter Höhe bei 19,15% der Patienten mit Hashimoto-Thyreoiditis, bei 27,78% mit schilddrüsenunabhängigen Autoimmunerkrankungen und bei 50% mit nicht-autoimmunen Schilddrüsenerkrankungen aufzufinden. Die Gruppe der Thyroiditis-de Quervain-Patienten zeigte keine signifikanten Unterschiede im Vorkommen von Antikörpern zur Kontrollgruppe. In der Gruppe der M. Basedow-Patienten konnten bei 52,1% funktionsstimulierende Antikörper entdeckt werden. Bei den Patienten, welche weniger als vier Wochen thyreostatisch behandelt wurden, konnten in ca. 10% mehr Antikörper-positive Fälle detektiert werden, als bei Patienten mit einer Behandlungsdauer von mehr als neun Monaten. Nur 9,62% der M. Basedow-Patienten hatten laut cAMP-Assay TRAK mit blockierender Funktion. Diese verteilen sich ausschließlich auf Patienten, welche seit mindestens neun Monaten in thyreostatischer Behandlung waren. Der hier verwendete cAMP ist ein geeignetes Verfahren zur Differenzierung unterschiedlicher TRAK-Typen, was mit dem herkömmlichen TRAK-Assay® nicht möglich ist. In dieser Studie konnte gezeigt werden, dass Antikörper gegen den TSH-Rezeptor nicht nur bei Patienten mit M. Basedow vorkommen, sondern auch bei Patienten anderer Schilddrüsen- und Autoimmunerkrankungen. Es wird außerdem deutlich, dass eine thyreostatische Behandlung mit einer Dauer über neun Monaten bei M. Basedow-Patienten zum gehäuften Auftreten von funktionsblockierenden Antikörpern führt.
Gehirne von an Scrapie erkrankten Tieren sind histopathologisch durch Vakuolisierung, Astrogliose, Neurodegeneration und charakteristische PrPSc-Ablagerungen gekennzeichnet. Die pathologischen Mechanismen, die zu diesen Veränderungen führen, sind noch weitgehend unverstanden. Die Untersuchung der differentiellen Genexpression in Scrapie-infizierten Mausgeweben kann zu einem besseren Verständnis der pathogenen Mechanismen dieser Erkrankung auf molekularer Ebene beitragen. Auch könnten einige der differentiell exprimierten Gene zur Entwicklung eines auf Surrogatmarkern basierenden Testsystems beitragen oder für die Entwicklung von Strategien zur therapeutischen Intervention nützlich sein. Um im Verlauf der Scrapieerkrankung in Mäusen hoch- oder herunterregulierte Gene zu identifizieren, wurden RNA arbitrarily primed PCR (RAP-PCR) und suppression subtractive hybridisation (SSH) an Hirn- und Milzproben Scrapie-infizierter Mäuse und gesunder Kontrolltiere durchgeführt. Die Ergebnisse wurden anhand eines differentiellen Screening-Schrittes, Sequenzanalysen und Northernblots bestätigt. Durch einen Datenbankabgleich der erhaltenen Sequenzen wurden mehrere Kandidaten identifiziert. Einige davon, wie GFAP, Apolipoprotein D, Vimentin, Mx-Protein, MHC I und II wurden bereits als in Scrapie-infizierten Gehirnen hochreguliert von anderen Arbeitsgruppen publiziert. Eine differentielle Regulation weniger weiterer Kandidaten, wie Cytochromoxidase, Ubiqitinierungsfaktor E4a und das herunterregulierte Stathmin wurden bisher noch nicht beschrieben. Auch eine bisher unbekannte differentiell exprimierte Sequenz wurde gefunden. Ergänzend zu den Untersuchungen auf Nukleinsäureebene wurde die 2DElektrophorese für Gehirngewebe zur Untersuchung der differentiellen Expresssion auf Proteinebene unter Berücksichtigung posttranslationaler Modifikationen etabliert. Protokolle für die Vorbereitung von Mäusegehirnproben, die Durchführung der isoelektrischen Fokussierung und der 2. Dimension, sowie Färbeprotokolle für qualitative und quantitative Analysen der Gele unter Berücksichtigung der Erfordernisse nachfolgender MALDI-Analysen wurden erarbeitet.
Endogene Retroviren des Schweines (PERV), die vertikal auf die Nachkommen vererbt werden, stellen ein potentielles Infektionsrisiko bei der Transplantation porziner Zellen, Gewebe oder solider Organe auf den Menschen (Xenotransplantation) dar. Bislang sind zwei PERV- Klassen des C-Typs bekannt, die in-vitro humane Zellen produktiv infizieren können. Voraussetzung einer produktiven Infektion ist neben dem Rezeptor-vermittelten Eindringen des Virus in die Wirtszellen die transkriptionelle Aktivität des retroviralen Promotors (LTR), welcher die zweite Determinante des Wirtstropismus darstellt. Mittels eines Luciferase Reportergen Assays wurde die Aktivität verschiedener PERV LTRs in humanen und anderen Säugerzellen im Vergleich zu bekanntermaßen starken Promotoren untersucht. Dabei zeigten LTRs, welche in der die Transkription regulierenden Region U3 eine aus 39-bp Repeats bestehende Repeatbox trugen, in nahezu allen getesteten Zellinien eine außerordentlich starke Promotoraktiviät. Diese wurde insbesondere durch die Repeatbox vermittelt und korrelierte direkt mit der Anzahl der 39-bp Repeats. Wie weiterführende Untersuchungen zeigten, konnte die Aktivität heterologer und Repeat-loser homologer Promotoren durch eine 4-fach 39-bp Repeatbox unabhängig von deren Lage und Orientierung über weite Distanzen hinweg signifikant erhöht werden. Die Repeatbox stellt damit einen klassischen Enhancer dar. Als die Transkription regulierende zelluläre Komponente konnte der ubiquitäre, in der Evolution konservierte Transkriptionsfaktors NF-Y identifiziert werden, dessen Bindung an Sequenzabschnitte des 39-bp Repeats nachgewiesen wurde. Weitere cis-aktive Elemente konnten in der U3 Region stromaufwärts der Repeatbox sowie in der R Region lokalisiert werden. Im Verlauf einer seriellen Passagierung in infizierten humanen Zellen erfolgte eine rasche Adaptation der Repeatzahl und damit der transkriptionellen Aktivität an den neuen Wirt. Wie die Ergebnisse einer neu etablierten quantitativen Real- Time PCR zeigten, korrelierte die Anzahl der von einer infizierten Zelle freigesetzten Viruspartikel direkt mit der Aktivität der LTR. Durch Adaptation der LTR Aktivität kann somit eine maximale, für die Wirtszelle verträgliche Virusproduktion erfolgen. Ausgehend von den beschriebenen Eigenschaften der PERV LTR ergeben sich für die Xenotransplantation spezifische Risiken, die Infektion des möglichen Transplantatempfängers vorausgesetzt. Diese betreffen durch mögliche Aktivierung von Protoonkogen oder Disruption zellulärer Gene den Empfänger selbst, durch die mögliche Rekombination von PERV mit humanen endogenen Sequenzen oder anderen exogenen Erregern und der Ausbildung potentiell hochpathogener Formen aber auch sein soziales Umfeld. Wie in-vitro Studien mit zwei routinemäßig in der Transplantationsmedizin eingesetzten Immunsuppressiva belegen, werden diese Risiken durch deren unvermeidlichen Einsatz im Falle einer Xenotransplantation nicht potenziert. Ausgehend von der starken transkriptionellen Aktivität Repeat-tragenden LTRs könnten diese geeignete Werkzeuge für molekularbiologische Anwendungen darstellen, bei denen, wie im Falle des Gentransfers oder der Gentherapie, starke Promotoren benötigt werden. In einem zweiten Projekt der vorliegenden Arbeit sollte untersucht werden, ob die Expression des humanen endogenen Retrovirus HERV-K in einem transgenen Mausmodell Auswirkungen auf den Phänotyp der Tiere hat. HERV-K kodiert im Gegensatz zu den meisten anderen HERV-Familien für komplette virale Proteine, deren Bedeutung für den menschlichen Organismus jedoch weitgehend unbekannt sind. Zur Etablierung transgener Tiere waren zwei verschiedene Transgen-Konstrukte verwendet worden, von denen eines die komplette provirale Sequenz exklusive der LTRs beinhaltete, das andere lediglich das env-Gen. Für beide Konstrukte war die Etablierung homozygot transgener Tiere gelungen, der Nachweis der RNA Expression konnte jedoch nur bei jenen Linien erfolgen, die das komplette virale Genom trugen. Immuno Blot-Analysen und indirekte Immunfluoreszenz belegten die Expression viraler Proteine in verschiedenen Organen juveniler und adulter Tiere dieser Linien. Die transgenen Mäuse zeigten einen normalen Phänotyp und einen normalen Lebenszyklus mit einer unveränderten Reproduktionsrate. Eine auftretende Tumorgenese konnte stets auf das hohe Alter der betroffenen Tiere zurückgeführt werden, histologische oder anatomische Auffälligkeiten traten nicht auf. Ausgehend von diesen Beobachtungen in einem Tiermodell kann der Schluß gezogen werden, daß die HERV-K Expression im humanen Organismus keine große Bedeutung hat.
Die lösliche Guanylyl Zyklase (sGC) ist das Schlüsselenzym, das die Stickstoffmonoxid (NO)-induzierte Vasodilatation über eine Erhöhung des intrazellulären zyklischen 3´5´-Guanosinmonophosphats (cGMP) vermittelt. Obwohl die sGC oft als "Haushalts"-Gen bezeichnet wurde, dessen Aktivität nur akut durch die verfügbare NO-Menge reguliert wird, zeigen einige neuere Befunde, dass eine Regulation auch auf Ebene der Gen-Expression stattfindet. Z.B. wurde in zwei Rattenmodellen, der Nitrat-Toleranz (Mülsch et al., 2001) bzw. des chronischen Herzversagens (Bauersachs et al., 1999), eine zwei- bis dreifache Induktion der sGC-Expression beobachtet. Bei der Nitrat-Toleranz wurde zudem ein Anstieg der Endothelin- 1 (ET-1)-Expression beobachtet (Münzel et al., 1995). In dieser Arbeit wurde deshalb untersucht, ob ET- 1 einen Einfluss auf die sGC-Expression und die sGC/cGMP vermittelte Relaxation von Rattengefäßen hat. Um den möglichen Einfluss von ET-1 auf die Transkription der sGC zu untersuchen sollten die Promotoren der beiden Untereinheiten (UE) a1 und ß1 der Ratte kloniert werden. Dazu wurde zuerst eine Bestimmung der Transkriptionsstarts für beide UE durchgeführt. Es konnte gezeigt werde, dass die Sequenz der bis dahin bekannten 5´ Untranslatierten Region (5´ UTR) der a1-UE (Nakane et al., 1990) nicht korrekt war. Die ersten 213 bp dieser Sequenz konnten nicht gefunden werden. Für die ß1-UE konnte der 5´ UTR um 30 bp, im Vergleich zu der von Nakane (1990) publizierten Sequenz, verlängert werden. Letztlich konnten mit Hilfe einer PCR-Technik 2864 bp (a1) und 1287 bp (ß1) in 5´ Richtung des Transkriptionsstarts kloniert und sequenziert werden. Beide Promotoren zeigten eine basale Aktivität, die sich mit zunehmender Verkürzung der Bereiche in Richtung Transkriptionsstart erhöhte. Die basale Aktivität der beiden UE-Prornotoren zeigte, dass die Gene der beiden UE nicht in Tandemorganisation, wie im Medakafisch (Mikami et aI., 1999) vorliegen, sondern ähnlich wie bei der Maus (Sharina et al., 2000) beide UE unabhängig voneinander reguliert werden. Beide Promotoren ließen sich durch eine 6 stündige Stimulation mit ET-1 [10nM] um das ca. 1,6 bis l,9fache aktivieren. Bei Verkürzung des a1-Promotors wurde zudem festgestellt, dass das kürzeste Fragment sich nicht mehr durch ET-1 stimulieren ließ. In den 146 bp, die diesem Konstrukt fehlten, befinden sich mögliche Bindestellen für die Transkriptionsfaktoren PEA3, NF-Il6 und E2A. In kultivierten glatten Gefäßmuskelzellen der Ratte konnte mit Hilfe der RT-PCR gezeigt werden, dass ET-I (10 nM, 6 Std.) die Expression beider UE auf mRNA-Ebene um das ca. dreifache erhöht. Zudem konnte für die ß1-UE mit Hilfe der Real-Time-PCR (TaqManTM) und für die ET-Rezeptortypen spezifische Antagonisten gezeigt werden, dass dieser ET-1 Effekt über den ETA-Rezeptor vermittelt wird. Bei isometrischen Kontraktionsmessungen an Endothel-freien Rattengefäßen konnte gezeigt werden, dass eine 4 stündige Vorstimulation mit 10 nM ET-1 die für eine 50%ige Relaxation der Gefäße nötige Konzentration des NO-Donors Natriumnitropussuid (SNP) um ca. eine Zehnerpotenz verringert. ET-1 erzeugt also eine deutliche Sensitivierung der Gefäße gegenüber NO. Durch Versuche mit einem stabilem cGMP-Analogon (8-Bromo-cGMP) konnte zudem gezeigt werden, dass nachfolgenden Elemente der NO/cGMP Signalkette nicht durch die ET-1 Stimulation beeinflusst wurden. Auch Teile der Signalkette, die die cAMP-induzierte Relaxation vermitteln, wurden nicht durch ET-1 beeinflusst. Schließlich konnte in in-vitro Versuchen gezeigt werden, dass ET-1 sowohl in Endothel-freien Rattenaorten und Koronargefäßen des Schweins, als auch in kultivierten, glatten Rattengefäßmuskelzellen eine signifikante Steigerung der spezifischen NO-induzierten sGC-Aktivität bewirkt. Die in dieser Arbeit gezeigte Steigerung der Promotoraktivität, der mRNA-Mengen und der enzymatischen Aktivität der sGC durch ET-1 deutet auf einen biologischen Rückkoppelungsmechanismus hin. Dieser würde einer übermässigen Vasokontraktion und den mitogenen Effekten von ET-l bei einer Überexpression entgegen wirken und wäre somit ein wichtiges Element der Feineinstellung der ET-1 Wirkung.
Die verschiedenen Typen von Nervenzellen sind durch die differentielle Expression terminaler Differenzierungsgene charakterisiert. Dies sind z.B. Gene, deren Produkte die Synthese und den Transport der verwendeten Neurotransmitter gewährleisten. Die Expression dieser Gene wird während der Entwicklung durch spezifisch exprimierte Transkriptionsfaktoren reguliert. In der Entwicklung sympathischer Nervenzellen sind Mitglieder aus der Familie der basic Helix-Loop-Helix-(bHLH)-Transkriptionsfaktoren und der paired-Homöodomänen-Faktoren identifiziert worden, deren Expression in Vorläuferzellen aus der Neuralleiste durch das Signalmolekül BMP4 induziert wird und die an der Regulation des sympathischen Phänotyps beteiligt sind. Nullmutanten des bHLH-Faktors Mash1 und des Homöodomänen-Faktors Phox2b zeigen eine stark gestörte Entwicklung der sympathischer Nervenzellen. Weitere bHLH-Faktoren, dHand und eHand, vermögen in vitro die Expression noradrenerger Differenzierungsgene in Neuralleistenzell-kulturen zu induzieren. Ob diese Faktoren in vivo eine Rolle in der entwicklungsabhängigen sympathischen Differenzierung spielen, kann im Mausmodell nicht untersucht werden, da die Nullmutanten noch vor der Sympathogenese sterben. Das Huhnembryo bietet das ideale Modellsystem, die Rolle von Transkriptionsfaktoren in vivo zu untersuchen und durch Kopplung embryologisch-experimenteller und molekularer Verfahren die Faktoren gezielt in bestimmten Geweben zu exprimieren. In dieser Arbeit werden Experimente dargestellt, welche die Rolle dieser Transkriptionsfaktoren genauer definieren. Durch die viral induzierte Expression von Phox2a und Phox2b im Huhnembryo wird gezeigt, dass die Expression dieser Faktoren ausreicht, in multipotenten Vorläuferzellen des Brachialnervs und des Hinterwurzelganglions die Differenzierung sympathischer Nervenzellen zu induzieren. Dieser Phänotyp umfasst neben der Expression typisch noradrenerger und panneuronaler Gene ebenfalls die Expression der Transkriptionsfaktoren Phox2a und -b, dHand und Cash1. Es wird gezeigt, dass dHand im Laufe der sympathischen Entwicklung noch vor den noradrenergen und panneuronalen Differenzierungsgenen exprimiert wird. Auch dHand ist in der Lage, nach viraler Misexpression in multipotenten Vorläuferzellen des Embryos Differenzierung zu sympathischen Nervenzellen auszulösen. Weiter wird gezeigt, dass die Überexpression von BMP4 im Huhnembryo dazu führt, dass undifferenzierte Vorläuferzellen im Brachialnerv zu sympathischen Nervenzellen differenzieren. Mash1 vermag nach Überexpression die Expression neuronaler Gene im Brachialnerv und umliegenden Mesoderm zu induzieren. Die Bildung sympathischer Nervenzellen im Bereich des Brachialnervs wird ebenfalls induziert. Diese exprimieren wiederum neben den noradrenergen und panneuronalen Genen auch die Transkriptionsfaktoren Phox2a/b und dHand. Die Ergebnisse zeigen überzeugend das Vermögen der Transkriptionsfaktoren Phox2a/b, dHand und Mash1 den komplexen sympathischen Phänotyp in multipotenten Vorläuferzellen aus der Neuralleiste zu induzieren. Besonders wichtig sind hierbei die Ergebnisse nach dHand-Überexpression. Hiermit wird erstmals gezeigt, dass dieser bHLH-Transkriptionsfaktor in vivo eine hervorragende Rolle innerhalb der Regulation noradrenerger und neuronaler Gene einnimmt. Die Ergebnisse der verschiedenen Untersuchungen zeigen darüber hinaus, dass während der Normalentwicklung in Vorläuferzellen des peripheren Nervensystems die Expression einer Gruppe von Transkriptionsfaktoren induziert wird. Deren Mitglieder werden in einer festgelegten zeitlichen und epistatischen Reihung exprimiert. Jeder Einzelne dieser Transkiptionsfaktoren ist ausreichend, in Vorläuferzellen die Entstehung sympathischer Nervenzellen auszulösen. Dabei wird die Expression der anderen Mitglieder dieser Gruppe induziert. Es handelt sich also nicht um eine lineare Kaskade von Transkriptionsfaktoren, sondern um ein Netzwerk von Faktoren, die ihre Expression gegenseitig regulieren und vermutlich gemeinsam die Expression terminaler Differenzierungsgene steuern.
The light-harvesting chlorophyll a/b protein complex (LHC-II) is the major collector of solar energy in all plants and it binds about half of the chlorophyll in green plants. LHCII is a trimer in the photosynthetic membrane; each monomer consists of 232 amino acids, binds and orients a minimum of 12 chlorophyll molecules and three caroteinoids (two luteins and one neoxanthin) for light-harvesting and energy transfer. Although, the structure of LHC-II has been determined at 3.4 Å resolution by electron microscopy of two-dimensional crystals (Kühlbrandt et al., 1994), this is not sufficient to allow a complete understanding of the mechanism of energy transfer from LHC-II to the reaction centre, since the effective resolution in the z dimension is 4.9 Å. In fact, the chemical difference between Chl a and Chl b, which has a formyl group instead of the methyl group at the 7-position in the chlorin ring, is too small to be detected at this level of resolution. In addition, the orientation of the chlorophyll tetrapyrroles have not been determined unambiguously. This information is essential for a detailed understanding of the energy transfer within the complex and to the reaction centres of photosystem II and I (PSII and PSI). X-ray crystallography of three dimensional (3D) crystals may yield a more complete structure at high resolution. 3D crystals have been grown from LHC-II isolated from pea leaves using a standard purification procedure (Burke et al., 1978). The thylakoid membranes are solubilised in Triton X-100 and further purified by sucrose gradient ultra centrifugation. The LHC-II fraction is salt precipitated and pellets resuspended at the chlorophyll a/b ratio 2.8 mg/ml in 0.9 % Nonyl-glucoside. Crystals are currently obtained by vapour diffusion in hanging drops. These crystals are thin hexagonal plates, have a fairly large unit cell and diffract quite weakly. The high level of the background is due both to the detergent, necessary for protein solubilisation, and lipids, required for the trimer and crystals formation. However, three data sets, each from one single crystal have been collected up to 3.2 Å resolution over a rotation range of 135°. The crystals were exposed to a very highly collimated and brilliant beam (ID-14 EH1 at ESRF, Grenoble, France) and were kept under a stream of cold nitrogen to prevent radiation damage. Data were successfully integrated using the program XDS by Kabsch (1993). The crystals were found to belong to the space group P6 22 3 and have unit cell dimensions of a=128.45, b=128.45, c=135.32, a= ß=90º, ?=120. The solution of the phase problem was tackled by molecular replacement using, as a search model, the LHC-II structure solved by electron cryo-microscopy studies of twodimensional crystals (Kühlbrandt et al. 1994). Three different programs were tested: the most used AMoRe (Navaza et al., 1994) and the brute force based program Brute (Fujinaga
Die Autorin behandelt am Beispiel Brasilien das universelle Thema der Gewalt gegen Frauen in einem international vergleichenden und interkulturell kommunikativen Zusammenhang. Wichtiges Anliegen ihrer Fallstudie zur Gewalt gegen Frauen ist deutlich zu machen, dass die kontextbedingt aktive Bewegung der Frauen wider Gewalt in Brasilien sich nicht nur von Aktionen und Diskursen aus dem internationalen Bereich inspiriert hat, sondern einen beachtenswerten eigenen Beitrag leistet, von dem auch andere Frauenbewegungen lernen könnten. Voraussetzung hierzu ist allerdings, dass in allen diesen Gesellschaften, denen innerhalb der stratifizierten globalen Zusammenhänge unterschiedlicher Status zugewiesen wird, ein interkulturell kommunikativer Lernprozess stattfindet. In der Einleitung zu dieser Studie wird auf die spezifische Problematik des Themas hingewiesen, die Untersuchungsmethode und die eigene Argumentationsweise vorgestellt, die eng mit der Motivation zur Behandlung des Themas verwoben ist. Im ersten Kapitel wird die Gewalt gegen Frauen als zugleich universales wie auch partikulares Problem diskutiert, und dementsprechend die divergierenden Definitionen der Gewalt gegen Frauen, die vielfältigen Ansätze zum Verständnis von Frauen aus verschiedenen Gesellschaften und schließlich die Vielfalt der Erfahrungen von Frauen gegenüber Gewalt im Licht der interkulturellen Kommunikation vorgestellt und kritisch analysiert. Im zweiten Kapitel werden die diskursiv analytischen Interpretationen der Gewalt gegen Frauen im Licht der interkulturellen Kommunikation behandelt. Die Autorin knüpft an das diskursive Modell der Bedürfnisinterpretation von Nancy Fraser an und wendet es als methodischer Ansatz zur Interpretation der Gewalt gegen Frauen an. Sie weist auf die gesellschaftspolitischen und kulturellen Grenzen dieses Modells (auf die nördliche Hemisphäre beschränkt) hin und versucht es im Lichte des Ansatzes von Patrick Dias zu interkulturellem Lernen im Kontext der international ungleichen Machtstrukturen kritisch weiterzuentwickeln. Das dritte Kapitel analysiert die relevanten gesellschaftlichen Bedingungen mit ihren diskursiven Konstruktionen zum Verständnis von Frauen und deren Stellung im spezifischen Kontext Brasiliens. Das vierte Kapitel stellt die brasilianische Frauenbewegung wider Gewalt gegen Frauen in ihren historischen Zusammenhängen dar: von ihren Anfängen über deren Strategien in den Achtzigern bis im ausgehenden zwanzigsten Jahrhundert hinein; und es schließt mit den Diskussionen im 21. Jahrhundert ab, die verstärkt unter der Metapher der Cidadania (Aufbau der Zivilgesellschaft) steht. Kapitel fünf fasst die Ergebnisse der Untersuchung zusammen und führt den in der Studie angewandten diskursiv analytischen Ansatz im Rahmen der interkulturell immer noch bestehenden herrschaftlichen Kommunikationsstruktur mit einem Plädoyer für ein interkulturelles Lernen, das die globalen Ungleichheiten nicht verkennt, weiter.
Die vorgelegte Arbeit beschäftigte sich zunächst mit der Synthese von neuen 3'- und basenmodifizierten Nukleotiden und deren Markierung mit Fluoresceinisithiocyanat. Der zweite Teil dieser Arbeit befasst sich mit der Überprüfung der synthetisierten Verbindungen auf ihre Eignung als Terminatoren für die enzymatische DNA-Sequenzierung. Die Synthese des neuen Thioamidtriphosphats 3'- [[6-Amino- 1 -thioxohexyl) amino] -3'-konnte in 10 Schritten ausgehend vom Thymidin erfolgreich durchgeführt werden. Zunächst erfolgte die Umsetzung zum 3'-Amino-5'-O-(4,4'-dimethoxytrityl)-3'-desoxythymidin, an dessen 3'-Aminofunktion ein Aminocapronsäurelinker angekuppelt wurde. Der Schlüsselschritt der Synthese war die Beschwefelung der so generierten 3'-Amidfunktion mittels Lawesson's Reagenz. Dabei konnte durch Optimierung der Synthesebedingungen die Ausbeute der Beschwefelungsreaktion um 30 % gesteigert werden. Das Thioamid 3' -Desoxy-5 '-0- (4,4'-dimethoxytrityl) -3'- {{6-{[(9H-fluoren-9-ylmethoxy)-carbonyl] -amino}-1-thioxohexyl}amino}thymidin wurde zum Triphosphat umgesetzt und anschliessend FITC markiert. Für die Synthese des N2-modifizierten 2-Pentylamin-2',3'-didesoxyguanosin-5'-triphosphats 43 wurden Synthesewege beschritten. Schliesslich führte der Trick des Ausnutzens von Desmethylwyosin als Schutzgruppe zum Erfolg. Ausgehend vom 2'-Desoxyguanosin konnte die Synthese der unmarkierte Verbindung 2-Valeriansäurenitril-2'3'-didesoxyguanosin-5'-triphosphat 41 in 8 Schritten und die des Triphosphats 2-Pentylamin-2'3'-didesoxyguanosin-5'-triphosphat 43 und dessen FITCMarkierung in 12 Schritten erfolgreich durchgeführt werden. Die 5'-entschützte Verbindung 2-Valeriansäurenitril-2'3'-didesoxyguanosin wurde erfolgreich zum Triphosphat umgesetzt. Die Verbindung 5'-0- (tert-Butyldimethylsilyl)-2-Valeriansäurenitril-2'3'-didesoxyguanosin wurde Azid überführt. Das anschliessend synthetisierte Triphosphat 2-Pentylazid-2',3-didesoxyguanosin-5'-triphosphat 42 wurde reduziert und über die entstandene freie Aminofunktion mit FITC markiert. Alle neuen Triphosphate konnten durch optimierte Aufreinigungsbedingungen in hochreinem, salzreien Zustand isoliert werden. Vor dem Einsatz als Terminatoren für die DNA-Sequenzierung wurden alle Triphosphate als Na-Salze gefällt. Die synthetisierten Thioamidtriphosphate sind im Laufe dieser Arbeit als neue Verbindungen synthetisiert und veröffentlicht worden. Die hergestellten N2 - modifizierten Didesoxyguanosintriphosphate sind bisher nicht beschrieben und neue Vertreter ihrer Verbindungsklasse. Im zweiten Teil dieser Arbeit wurden die neuen, modifizierten Triphosphate 39, 40, 41, 43 und 44 auf ihre Eignung als Terminatoren für die Sanger-DANN-Sequenzierung getestet. Dabei wurden fünf verschiedene Polymerasen eingesetzt: Die thermostabilen Polymerasen AmpliTaq, Taq(exo-), Vent(exo-), Bst und die nicht thermostabile T7 Polymerase. Die besten Ergebnisse konnten mit der T7 Polymerase erreicht werden. Alle getesteten Terminatoren wurden als Terminatoren von der T7 Polymerase akzeptiert. Die entsprechenden Sanger-Abbruchfragmente konnten mittels des Cy5-markierten Primers detektiert werden. Die Verbindung 39 wurde auch von der AmpliTaq und der Taq(exo-) Polymerase akzeptiert. Die Terminatoren 41 und 43 wurden von der Taq(exo-) Polymerase eingebaut. Entsprechende Abbruchfragmente konnten in schwacher Konzentration detektiert werden. Mit der Bst- und der Vent(exo-)-Polymerase konnten keine positiven Ergebnisse erzielt werden. Mit Sicherheit können alle getesteten Triphosphate als Substrate zumindest für die positiv getesteten Polymerasen T7, AmpliTaq und Taq(exo-) bezeichnet werden. In Zukunft sollten mit beiden FITC-markierten Nukleotiden Sequenzierversuche mit einem geeigneten Laser durchgeführt werden, um Klarheit darüber zu bekommen, ob der Farbstoff nach dem enzymatischen Einbau am Terminator verbleibt und zur Dye-TerminatorSequenzierung eingesetzt werden kann. Ausserdem ist mit der Synthese des N2 -modifizierten ddG's die Grundlage für ein Sequenziersystem mit den bereits existierenden modifizierten ddA- und ddC-Terminatoren geschaffen.
Die Lösung unbekannter Strukturen aus Pulverbeugungsdaten ist keineswegs eine Routineanwendung, und es steht noch einiges an Arbeit an, um die vorhandenen Methoden so weit zu automatisieren, daß sie von Nichtspezialisten, auch solchen mit kristallographischen Kenntnissen, direkt verwendet werden können. In dieser Arbeit konnte überzeugend dargelegt werden, daß die Anwendung des älteren Verfahrens der Fragmentsuche eine sehr gute Möglichkeit bietet, den Schwierigkeiten der Strukturlösung aus Pulverdaten erfolgreich zu begegnen. Durch graduelle Steigerung des Schwierigkeitsgrads bzw. der Komplexität der Strukturlösung von der anfänglichen Verwendung simulierter Pulverbeugungsdaten bekannter Strukturen über die Messung von Pulverbeugungsdiagrammen bekannter Strukturen bis hin zur Lösung unbekannter Strukturen konnte die sinnvolle Anwendbarkeit des Fragmentsuchprogramms PATSEE zweifelsfrei belegt werden. Die in den einzelnen Stadien der Untersuchungen diskutierten Einflüsse, wie die benötigte minimale Fragmentgröße oder die Fragmentqualität, lieferten entscheidende Hinweise für das Aufstellen einer einfachen Strategie zur Strukturlösung aus Pulverdaten mit PATSEE. So konnte gezeigt werden, daß für einen sinnvollen Strukturlösungsversuch in der Regel mehr als 50% des relativen Streubeitrags aller Atome in der asymmetrischen Einheit benötigt werden und daß sich diese Grenze nur durch die Verwendung qualitativ hochwertiger Pulverbeugungsdaten, wie sie an modernen Synchrotronringen erhalten werden können, durchbrechen läßt. Auch die Variation eines Torsionsfreiheitsgrads im Zuge der Rotationssuche kann entscheidende Vorteile verschaffen, wenn zwei für sich genommen zu kleine starre Bereiche miteinander kombiniert werden. Außerdem konnte die prinzipielle Verwendbarkeit sowohl mittels Kraftfeldmethoden berechneter als auch experimentell bestimmter Fragmente, wie sie in der CSD in großer Zahl bereitstehen, bestätigt werden. Die in PATSEE verwendete Vielzahl an Gütekriterien zur Beurteilung einer Lösung konnte auch im Falle von Pulverdaten im wesentlichen überzeugen. Zwar ist die Diskriminierung zwischen richtigen und falschen Lösungen bei weitem nicht so eindeutig in bezug auf alle Gütekriterien, aber zumindest wird eine sehr gute Bewertung hinsichtlich von CFOM - dem Gütekriterium, nach dem die Lösungen sortiert werden - und den beiden R-Werten RE(1) und RE(2) erreicht. Als etwas problematisch hat sich die Rotationssuche erwiesen, die nur auf der Beurteilung eines einzigen Gütekriteriums beruht. Da aber gerade der Rotationssuche als erstem Schritt der Fragmentsuche eine wichtige Bedeutung zukommt, ist der Anwender zu großer Sorgfalt bei deren Durchführung verpflichtet. Eine Grenze für Strukturlösungsversuche mit PATSEE stellen derzeit Strukturen mit mehreren Molekülen in der asymmetrischen Einheit dar. Da im einfachsten Fall (Z'= 2) bereits ein komplettes Molekül als Suchfragment einen relativen Streubeitrag von unter 50% aufweist, wird eine erfolgreiche Orientierung und Positionierung mit PATSEE nur noch für hervorragende Datensätze möglich sein. Für noch schwierigere Fälle (Z'> 2) oder für Verbindungen, bei denen nicht das gesamte Molekülgerüst als Suchfragment verwendet werden kann, bestehen dann praktisch keine Aussichten mehr auf eine erfolgreiche Strukturlösung mit PATSEE. Basierend auf diesen Ergebnissen, konnten PATSEE-Parameter empfohlen werden, die sowohl für große Fragmente als auch für den Grenzbereich der minimal benötigten Fragmentgröße gute Erfolgsaussichten für die Strukturlösung gewährleisteten. Dabei wichen die empfohlenen Parameter nur in geringem Maße von den für Einkristalldaten optimierten Werten ab. Anhand zweier unbekannter Strukturen konnte die empfohlene Strategie verifiziert werden. Zusätzlich wurde für eine der beiden Strukturen eine Einkristallstrukturbestimmung vorgenommen, welche die aus Pulverdaten gelöste Struktur bestätigte. Auch wenn einerseits die prinzipielle Anwendbarkeit der Fragmentsuche mit PATSEE auf Pulverbeugungsdaten bewiesen werden konnte und andererseits eine allgemeine Strategie zur Vorgehensweise geliefert wurde, sind doch noch nicht alle interessanten Fragestellungen geklärt. Hier sind zum einen die unbefriedigenden Möglichkeiten bei Strukturen mit mehreren Molekülen in der asymmetrischen Einheit zu nennen. Eine sinnvolle Erweiterung der Zahl simultan suchbarer Fragmente in PATSEE könnte diesen Schwachpunkt beheben. Zugleich könnte mit dieser Erweiterung die Anwendbarkeit auf flexiblere Molekülgeometrien ausgedehnt werden, so daß im Endeffekt eine Steigerung der einsetzbaren Fragmentgröße erreicht wird. Diese Erweiterung sollte bei der enormen Rechenleistung moderner Computersysteme kein unüberwindliches Hindernis darstellen, so daß die benötigte Zeit für einen PATSEE-Lauf mit mehreren zu suchenden Fragmenten auf maximal einige wenige Stunden ansteigen würde. Alternativ wäre zu überlegen, ob nicht das Aufheben der strikten Trennung von Rotationssuche und Translationssuche, also eine 6-dimensionale Fragmentsuche, die bisweilen zu beobachtenden Probleme der Rotationssuche beheben würde. Auch bei dieser Änderung der Vorgehensweise in PATSEE könnten moderne Computer sinnvoll eingesetzt werden. Vorteilhaft für die Strukturlösung wäre hier die Kombination der sehr erfolgreichen Diskriminierung der Gütekriterien bei der Translationssuche mit der bisher kritischen Bestimmung der Orientierung. Eine zweite Fragestellung, die im Rahmen dieser Arbeit nicht geklärt werden konnte, betrifft die Anwendbarkeit auf makromolekulare Verbindungen, die über eine große interne Regelmäßigkeit verfügen, wie beispielsweise kleinere Peptide mit alpha-helikaler Struktur oder einer beta-Faltblattstruktur. Verschiedene Testreihen an derartigen Verbindungen belegen die prinzipielle Machbarkeit, und außerdem konnte bereits in mindestens einem ähnlich gelagerten Fall [17] gezeigt werden, daß derartige Strukturlösungsversuche bei sehr großen Verbindungen durchführbar sind. Insbesondere wegen der erheblichen Schwierigkeiten bei der Kristallisation derartiger Verbindungen und dem großen wissenschaftlichen Interesse an ihrer Struktur könnten erfolgversprechende Ansätze zur Strukturlösung aus Pulverdaten einen wichtigen Beitrag in der Pharmazie, der Pharmakologie, der Biologie und nicht zuletzt in der Medizin leisten.
Die auf dem ACDM-Modell beruhenden numerischen Simulationen der gravitativen Strukturbildung sind auf Skalen M >> 10 hoch 10 M sehr erfolgreich, insbesondere konvergieren die Verfahren hinsichtlich des vorhergesagten Masseanteils der Halos an der Gesamtmasse von Galaxien. Jedoch konvergieren die Simulationen nicht bezüglich der lokalen Überdichten von CDM in den Halos, vielmehr setzt sich gravitative Strukturbildung auf immer kleinere Skalen fort. Numerisch kann keine Massen-Schwelle berechnet werden, unterhalb derer keine CDM-Strukturen mehr gravitativ gebildet werden. Die Kenntnis der lokalen Überdichten in den CDM-Wolken und die Verteilung der CDM-Wolken ist jedoch für Experimente zum direkten und indirekten Nachweis von CDM-Teilchen essentiell. Aus den lokalen Überdichten folgen für Experimente zum direkten Nachweis die einfallende Stromdichten der CDM-Teilchen und für Experimente zum indirekten Nachweis die Stromdichte der Annihilationsprodukte. Außerdem können die lokalen Überdichten als Gravitationslinsen wirken. In dieser Arbeit werden Massen Schwellen analytisch berechnet, unterhalb derer akustische Störungen in CDM nicht mehr zur gravitativen Strukturbildung beitragen können. Das Massen-Spektrum von lokalen Überdichten ist nach unten durch zwei unterschiedliche Mechanismen beschränkt: (1) Während der kinetischen Entkopplung formieren sich Nichtgleichgewichtsprozesse, die sich kollektiv als Reihungsphänomene konstituieren. Im lineare Regime sind dies die Volumenviskosität, die Scherungsviskosität und die Wärmeleitung. Die dissipativen Prozesse deponieren Energie und Impuls der akustischen Störungen in die Ebene senkrecht zur Ausbreitungsrichtung der Störungen und schmieren diese so aus. (II) Nach dem kinetischen Entkopplungsprozeß strömt CDM frei auf Geodäten. Dies ermöglicht einen Strom von Teilchen von überdichten in unterdichte Regionen, so daß die Amplituden der lokalen Überdichten weiter gedämpft werden. Die lokalen Transportkoeffizienten in (1) werden durch einen legitimen Vergleich von hydrodynamischer und kinetischer Beschreibung schwach dissipativer Prozesse gewonnen. Dissipative Prozesse induzieren eine Dämpfungsmasse Mc ungefähr gleich 10 hoch minus 9 M in SUSY-CDM und beschränken damit das Spektrum akustischer Störungen in SUSY-CDM. Freies Strömen (II) von CDM-Teilchen auf Geodäten induziert eine weitere Dämpfungsmasse M fs ungefähr gleich 10 hoch minus 6 M in SUSY-CDM, wobei das berechnete M d als Anfangswert dient. Die berechneten Schwellen liefern konsistente Schranken für numerische Simulationen, die weit unterhalb des momentanen numerischen Auflösungsvermögens liegen. Weiterhin folgt aus den Schwellen die Masse der ersten rein gravitativ gebundenen CDM-Wolken. Aus diesen bilden sich im Rahmen der hierarchischen Strukturbildung größere Substrukturen bis hin zu den heute vorhandenen CDM-Halos.
In bestimmten methanogenen Archaea wurde vor einigen Jahren eine metallfreie Hydrogenase gefunden, die den reversiblen und stereoselektiven Transfer eines Hydridions von Wasserstoff auf die an den C1-Carrier Tetrahydroniethanopterin (H4MPT) gebundene Methenyl-Gruppe katalysiert. Damit stellt dieses Enzym den ersten und einzigen rein organischen Hydrogenierungskatalysator dar, den man in der Natur kennt. Ziel der vorgelegten Arbeit war die kristallographische Bestimmung der Enzymstruktur. Versuche zur Strukturlösung des in aktiver Form aus M. marburgensis isolierten Enzyms durch mehrfachen isomorphen Ersatz, über die anomale Dispersion an nicht-isomorphen Quecksilberderivaten und die des Selens an mit Selenomethionin markiertem Enzym verliefen nicht erfolgreich. Ursächlich hierfür war die perfekte meroedrische Zwillingsbildung der Kristalle. Für die beiden heterolog produzierten, inaktiven Apoenzyme aus den Hyperthermophilen M. jannaschii und M. kandleri wurden in dieser Arbeit effektive Expressions- und Reinigungsprotokolle entwickelt. Für das Enzym aus M. jannaschii wurden Mikrokristalle erhalten, die lediglich ein Proteolysefragment von etwa der halben Masse des Vollängenproteins enthalten. Kristalle des Enzyms aus M. kandleri konnten durch serielles Microseeding so weit verbessert werden, daß die Durchführung eines MAD-Experiment möglich wurde. Erst unter Verwendung vor kurzem entwickelter direkter Methoden (Shake-and-Bake) gelang die Strukturlösung bei einer Auflösung von 2.8 Å. Die Monomere bilden ein sehr eng assoziiertes Homodimer; zwei dieser Dimere sind zu einem locker assoziierten Tetramer verbunden. Jedes Monomer besitzt zwei Domänen. Die N-terminale Domäne von etwa 255 Resten besitzt eine Faltung, wie sie für Dinukleotid-bindende Enzyme typisch ist, mit einem zentralen, verdrehten achtsträngigen beta-Faltblatt. Die C-terminale Domäne von etwa 100 Resten besitzt dagegen weitgehend alpha-helikale Struktur und ist für die außerordentlich enge Assoziation des Homodimers verantwortlich. Beide Domänen sind durch eine gestreckte, flexible Verbindung verknüpft. Im Dimer entstehen dadurch zwei tiefe Spalten, die von Anteilen der N-terminalen Domäne eines und der C-terminalen Domäne des jeweils anderen Monomers begrenzt werden. Das aktive Zentrum liegt wahrscheinlich in dieser Spalte, wobei postuliert wird, daß der fest gebundene Cofaktor eher mit der größeren N-terminalen Domäne assoziiert ist und das Substrat zwischen den Domänen bindet. An der Bindung dürfte die C-terminale Domäne und möglicherweise auch direkt der Cofaktor beteiligt sein. Die Struktur zeichnet sich durch außergewöhnlich hohe Tenmperaturfaktoren ans. Für das Enzym aus M. marburgensis konnte eine Lösung durch molekularen Ersatz erhalten werden. Da der für die Katalyse benötigte, noch unbekannte Cofaktor nicht in der Struktur enthalten ist, ist eine weitergehende Diskussion des enzymatischen Mechanismus noch nicht möglich. Die Verfügbarkeit eines ersten Strukturmodells der metallfreien Hydrogenase stallt aber bereits einen entscheidenden Schritt auf dem Weg zum Verständnis dieses ungewöhnlichen Hydrogenierungskatalysators dar.
One of the most species-rich ant-plant mutualisms worldwide is the palaeotropical Crematogaster-Macaranga system. The pioneer-tree genus Macaranga (Euphorbiaceae) is mainly inhabited by at least nine specific species of Crematogaster (Myrmicinae), of which eight belong to the subgenus Decacrema, as well as several species of Camponotus (Formicinae). Ant species are not randomly distributed among the Macaranga host plants but distinct patterns of associations have been found (Fiala et al., 1999 and references cited therein). The specificity of the associations is maintained in spite of common sympatric distribution of several host-plant species. Associations are, however, usually not species-specific and especially the Decacrema ants, that are the focus of this study, usually colonize several host plant species each. In this study I used a combined approach of ecological data as well as phylogenetic data based on mitochondrial DNA sequences in order to elucidate the factors determining the patterns found in the associations and the evolution of this mutualistic system between the specific Decacrema ant partners and their Macaranga host plants. Life history traits of seven different morphospecies found on the most common Macaranga host plants were compared and colony development was followed from colony founding on saplings to adult trees. Temporal variability of the associations between Decacrema ants and their respective host plants was also examined. Associations between Crematogaster ants of the subgenus Decacrema and their Macaranga host plants were found to be stable over periods of time, long enough to enable reproduction of the ant colony and (in most cases) the host plants, too. Life-expectancy of the ant colony seems to be shorter than that of the host plant in general. All adult trees still provide nesting space as well as food for the ants. Colonies from different morphospecies differed in longevity, the onset of alate production, queen number and mode of colony founding. The examined Decacrema species could be placed into two groups according to their life-history traits as well as on morphological grounds: The decamera-group and the captiosa-group, each named after one species that could be synonymized with one morphospecies included in the group. Members of the captiosa-group have larger colonies, presumably with a longer life-span, and a later onset of reproduction compared to the decamera-group. Additionally, queens of the captiosa-group found colonies on saplings as well as in the crown region of bigger trees, whereas queens of the decamera-group found colonies on saplings and small treelets only. Queens belonging to the captiosa-group are brown with relatively large eyes (= 1/3 of the head length), whereas queens from the decamera-group are smaller in size, are dark brown to black in colour and have smaller eyes (< 1/3 of the head length). On some of the host plants examined in this study lifespan of the host plant and their specific ant partners seemed to be well matched whereas on others an ontogenetic succession of specific Decacrema partner ants was found, when host plants were abandoned due to the death of comparatively short-lived ant colonies, usually from species belonging to the decamera-group. Ant-partners of saplings or young plants often differed from specific partner ants found on bigger trees. Only species belonging to the captiosa-group were found to re-colonize the crown region of adult trees, thus facilitating a change of ant species, when longlived host plant species were colonized by relatively short-lived species from the decamera-group first. When long -lived host plants were colonized by long-lived species from the captiosa-group associations were stabler: I did not find any temporal variation in ant-inhabitants then. Life-span of the ant colony as well colony founding behaviour of the different partner ant species therefore play an important role for these ontogenetic changes and the specificity of the associations over time. For the host plant the ontogenetic changes have a strong impact as uninhabited host plants that are not patrolled by workers of specific ant partners suffer higher herbivore damage. Uninhabited host plants may also be colonized by unspecific arboreal ants that only make use of the nesting space and/ or food offered by the plant but do not confer protection against herbivores. Stable associations with a specific ant partner are therefore most beneficial for the host plants. Usually ant colonies are monogynous, but changes in the colony structure were found locally in two Decacrema species. I found colonies that turned secondarily polygynous, possibly after the death of the original founding queen. Secondary polygyny therefore can prolong the life-span of the antcolony on its host plant, leading to a parallel life-history and stable association as it was the case in Macaranga bancana-Crematogaster captiosa. However, in the other association (Macaranga hypoleuca-Crematogaster cf. decamera) life-expectancy of the ant-colony is still much shorter than that of its host plant species, leading to a change in the specific ant partner at a later stage. Pleometrotic foundress associations that directly led to polygynous colonies in one species were also found locally, a phenomenon hardly ever reported from ants in general. Foundress associations were found to be more successful in establishing colonies than single queens. I found indications that this change in colony founding behaviour might be due to interspecific competition for the same host plant species with another Decacrema species specific to Macaranga. For the phylogenetic analysis partial mitochondrial cytochrome oxidase I and II were sequenced and Neighbor-Joining, Maximum Parsimony, Maximum Likelihood as well as Bayesian analyses were performed. The four different analyses yielded phenetic as well as phylogenetic trees that all had a similar topology. Ants of the subgenus Decacrema formed a monophyletic clade, indicating a single colonization event at the beginning of the Macaranga-Decacrema symbiotic system. In the phylogenetic analysis the decamera-group as well as the captiosa-group were confirmed and clearly separated from each other. However, two species that would have been placed into the decamera-group, due to morphological as well as life-history traits, formed a third separate clade within the Decacrema. These two species (msp. 7- group) as well as the decamera-group came out as the basal groups in the phylogenetic analysis. Thus, life -history traits of these two groups (relatively small colonies, early onset of alate production, colony founding in ground region only) would be the ancestral state for Macarangaassociated ants of the subgenus Decacrema. Changes in colony structure, like secondary polygyny, were found in the captiosa- as well as the decamera-group and are therefore independent of the affiliation within the phylogeny. I did not find evidence for strict cocladogenesis between the subgenus Decacrema and their Macaranga host-plants, although ecological interactions between the two partner groups are close and associations can be rather specific. The phylogenies presented here, along with the known association patterns indicate that host-shifting of the ants is common in some of the species, opening the possibility of sympatric speciation as a result of increased host usage. Additionally, the considerable geographic substructuring found in the phylogenetic trees suggests that allopatric speciation has played a major role in diversification of the Decacrema ants.
Human epidermal-type fatty acid binding protein (E-FABP) belongs to a family of intracellular non-enzymatic 14-15 kDa lipid binding proteins (LBP) that specifically bind and facilitate the transport of fatty acids, bile acids or retinoids. Their functions have also been associated with fatty acid signalling, cell growth, regulation and differentiation. As a contribution to better understand the structure-function relationship of this protein, the features of its solution structure determined by NMR spectroscopy are reported here. Both unlabeled and 15N-enriched samples of recombinant human E-FABP were used for multidimensional high-resolution NMR. The sequential backbone as well as side-chain resonance assignments have been completed. They are reported here and are also available at the BioMagResBank under the accession number BMRB-5083. The presence of six cysteines in the amino acid sequence of human E-FABP is highly unusual for LBPs. Four of the six cysteines are unique to the E-FABPs: C43, C47, C67 and C87. In the three-dimensional structure of E-FABP, two cysteine pairs (C67/C87 and C120/C127) were identified by X-ray analysis to be close enough to allow disulfide bridge formation, but a S-S bond was actually found only between C120 and C127 [Hohoff et al., 1999]. Since the exclusion of a disulfide bridge between C67 and C87 improved the Rfree factor of the crystallographic model, the existence of a covalent bond between these two side- chains was considered unlikely. This agrees with the NMR data, where SCH resonances have been observed for the cysteine residues C43, C67 (tentative assignment) and C87, thus excluding the possibility of a second disulfide bridge in solution. Based on the NOE and hydrogen exchange data, an ensemble of 20 energy-minimized conformers representing the solution structure of human E-FABP complexed with stearic acid has been obtained. The analysis of homonuclear 2D NOESY and 15N-edited 3D NOESY spectra led to a total of 2926 NOE-derived distance constraints. Furthermore, 37 slow- exchanging backbone amide protons were identified to be part of the hydrogen-bonding network in the >-sheet and subsequently converted into 74 additional distance constraints. Finally, the disulfide bridge between C120 and C127 was defined by 3 upper and 3 lower distance bounds. The structure calculation program DYANA regarded 998 of these constraints as irrelevant, i.e., they did not restrict the distance between two protons. Out of the remaining 2008 non-trivial distance constraints, 371 were intraresidual (i = j), 508 sequential (|i - j| = 1), 233 medium-range (1 < |i - j| £ 4), and 896 long-range (|i - j| > 4) NOEs. The protein mainly consists of 10 antiparallel -strands forming a >-barrel structure with a large internal cavity. The three-dimensional solution structure of human E-FABP has been determined with a root-mean-square deviation of 0.92 ± 0.11 Å and 1.46 ± 0.10 Å for the backbone and heavy atoms, respectively, excluding the terminal residues. Without the portal region (i.e., for residues 4-26, 40-56, 63-75 and 83-134; the portal region apparently represents the only opening in the protein surface through which the fatty acid ligand can enter and exit the internal binding cavity), an average backbone RMSD of 0.85 ± 0.10 Å was obtained, thus reflecting the higher conformational dispersion in the portal region. Superposition with the X-ray structure of human E-FABP (excluding the terminal residues) yielded average backbone RMSD values of 1.00 ± 0.07 Å for the entire residue range and 0.98 ± 0.06 Å without the portal region. This indicates a close similarity of the crystallographic and the solution structures. The structure coordinates have been deposited at the RCSB data bank under PDB ID code 1JJJ. The measurement of 15N relaxation experiments (T1, T2 and heteronuclear NOE) at three different fields (500, 600 and 800 MHz) provided information on the internal dynamics of the protein backbone. Nearly all non-terminal backbone amide groups showed order parameters S2 > 0.8, with an average value of 0.88 ± 0.04, suggesting a uniformly low backbone mobility in the nanosecond-to-picosecond time range throughout the entire protein sequence. Moreover, hydrogen/deuterium exchange experiments indicated a direct correlation between the stability of the hydrogen-bonding network in the >-sheet structure and the conformational exchange (Rex) in the millisecond-to-microsecond time range. The features of E-FABP backbone dynamics elaborated here differ from those of the phylogenetically closely related heart-type FABP and the more distantly related ileal lipid binding protein. The results on protein dynamics obtained in this work allow to conclude that the different LBP family members E-FABP, H-FABP and ILBP are characterized by varying stabilities in the protein backbone structures. Hydrogen/deuterium exchange experiments displayed significant differences in the chemical exchange with the solvent for the backbone amide protons belonging to the hydrogen-bonding network in the >-sheets. The >-barrel structure of H- FABP appears to be the most rigid, with exchange processes presumably slower than the millisecond-to-microsecond time range. ILBP, on the other hand, shows the fastest hydrogen exchange as well as a significant number of exchange parameters (Rex), implying a decreased stability in the >-sheet structure. E-FABP, finally, appears to rank between these two proteins based on the hydrogen/deuterium exchange, with Rex terms in the >-strands indicating millisecond-to-microsecond exchange processes like in ILBP.
Die Verwendung von Fettemulsionen mit ausschließlich langkettigen Triglyceriden (LCT) und dadurch hohem Anteil an mehrfach ungesättigten Fettsäuren zur parenteralen Ernährung kann zu Veränderungen in der Fettsäurezusammensetzung von Phospholipiden mit entsprechenden Effekten auf die Metaboliten der Arachidonsäure und der Zellmembranen führen. Die Eliminationsgeschwindigkeit mittelkettiger Triglyceride (MCT) soll nach parenteraler Gabe schneller sein als die von langkettigen Triglyceriden. Nach Infusion gleicher Fettmengen an MCT werden niedrigere Triglyceridwerte gemessen als nach LCT-Gabe. In der vorliegenden Arbeit wurden Elimination und Stoffwechseleffekte verschiedener MCT/LCT-Mischemulsionen im Rahmen einer klinischen Prüfung der Phase 1 untersucht. Dazu wurden stoffwechselgesunden männlichen Probanden zwei neu entwickelte 20%ige Fettemulsionen der Firma Laevosan (Lipidol MCT 1/2 mit 50% und Lipidol MCT 1/3 mit 33% MCT-Anteil) in unterschiedlichen Dosierungen infundiert. Es wurden folgende Versuchsansätze verwendet: 10 g Fett als Bolus in 3 Minuten, eine Kurzinfusion von 50 g Fett in 30 Minuten, eine 12 stündige Dauerinfusion mit 0,1 g Fett/kg KG/h und eine hochdosierte Dauerinfusion über 8 Stunden mit 0,25 g Fett/kg KG/h. Die an Versuchspersonen vorgenommenen Untersuchungen wurden durch tierexperimentelle Leberperfusionen ergänzt. Die Umsatzkapazität für die beiden Fettemulsionen mit Zusatz von MCT lag im gleichen Bereich wie die Umsatzkapazität für vergleichbar zusammengesetzte Fettemulsionen. Die Halbwertszeiten für die Elimination der Triglyceride betrugen 15,1 Minuten für MCT 1/2 20% und 27,9 Minuten für MCT 1/3 20% nach Bolusapplikation von 10 g Fett. Nach Kurzinfusion von 50 g Fett lagen die Eliminationshalbwertszeiten bei 46,2 Minuten für MCT 1/2 20% und bei 54.6 Minuten für MCT 1/3 20%. Unter niedrig dosierter Dauerinfusion (0,1 g Fett/kg KG/h) wurde ein Fließgleichgewicht erreicht. Hingegen erwies sich die höhere Dosierung von 0,25 g Fett/kg KG/h als überdosiert, der stetige Anstieg der Triglyceridkonzentration während der 8stündigen Infusion zeigte an, dass mit dieser Dosierung kein Fließgleichgewicht mehr zu erreichen war. Damit war die Eliminationskapazität für die untersuchten Emulsionen bei dieser Dosierung ebenso wie bei Emulsionen mit reinem LCT-Anteil überschritten. Der Zusatz von MCT hat dementsprechend nicht zu einer Erhöhung der Umsatzkapazität für Fettemulsionen geführt. Der erhebliche Anstieg der Fettsäurekonzentrationen während und nach Applikation der Fettemulsionen ist Ausdruck der raschen Hydrolyse der Triglyceride. Die gaschromatographische Differenzierung der Fettsäurekonzentrationen im Serum ergab, dass der Anstieg der Fettsäuren insbesondere auf das Verhalten der mittelkettigen Fettsäuren zurückzuführen war. Sowohl unter hochdosierter Kurzinfusion von 50 g Fett (= 0,625 g-0,667 g Fett/kg Kg bezogen auf das durchschnittliche Probandengewicht) als auch unter hochdosierter Dauerinfusion von 0,25 g Fett/kg KG/h erfolgte dementsprechend mit beiden Fettemulsionen ein Anstieg der Konzentrationen der freien mittelkettigen Fettsäuren (Capryl- und Caprinsäure) auf außerordentlich hohe Werte, wie sie unter physiologischen Bedingungen kaum jemals gemessen werden (5,2 mmol/l mit MCT 1/3 20% und 5,5 mmol/l mit MCT 1/2 20% nach 50 g Fett, 2,4 mmol/l mit MCT 1/3 20% und 3,6 mmol/l mit MCT 1/2 20% unter 0.25 g Fett/kg KG/h). Von einigen der Probanden wurde deutliche Übelkeit als Nebenwirkung der hochdosierten Fettemulsion angegeben. Erwartungsgemäß kam es mit beiden MCT-haltigen Fettinfusionen neben einem Anstieg der Konzentration der freien Fettsäuren auch zu einer deutlichen Erhöhung der Konzentration der Ketonkörper. Der Anstieg war deutlich höher, wenn der Anteil an MCT erhöht war. Außerdem war der Ketonkörperanstieg vor allem unter den beiden hohen Dosierungen bei Verwendung der Emulsion mit dem höheren Anteil an MCT deutlich stärker ausgeprägt als bei der anderen Emulsion mit dem niedrigeren Anteil an MCT. Es wurden dabei nach Kurzinfusion von 50 g Fett Konzentrationen (berechnet als Gesamtsumme an ß-Hydroxybutyrat und Acetoacetat) von lediglich 7,7 mg/dl mit MCT 1/3 20% im Vergleich zu 11,2 mg/dl mit MCT 1/2 20% erreicht. Unter Gabe von 0,25 g Fett/kg KG/h stieg die Gesamtketonkörperkonzentration mit MCT 1/3 20% auf 8,4 mg/dl während es auch hier mit MCT 1/2 20% zu einem höheren Anstieg auf 12,1 mg/dl kam. Auch in der isoliert perfundierten Rattenleber erfolgte ein rascher Umsatz der in den Fettemulsionen enthaltenen Triglyceride. Dabei kam es zu einer extrem schnellen und vor allem nahezu vollständigen Elimination bevorzugt von mittelkettigen Fettsäuren. Dies führte zu erheblichen Anstiegen des ß-Hydroxybutyrats und Acetoacetats, mit beiden Fettemulsionen bis auf Ketonkörperkonzentrationen um 100 mg/dl. Dies entsprach prozentualen Anstiegen von 645,6-750.5 % für ß-Hydroxybutyrat und von 1099,6-1194,8 % für Acetoacetat. Die Glycerin-Konzentration blieb während der Perfusionen niedrig, dies bedeutete, dass das bei der Hydrolyse der Triglyceride gebildete freie Glycerin in der Leber rasch umgesetzt wurde. Bei einer starken Anflutung von freien mittelkettigen Fettsäuren in der Leberzelle zeigte sich, dass es neben der ß-Oxidation vor allein auch zu einer gesteigerten Lipogenese kam. Die in den geprüften Fettemulsionen enthaltenen MCT wurden ebenso wie langkettige Triglyceride rasch hydrolysiert, wie die hohe Konzentration an mittelkettigen Fettsäuren im Serum aufwies. Die Ursache für die hohe Konzentration der mittelkettigen Fettsäuren könnte sein, dass auch die durch Hydrolyse im peripheren Bereich entstandenen mittelkettigen Fettsäuren vorwiegend über die Leber eliminiert werden. Der Anteil der Leber an der Elimination und am Metabolismus der mittelkettigen Fettsäuren ist aus dem Anstieg der Ketonkörper zu erkennen. Diese Beziehung ist bei der Wertung der im Experiment mit der isoliert perfundierten Rattenleber erhobenen Ergebnisse besonders gut zu erkennen. Es konnten keine Anhaltspunkte dafür gefunden werden, dass die Ergänzung von Sojaöl durch MCT in Fettemulsionen zu einer Steigerung des Umsatzes der infundierten Triglyceride führt. Zu beachten wären allerdings die hohen Konzentrationen vor allem an freien mittelkettigen Fettsäuren, die während der Infusion von MCT-haltigen Emulsionen zu messen sind. Da für diese Messung Spezialmethoden erforderlich sind, sind derartige Bestimmungen bei Routineanwendung allerdings nicht möglich.
Es wurden 1000 von der Polizei in und um Frankfurt am Main in der Praxis ermittelte AAK-Messwerte und die entsprechenden BAK, die im Zentrum der Rechtsmedizin der Johann Wolfgang Goethe-Universität in Frankfurt am Main bestimmt wurden, einer statistischen Auswertung unterzogen. In die Auswertung sind alle aus den Untersuchungsunterlagen entnehmbaren Parameter, wie Geburtsdatum der Probanden, Geschlecht, Datum und Uhrzeit der AA-Entnahme, AAK, Datum und Uhrzeit der Tat, zuständiges Polizeirevier, AAK-Messgerät, BAK, Datum und Uhrzeit der Blutentnahme, eingeflossen. Die statistische Auswertung hat ergeben, dass die durchschnittliche Differenz aller AAK- und BAK-Werte bei -0,02 Promille liegt, mit einer Standardabweichung von ±0,35 Promille bei einer maximalen Differenz von -1,13 Promille nach unten und +2,81 Promille nach oben. Die Standardabweichung von ±0,35 Promille wurde als Grenzwert zur Überprüfung der Korrelation der wahrscheinlichen BAK zum Zeitpunkt der AAK-Bestimmung gewählt. Trotz der großen Spanne des Grenzbereichs von 0,7 Promille wurden nur 77,9% der AAK-BAK-Paare als korrelierend ermittelt. Bei Festlegen individueller Grenzwerte, gebildet aus der minimalen bzw. der maximalen BAK zum Zeitpunkt der AAK-Bestimmung, erwiesen sich nur noch 34,7% der Wertepaare als korrelierend. Der durchschnittliche BAK-AAK-Quotient betrug 1:2181, mit einer Standardabweichung von ±1:473. Die Quotientenspanne lag zwischen 1:0 und 1:4480. Als einziger, eindeutig nachzuweisender Faktor für die Beeinflussung der AAK-Messwerte galt die tatsächliche Höhe der BAK. Je höher die Probanden-BAK war, umso größer waren die AAK-Abweichungen von der BAK. Erwähnenswert ist, dass die AAK-Messgeräte der Firma Dräger (Alcotest® 7310 und 7410), auf Redox-Halbleiter-Gassensoren aufbauend, die indirekte BAK im Durchschnitt zu hoch, während die Brennstoffzellen-Geräte LMB S-D3 der Firma LMB Laborservice GmbH die indirekte BAK im Durchschnitt zu niedrig angaben. Die Untersuchung der Wertepaare aus AAK und minimaler BAK zum Zeitpunkt der AAKBestimmung im Vergleich zu den vom Gesetzgeber vorgegebenen Promille-Stufen für ein bestimmtes Strafmaß (0,3 Promille, 0,5 Promille, 0,8 Promille, 1,1 Promille, 1,6 Promille, 2,0 Promille, 3,0 Promille) hat ergeben, dass bei dem vorliegenden Datenmaterial 203 Probanden eine zu niedrige und 239 Probanden eine zu hohe Strafe erhalten hätten, wenn die AAK als alleiniges Maß verwendet worden wäre. Diese Fehleinschätzung wäre eingetreten, weil die AAK der Probanden über bzw. unter den oben genannten Grenzwerten lag und sich ihre BAK umgekehrt unter bzw. über denselben Werten befand. Es lässt sich feststellen, dass eine Berechnung der BAK aus dem Ethanolgehalt der Atemluft nicht möglich ist, weil viele Faktoren die AAK-Messung beeinflussen, die bisher unberücksichtigt blieben und auch von modernen, hochpräzisen AAK-Messgeräten schwerlich erfasst werden können. Daher gilt die Empfehlung, die AAK-Messung nur als Vorprobe und zum Screening zu verwenden. Bei juristischen Begutachtungen sollte nur die BAK verwendet werden, weil diese als einziger Wert präzise und beweissicher ist und außerdem über den Trunkenheitszustand eindeutig informiert. Betroffene sollten auf jeden Fall auf einer BAK-Untersuchung bestehen und die AAK als Messwert in Frage stellen.
Die Chemie und der Strahlungshaushalt der Erdatmosphäre werden durch die nur in relativ geringen Konzentrationen vorhandenen Spurengase und Aerosolpartikel beherrscht. Mit den zunehmenden anthropogenen Emissionen von atmosphärischen Spurengasen, verursacht durch die wachsende Weltbevölkerung und die zunehmende Industrialisierung, wurde in den letzten Dekaden ein globaler Wandel bei der Zusammensetzung der Erdatmosphäre festgestellt: Konzentrationen von atmosphärischen Spurenstoffen verändern sich nicht mehr auf vergleichsweise langsamen geologischen Zeitskalen, sondern mit viel höheren Geschwindigkeiten, in einzelnen Fällen von bis zu einem Prozent pro Jahr. Die wohl bekanntesten Folgen dieser Veränderungen sind die globale Erwärmung durch die ansteigenden Emissionen von Treibhausgasen und der mit dem antarktischen 'Ozonloch" entdeckte drastische Ozonverlust in der Stratosphäre durch anthropogene Fluor-Chlor-Kohlenwasserstoffe (FCKW). Die Verteilung der für Ozonchemie und Klima relevanten Spurengase in der Atmosphäre hängt dabei nicht nur von der Verteilung ihrer Quellen und Senken ab, sondern wird maßgeblich durch verschiedene Transportprozesse beeinflußt. Der Austausch zwischen der mit anthropogenen Emissionen belasteten Troposphäre und den höheren Atmosphärenschichten Stratosphäre und Mesosphäre spielt dabei eine zentrale Rolle. Im Rahmen der Dissertation wurde zum besseren Verständnis von Stratosphären-Troposphären-Austauschprozessen die Verteilung von langlebigen Spurengasen in den beiden atmosphärischen Kompartimenten Troposphäre und Stratosphäre untersucht. Dazu wurde bei einer Meßkampagne im Sommer 1998 im Rahmen des von der Europäischen Union geförderten Forschungsprojektes STREAM 98 der flugzeuggetragene Gaschromatograph GhOST (Gas chromatograph for the Observation of Stratospheric Tracers) an Bord einer Cessna Citation II der TU Delft in Höhen bis 13 km eingesetzt. Dabei konnten bei zwanzig Meß- und Transferflügen über Kanada, dem Atlantik und Westeuropa umfangreiche Messungen der langlebigen Spurengase N20, F11 und F12 in der oberen Troposphäre und der Untersten Stratosphäre durchgeführt werden. Unter Flugbedingungen wurde mit GhOST während der Kampagne eine Reproduzierbarkeit (1 o) von besser als 0,6 % und eine absolute Genauigkeit von besser als 2 % für alle nachgewiesenen Spurengase erreicht. Diese hohe Meßpräzision konnte durch zahlreiche Vergleichsmessungen mit anderen Meßgeräten und Meßverfahren - im Flugbetrieb und im Labor sichergestellt werden; die Linearität des Geräts wurde zudem mit Hilfe einer barometrisch hergestellten Verdünnungsreihe untersucht. Die mit GhOST bei STREAM 98 gewonnenen Meßwerte wurden zusammen mit Messungen und Modelldaten der am Projekt beteiligten Arbeitsgruppen zur Untersuchung von Spurengasverteilungen und Stratosphären-Troposphären-Austauschprozessen herangezogen. Untersucht wurden dabei unter anderem die Verteilung und Variabilität von N20, F11 und F12 in der Troposphäre und in der Untersten Stratosphäre der mittleren Breiten, Austausch- und Mischungsprozesse in der Tropopausenregion und die Variabilität von Tracer/Tracer-Korrelationen in der Untersten Stratosphäre. Aufbauend auf den Erfahrungen bei STREAM 98 wurde für das vom BMBF geförderte Projekt SPURT im Rahmen dieser Doktorarbeit der in-situ-Gaschromatograph GhOST II entwickelt. Unter Beibehaltung der gaschromatographischen Komponenten von GhOST wurden zur Messung der Spurengase SF6 und CO zwei zusätzliche Detektoren integriert und zahlreiche technische Verbesserungen durchgeführt. Für die vollautomatische rechnergestützte Elektronik zur Steuerung des neuen Gerätes wurden zusammen mit der institutseigenen Elektronikwerkstatt verschiedene Baugruppen zur Signalführung und -verarbeitung, zur Temperaturmessung und zur Ansteuerung von Leistungskomponenten entwickelt. Während einer Testkampagne im April 2001 wurde GhOST II erfolgreich mechanisch und elektrisch auf einem Learjet 35A integriert und kam bei zwei Meßflügen der Meßkampagne SPURT 1 im November 2001 zum Einsatz.
For palaeotropical regions, only a few anecdotal reports had been published on the existence of 'ant-gardens' before this study started. As opposed to this, 'ant-house epiphytes' (i.e. domatiabearing epiphytes) were reported to be highly abundant in Southeast Asia and were presumed to be a second type of ant-epiphyte interaction. In the much better studied neotropical regions the situation seemed to be the reverse: Many reports on AGs in contrast to very few reports on anthouse epiphytes. In this study, I have presented extensive data which may help towards a better understanding of the 'Southeast Asian part' of this 'ant-epiphyte puzzle'. In Peninsular Malaysia, Borneo, Java, and Southern Thailand, a great variety of formerly unknown AG systems were discovered. 18 ant species (from 5 genera, 4 subfamilies) were identified as true AG ants, i.e. these ants actively retrieved seeds of certain epiphyte species into their carton nests. Another 49 ant species inhabited AGs as secondary, opportunistic settlers. On the epiphyte side, 84 plant species were found growing on AGs, 51 (19 genera, 12 families) of which were probably true AG epiphytes, i.e. ants retrieved the seeds to their arboreal carton nests, on which the epiphytes were then cultivated. Most of the epiphyte flora of lowland forests in Peninsular Malaysia (except for ferns, orchids and facultative epiphytes) seemed to be totally dependent on ants for their establishment in the canopy. Together with the high number of opportunistic AG inhabitants (ants, epiphytes, and many arthropod guests), these facts suggest that AGs function as pioneers in the canopy of Southeast Asian rain forests. Moreover, AG-associations might even have accounted for the unusual species richness in the epiphyte genera Dischidia, Hoya (Asclepiadaceae), Myrmecodia, and Hydnophytum (Rubiaceae). The definition of the term ant-garden only describes the basic interactions. In the ant-garden associations investigated in this study, interactions going beyond these basic ones varied depending on ant and epiphyte species. Ant-gardens initiated by Diacamma spKfmA111 were regarded as the 'most primitive' type, because this ponerine was totally dependent on preformed cavities for nest establishment, did not tend any trophobionts, and was the least selective in its seed-retrieving behavior. On the other end of the scale, Crematogaster spKfmA18 and Camponotus spKfmA9 were rated as 'most advanced' because both lived in free (i.e. cavityindependent) AGs, tended trophobionts underneath their nests, were associated with a couple of other organisms, and were highly selective in their seed-retrieving behavior. Moreover, Camponotus spKfmA9 occurred preferentially with one single epiphyte species, Hoya elliptica (Asclepiadaceae), and Crematogaster spKfmA18 was specialized on some species of giant bamboo as phorophyte. Philidris spKfmA160, which occupied a medium position in relation to the other AGs was particularly interesting for several reasons. This ant species was mainly associated with ant- house epiphytes and occurred in the heath forests of Borneo. However, the major part of the colonies, including the queen, was located underneath carton structures near the surface of the host tree and not inside the domatia of the associated plants. Moreover, very young Philidris spKfmA160 colonies had only small seedlings growing on their carton nests. The ant workers actively retrieved the seeds of their epiphyte partners into the nests. These results indicate that associations with ant-house epiphytes must be regarded as a special case of ant-gardens. I therefore suggest using the term 'ant-house' only to describe the epiphytes, but not to describe the association, and to include this type of association in the group of AGs. Strict species-specificity never occurred, but some epiphytes showed great preference for growing on the nests of certain ant species, while others occurred over a wider range. Vice versa, most ant species had several epiphytes growing on their nests, while others were mostly found with one or very few epiphyte species. These patterns were shown to be the effect of different factors, including common microclimatic preferences of ants and epiphytes, interspecific competition of epiphytes, and selective seed retrieval of AG ants. The main behavioral trait responsible for the establishment of AGs was the selectivity shown by the ants in the epiphyte seeds they carried. However, details of the mechanisms, i.e. what characteristics of the seeds are important and what motivates the ants to retrieve them, varied widely. In many cases, seed compounds located on the surface triggered carrying behavior. Detailed experimental investigations combined with literature data from the two other known 'myrmecochory systems', terricolous myrmecochores and neotropical AGs, suggested that myrmecochory is frequently triggered by a two-stage system. One relatively unspecific compound (or a combination of such compounds) constitutes the basic attractiveness for a number of ant species. Other seed characteristics (elaiosomes, mechanical properties, other surface-compounds) modulate this basic signal, accounting for species-specific preferences of ants towards certain plant species. A comparison of AGs in Southeast Asia and the neotropics shows that the numbers of AG ant and epiphyte species in each case are almost equal. Southeast Asian AG epiphytes might even turn out to outnumber the neotropical ones. Thus, not only was it possible to break down the distinction between ant-house and AG associations, but also to show that AGs in Southeast Asia are present in such high diversity and abundance as to diminish the apparent contrast between the two biogeographical regions yet further. These data help to solve at least the Southeast Asian part of the 'ant-epiphyte puzzle'.
Verschiedene Nanopartikel, darunter Gelatine- und Albuminnanopartikel und Cyanoakrylatnanopartikel mit Butyl- und Hexylseitenketten, wurden in dieser Arbeit auf ihre Tauglichkeit als Trägersystem zum Einsatz für einen späteren Gentransfer in Bronchialepithelzellen erprobt. In der Zellkultur wurden dazu an primären humanen Bronchialepithelzellen und an der Zelllinie 16HBE14o Zytotoxizitätstest nach Inkubation mit oben genannten Nanopartikeln durchgeführt. Weiterhin wurden qualitative und quantitative Aspekte der Anreicherung von fluoreszenzmarkierten Gelatine- und Albuminnanopartikeln in diese Zellen mit dem konfokalen Laserrastermikroskop und dem Durchflußzytometer untersucht. Zusätzlich evaluiert wurde die inflammatorische Potenz von Gelatine- und Albuminnanopartikeln mittels einer quantitativen Interleukin-8-Bestimmung. Es konnte gezeigt werden, dass Cyanoakrylate aufgrund eines hohen zytotoxischen Effekts nicht für die Behandlung von Bronchialepithelzellen geeignet sind. Hierbei zeigten Cyanoakrylate mit kurzen Butylseitenketten eine ausgeprägtere Zytotoxizität als jene mit langen Hexylseitenketten. Gelatine- und Albuminnanopartikel hingegen zeichneten sich durch sehr geringe bis fehlende Zytotoxizität aus. Mit dem konfokalen Laserrastermikroskop konnte die Aufnahme von fluoreszenzmarkierten Gelatine- und Albuminnanopartikel in das Zellinnere von primären Bronchialepithelzellen dokumentiert werden. Erstmals wurde somit eine Nanopartikelaufnahme in Zellen nachgewiesen, die nicht zum mononukleären Phagozytensystem gehören. Die Versuche zur zellulären Aufnahme der Nanopartikel mit verschiedenen Inkubationsbedingungen zeigten, dass primäre Bronchialepithelzellen und 16HBE14o-Zellen Gelatine- und Albuminnanopartikel in einem aktiven, stoffwechselabhängigen Prozess aufnehmen, der am ehesten der Phagozytose entspricht. Ferner haben sich Albuminnanopartikel im Rahmen dieser Versuche als bioadhäsiv erwiesen. Mit dem Durchflußzytometer ließ sich schließlich eine Konzentrationsabhängigkeit der Aufnahme fluoreszenzmarkierter Gelatine- und Albuminnanopartikel zeigen und feststellen, dass alle Zellen einer Zellpopulation von primären Bronchialepithelzellen oder 16HBE14o-Zellen Nanopartikel aufnehmen. Selbst primäre Zellen, die durch die Kultur auf Membraneinsätzen auf einem hohen Differenzierungsniveau gehalten wurden, nahmen Nanoparikel auf. Eine quantitative Interleukin-8-Bestimmung zeigte schließlich, dass Gelatine- und Albuminnanopartikel keine Inflammation in primären humanen Bronchialepithelzellen und der Zelllinie 16HBE14o verursachen. Abschließend lässt sich sagen, dass die hier erprobten Nanopartikel bezüglich ihrer Zytotoxizität und ihrem inflammatorischem Potenzial als geeignet für den Gentransfer erscheinen. Die Aufnahme der Nanopartikel in das Zellinnere ist vielversprechend für eine spätere Expression von Transgenen in Bronchialepithelzellen.
Simultaneingriffe in der Gefäßchirurgie : eine therapeutische Alternative zum zweizeitigen Eingriff?
(2002)
Immer wieder werden dem Chirurgen Patienten mit operationswürdigen Mehrfacherkrankungen begegnen. Die Operationsreihenfolge richtet sich zumeist nach dem Schweregrad der Erkrankungen. Zeitversetzte Einzeleingriffe werden präferiert. Das simultanoperative Vorgehen stellt insbesondere in der Gefäßchirurgie seltenst eine therapeutische Option dar. Aus Angst vor einem erhöhten Risiko für eine Wundheilungsstörung oder eine Protheseninfektion wird die Kombination einer gefäßchirurgischen Rekonstruktion und eines nicht gefäßchirurgischen Eingriffes vehement abgelehnt. Bereits 1987 haben Carstensen und Schreiber aufgefordert „in wissenschaftlichen Erhebungen und Untersuchungen den Risikoumfang zu erfassen, der bei simultan oder präventiv ausgeführten Operationen entsteht“ [37]. Diese Aufforderung erweist sich komplexer als sie auf den ersten Blick erscheint: der Entscheidungsprozeß für oder gegen eine simultane Operation lässt sich in Anbetracht der vielfältigen Komplikationen nicht auf den Vergleich der Komplikationshäufigkeit für eine Wundheilungsstörung und eine Protheseninfektion reduzieren, vielförmige Kombinationsvarianten gefäßchirurgischer Simultaneineingriffe verursachen ein inhomogenes Patientenkollektiv und die Vergleichbarkeit von Komplikationshäufigkeiten bei Simultaneingriffen zu zeitversetzten Einzeleingriffen ist nicht geklärt Für die vorliegende Untersuchung wurde jeder gefäßchirurgische Simultaneingriff retrospektiv erfasst, der zwischen dem 01. Januar 1992 und 31. Oktober 1997 erfolgte. Eine umfangreiche Dokumentation jeglicher Komplikation im postoperativen Verlauf ermöglichte eine umfassende Risikobeurteilung. Aortenchirurgische Simultaneingriffe kombiniert mit einem intraabdominellen Zweitbefund stellten das größte Teilkollektiv auch in dieser Untersuchung dar, so dass der postoperative Verlauf der aortenchirurgischen Simultaneingriffe zusätzlich an dem postoperativen Verlauf einer Kontrollgruppe aortenchirurgischer Einzeleingriffe gemessen wurde. Die Kontrollgruppe unterschied sich in ihrer Zusammensetzung nicht von den aortenchirurgischen Simultaneingriffen. Die Häufigkeit eines komplikationsbehafteten Verlaufes war in der Gruppe der gefäßchirurgischen Simultaneingriffe im Vergleich zu den publizierten Ergebnissen über gefäßchirurgische Einzeleingriffe nicht erhöht. Es bestand kein signifikanter Unterschied zwischen den aortenchirurgischen Simultaneingriffen und den aortenchirurgischen Einzeleingriffen im postoperativen Verlauf. Von allen Komplikationen, die dokumentiert wurden, bestand für die Nachblutung im Operationsgebiet des nicht gefäßchirurgischen Eingriffes, für die inguinale Fistel und für das Abdomen apertum im gesamten Kollektiv der gefäßchirurgischen Simultaneingriffe ein erhöhtes Risiko, ohne dass sich ein signifikanter Zusammenhang im Teilkollektiv der aortenchirurgischen Simultaneingriffe und der Kontrollgruppe nachweisen ließ. Hieraus wurde die Empfehlung abgeleitet, dass der Chirurg über das sonstige Maß hinaus intraoperativ auf ein sorgfältiges Vorgehen achten sollte. Das Auftreten von Wundheilungsstörungen und Protheseninfektion wurde durch ein simultanoperatives Vorgehen nicht gefördert. Für einige Komplikationen, wie zum Beispiel der peripheren Nervenschädigungen, war eine Aussage zum Risikopotential nicht vertretbar, weil Richtlinien zur Berechnung von Komplikationsraten bei Simultaneingriffen fehlen. Konträr zu anderen Publikationen war in der eigenen Untersuchung die Mortalität beim gefäßchirurgischen Simultaneingriff gegenüber der Mortalität des gefäßchirurgischen Einzeleingriffes erhöht, ohne dass ein Zusammenhang zum simultanoperativen Vorgehen nachweisbar war. Der perioperative Verlauf von gefäßchirurgischen Simultaneingriffen wurde häufiger durch Komplikationen erschwert, wenn der Patient älter als 70 Jahre war oder eine ASA-Klassifikation von Stufe IV oder höher vorlag. Ab dem 70. Lebensjahr wurden signifikant mehr letale Verläufe beobachtet. Für die ASA-Stufe IV und V bestand eine auffällige Abweichung der standardisierten Residuen, so dass ein Zusammenhang für den letalen Verlauf anzunehmen war. Aortenchirurgische Simultaneingriffe dauerten signifikant länger als aortenchirurgische Einzeleingriffe, ohne dass ein Zusammenhang zwischen dem postoperativen Verlauf und der Operationsdauer aufgezeigt wurde. Das Risiko für eine Komplikation war bei den nicht geplanten Simultaneingriffen höher als bei den geplanten Simultaneingriffen. Die Entscheidung für oder gegen einen Simultaneingriff ist ein multifaktorieller Prozess. Gefäßchirurgische Simultaneingriffe sollten primär bei Patienten indiziert werden, die jünger als 70 Jahre und in eine ASA-Stufe bis höchstens Klasse III eingestuft sind. Der Simultaneingriff soll geplant erfolgen und lediglich, wenn bei einem intraoperativ entdeckten Zweitbefund eine absolute Indikation vorliegt, ist der gefäßchirurgische Simultaneingriff vertretbar. Die retrospektive Untersuchung der eigenen Simultaneingriffe und die Literaturanalyse zeigte auf, dass das simultane Vorgehen eine therapeutische Alternative für Patienten mit einem Aortenaneurysma und einem intraabdominellen Zweitbefund, mit einer Stenose der A. carotis interna und der A. subclavia, mit einer Erweiterung der Aorta abdominalis und Stenose der A. renalis sowie mit arteriosklerotischen Veränderungen an unterschiedlichen Extremitätenarterien darstellt. Beim zeitgleichen Vorliegen eines abdominellen Aortenaneurysmas und einer Stenose der A. carotis interna soll zuerst die Desobliteration der A. carotis interna und im zeitlichen Intervall der aortenchirurgische Eingriff erfolgen. Der Kombinationseingriff an der A. carotis interna und einem Zweitorgan, speziell an der Schilddrüse, soll restriktiv wegen der Gefahr einer Nachblutung im Operationsgebiet des nicht gefäßchirurgischen Zweiteingriffes indiziert werden. Das simultane Vorgehen beim Vorliegen einer peripheren Arteriosklerose ist, bis auf die kombinierte Rekonstruktion zweier Extremitätenarterien, zu vermeiden. Der Simultaneingriff in der Gefäßchirurgie stellt für ein selektiertes Patientengut eine therapeutische Alternative dar. Abschließend wird betont, dass sich das Risiko, mit der ein unerwünschtes Ereignis in einer Gesamtmenge auftreten kann, durch eine Wahrscheinlichkeit quantifizieren lässt. Die Risikoeinschätzung ist jedoch nur eine Entscheidungshilfe. Die Entscheidung selbst muss individuell am Patienten getroffen werden.
Die vorliegende Vergleichsstudie untersucht 28 schizoaffektive Patienten (ICD F25) gegenüber 38 bipolar-depressiven Patienten (ICD F31) und 43 Patienten einer orthopädisch erkrankten Kontrollgruppe. Die motivierende Fragestellung war, ob sich durch ein standardisiertes Testverfahren wie den Gießen-Test Merkmale eruieren lassen, die für die Selbst-Objekt-Beziehungen schizoaffektiver Patienten charakteristisch sind. Die soziodemografischen Daten wurden anhand eines halbstandardisierten Interviews erfasst. Der Interviewleitfaden gliedert sich in die Bereiche sozialer, beruflicher und familiärer Status, Krankheitsdaten, Fragen zu Kindheit und Familie sowie Fragen zur aktuellen sozialen Situation. Zur Erfassung der depressiven Symptomatik wurden die Patienten mit der Hamilton-Depressions-Skala zur Fremdbeurteilung überprüft. Mittels Gießen-Test wurde neben der Selbstbeurteilung (aktuelles Selbstbild, Idealbild und normatives Bild) auch die individuelle Fremdbeurteilung der primären Bezugspersonen sowie der gegengeschlechtlichen Partner der jeweiligen Patientengruppe untersucht. Fragekomplex 1: Wie sind Selbstbild und Selbstwertigkeit von schizoaffektiven und bipolar-depressiven Patienten beschaffen? Hypothese: Bei schizoaffektiven und bipolar-depressiven Patienten bestehen signifikante Unterschiede zwischen den drei Selbstbildern, wohingegen bei der Kontrollgruppe orthopädischer Patienten seltener von signifikanten Unterschieden ausgegangen wird. Die hier gewonnenen Ergebnisse zum Selbstbild zeigen, dass zwischen den drei Selbstbildern schizoaffektiver und bipolar-depressiver Patienten häufiger signifikante Unterschiede bestehen als bei der Kontrollgruppe. Hiermit konnte die Hypothese zum Fragenkomplex 1 bestätigt werden. Fragenkomplex 2: Welche Beziehung besteht zwischen dem Selbstbild der Patienten und dem Bild, das sie von ihren Eltern haben? Hypothese: Bei schizoaffektiven Patienten und bei bipolar-depressiven Patienten ist die Distanz zwischen Selbstbild und Mutterbild geringer als bei der somatischen Kontrollgruppe. Die Distanz zwischen Selbstbild und Vaterbild schizoaffektiver und bipolar-depressiver Patienten wird größer erwartet als bei der Kontrollgruppe. Ein signifikanter Unterschied zwischen schizoaffektiven und bipolar-depressiven Patienten wird nicht erwartet. Auffällig ergibt sich aus der vorliegenden Untersuchung das signifikant von der Norm abweichende depressive Selbstbild beider Gruppen in Zusammenhang mit einer ebenfalls depressiv erlebten Mutter. Des Weiteren fällt auf, dass sich die Differenz zwischen Selbstbild und Vaterbild einmal wider Erwarten signifikant zwischen Schizoaffektiven und Bipolar-Depressiven unterscheidet. Ansonsten konnten die Hypothesen zum Fragenkomplex 2 bestätigt werden. Fragenkomplex 3: Unterscheiden sich die interpersonellen Beziehungen von Patienten mit schizoaffektiver Psychose von denjenigen mit bipolar-depressiver Psychose? Hypothese: Es wird erwartet, dass in den Partnerschaften schizoaffektiver und bipolar-depressiver Patienten die Tendenz zu komplementären Beziehungsmustern im Vergleich zur Kontrollgruppe überwiegen. Signifikante Unterschiede der Selbst- und Fremdbilder von schizoaffektiven und bipolar-depressiven Patienten werden nicht erwartet. In dieser Studie weisen Partnerschaften schizoaffektiver Patienten eher auf eine Tendenz zu komplementären Beziehungsmustern hin als Partnerschaften bipolar-depressiver Patienten. Sowohl für Schizoaffektive als auch für Bipolar-Depressive findet sich bei der vorliegenden Untersuchung eine weitgehende Übereinstimmung zwischen dem Selbstbild des Patienten und dem Bild, das der Partner vom Patienten hat. Wider Erwarten gab es jedoch wenige signifikante Unterschiede zwischen Selbst- und Fremdbildern von schizoaffektiven und bipolar-depressiven Patienten. Die Hypothese zum Fragenkomplex 3 konnte dennoch zum größten Teil bestätigt werden. Die Antwort auf die Frage, ob sich für schizoaffektive Patienten charakteristische Selbst-Objekt-Beziehungsmuster heraus arbeiten lassen, muss nach der hier durchgeführten Untersuchung zunächst offen bleiben. Angesichts der prognostischen Bedeutung psychosozialer Variablen im Langzeitverlauf schizophrener und affektiver Störungen (vgl. Kröber, 1993) empfiehlt sich die Durchführung einer Mehr-Zeitpunkte-Untersuchung an einer größeren Stichprobe schizoaffektiv Erkrankter.
Enzyme der Cytochrom P450 (CYP) 2C Familie werden extrahepatisch vor allem in Endothelzellen exprimiert und liefern durch Metabolisierung der Arachidonsäure zu Epoxyeicosatriensäuren (EET) einen den Gefäßtonus modulierenden Faktor, den sogenannten endothelialen hyperpolarisierenden Faktor (EDHF), der zur Relaxation des glatten Gefäßmuskels führt. Neben dieser wichtigen Funktion als EDHF-Synthase beeinflussen diese Enzyme (CYP-Epoxygenasen) weitere zentrale Signalwege der Endothelzellen und tragen so zur vaskulären Homöostase bei. So wurde beschrieben, dass EET u.a. antiinflammatorische und fibrinolytische Eigenschaften besitzen. Ziel der vorliegenden Arbeit war die Identifizierung weiterer Funktionen der CYP Epoxygenasen in Endothelzellen. Zunächst wurden physiologisch und pharmakologisch relevante Einflüsse auf die Expression der endothelialen CYP 2C lsoformen untersucht. Im Gegensatz zu der deutlichen CYP 2C Expression in nativen Endothelzellen, ist die Expression in kultivierten Endothelzellen drastisch reduziert. Es wurde gezeigt, dass kultivierte Endothelzellen, die einer kontinuierlichen, rhythmischen Dehnung (18 Stunden) ausgesetzt waren, eine signifikant höhere CYP 2C Expression verglichen mit unter statischen Bedingungen kultivierten Endothelzellen aufweisen. Ebenso bewirkte zyklische Dehnung (sechs Stunden) von endothelintakten Koronarsegmenten eine Induktion der endothelialen CYP 2C Expression. Diese Befunde zeigen, dass pulsatile Dehnung von Endothelzellen, ein kontinuierlicher hämodynamischer Stimulus in vivo, wesentlich zu dem physiologischen Expressionsniveau von CYP Epoxygenasen beiträgt. Auch eine Reihe kardiovaskulärer Pharmaka beeinflussen die Expression von CYP Epoxygenasen. Inkubation kultivierter Endothelzellen bzw. endothelintakter Gefäßsegmente mit dem lnsulinsensitizer Troglitazon und den Statinen Cerivastatin und Fluvastatin ergab eine deutliche Expressionserhöhung der endothelialen CYP 2C Isoformen. Die physiologische Bedeutung der verstärkten Expression konnte mit der einhergehenden, verbesserten EDHF-vermittelten glattmuskulären Relaxation demonstriert werden. Der Effekt endothelialer CYP 2C9 Expression auf die Proliferation wurde in weiteren Experimenten untersucht. Hierzu wurden kultivierte Endothelzellen eingesetzt, die mit CYP 2C9 Expressionsvektoren (adenovirale Infektion bzw. liposomale Transfektion) transfiziert wurden. In diesen CYP 2C9 überexprimierenden Endothelzellen konnte der proliferative Effekt des Enzyms demonstriert werden, da sie sowohl eine verstärkte DNA-Synthese als auch eine erhöhte Zellzahl im Vergleich zu Kontrollvektor-behandelten Zellen zeigten. Als weiteren Marker einer Proliferation ließ sich eine erhöhte Expression des zellzyklusregulierenden Proteins Cyclin Dl nachweisen. Eine verstärkte Phosphorylierung und Aktivierung des EGF Rezeptors in CYP 2C9 überexprimierenden bzw. EET behandelten Zellen gab einen deutlichen Hinweis auf die Beteiligung des EGF Rezeptor-Signalweges an diesem proliferativen Prozess. Diese Hypothese wurde durch den Befund belegt, dass lnkubation mit dem EGF Rezeptor lnhibitor AG 1478 zur Hemmung der CYP 2C9-induzierten Proliferation führte. Die Aktivierung des EGF Rezeptors bewirkte des weiteren die verstärkte Phosphorylierung der Proteinkinase B/Akt. Neben dem proliferativen Effekt konnte sowohl für CYP 2C9 als auch für EET ein angiogenetischer Effekt demonstriert werden. Im in vitro Angiogenese-Assay führten CYP 2C9-Uberexpression und exogene Stimulation mit 11,12-EET zur Ausbildung kapillarartiger Strukturen, die bei Kontrollzellen nicht zu finden waren. Ebenso bewirkten 11,12-EET in vivo (chick chorioallantoic membrane-assay) eine signifikant verstärkte Gefäßneubildung, die sich, wie die induzierte Endothelzellproliferation, als EGF Rezeptor-vermittelt erwies. In weiteren Experimenten wurde die Rolle des CYP 2C9 als endotheliale Quelle physiologisch relevanter Mengen reaktiver Sauerstoffspezies analysiert. Mit unterschiedlichen Methoden konnte in kultivierten Endothelzellen sowie in endothelintakten Koronarsegmenten gezeigt werden, dass CYP 2C9 nicht nur EET, sondern auch Sauerstoffradikale bildet. Diese Erhöhung des oxidativen Stress führte in Endothelzellen zur Aktivierung des redoxsensitiven Transkriptionsfaktors NF-KB und zur verstärkten Expression des Adhäsionsmoleküls VCAM-1. Zusammengefasst konnte in der vorliegenden Arbeit gezeigt werden, dass die Expression von CYP 2C9 in Endothelzellen relevante, physiologische Funktionen wie Induktion von Proliferation und Angiogenese sowie Modulation der Aktivität von Transkriptionsfaktoren bedingt. Da EET über die Hemmung der NF-KB Aktivierung antiinflammatorische Effekte ausüben, die CYP 2C9-abhängige Bildung von O2- durch Aktivierung von NF-KB jedoch proinflammatorisch wirkt, sind grundsätzlich gegenläufige, CYP 2C9-induzierte Effekte möglich. Unter welchen Bedingungen EET oder Sauerstoffradikale eine funktionelle Dominanz ausüben, müssen weitere Studien klären.
P2X receptor subunits assemble in the ER of Xenopus oocytes to homomultimeric or heteromultimeric complexes that appear as ATP-gated cation channels at the cell surface. In this work it was intended to investigate the posttranslational modifications such as N-linked glycosylation and disulfide bond formation that is undergone by P2X1 receptors. In addition, the aim of this study was to examine the expression and the quaternary structure of selected P2X receptor isoforms in Xenopus oocytes. The investigation of the quaternary structure of the metabolically or surface labeled His-P2X2 receptor by BN-PAGE revealed that, while the protein complex is only partially assembling in oocytes, the plasma membrane form of the His-P2X2 receptor assembled into trimeric and even hexameric complex as was shown by the BN-PAGE analysis. Besides this finding, it is shown that the His-P2X5 protein that was purified from metabolically or surface labeled oocytes appeared as one single band corresponding to a trimer when analyzed by BN-PAGE. The present study signified that His-P2X6 alone does not reach a defined assembly status and possibly needs the hetero-polymerisation with other P2X subunits to assemble properly for insertion into the plasma membrane. Another finding of this study is that the P2X1 and P2X2 subunits could exist as heteromultimeric protein complexes in the plasma membrane of cells. Purification of surface expressed His-P2X2 subunit allowed the detection of co-injected P2X1 subunit and vice versa in Xenopus oocytes. Incubation with glutardialdehyde led to the cross-linking of P2X2 and P2X1 subunits to dimers and trimers. BN-PAGE analysis of the P2X2/P2X1 complex isolated under nondenaturing conditions from surface-labeled oocytes yielded one distinct band corresponding to a trimeric complex. The analysis of a C-terminally GFP tagged His-P2X1 fusion protein by confocal fluorescence microscopy revealed small clusters of the protein complexes, approximately 4-6 µm in diameter from a diffuse distribution of the protein in the plasma membranes of Xenopus oocytes. The cross-linking or BN-PAGE analysis of the fusion protein resulted in proteins that migrated quantitatively as trimers when purified in digitonin. The analysis of some chimeric constructs confirmed the results of others, which showed that desensitization can be removed from the P2X1 or P2X3 receptor by providing the N-domain from the P2X2 receptor (Werner et al., 1996) The exchange of this domain did not alter the quaternary structure of the chimeras, which showed to be present as trimers when expressed in oocytes. In addition, glycan minus mutants of His-P2X1 receptor were analyzed to examine whether carbohydrate side chains are important for P2X1 subunit assembly, surface expression, or ligand recognition. SDS-PAGE analysis of glycan minus mutants carrying Q instead of N at five individual NXT/S sequons reveals that 284N remains unused because of a proline in the 4 position. The four other sites (153Asn, 184N, 210N, and 300N) carry N-glycans, but solely 300N acquires complex-type carbohydrates. Like parent P2X1 receptor, glycan minus mutants migrate as homotrimers when resolved by blue native PAGE. Recording of ATP-gated currents revealed that elimination of 153N or 210N diminishes or increases functional expression levels, respectively. In addition, elimination of 210N causes a 3-fold reduction of the potency for ATP. If three or all four N-glycosylation sites are simultaneously eliminated, formation of P2X1 receptors is severely impaired or abolished, respectively. It is concluded that at least one N-glycan per subunit of either position is absolutely required for the formation of P2X1 receptors. The SDS-PAGE analysis of surface-labeled His-P2X2 and His-P2X5 receptors revealed that, while the His-P2X2 subunit acquires three complex-type carbohydrates, in case of His-P2X5 polypeptide, only two of the three N-glycans could obtain complex-type carbohydrates during transit of the Golgi apparatus. Furthermore, it was shown that DTT treatment blocked the appearance of newly made His-P2X1 at the plasma membranes of Xenopus oocytes. Also, it was revealed that the effects of DTT on His-P2X1 biogenesis are fully reversible. Removal of the reducing agent leads to subsequent folding and assembly into His-P2X1 receptor complex, followed by transport to the cell surface. The characterization of cysteine minus mutants by SDS PAGE and BN-PAGE demonstrated that, the cysteine substitution in the first cysteine rich domain (C1 - C6) does not have a major effect on assembly for the mutant receptors. In contrast, the replacement of the four cysteine residues (C7 - C10) from the second cysteine rich domain demonstrate a critical importance of this domain for the functional surface expression of P2X1 receptor. The investigations of several double cysteine mutants revealed that according to a similarity in the sensitivity to ATP, the C1 and C6, as well as C2 and C4 and finally C3 and C5 are pairs forming two disulfide bonds in each P2X1 subunit.
Ressourcennutzung und Sammelverhalten verschiedener Unterarten der Honigbiene Apis mellifera L.
(2002)
1998, 1999 und 2000 wurde der Polleneintrag am Südostrand des Taunus jeweils in den Zeiträumen Juni/Juli bis August/September von 20 (1998, 1999) bzw. 18 (2000) Honigbienenvölkern der europäischen Unterarten Apis mellifera mellifera, Apis mellifera carnica und Apis mellifera igustica sowie der südafrikanischen Unterart Apis mellifera capensis mittels Pollenfallen am Flugloch der Bienenstöcke auf 5 Standplätzen erfasst. Die Auswertung des Polleneintrags und dessen Vergleich zwischen den Unterarten erfolgte auf verschiedenen Ebenen. Zum einen wurden Ordinationsverfahren innerhalb der multivariaten Statistik zur Gesamtanalyse aller Pollenproben angewandt, die der graphischen Darstellung der Pollenspektren der Unterarten und der Ermittlung des Einflusses verschiedener Variablen auf den Polleneintrag dienten. Zum anderen bildete der Unterartenvergleich anhand verschiedener Parameter und berechneter lndices die Grundlage für die Analyse des Polleneintrags. In 647 Pollenproben mit einem Gesamtgewicht von 4008,3 g wurden 214 verschiedene Pollentypen und in geringen Mengen sieben weitere Nicht-Pollen-Bestandteile nachgewiesen. Die Pollentypen mit den höchsten Anteilen am Gesamteintrag waren Zea mays, Brassicaceae, Castanea sativa, Asteraceae Form T, Rosaceae, Plantago spec. und Hedera helix. 90% des Gesamteintrags stammten von 12% der insgesamt nachgewiesenen Pollentypen. Sowohl die untersuchten europäischen Unterarten als auch die südafrikanische Unterart wiesen ein einheitliches Sammelverhalten auf. Sie zeigten die Art-typischen Eigenschaften der Honigbiene, wie polylektische, generalistische und opportunistische Sammelweise sowie die Konzentration auf wenige ergiebige Pollenquellen. Die gesamten Pollenspektren stimmten zwischen den Unterarten weitgehend überein. Aus dem Vergleich der eingetragenen Pollenmenge, der Anzahl verschiedener Pollentypen, Diversität und Evenness sowie der Dominanzstruktur des Polleneintrags pro Pollenprobe konnte keine unterschiedlichen Sammelstrategie der Unterarten abgeleitet werden. Vor dem Hintergrund der Gemeinsamkeiten in Sammelverhalten und Ressourcennutzung wurden bei einer sehr detaillierten Betrachtung des Polleneintrags der vier untersuchten Unterarten der Honigbiene unter den Bedingungen eines diversen Pollenangebots Unterschiede im Eintrag zwischen den Unterarten von einzelnen Pollen- und Blütentypen festgestellt. Die geringen Unterschiede bewirkten einen geschätzten Anteil der Unterart an der Variabilität des Polleneintrags zwischen 1,4% und 4,5%, wobei sich die europäischen Unterarten entsprechend ihrer verwandtschaftlichen Beziehungen absetzten. Ein Zusammenhang der Vegetation und dem Polleneintrag in den Ursprungsgebieten der Unterarten mit dem Mehreintrag spezifischer Pollentypen im Untersuchungsgebiet ließ sich nicht herstellen. Schlussfolgerungen aus den Ergebnissen sind, dass das Sammelverhalten und die Ressourcennutzung kein Kriterium für die Bewertung verschiedener Unterarten der Honigbiene, insbesondere der in Mitteleuropa autochthonen Unterart Apis mellifera mellifera und der aus Südosteuropa eingeführten Unterart Apis mellifera carnica, darstellen. Für eine Beurteilung von Konkurrenz gegenüber anderen blütenbesuchenden Insekten und von Bestäubungsleistungen ist damit das generelle Sammelverhalten der Art Apis mellifera entscheidend.
Die Messung des T-Wellen-Alternans ist eine neue, vielversprechende Methode zur Erfassung von Patienten mit einem erhöhten Risiko für arrhythmische Ereignisse. Die gute Testeffizienz ist für unterschiedliche kardiale Krankheiten belegt; ebenfalls wurde die Überlegenheit des TWA gegenüber anderen gängigen Parameter zur Risikostratifizierung erwiesen. Schwachpunkte dieses Verfahrens sind der relativ hohe Anteil an falsch positiv Getesteten und die häufig scheiternden Messungen. Nach unserem Wissen haben wir mit dieser Studie anhand eines Patienten- kollektivs mit Myokardinfarkt erstmalig erwiesen, dass das Ergebnis einer TWA- Untersuchung unabhängig ist von dem Alter und dem Geschlecht des Patienten, sowie von verschiedenen Parameter des erlittenen Herzinfarktes, wie der Höhe der CK, der Lokalisation, der Art der Erstintervention und dem Perfusionsstatus. Im Gegensatz zu anderen Studien konnten wir keinen Einfluss der Medikation, insbesondere der antiarrhythmischen, auf den Ausgang des Alternans-Testes feststellen. Schließlich zeigt die vorliegende Untersuchung erstmalig, dass das Wiederholen der Messung zu einem späteren Zeitpunkt, nämlich nach sechs Wochen und nach einem Jahr, zu 80 % das gleiche Ergebnis liefert, und zwar unabhängig von Änderungen in der Medikation, weiteren Maßnahmen zur Reperfusion und erneuten kardialen Ereignissen. Das Ergebnis positiv zeigt sich dabei etwas weniger stabil als das Ergebnis negativ. Insgesamt kann gefolgert werden, dass die Methode eine gute Reproduzierbarkeit aufweist und bei der Mehrzahl der Patienten auch im Langzeitverlauf stabile Ergebnisse liefert.
Wolinella succinogenes reduziert Fumarat mit H2 oder Formiat als Elektronendonor. Der Elektronentransport wird von der membranständigen Hydrogenase oder Formiat-Dehydrogenase und der Fumarat-Reduktase katalysiert. Redoxmediator zwischen beiden Enzymen ist Menachinon. Der Elektronentransport ist mit der Erzeugung eines elektro-chemischen Protonenpotentials (Dp) gekoppelt. Ziel dieser Arbeit war, den Mechanismus der Dp-Entstehung durch Rekonstitution der gekoppelten Fumarat-Atmung in Liposomen aufzuklären. Aus Wolinella succinogenes isolierte Hydrogenase und Fumarat-Reduktase wurden in Liposomen eingebaut, die Menachinon enthielten. Die resultierenden Proteoliposomen kataly-sierten die Reduktion von Fumarat mit H2. Die Wechselzahl der Enzyme im Elektronentrans-port von H2 zu Fumarat war etwa 10 % von der in Bakterien. In den Proteoliposomen waren sowohl Hydrogenase als auch Fumarat-Reduktase ausschließlich nach außen orientiert. Elektronenmikroskopische Aufnahmen zeigten, dass die Proteoliposomen sphärische Vesikel mit einem mittleren Außendurchmesser von 88 nm waren. Die Proteoliposomen enthielten statistisch 8,4 Hydrogenasemoleküle und 72 Fumarat-Reduktasemoleküle. Alle aktiven Enzymmoleküle waren in der Proteoliposomenmembran zufällig verteilt eingebaut und nahmen am Elektronentransport von H2 zu Fumarat teil. Der aus dem Protonenpermeabilitätskoeffizienten (PH = 8,1·10-3 cm·s-1) berechnete unspezifische Protonenfluß über die Proteoliposomenmembran war etwa 20mal langsamer als der durch den Elektronentransport von H2 zu Fumarat katalysierte Protonenfluß. Während der Fumarat-Reduktion mit H2 entstand ein elektrisches Protonenpotential über der Proteoliposomenmembran (Dø = -0,19 V; innen negativ), das die gleiche Richtung und Größe hatte wie das Dø während der Fumarat-Atmung in Zellen von W. succinogenes. Der H /e--Quotient für die Fumarat-Reduktion mit H2 war in Proteoliposomen in Gegenwart von Valinomycin und externem K etwa 1. Das gleiche Dø und der gleiche H /e--Quotient waren mit der Reduktion von 2,3-Dimethyl-1,4-naphthochinon (DMN) durch H2 verbunden, wenn die Proteoliposomen Menachinon und Hydrogenase mit oder ohne Fumarat-Reduktase enthielten. Proteoliposomen, die Menachinon und Fumarat-Reduktase mit oder ohne Hydrogenase enthielten, katalysierten die Reduktion von Fumarat durch DMNH2, die aber nicht mit der Entstehung von Dp gekoppelt war. Proteoliposomen, die Formiat-Dehydrogenase, Menachinon und Fumarat-Reduktase enthielten, katalysierten die Reduktion von Fumarat oder DMN durch Formiat. Beide Reaktionen erzeugten über der Proteoliposomenmembran ein Dø von -0,13 V (innen negativ). Der H /e--Quotient der Formiat-Oxidation durch Menachinon oder DMN war nahezu 1. Die Entstehung von Dø war von der Art des in die Proteoliposomen eingebauten Chinons abhängig. Während der Reduktion von DMN durch H2 entstand ein Dø, wenn die Proteoliposomenmembran Menachinon, Vitamin K2 oder das aus W. succinogenes isolierte Methylmenachinon enthielt. Proteoliposomen ohne Chinon oder mit Vitamin K1 erzeugten kein Dø während der DMN-Reduktion mit H2. Die Fumarat-Atmung mit H2 war nur in Gegenwart von Menachinon oder Vitamin K2 mit der Entstehung von Dø gekoppelt. In dieser Arbeit wurde erstmals die gekoppelte Fumarat-Atmung mit aus W. succinongenes isolierten Elektronentransportenzymen in Lipsomen rekonstituiert. Die Ergebnisse bestätigen die Hypothese, dass das durch die Fumarat-Atmung erzeugt Dp ausschließlich durch die Menachinon-Reduktion mit H2 oder Formiat entsteht, während die Menachinol-Oxidation mit Fumarat ein elektroneutraler Prozeß ist.
During the past several years, ceramide has emerged as an important second messenger triggering cell responses including proliferation, differentiation, growth arrest and apoptosis. This thesis has focused on the regulation of neutral ceramidase which critically determines, in concert with ceramide generating sphingomyelinases, the intracellular ceramide levels. In the first part it is reported that besides a rapid and transient increase in neutral sphingomyelinase activity a second delayed peak of activation occurs after hours of IL-1beta treatment. This second phase of activation is first detectable after 2 h of treatment, and steadily increases over the next two hours reaching maximal values after 4 h. In parallel, a pronounced increase in neutral ceramidase activity is observed, which accounts for a constant or even decreased level of ceramide after long-term IL-1beta treatment, despite continuous sphingomyelinase activation. The increase in neutral ceramidase activity is due to expressional up-regulation, as detected by an increase in mRNA level and enhanced de novo protein synthesis. The increase of neutral ceramidase protein levels and activity can be blocked dosedependently by the p38- mitogen-activated protein kinase (p38-MAPK) inhibitor, SB 202190, whereas the classical MAPK pathway inhibitor U0126, and the PKC inhibitor Ro 31-8220 were ineffective. Moreover, co-treatment of cells for 24 h with IL-1~ and SB 202190 leads to an increase in ceramide formation. Interestingly, IL-1beta-stimulated neutral ceramidase activation is not reduced in mesangial cells isolated from mice deficient in MAPK-activated protein kinase 2 (MAPKAPK-2), which is one possible downstream substrate of the p38-MAPK, thus suggesting that the p38-MAPK-mediated induction of neutral ceramidase occurs independently of MAPKAPK-2. The results suggest a biphasic regulation of sphingomyelin hydrolysis in cytokine-treated mesangial cells with a delayed de novo synthesis of neutral ceramidase counteracting sphingomyelinase activity and apoptosis. Neutral ceramidase may thus represent a novel cytoprotective enzyme for mesangial cells exposed to inflammatory stress conditions. In a second part, the effect of NO on neutral ceramidase was studied. Ceramide levels are strongly increased in a delayed fashion by stimulation of renal mesangial cells with NO. This effect is due to a dual action of NO, comprising an activation of sphingomyelinases and an inhibition of ceramidase activity. The inhibition of neutral ceramidase activity correlates with the decrease of neutral ceramidase protein. A complete loss of neutral ceramidase protein is obtained after 24h of NO stimUlation. Moreover, the NO-induced degradation is reversed by the protein kinase C (PKC) activator, 12-0-tetradecanoylphorbol-13-acetate (TPA) , but also by the physiological PKC activators platelet-derived growth factor-BB (PDGF-BB), angiotensin II and ATP, resulting in a normalisation of neutral ceramidase protein as well as activity. In vivo phosphorylation studies using 32Pj-labelled mesangial cells, reveal that TPA, PDGF-BB, angiotensin II and ATP trigger an increased phosphorylation of the neutral ceramidase, which is blocked by the broad-spectrum PKC inhibitor Ro-31 8220, but not by CGP 41251, which has a preferential action on Ca2+-dependent PKC isoforms, thus suggesting the involvement of a Ca2+-independent PKC isoenzyme. In vitro phosphorylation assays using recombinant PKC isoenzymes and neutral ceramidase immunoprecipitated from unstimulated mesangial cells, show that particularly the PKC-alpha isoform, and to a lesser extent the PKC-a isoform, are efficient in directly phosphorylating neutral ceramidase. The data show that NO is able to induce degradation of neutral ceramidase thereby promoting accumulation of ceramide in the cell. This effect is reversed by PKC activation, most probably by the PKC-delta isoenzyme, which may directly phosphorylate and thereby, prevent neutral ceramidase degradation. In the third chapter it is demonstrated that the NO-triggered degradation of neutral ceramidase involves activation of the ubiquitin/proteasome complex. The specific proteasome inhibitor, lactacystin, completely reverses the NO-induced degradation of ceramidase protein and neutral ceramidase activity. As a consequence, the cellular amount of ceramide, which drastically increases by NO stimulation, is reduced in the presence of lactacystin. Furthermore, ubiquitinated neutral ceramidase accumulates after NO stimulation. The data clearly show that the ubiquitin/proteasome complex is an important determinant of neutral ceramidase activity and thereby regulates the availability of ceramide. In a last part, the cellular localisation of neutral ceramidase was investigated using green fluorescent protein (GFP) as fusion protein to examine cellular distribution and translocation of neutral ceramidase. Unstimulated HEK 293 cells reveal after transient transfection experiments that neutral ceramidase is preferentially localized in the cytoplasm. PKC activation led to an accumulation of neutral ceramidase at the nuclear membrane. In summary, this work demonstrates that the neutral ceramidase is a fine regulated protein that plays a critical role in regulating intracellular ceramide levels and thereby the cell's fate to undergo apoptosis or survive. Regulation of neutral ceramidase can be achieved on all levels, i.e. on the mRNA level, the protein level or posttranslationally by phosphorylation and subcellular translocation. Future work will reveal whether neutral ceramidase can serve as a therapeutic target in the development of novel antiinflammatory and anti-tumour drugs.
Regulation des CFTR
(2002)
In der vorliegenden Arbeit wurde die Regulation des humanen CFTR an isolierten Makropatches von Xenopus-Oozyten untersucht. Die inside-out-Konfiguration ermöglicht den einfachen Zugang zu den zytosolischen Domänen, welche die CFTR- Aktivität steuern. Daher ist es mit dieser bewährten Methode möglich, die Interaktion des CFTR mit Nukleotiden, insbesondere unter dem Einfluss der Phosphorylierung, weitergehend zu charakterisieren. Die Strom-Spannungskennlinie des ATP-induzierten CFTR-Chloridstroms weicht bei zunehmendem Haltepotenzial von dem Verlauf ab, der aufgrund der Goldmann- Hodgkin-Katz-Gleichung zu erwarten ist. Dies weist auf einen hemmenden Einfluss des in der Badlösung vorhandenen Aspartats hin. Die transienten Ströme bei schnellen Chloridkonzentrationswechseln bestätigen diese Hemmung und legen einen inhibitorischen Einfluss auf das CFTR-Gating nahe. Die Koexpression des CFTR mit dem Fusionsprotein Bakteriorhodopsin-PKA katalytische Untereinheit (BR-PKA) erm glicht die Kanalaktivierung durch einfache ATP-Zugabe. Es wurde gezeigt, dass diese Koexpression die apparente Affinität für MgATP erhöhte. Eine naheliegende Vermutung ist, dass diese Affinitätszunahme durch einen erhöhten Phosphorylierungsgrad hervorgerufen wird, was durch die Messungen mit dem Proteinkinaseinhibitor PKI unterstützt wird. Durch die Aktivierung der koexprimierten membrangebundenen cGMP-abhängigen Proteinkinase II (cGKII) kann der CFTR sowohl in Ganzzellmessungen, als auch in Makropatches phosphoryliert werden. Der Vergleich der ATP-Konzentrationsabhängigkeiten des CFTR unter permanenter (KM = 29 µM) und vorübergehender cGKII-Stimulierung (KM = 64 µM) belegt eine Abnahme des apparenten KM bei kontinuierlicher Kinaseaktivität und somit vermutlich erhöhter Phosphorylierung. Die Öffnungs- und Schlieflkinetik des Kanals wird durch diese permanente Kinaseaktivität nicht beeinflusst. Die zeitabhängige Abnahme des CFTR-Chloridstroms, der Rundown, kann nicht durch eine permanente Proteinkinaseaktivität von BR-PKA oder cGKII aufgehoben werden. Die Signalabnahme tritt auch unter Bedingungen auf, bei denen mögliche vorhandene Phosphatasen (v.a. PP2C) inaktiv sind. Daraus folgt, dass der Rundown des CFTR nicht nur durch Dephosphorylierung verursacht wird. Für Einzelkanalmessungen wird eine Verringerung der Offenwahrscheinlichkeit des epithelialen Natriumkanals ENaC durch den aktivierten CFTR beschrieben. Die im Rahmen dieser Arbeit durchgeführten Makropatchmessungen bestätigen diese Inhibition nicht. Die CFTR- und Natriumkanal-vermittelten Ströme sind, unabhängig von dem Verhältnis der Einzelströme und dem anliegenden Haltepotenzial, generell additiv. Der präphosphorylierte CFTR kann auch durch ATP-Zugabe geöffnet werden, wenn die Badlösung kein Magnesium enthält. Da unter diesen Bedingungen keine ATP- Hydrolyse erfolgen kann, muss eine Kanalaktivierung durch einfache ATP-Bindung möglich sein. Es tritt eine Verringerung der apparenten ATP-Affinität, nicht aber des maximalen Chloridstroms auf, wenn das Magnesium aus der Badlösung entfernt wird (KM[MgATP] 70 µM; KM[ATP]> 1 mM). Die Möglichkeit der nichthydrolytischen Aktivierung wird dadurch bestätigt, dass auch mit dem nicht-hydrolysierbaren ATP- Analog AMP-PNP eine Kanalöffnung erfolgt. Magnesium ist nicht nur an der ATP-Hydrolyse beteiligt, sondern beeinflusst darüber hinaus die Kanalaktivität. Aus den Messungen bei unterschiedlichen freien Mg2 - Konzentrationen in der Badlösung geht ein inhibitorischer Einfluss dieses Kations auf den stationären Maximalstrom und ein komplexer Einfluss auf die Öffnungskinetik hervor. Die Walker-A und die Walker-B-Dom nen von Nukleotidbindestellen sind an der Bindung und Hydrolyse von MgATP in ATPasen beteiligt. Mit CFTR- Mutanten, in denen die Walker-A (K1250A), bzw. die Walker-B (D1370N)-Domäne der zweiten Nukleotidbindestelle (NBD2) mutiert sind, kann die Beteiligung der NBD2 an der Kanalöffnung belegt werden. Die langsame K1250A-Mutante öffnet in Abwesenheit von Magnesium nicht. Dagegen ist sowohl die Öffnungs- und Schließkinetik, als auch die ATP-Affinität der D1370N-Mutante mit der des Wildtyps vergleichbar, weist aber im Gegensatz zu diesem keinerlei Magnesiumabhängigkeit auf. Auf Grundlage dieser Daten wird ein Modell vorgeschlagen, in dem alternativ zu dem hydrolytischen Öffnungszyklus, in dem zunächst eine ATP-Hydrolyse an der NBD1 erfolgt, auch die nichthydrolytische Öffnung über die NBD2 möglich ist.
Fettsäuren haben vielfältige Funktionen im Organismus. Sie sind der wichtigste Energieträger des menschlichen Körpers. Fettsäuren sind Bestandteil menschlicher Membranen und Ausgangspunkt für die Biosynthese biologisch aktiver Substanzen. Der Abbau der Fettsäuren und deren energetische Verwertung geschieht im Mitochondrium, dem Ort der ß-Oxidation. Hierfür werden die Fettsäuren mit Hilfe des aus 3 Enzymen bestehenden Carnitin- Palmitoyltransferase-Systems aus dem Cytosol in das Mitochondrium transportiert. Dazu werden langkettige Fettsäuren durch die Acyl-CoA-Synthetase aktiviert und - an Carnitin gebunden - in das Innere der Mitochondrien geschleust. Die Carnitin-Palmitoyltransferase 1 (CPT 1) ist an der Innenseite der äußeren Mitochondrienmembran gebunden und katalysiert die Kopplung von L-Carnitin an die aktivierte Fettsäure unter Freisetzung von Coenzym A. Das so enstandene Acyl-Carnitin passiert mit Hilfe der Carnitin- Acylcarnitin-Translokase (CAC) die innere Mitochondrienmembran. An der Innenseite der mitochondrialen Innenmembran überträgt die Carnitin-Palmitoyltransferase 2 (CPT 2) den Fettsäurerest des Acyl-Carnitins auf Coenzym A, wobei Acyl-CoA und freies Carnitin entsteht. Nun schließt sich der Abbau der Fettsäuren, die ß-Oxidation an. Ziel dieser Arbeit war die Untersuchung der Carnitin-Palmitoyltransferase 1 in Entzündungszuständen und die Klärung der Frage, ob Stickstoffmonoxid (NO) einen Einfluss auf die Regulation der CPT 1 hat. Darüberhinaus wurde die Wirkung von PPAR-a (peroxisome proliferator-activated receptor-a) auf die induzierbare NO-Synthase (iNOS) und damit die Generierung von NO untersucht. Die Experimente wurden an Ratten-Mesangiumzellen durchgeführt. Interleukin 1ß stimuliert die Expression der CPT 1 auf mRNA und Protein-Ebene. In Kombination mit Palmitat und Carnitin konnte die Expression der CPT 1 signifikant gesteigert werden. Es konnte gezeigt werden, dass NO ein potenter Stimulator der Carnitin-Palmitoyltransferase 1 ist. Mesangiumzellen, die mit NO und IL-1ß kombiniert stimuliert wurden, zeigten bereits nach 2 Stunden eine Reduktion der Expression auf das Niveau der unstimulierten Kontrolle. IL-1ß und L-NG-Monomethyl- Arginin (L-NMMA), ein spezifischer Inhibitor der induzierbaren NO-Synthase erhöhen die CPT-1 Expression. In einem Tiermodell des hämorrhagischen Schocks wurde die CPT 1 mRNA Expression signifikant reprimiert, die Gabe eines iNOS-Inhibitors konnte diese Herunterregulierung wieder aufheben. Stickstoffmonoxid spielt eine sehr wichtige Rolle bei Entzündungsreaktionen. Die induzierbare NO-Synthase ist das verantwortliche Enzym für die Produktion von großen Mengen NO. Die NO-Synthase (NOS) katalysiert die Umsetzung von L-Arginin unter Sauerstoffverbrauch in Citrullin unter Entstehung von NO. Der Mechanismus , der für einen verzögerten Beginn der Transkription von vier Stunden mit darauf folgender mehr als 24-stündiger immenser mRNA Synthese. nach einer Zytokinstimulation verantwortlich ist, ist noch nicht verstanden. Der Untersuchung dieser verzögerten und anhaltenden iNOS Expression lag die Hypothese zugrunde, dass die Zytokin-induzierte iNOS Transkription zuerst durch NFkB und C/EBP Transkriptionsfaktoren ausgelöst und anschließend durch andere Mediatoren verlängert und verstärkt wird. Zur Identifizierung möglicher regulatorischer Elemente wurden 4,5 kb der 5' flankierenden Region des iNOS Promotors aufwärts des Transkriptionsstarts kloniert. Mittels Analyse der DNase 1 hypersensitiven Bereiche der 5'Region des iNOS Gens konnten zwei hypersensitive Stellen identifiziert werden (DHS1: 1300bp; DHS2: 3000bp). Beide Stellen enthalten putative PPAR-Bindestellen. Zur weiteren Untersuchung wurde die Wirkung des PPAR-a auf die iNOS analysiert. Dabei konnte gezeigt werden, dass der PPAR-a Agonist Wy 14643 in Kombination mit IL-1ß in der Lage ist sowohl Aktivität, Protein als auch die mRNA der iNOS zu steigern. Transfektionsexperimente mit deletierten und mutierten iNOS Promotorfragmenten zeigten, dass DHS1 das für die Stimulation verantwortliche DNA Fragment enthält. Mittels Elektrophoretic-Mobility-Shift-Assay konnte gezeigt werden, dass der PPAR-a Agonist Wy 14643 die Bindung des PPA-Rezeptors an DHS1 verstärkt.
Kontinuierlich hohe Stickstofffrachten der Elbe und weiterer Nordseezuflüsse haben die Internationale Nordseeschutzkonferenz (INK) Ende der 80er Jahre dazu veranlasst, eine 50%ige Reduzierung der N-Einträge in die Nordsee innerhalb von 10 Jahren zu beschließen. Diese Reduzierung wurde in diesem Zeitraum nicht erreicht. Für Oberflächengewässer wurde im Jahr 2001 zur Umsetzung der EU-Wasserrahmenrichtlinie in Bundesdeutsches Recht von der Länderarbeitsgemeinschaft Wasser (LAWA) in Zusammenarbeit mit dem Umweltbundesamt (UBA 2001d) eine Güteklassifikation für Nährstoffe erstellt, die einen Wert von 3 mg/l N für Oberflächengewässer festgelegt. Am Beispiel der mittleren Mulde, die kontinuierlich hohe Stickstoffkonzentrationen von durchschnittlich 6 mg N /l aufweist, wird deutlich, dass eine Reduzierung der N-Einträge zur Erzielung der geforderten Gewässergüte unabdingbar ist. Sowohl für die Meere als auch für die Oberflächengewässer ist eine Halbierung der N-Einträge eine umweltpolitische Notwendigkeit. Im Rahmen des Projektes „Gebietswasserhaushalt und Stoffhaushalt in der Lößregion des Elbegebietes als Grundlage für die Durchsetzung einer nachhaltigen Landnutzung“ wurden deshalb die Wasser- und Stickstoffflüsse im Einzugsgebiet der mittleren Mulde (2700 km²) flächendifferenziert erfasst, um die N-Eintragpfade zu quantifizieren und Maßnahmen zur Minderung der N-Frachten abzuleiten. ...
Ziel dieser Arbeit ist die Herstellung und Charakterisierung von Zn-Mg-SE-Legierungen (SE = Y, Ho, Er, Dy, Tb, Gd), um Informationen über Struktur, Stabilisierung und physikalische Eigenschaften der quasikristallinen Phasen dieses Systems zu erhalten. Die Quasikristalle dieses Systems unterscheiden sich von Quasikristallen anderer Legierungen, die meist Al als Hauptkomponente enthalten. Es konnten bis zu 275 mm3 große Einkristalle der flächenzentriert ikosaedrischen Phase in den Systemen Zn-Mg-Y und Zn-Mg-Ho gezüchtet werden. Außerdem wurden MgZn2- und hexagonale A-Zn70Mg14Y16-Einkristalle hergestellt, deren Existenzbereiche im Phasendiagramm benachbart zu dem der ikosaedrischen Phase liegen. Um polykristalline Proben herzustellen, die unterschiedliche quasikristalline oder verwandte Strukturen als Hauptphase enthalten, wurden verschiedene Herstellungsverfahren getestet und verwendet. So konnte zum Beispiel erstmalig eine Probe hergestellt werden, die dekagonales ZnMgY als Hauptphase enthält. Zudem wurde eine neue kubische (R-Phase) bzw. hexagonale (M-Phase) und eine neue hochgeordnete primitiv ikosaedrische Phase im System Zn-Mg-Er entdeckt, synthetisiert und charakterisiert. Bei Untersuchungen dieser selbst gefertigten Proben konnten Erkenntnisse über magnetische Eigenschaften, elastische Konstanten, optische Leitfähigkeit, Leerstellenverteilung, Oberflächenbeschaffenheit, Diffusionsmechanismen und die Erstarrungsgeschichte der flächenzentriert ikosaedrischen Zn-Mg-SE-Quasikristalle gewonnen werden. Durch vergleichende Messungen an kristallinen Zn-Mg-SE-Legierungen lassen sich die für Quasikristalle spezifischen Effekte identifizieren. Die im Rahmen dieser Arbeit hergestellten und charakterisierten Proben sind aktuell Gegenstand weiterer Untersuchungen. Mit Hilfe von Beugungsexperimenten konnte gezeigt werden, dass die kubische R-Phase strukturell nahe mit der ikosaedrischen Phase im System Zn-Mg-SE verwandt ist. Die R- Phase ist bei Raumtemperatur nicht stabil und bildet die rhomboedrische M-Phase. Es konnte ein Strukturmodell für die R-Phase entwickelt werden, in dem keine ikosaedrischen Cluster als Strukturelement verwirklicht sind. Auch in der hexagonalen A-Phase konnten solche Strukturelemente nicht gefunden werden. Die Resultate dieser Arbeit legen nahe, dass die Struktur der Zn-Mg-SE-Quasikristalle, im Gegensatz zu Quasikristallen anderer Systeme, nicht auf großen ikosaedrischen Clustern basiert. Damit ist gezeigt, dass große ikosaedrische Cluster zur Bildung von Quasikristallen nicht notwendig sind. Messungen an den Proben zeigen, dass sich dadurch auch einige der physikalischen Eigenschaften, zum Beispiel die optische Leitfähigkeit, von Quasikristallen mit Clustern unterscheiden. Keine Unterschiede konnten beim Diffusionsverhalten und bei mechanischen Eigenschaften festgestellt werden. Hier gleichen die Zn-Mg-SE-Quasikristalle anderen strukturell komplexen Legierungen oder Quasikristallen anderer Legierungssysteme.
Proliferative Erkrankungen der Brust gehören zu den häufigsten Erkrankungen der Frau. Viele der Risiko- und Einflussfaktoren auf Brusterkrankungen stehen in engem Zusammenhang zu der endogenen oder exogenen Östrogenexposition. Da Steroidhormone eine proliferationsfördernde Wirkung auf das Epithel der Brustdrüse besitzen, wird ihnen eine Schlüsselfunktion bei der Pathogenese des Mammakarzinoms aber auch der benignen Brusterkrankungen zugeschrieben. Der Nachweis eines derartigen Zusammenhanges ist schwierig, da punktuelle Östrogenspiegelmessungen nicht die Langzeitexposition einer Frau darstellen und eine lange Latenzzeit zwischen Initiation und Erkrankungsmanifestation angenommen wird. Da Östrogen über eine vermehrte Produktion von ossären Wachstumsfaktoren und Zytokinen sowie über die direkte Stimulation von Osteoblasten auch eine anabole Wirkung am Knochen entfaltet, wurde die Bestimmung der Knochendichte als Indikator einer kumulativen Östrogenexposition postuliert. Während eine limitierte Zahl kontrollierter Studien, mit teilweise erheblichen methodischen Unterschieden bei der Bestimmung der Knochendichte, für Mammakarzinome sowohl erhöhte als auch erniedrigte Werte nachweisen konnten, finden sich bisher keine Untersuchungen über die Zusammenhänge zwischen Östrogen, Knochendichte und benignen Brusterkrankungen. Die vorliegende Fall-Kontroll-Studie untersucht daher an einem Kollektiv von 229 Frauen den Zusammenhang zwischen proliferativen Brustveränderungen und der Knochendichte, unter besonderer Berücksichtigung benigner Veränderungen. Eingeschlossen wurden 84 Frauen mit neu diagnostiziertem, histologisch gesichertem Mammakarzinom sowie 96 Frauen mit benigner Brusterkrankung. Als Kontrollgruppe dienten 49 Frauen ohne Erkrankungen der Brust. Die Knochendichtemessung wurde bei allen Probandinnen mittels Quantitativer Ultraschall-Osteodensitometrie (QUS) am Os calcaneus durchgeführt. Ermittelt wurden die Messparameter BUA (Breitband-Ultraschall-Abschwächung), SOS (Schalleitungsgeschwindigkeit) und SI (Stiffness-Index), welche die physikalischen Eigenschaften des Knochens, insbesondere seine Mineraldichte bestimmen. Weiterhin wurden mögliche Einfluss- und Risikofaktoren für die Entstehung proliferativer Brusterkrankungen (Alter, Gewicht, Menarchenalter, Menopausenalter, Gesamtstillzeit, Geburtenzahl, Östrogenexpositionszeit, Hormonersatz-therapie sowie familiäre Brustkrebsbelastung) mittels Fragebogen für alle Patientinnen erhoben. In unserer Studie wiesen die Karzinompatientinnen nach Altersadjustierung in allen Messparametern eine erhöhte Knochendichte im Vergleich zu den Patientinnen mit benignen Brusterkrankungen und den Kontrollen auf. Der Vergleich zwischen benignen Brusterkrankungen und den Kontrollen ergab hingegen keine Gruppenunterschiede bezüglich der Knochendichte. Um die Bedeutung weiterer östrogenabhängiger und -unabhängiger Faktoren zu untersuchen, führten wir Korrelationsanalysen zwischen unseren Messergebnissen und den erhobenen Risikofaktoren durch. Dabei konnte für die Parameter Alter, Menarchenalter, Hormonersatztherapie sowie die familiäre Karzinombelastung ein signifikanter Einfluss auf die Knochendichte nachgewiesen werden, wobei sich diesbezüglich keine Unterschiede zwischen den Karzinompatientinnen und den Patientinnen mit benignen Brusterkrankungen ergaben. Ein Erklärungsmodell für die Entstehung von benignen Brusterkrankungen ohne messbare Veränderung der Knochendichte könnte in der für diese Entität beschriebenen Imbalance zwischen relativ vermehrtem Östrogen bei vermindertem, proliferationshemmendem Gestagen bestehen. Weiter sind alternative und östrogenunabhängige Parameter mit Einfluss auf die Gewebe der Brust und des Knochens (z.B. Insulin-like-growth-factor I) zu diskutieren und bei zukünftigen Studien zu berücksichtigen. Die verwendete Methode der Quantitativen Ultraschall-Osteodensitometrie erreicht nach den Ergebnissen dieser Studie eine ausreichende Präzision und Reproduzierbarkeit und erscheint, nicht zuletzt aufgrund ihrer sehr geringen Kosten- und Patientenbelastung, für die Bearbeitung ähnlicher Fragestellungen empfehlenswert.
In der vorliegenden Arbeit wird untersucht, inwieweit sich quantenoptische Zufallsgeneratoren, bei denen die "Welcher-Weg-Entscheidung" einzelner Photonen am Strahlteiler bzw. Faserkoppler zur Zufallsgenerierung verwendet wird, zur Erzeugung von Zufallsbitströmen eignen. Es werden hierbei im wesentlichen vier verschiedene Varianten aufgebaut, die sich durch die eingesetzte Lichtquelle und die Realisierung des optischen Aufbaus unterscheiden, um zu erkennen, welche Detailprobleme sich beim Aufbau solcher Generatoren zeigen. Als Lichtquellen werden eine Einphotonenquelle auf Basis der parametrischen Fluoreszenz und eine Quelle, die stark abgeschwächte, gepulste Poisson-Lichtfelder abstrahlt, eingesetzt. Bei der optischen Realisierung wird jeweils einmal Freistrahl- und einmal Faseroptik für das Zufall generierende Element verwendet. Die Rohdaten-Bitströme der verschiedenen Varianten werden mit Hilfe von statistischen Verfahren untersucht, die für Tests von physikalischen Zufallsgeneratoren geeignet sind. In der Diskussion werden die verschiedenen Testverfahren hinsichtlich ihrer Eignung zum Aufdecken tieferliegender Defekte bewertet. Thermische Einflüsse auf die Rohdaten-Ströme werden dargelegt, Methoden zur Verringerung der Einflüsse angegeben und gezeigt, wie mit Hilfe von mathematischen Regularisierungsverfahren ideale Bitströme aus den Rohdaten erzeugt werden können. Anhand von (mehrstufigen) Autokorrelationskoeffiziententests werden die Auswirkungen von Problemen mit verschiedenen Datenaufnahme-Elektroniken auf die Rohdaten- Ströme analysiert. Die Ursachen der Probleme werden diskutiert, mögliche Lösungen, wie sich die Probleme stark verringern bzw. vermeiden lassen, werden vorgeschlagen und experimentell untersucht. Die Einflüsse der Eigenschaften der verwendeten Photonenquellen im Zusammenspiel mit den verwendeten optischen Komponenten und Detektoren werden analysiert und ihre Auswirkungen auf die Zufallsgenerierung diskutiert. Zur Erhöhung der Ausgangbitrate quantenoptischer Zufallsgeneratoren werden verschiedene Ausführungen von Mehrfachzufallsgeneratoren vorgeschlagen, insbesondere für den quantenoptischen Zufallsgenerator auf Basis der parametrischen Fluoreszenz. Als weitere, interessante Variante eines quantenoptischen Zufallsgenerators wird das theoretische Konzept für den "HOM-Generator" präsentiert, bei dem beide Photonen eines Photonenpaares bei einer gemeinsamen "Welcher-Weg-Entscheidung" zur Zufallsgenerierung verwendet werden. Die vorgeschlagenen Varianten quantenoptischer Zufallsgeneratoren werden hinsichtlich ihrer Eignung für einen praktischen Einsatz diskutiert und bewertet. Für den Dauereinsatz quantenoptischer Zufallsgeneratoren als Komponente in Sicherheitsinfrastrukturen, wie z.B. Trustcentern, werden Optimierungen, Möglichkeiten der Kostenreduzierung und weitere Aufbauvarianten vorgeschlagen. Die Optimierungen werden hinsichtlich ihrer Praxistauglichkeit diskutiert und gewertet. Mögliche Angriffe auf quantenoptische Zufallsgeneratoren werden diskutiert und zur Erkennung von Manipulationen an physikalischen Zufallsgeneratoren werden verschiedene Möglichkeiten vorgestellt, um künstliche Signaturen einzufügen, sie vor Verwendung der Zufallsdaten zu verifizieren und aus dem Zufallsstrom zu entfernen.
In dieser Arbeit wird erstmals der Einfluss von psychischen Belastungen von männlichen Berufsfeuerwehrleuten im Wachalltag und im Einsatz auf das psychische Befinden im Längsschnitt mittels zwei Erhebungswellen untersucht. In der Literatur finden im Zusammenhang mit Befindensbeeinträchtigungen lediglich die Belastungen im Einsatz eine Berücksichtigung. Die Einsatzkräfte verbringen während ihrer Dienstzeit 30% im Einsatz und 70% im Wachalltag. Wir erwarten, dass die psychischen Belastungen im Einsatz stärker ausgeprägt sind, die Stressoren für den Dienst auf der Wache jedoch die besseren Prädiktoren für die Vorhersage von psychischem Befinden darstellen. In einer Wiederholungsmessung wurden männliche Feuerwehrbeamte aus sieben Berufsfeuerwehren mittels Fragebogen befragt. Die selben Feuerwehrleute haben zu t1 und t2 identische Fragen für die Arbeitsbereiche Wachalltag und Einsatz beantwortet. Aus zwei verwertbaren Datenmengen der Erhebungszeitpunkte verblieb eine Gesamtstichprobe von 861 Einsatzkräften. Auf der Basis von LISREL-Modellen wurden unter Berücksichtigung von Occasion-Faktoren und umgekehrter Kausaleffekte die Auswirkungen der erhobenen Regulationsanforderungen und Regulationsproblemen sowie von Handlungsspielraum für den Einsatz und für den Wachalltag geschätzt und auf die Kriterien der kurzfristigen und langfristigen Beeinträchtigung und Arbeitszufriedenheit abgebildet. Unsere Hypothesen konnten in weiten Bereichen begründet werden. Bei stärker ausgeprägten Stressoren im Einsatz erweisen sich die Stressoren des Wachalltags als die besseren Prädiktoren für kurzfristige Beeinträchtigungen und Arbeitszufriedenheit. Psychosomatische Beschwerden wirken sich eher umgekehrt auf die Stressoren aus. Stressoren, die ‚echte’ Einsätze charakterisieren, begünstigen das psychische Wohlbefinden.
In dieser retrospektiven Studie wurde die Ergebnisqualität des Rettungsdienstbereiches Frankfurt am Main bei präklinischen Reanimationen untersucht. Das untersuchte System versorgt etwa 650.000 Einwohner auf einer Fläche von 248,36 km 2 . In ei nem gestaffelten System waren 12 Rettungs (RTW) und 4 Notarztwagen (NAW) rund um die Uhr an der Notfallrettung beteiligt. Weitere W und KTW waren zu bestimmten Tageszeiten im Einsatz. Im Erfassungszeitraum wurden insgesamt 506 Reanimationen registriert, an dem der Rettungsdienst beteiligt war, von denen 447 die Einschlusskriterien (kardial bedingter Herzkreislaufstillstand, Alter >= 15 Jahre) erfüllten. 160 Patienten wurden nach Herzkreislaufstillstand (35,8%) in ein Krankenhaus transportiert, 112 Patienten (25,1%) hatten dabei nachweislich einen Spontankreislauf. 35 Patienten (7,8% von n=447) wurden aus dem Krankenhaus entlassen. Der primäre Reanimationserfolg war signifikant abhängig vom Alter der Patienten, dem EKG-Befund bei Reanimationsbeginn, dem Notfallort und der Tageszeit. Signifikant in Bezug auf das sekundäre Überleben erwiesen sich nur der initiale EKG-Befund und der Notfallort. Patienten mit Kammerflimmern und Patienten, die in der Öffentlichkeit einen Herzkreislaufstillstand erlitten, hatten eine signifikant höhere Überlebenschance. Das Geschlecht der Patienten und der Beginn einer Reanimation durch Anwesende hatten keinen signifikanten Einfluss auf primärem und sekundärem Reanimationserfolg. Die Zeit bis zum Eintreffen des ersten Rettungsmittels betrug im Median 6 Minuten. Ein Notarzt traf im Median nach 10 Minuten ein. Die Frankfurter Erfolge sind im Vergleich zur Literatur bezogen auf den sekundären Reanimationserfolg signifikant niedriger. Mögliche Gründe dafür sind: . der hohe Anteil von Patienten mit Asystolie . keine Frühdefibrillation durch RTW im Studienzeitraum . geringer Anteil von Anwesendenreanimationen . Infrastruktur der Großstadt Frankfurt Folgende Veränderungen könnten Schwachstellen ausgleichen und die Effektivität des Rettungssystems verbessern: - Umstellung von stationärem Notarztsystem (NAW) auf Rendezvoussystem (NEF) - Frühdefibrillation mit AED - ''First responder" - ''Public access defibrillation" - strengere Indikationsstellung zur Reanimation - bessere und intensivierte Breitenausbildung in Wiederbelebungsmaßnahmen - Anleitung zur Telefonreanimation durch Rettungsleitstelle
Die Vorteile von konuskronengestütztem Zahnersatz für den Patienten sind bekannt: Hoher Trage- und Kaukomfort, bequeme Handhabung, einfache Mundhygiene, Selbstreinigungseffekt durch den Speichel, sekundäre Verblockung durch die Suprakonstruktion, axiale Belastung der Pfeilerzähne, Kombinationsfähigkeit von Implantaten mit natürlichen Pfeilern und prospektive Erweiterungsfähigkeit. Bisher jedoch verhinderten die aufwändige Herstellung und die Problematik der Passungspräzision eine breite Anwendung dieser Art von Zahnersatz. Insbesondere für eine günstige Langzeitprognose von Implantaten wird absolute Spannungsfreiheit der Suprastruktur gefordert. In vielen Ländern z. B. auch in den USA, in denen die entsprechende zahntechnische Infrastruktur fehlt, können doppelkronengestützte Prothesen nicht hergestellt werden. Mit der Methode der definitiven intraoralen Fügung von Gerüstkomponenten können diese Anforderungen an die Passungspräzision problemlos erfüllt werden. Gleichzeitig wird die zahntechnische Fertigung vereinfacht und damit Zeitaufwand und Kosten geringer. Durch diese vereinfachte Herstellung und die Kostenreduzierung wird doppelkronengestützter Zahnersatz für eine größere Patientenklientel verfügbar. Ziel der Studie war, das neuartige Behandlungsvorgehen methodisch zu optimieren und die Verweildauer und die klinischen Auswirkungen von intraoral gefügtem doppelkronenverankerten Zahnersatz zu evaluieren. Im Zeitraum von 1992 bis 1998 wurden 61 Patienten mit 64 Prothesen, deren Gerüste an insgesamt 238 Fügestellen definitiv intraoral geklebt wurden, versorgt. Nach der Fertigstellung wurden die Daten des Zahnersatzes (Anzahl, Art und Verteilung der Pfeiler, Werkstoffkombination, Design und Vorbehandlung der Fügestellen und Zeitpunkt der Klebung) dokumentiert. 51 dieser Patienten mit 53 Prothesen und insgesamt 209 Fügestellen konnten halbjährlich kontrolliert werden. Die Nachuntersuchung umfasste eine klinische Untersuchung, eine lichtmikroskopische Kontrolle und eine Evaluation der Patientenmeinung mittels Fragebogen. Eine Klebestelle versagte bereits nach 14 Monaten unter Risiko: Der Klebespalt war aufgrund mangelnder Kongruenz von Patrize und Matrize zu breit, was die Stabilität der Klebung massiv reduzierte. Alle anderen Prothesen wiesen nach durchschnittlich 38,93 Monaten (Min = 18, Max = 85 Monate) eine spannungs- und schaukelfreie Passung auf. Die Klebestellen zeigten auch bei lichtmikroskopischer Untersuchung keine Läsionen, die auf ein Nachlassen der Klebung hindeuten. Freiliegendes Klebekomposit an einer Prothese musste wegen Auswaschungen nachgefüllt werden. Die REM-Aufnahmen einer im Mundmilieu durchgeführten Klebung zeigen den innigen Verbund des Klebekomposits mit den metallischen Prothesenkomponenten. 90 % der befragten Patienten gaben einen schaukelfreien Sitz ihrer Prothese an, lediglich 4 % beklagten Probleme beim Herausnehmen der Prothese. Mit "gut" bzw. "sehr gut" bezeichneten 84 % der Patienten den Tragekomfort der Prothese; 90 % der Patienten bezeichneten den Halt ihrer Prothese mit "zufrieden" bis "sehr gut". Die intraorale Fügung ist eine robuste, fehlertolerante Methode, die eine hochpräzise Passung gewährleistet. Obwohl keine Ausschlusskriterien zur Auswahl der Patienten bestanden, wurde eine außerordentlich hohe Zuverlässigkeit der Methode von 99,58 % erreicht. Aufgrund der starren Lagerung des Zahnersatzes können die kinetikbedingten Folgen wie z. B. Zahnlockerungen, Unterfütterungen, Bruchreparaturen und Schraubenlockerungen bei Implantaten auf ein Minimum reduziert werden. Durch die intraorale Fügung wird eine Prophylaxe oraler Strukturen erreicht, und die Folgebehandlungen und damit auch –kosten reduziert. Zudem erhält der Patient einen Zahnersatz, der einerseits sehr hohen Trageund Kaukomfort bietet und andererseits eine einfache Mundhygiene gewährleistet. Durch die klinische Bewährung können alle Nachteile einer Lötung, insbesondere die Gefahr der Allergisierung durch Korrosionsprodukte, umgangen werden. Zusammen mit der Silikatisierung/Silanisierung mittels dem Rocatec®-Verfahren haben sich die Reparatur-Möglichkeiten von verblendetem Zahnersatz erweitert, da keine Wärmebehandlung mehr notwendig ist. Das intraorale Fügeverfahren bildet die Grundlage für zukunftsweisende Entwicklungen: Mit präfabrizierten Implantatabutments kann die laborseitige Herstellung von Primärkronen und Matrizen ersetzt und damit der Zahnersatz kostengünstiger hergestellt werden. Das metallische Prothesengerüst kann unter erhöhtem Platzbedarf durch Glasfaserverbund-Werkstoff ersetzt werden, was die Herstellung von nahezu metallfreiem doppelkronengestütztem Zahnersatz für entsprechend sensibilisierte Patienten ermöglicht.
Aerosolpartikel sind in der Atmosphäre insbesondere für die Strahlungsübertragung und die Wolkenbildung von wichtiger Bedeutung. Aufgrund ihrer kurzen Lebensdauer, der Variabilität ihrer Quellen und Senken und ihrer Einbindung in den atmosphärischen Wasserkreislauf sind Partikel in allen ihren Eigenschaften sehr veränderlich. Die Zusammenhänge dieser Variabilität mit den meteorologischen Bedingungen und ihre Auswirkungen in der meteorologischen Anwendung sind bisher nur ungenügend durch Meßdaten belegt, so daß die Ergebnisse von Modellen, in denen die meteorologischen Wirkungen von Partikeln berücksichtigt werden (z.B. Klimamodelle), mit großen Unsicherheiten behaftet sind. Ziel dieser Arbeit war es, auf der Grundlage von Messungen einen Beitrag zur Charakterisierung der bodennahen troposphärischen Aerosolpartikel zu leisten. Im Hinblick auf die meteorologischen Anwendungen wurden die chemische Zusammensetzung und die Masse der Partikel in Abhängigkeit von ihrer Größe gemessen, da sie wesentliche Einflußgrößen für die Strahlungswirkung von Partikeln und die Wasserdampfkondensation in der Atmosphäre sind. Auf der Basis eines Datensatzes der physikalisch-chemischen Partikeleigenschaften und meteorologischer Meßgrößen wurde zunächst die Abhängigkeit der Partikeleigenschaften und ihrer Variabilität von den meteorologischen Umgebungsbedingungen analysiert sowie die Bedeutung der Variabilität der Partikeleigenschaften in der meteorologischen Anwendung untersucht. Dazu wurden Absorptionskoeffizienten der Partikel und Erwärmungsraten durch Absorption solarer Strahlung durch Partikel sowie das Wachstum der Partikel mit der relativen Feuchte in Abhängigkeit von ihrer chemischen Zusammensetzung berechnet. Die Messungen fanden während fünf drei- bis achtwöchiger Meßkampagnen 1991, 1993 und 1994 in Melpitz bei Torgau (Sachsen) und 1993 und 1994 auf dem Hohen Peißenberg (Oberbayern) statt. Mit einem Berner-Impaktor wurden die Partikel gesammelt. Es wurden die Konzentrationen der Gesamtmasse der Partikel sowie der Ionen in Abhängigkeit von ihrer Größe bestimmt. Die Rußkonzentrationen wurden mit einem Aethalometer gemessen. Parallel zu den Partikelmessungen fanden Messungen von Temperatur, relativer Feuchte, Windgeschwindigkeit, Windrichtung, Globalstrahlung und diffuser Himmelsstrahlung statt. Die Messungen liefern folgende Ergebnisse: Bei allen Messungen waren Nitrat, Sulfat und Ammonium die Hauptkomponenten der kleinen Partikel, und die Massenkonzentrationen der kleinen Partikel (0,04 µm < aed < 1,72 µm) waren wesentlich größer als die der großen Partikel (1,72 µm < aed < 21µm). Die Partikel sind also überwiegend anthropogener Herkunft. Die großen Partikel enthielten zusätzlich Natrium und Kalzium, lediglich bei einzelnen Messungen in Melpitz wurde auch Chlorid als Hinweis auf Seesalzpartikel gefunden. Die Massenkonzentrationen aller Partikelbestandteile waren in Melpitz in der Regel etwas größer als auf dem Hohen Peißenberg, da die Partikelkonzentrationen mit zunehmender Höhe abnehmen und da Melpitz näher an Ballungsräumen liegt als der Hohe Peißenberg. Die Unterschiede zwischen den verschiedenen Meßkampagnen an einem Ort sind jedoch größer als die zwischen den beiden Orten. Die Variabilität sowohl der Massenkonzentrationen der Partikelbestandteile als auch der Gesamtmasse liegt im Bereich von zwei Größenordnungen und ist damit wesentlich größer als die Unterschiede zwischen den Meßkampagnen. Der mittlere Anteil der löslichen Masse an der Gesamtmasse beträgt für die kleinen Partikel 57 %, für die großen 30 %. Dieser Anteil variiert sehr stark (10-100 % bzw. 5-80 %). Ruß hat einen mittleren Anteil von 5 % an der Gesamtmasse (1-18 %). Wesentliche Parameter, die zu Veränderungen der Partikeleigenschaften führen, sind: - Luftmassen unterschiedlicher Herkunft und Geschichte - Veränderungen der Mächtigkeit und Struktur der atmosphärischen Grenzschicht - Emissionen lokaler Quellen - lokale meteorologische Parameter (Temperatur, Windrichtung, -geschwindigkeit) Die unterschiedliche Häufigkeit und Ausprägung dieser Einflußfaktoren führt zu Unterschieden zwischen den Ergebnissen der einzelnen Meßkampagnen. Die einzelnen Faktoren sind nicht voneinander unabhängig, da durch die großräumige Wettersituation und die Luftmassen die Ausprägung der lokalen Parameter bestimmt wird. Um eine Zusammenfassung von Messungen unter vergleichbaren meteorologischen Bedingungen zu erreichen, wurde eine Klassifikation der Daten auf der Basis von Rückwärtstrajektorien vorgenommen. Es wurden fünf Klassen unterschieden: vier Klassen umfassen Richtungssektoren mit jeweils 90 ° um die Haupthimmelsrichtungen (Nord, Ost, Süd, West), einer fünften (X) werden kurze Trajektorien zugeordnet. Dieser Ansatz wurde gewählt, weil ähnliche Luftmassen und damit meteorologische Bedingungen hinsichtlich Temperatur, Feuchte, Stabilität und Luftbeimengungen meistens durch ähnliche Trajektorien gekennzeichnet sind, die eine Aussage über die Herkunft und den Weg der Luft ermöglichen, die wiederum für die Ausprägung der Partikeleigenschaften maßgeblich sind. Eine weitere Unterteilung nach Tageszeiten (morgens, mittags, abends) wurde vorgenommen, da einige Meßgrößen deutliche Tagesgänge zeigten. Die Ergebnisse lassen sich wie folgt zusammenfassen: Die Klassifikation der meteorologischen Meßgrößen liefert sowohl im Hinblick auf die Charakterisitika der Trajektorienklassen (Herkunft der Luft) als auch für die Tagesgänge meteorologisch sinnvolle Ergebnisse. Die Lage der Stationen in einer Ebene und auf einem Berg führt zu einer unterschiedlichen Ausprägung von Tagesgängen der Temperatur und der Windgeschwindigkeit besonders während stabiler Hochdruckwetterlagen. Es zeigt sich, daß bedingt durch die Entwicklung der Grenzschicht auf dem Hohen Peißenberg vor allem bei Hochdruckwetterlagen im Tagesverlauf in zwei verschiedenen Atmosphärenschichten gemessen wird. Die starke Streuung der lokalen Windrichtungen innerhalb einer Trajektorienklasse führt dazu, daß der Einfluß lokaler bzw. regionaler Quellen durch die Klassifikation nur bedingt erfaßt wird, und liefert einen Hinweis auf die lokale Wetterlage. Die Klassifikation der Partikelmeßdaten liefert meteorologisch sinnvolle Ergebnisse, da die Konzentrationsunterschiede zwischen den einzelnen Klassen mit der Wetterlage und dem Einfluß regionaler Quellen zu begründen waren. Die Absolutwerte ließen sich allerdings nicht vergleichen, und es wurden im Detail meßkampagnenspezifische Begründungen gefunden. Es ergab sich jedoch für alle Meßkampagnen die Unterteilung in Klassen mit antizyklonalen Wetterlagen und kontinentaler Luft mit hohen Konzentrationen (Klassen Ost, Süd, West) und zyklonalen Wetterlagen und maritimer Luft mit geringeren Konzentrationen (Klassen Nord, West). Abweichungen von dieser Einteilung waren vor allem mit der geographischen Lage der Meßorte zu begründen. Ausgeprägte Tagesgänge mit Maxima bei den Morgenmessungen ergaben sich nur für Nitrat, bei einigen Messungen auch für Chlorid in den kleinen Partikeln durch temperaturabhängige Gleichgewichtsreaktionen instabiler Partikelkomponenten mit der Gasphase sowie für Ruß durch die Anreicherung von Emissionen lokaler Quellen bei geringer Grenzschichthöhe. Während sich die mittleren absoluten Konzentrationen in den einzelnen Klassen erheblich unterscheiden, ist die mittlere relative chemische Zusammensetzung der Partikel in allen Klassen ähnlich; die Variabilität der Anteile ist aber ebenfalls sehr groß. Mit Ausnahme der Advektion von Seesalzpartikeln sowie der temperaturbedingten Verschiebung der Anteile von Nitrat und Sulfat, lassen sich Unterschiede zwischen den Klassen nicht mit den durch die Klassifikation erfaßten Einflußfaktoren oder geographischen Besonderheiten begründen. Durch die Klassifikation nimmt die Variabilität sowohl der meteorologischen Meßgrößen als auch der Partikeleigenschaften ab. Für die meteorologischen Meßgrößen verringert sich die Variabilität durch die Klassifikation nach Trajektorien weniger als durch die nach Tageszeiten, für die Konzentrationen der Partikelbestandteile und der Masse führt hingegen die Klassifikation nach Trajektorien zu einer größeren Verminderung der Variabilität als die nach Tageszeiten. Die Anwendung beider Klassifikationskriterien führt zu einer Abnahme der Variabilität um im Mittel 55 % für die meteorologischen Meßgrößen und um 50 % bzw. 25 % für die Konzentrationen der Bestandteile und der Masse der kleinen bzw. der großen Partikel. Die Variabilität der Werte in einer Klasse bleibt jedoch auch nach Klassifikation größer als Unterschiede zwischen den Klassen. Sie wird vor allem durch die spezifische meteorologische Situation bedingt. Um die Auswirkungen der Variabilität der Partikeleigenschaften in meteorologischen Anwendungen abschätzen zu können, wurden aus den Meßdaten der Absorptionskoeffizient der Partikel und die daraus resultierenden Erwärmungsraten sowie das Partikelwachstum mit der relativen Feuchte berechnet und wie die Meßdaten klassifiziert. Die Ergebnisse lassen sich folgendermaßen zusammenfassen: Für die Absorptionskoeffizienten der trockenen Partikel wurden Werte zwischen 0,1·10-6/m und 97·10-6/m berechnet. Für die beiden Meßkampagnen im Herbst (Melpitz 1993 und 1994) ergaben sich etwa um den Faktor 2 größere mittlere Absorptionskoeffizienten als für die Meßkampagnen im Sommer, die maximalen Absorptionskoeffizienten waren in Melpitz aufgrund der starken lokalen Quellen um den Faktor 2-3 größer als auf dem Hohen Peißenberg. Für die maximalen Erwärmungsraten wurden Werte zwischen 0,003 und 0,128 K/h, für die Gesamterwärmung über die Tageslichtperiode zwischen 0,02 K und 0,81 K berechnet. Die Partikel liefern in Abhängigkeit von den Umgebungsbedingungen selbst während Meßkampagnen an zwei ländlichen Orten in Mitteleuropa einen vernachlässigbar geringen bis deutlichen Beitrag zum Strahlungsantrieb. In Melpitz waren sowohl die maximalen Erwärmungsraten als auch die Gesamterwärmung im Mittel um den Faktor 1,5 geringer als auf dem Hohen Peißenberg, da die maximalen Absorptionskoeffizienten zu einer Zeit bestimmt wurden, als das Strahlungsangebot noch gering war, während auf dem Hohen Peißenberg die Maxima von Absorptionskoeffizient und Strahlungsangebot zeitlich näher zusammenliegen. Die Klassifikation nach Rückwärtstrajektorien ergab deutliche Unterschiede (Faktor 3-5) zwischen den einzelnen Klassen, da in Klassen mit den höchsten Rußkonzentrationen auch das Strahlungsangebot am höchsten war und in Klassen mit niedrigen Rußkonzentrationen meistens starke Bewölkung vorherrschte. Zwischen maximaler Erwärmungsrate und Gesamterwärmung über die Tageslichtperiode wird ein linearer Zusammenhang gefunden, der sich aber aufgrund der verschiedenen Tagesgänge des Absorptionskoeffizienten für die Meßkampagnen in Melpitz und auf dem Hohen Peißenberg unterscheidet. Sowohl für den exponentiellen Massenzuwachskoeffizienten bei unendlicher Verdünnung als auch für das Partikelwachstum bei fester relativer Feuchte ergeben sich im Mittel nur geringe Unterschiede zwischen kleinen und großen Partikeln sowie einzelnen Klassen durch die chemische Zusammensetzung des wasserlöslichen Anteils der Partikel. Unterschiede sind vielmehr durch den Anteil der wasserlöslichen Masse an der Gesamtmasse bedingt. Es ergibt sich ein linearer Zusammenhang zwischen dem exponentiellen Massenzuwachskoeffizienten bei unendlicher Verdünnung und dem Anteil der wasserlöslichen Masse an der Gesamtmasse der Partikel. Die Unterschiede zwischen den einzelnen Klassen lassen sich nicht auf einzelne meteorologische oder geographische Einflußfaktoren zurückführen. Sowohl für die Absorption solarer Strahlung als auch für das Wachstum der Partikel mit der relativen Feuchte ist die Variabilität der abgeleiteten Größen geringer als die der Ausgangsgrößen, sie ist aber immer noch mindestens so groß wie die Unterschiede zwischen den einzelnen Klassen. Zusammenfassend läßt sich festhalten, daß in dieser Arbeit ein Datensatz aus Messungen von meteorologischen Parametern und Partikeleigenschaften zusammengestellt wurde, der zusammen mit der Klassifikationsmethode nach Rückwärtstrajektorien und Tageszeiten eine Untersuchung der Zusammenhänge zwischen der Variabilität der Meßgrößen und den meteorologischen Bedingungen ermöglicht und eine Abschätzung der Auswirkungen der Variabilität der Partikeleigenschaften, insbesondere der chemischen Zusammensetzung, in meteorologischen Anwendungen zuläßt. Der Klassifikationsansatz nach Rückwärtstrajektorien ist prinzipiell geeignet, um die Abhängigkeit der Partikeleigenschaften von den meteorologischen Bedingungen zu beschreiben. Es ist jedoch nicht möglich, einen Einflußfaktor als den wichtigsten hervorzuheben oder sogar quantitative Beziehungen zwischen Partikeleigenschaften und meteorologischen Parametern herzustellen. Die Herkunft der Luft liefert einen Hinweis auf die zu erwartenden meteorologischen Bedingungen und Partikeleigenschaften, die lokale meteorologische Situation bestimmt jedoch die genaue Ausprägung der Meßgrößen. Eine Berücksichtigung des Einflusses der lokalen Wetterlage sowie lokaler bzw. regionaler Quellen könnte durch die Einbeziehung der Windrichtung vorgenommen werden. Auf der Basis längerer Meßreihen sollte überprüft werden, ob die Unterteilung in fünf Trajektorienklassen modifiziert werden muß. Der große Einfluß der spezifischen Wetterlage auf die Meßergebnisse führt dazu, daß die Ergebnisse von Meßkampagnen weder für einen längeren Zeitraum noch für ein größeres Gebiet repräsentativ sein können. Ebenso ist die Verwendung von Mittelwerten über längere Zeiträume ist nicht sinnvoll, da die Variabilität der Meßgrößen während eines Tages sowie von Tag zu Tag sehr groß ist. Aufgrund der komplexen Zusammenhänge zwischen Partikeleigenschaften und meteorologischen Bedingungen erscheint es unbedingt nötig, längere Meßreihen aller wichtigen Aerosoleigenschaften durchzuführen, damit statistisch belastbare Daten über eine hinreichend große Zahl von Messungen unter verschiedensten meteorologischen Bedingungen zu allen Jahreszeiten vorliegen, die Aussagen über Zusammenhänge mit Witterungsbedingungen, Tagesgänge, Jahresgänge aber auch die Vertikalverteilung der Partikeleigenschaften zulassen. Dabei ist es wichtig, alle interessierenden Größen gleichzeitig zu messen, da nur dann eine Untersuchung des Einflusses der Variabilität verschiedener Parameter auf die für die Anwendung wichtigen Größen möglich ist.
Das Angiotensin konvertierende Enzym (ACE) ist als eine der zentralen Komponenten des ReninAngiotensin-Systems entscheidend an der Regulation der vaskulären Funktion und Homöostase sowie an der Regulation des Flüssigkeits- und Elektrolythaushaltes beteiligt. Dabei katalysiert die Zinkmetallopeptidase ACE vor allem die Bildung des vasokonstriktorisch wirkenden Angiotensins II und die Degradation des vasodilatorisch wirkenden Bradykinins. Die Hemmung des ACE zur antihypertensiven Therapie ist klinisch weit verbreitet, wobei die zahlreichen protektiven Eigenschaften der eingesetzten, hochpotenten ACE-lnhibitoren nicht allein durch die Beeinflussung des Metabolismus der zwei beschriebenen vasoaktiven Peptide zu erklären sind. Vielmehr wird seit einiger Zeit angenommen, dass ACE beispielsweise durch eine Interaktion mit dem Bradykinin-B2-Rezeptor aktiv an der Regulation intrazellulärer Signaltransduktionsprozesse beteiligt ist. Da ACE als plasmamembranäres Ektoenzym in seiner kurzen cytoplasmatischen Sequenz fünf potentiell phosphorylierbare Serinreste besitzt, deren posttranslationale Modifikation durch Phosphorylierung möglicherweise intrazelluläre Signaltransduktionskaskaden beeinflussen könnte, wurde die potentielle Phosphorylierung von ACE sowie die Assoziation von ACE mit intrazellulären Proteinen analysiert. Mittels 32P-Markierung humaner Endothelzellen und ACE-überexprimierender Schweineaortenendothelzellen konnte erstmals die Phosphorylierung des ACE gezeigt werden, sowie unter Verwendung spezifischer Kinaseinhibitoren und anhand von in vitro Phosphorylierungsexperimenten die Proteinkinase CK2 als ACE-phosphorylierende Kinase identifiziert werden. Dies wurde zudem durch die Assoziation der CK2 sowohl mit ACE, als auch mit einem dem cytoplasmatischen Anteil von ACE entsprechenden Peptid bestätigt. Drei der intrazellulären Serinreste des ACE liegen innerhalb Konsensusse1uenzen bekannter Proteinkinasen, wobei nach Punktmutation der Serinreste Ser1253, Ser1263 oder Ser1270, entsprechend in Konsensussequenzmotiven für die PKC, PKA oder CK2 lokalisiert, der Ser1270-Rest als Hauptphosphorylierungsstelle des ACE identifiziert werden konnte. Die Reduktion der ACE-Phosphorylierung nach Mutation des Ser1270 zu Alanin sowie nach Hemmung der CK2 durch Einsatz des spezifischen lnhibitors 5,6-Dichloro-1-ß-D-ribofuranosylbenzimidazol (DRB) resultierte in einer verstärkten proteolytischen Spaltung des ACE, weiche extrazellulär in der juxtamembranär gelegenen "Stalk"-Region des Enzyms erfolgt, so dass vermehrt sekretiertes lösliches ACE in den Zellkulturüberständen der untersuchten Zellen zu finden war. Neben der CK2 fanden sich auch die schwere Kette nicht-muskulären Myosins (NMMHC), ß-Aktin, Annexin 2, die c-Jun NH2-terminalen Kinase (JNk) und die Proteinphosphatase PP1 assoziiert mit ACE oder einem dem intrazellulären Anteil von ACE entsprechenden Peptid. Da die an ACE gebundenen Proteine mehr oder minder in die Regulation intrazellulärer Signaltransduktionskakaden involviert sind, wurde überprüft, inwiefern die Aktivität oder Phosphorylierung dieser Proteine durch die Hemmung des ACE beeinflusst werden kann. Die Behandlung P-markierter Endothelzellen mit dem ACE-lnhibitor Ramiprilat resultierte deutlich nicht nur in einer transient gesteigerten Phosphorylierung des ACE selbst, sondern auch in einer verstärkten Phosphorylierung des ACE-gebundenen NMMHC. Dabei werden beide Proteine durch die ACE-assoziierte CK2 phosphoryliert, deren Aktivität deutlich nach Hemmung des ACE zunahm. Die Identität des ACE als aktives Signaltransduktionsmoleküi wurde zudem sehr überzeugend durch die Messung der JNK-Aktivität bestätigt, da die Stimulation mit Ramiprilat nur in Wildtyp-ACE exprimierenden Endothelzelien in einer Aktivierun dieser Kinase resultierte, wohingegen nach Mutation der ACE-Phosphorylierungsstelle (Ser1270) keine durch Ramiprilat gesteigerte JNK-Aktivität zu verzeichnen war. Ebenso führte neben der Hemmung des ACE die Stimulation mit dem ACE-Substrat Bradykinin zur lnitiation der beschriebenen Prozesse. Die durch ACE-lnhibitoren induzierte Signaltransduktion scheint auch an der Potenzierung und Reaktivierung der durch Bradykinin vermittelten Zellaktivierung beteiligt zu sein, da nur in ACE-exprimierenden Zellen die Hemmung der CK2 in einer verminderten Bradykinin-induzierten Endothelzellaktivierung resultierte und der ACE-lnhibitor diese Reduktion vollständig umkehrte. Die Entdeckung der posttranslationalen Modifikation des ACE durch Phosphorylierung zur Regulation der Sekretion des Enzyms sowie zur lnitiation intrazellulärer Signalkaskaden eröffnet eine neue molekulare Basis für das Verständnis und die Charakterisierung der zahlreichen protektiven Eigenschaften der ACE-lnhibitoren. Zudem liefert die Identifizierung des ACE als aktives Signaitransduktionsmolekül mit der Fähigkeit zum "Outside-In-Signaling" möglicherweise neue Ansatzpunkte für die Entwicklung antihypertensiver Therapien.
Das R( )-Enantiomer der rac-a-Liponsäure ist als Coenzym wichtiger Multienzymkomplexe (Pyruvatund a-Ketoglutarat-Dehydrogenase) essentiell für die Zell- und Stoffwechselfunktion. Gerade in den wichtigen Prozessen der Zelle, die Substrate für die Atmungskette bereitstellen (Glykolyse, Citratcyclus), spielt die R( )-a-Liponsäure eine entscheidende Rolle. Zusätzlich besitzt dieser Wirkstoff die Eigenschaft als Chelatkomplex-Bildner, Radikalfänger und Antioxidans zu wirken, und er kann damit den Organismus vor "oxidativem Stress" schützen. Klinische und präklinische Studien geben Hinweise, daß R( )-a- Liponsäure einen positiven Effekt auf die Insulinsensitivität, die Insulin stimulierte Glukoseaufnahme und die Glukoseoxidation hat, weiterhin die Glukoneogenese hemmt und damit eine positive Wirkung auf den Krankheitsverlauf des Typ II - Diabetes hat. Das Ziel dieser Arbeit war es, die in der Literatur beschriebenen lang anhaltenden Wirkungen (Pharmakodynamik) der R( )-a-Liponsäure (12 - 24 h nach Gabe des Wirkstoffes) mit meßbaren Konzentrationen dieser Substanz im Organismus in Zusammenhang zu bringen, um erste Ansätze für die Korrelation zwischen Pharmakokinetik und Pharmakodynamik, also für die Konzentrations-(Dosis)- Wirkungsbeziehung, zu geben. Außerdem sollte geklärt werden, weshalb die Mehrfachgabe zu einer deutlichen Absenkung der nach Einfachgabe wirksamen Dosis führte. Eine wichtige Grundlage dazu ist die genaue Kenntnis der Pharmakokinetik der Wirksubstanz und ihrer wichtigsten Stoffwechselprodukte. Bisher ist nur die Pharmakokinetik der R( )- und S(-)-a-Liponsäure nach Gabe der razemischen a-Liponsäure untersucht worden. Da noch keine Erkenntnisse über die Pharmakokinetik der Metaboliten oder der R( )-a-Liponsäure nach Gabe des reinen R-Enantiomers bestanden, lag der Schwerpunkt der Arbeit auf den Untersuchungen der Pharmakokinetik des R( )- Enantiomers und der Metaboliten nach Gabe von R( )-a-Liponsäure als Trometamolsalz (Dexlipotam) und rac-a-Liponsäure am Tier (Einfach- und Mehrfachgabe) und am Menschen (Einfachgabe). Untersuchungsmodell Ratte: Erster Ausgangspunkt der kinetischen Untersuchungen war das zentrale Kompartiment, abgebildet durch den Blutkreislauf. Die resultierende Plasmakonzentrations-Zeitkurve nach oraler (p.o.), intravenöser (i.v.) oder intraperitonealer (i.p.) Gabe von Dexlipotam konnte mathematisch, basierend auf einem Zwei-Kompartiment-Modell, beschrieben werden. Charakteristisch für die Pharmakokinetik der R( )-a-Liponsäure war die kurze terminale Halbwertszeit (0,6 - 1,6 h) und die hohe, mit dem hepatischen Blutfluß vergleichbare, totale Plasma-Clearance. Diese Eigenschaften führten zu einem schnellen Absinken der Plasmakonzentration auf Werte unterhalb der Nachweisgrenze (6 h nach Gabe des Wirkstoffes). Mit Hilfe der Mikrodialyse wurde nach 1-stündiger Infusion von Dexlipotam die freie ungebundene R( )-a-Liponsäure-Konzentration im Interstitium des Muskels bestimmt. Der zeitliche Verlauf der Gewebekonzentration konnte basierend auf der physiologischen Grundlage eines peripheren Kompartiments (Zwei-Kompartiment-Modell) beschrieben werden. Es zeigte sich, daß nur der freie ungebundene Anteil der im Plasma vorliegenden Konzentration (20 %) für die Distribution in das Gewebe zur Verfügung steht. Die ermittelten Halbwertszeiten der Muttersubstanz im Plasma und im Muskel lagen in vergleichbarer Größenordnung und gaben keinen Hinweis auf eine unterschiedliche Kinetik im Plasma und im Gewebe. Sowohl nach p.o. als auch nach einmal täglicher i.v. Mehrfachgabe über 3 - 4 Wochen konnte keine Anreicherung im Plasma bestimmt werden. Dieser Befund erklärte somit nicht die nach Mehrfachgabe erforderliche Dosisreduktion. Die in weiteren Untersuchungen bestimmten Gewebekonzentrationen in der Leber, in der Niere, im Muskel und im Herzen, die sich aus dem freien ungebundenen und dem reversibel gebundenen Anteil der extrazellulären und intrazellulären Konzentration zusammensetzten, zeigten einen zur Plasmakinetik korrespondierenden Zeitverlauf. Nur einzelne spezifische Geweberegionen zeigten nach p.o. (Aorta) und nach i.v. (Nerven) Mehrfachgabe eine Anreicherung des Wirkstoffes. In in-vitro Testmodellen wurde weiterhin die Pharmakokinetik auf zelluläre Ebene untersucht. Es zeigte sich, daß Hepatozyten in der Lage sind, R( )-a-Liponsäure aufzunehmen und die durch b-Oxidation entstandenen Metaboliten Bisnorliponsäure (BNLA) und Tetranorliponsäure (TNLA) zu bilden und aus der Zelle heraus zu transportieren. Im Hinblick auf die Konzentrations-Wirkungsbeziehung rückten die Metaboliten Tetranorliponsäure und Bisnorliponsäure in das Interesse, da diese Stoffwechselprodukte wie die Muttersubstanz über einen aktiven Dithiolan-Ring verfügen, der möglicherweise das für die Wirkung verantwortliche Strukturelement darstellt. Im Interstitium des Muskels wurde der Metabolit TNLA in vergleichbaren Konzentrationen wie die Muttersubstanz gemessen, der Metabolit BNLA war dort nur in Spuren meßbar. Im Plasma hingegen waren die maximalen TNLA-Konzentrationen um den Faktor 3 geringer als die Muttersubstanz- Konzentrationen. Der Metabolit BNLA war im Plasma nur in geringem Ausmaß, um den Faktor 15 geringer als die Muttersubstanz, meßbar. Untersuchungsmodell Mensch: Im Menschen wurden die Metaboliten TNLA, BNLA, 6,8-Bis(methylmercapto)octansäure (BMOA), 4,6- Bis(methylmercapto)hexansäure (BMHA) und 2,4-Bis(methylmercapto)butansäure (BMBA) im Plasma und im Urin pharmakokinetisch untersucht. Die Metaboliten BMOA, TNLA und BNLA zeigten Halbwertszeiten in vergleichbarer Größenordnung wie die Muttersubstanz (0,5 - 0,9 h). Für die Metaboliten BMBA und BMHA wurden höhere terminale Halbwertszeiten (2 h) ermittelt. Aufgrund der insgesamt kurzen Halbwertszeiten konnte eine Kumulation der Metaboliten nach Mehrfachgabe ausgeschlossen werden. Mit Hilfe eines pharmakokinetischen Modells (Zwei-Kompartiment-Modell) war es möglich, die Bildung der Stoffwechselprodukte BNLA, TNLA, BMOA, BMHA und BMBA im Plasma zeitlich simultan zu beschreiben. Dadurch konnte der Metabolisierungsweg der a-Liponsäure im Organismus genauer erklärt und die resultierenden Konzentrationen der Metaboliten auf Basis der Muttersubstanz-Konzentrationen errechnet werden. Es war nicht möglich, die gemessenen Konzentrationen, weder von der Muttersubstanz noch von den möglichen wirksamen Metaboliten, in den verschiedenen Kompartimenten (Blutkreislauf, Gewebe oder Zelle) mit der lang anhaltenden Wirkung in einen zeitlichen Zusammenhang zu bringen. Weitere Untersuchungen mit empfindlicheren Meßmethoden und weitergehende zusätzliche Konzentrationsbestimmungen in den Kompartimenten in der Zelle (z.B. Mitochondrien) sind erforderlich, um die Korrelation zwischen der Pharmakokinetik und der Pharmakodynamik der R( )-a-Liponsäure oder möglicher wirksamer Metaboliten zu beschreiben.
More than 70 years ago, the effects of extracellular adenosine 5'-triphosphate (ATP), a newly identified and purified biomolecule at that time (Fiske and Subbarow, 1925; Lohmann, 1929) were observed by Drury and Szent-Györgyi (1929). Since then, many pharmacological studies were carried out with extracellular adenine nucleotides in various intact organ systems, isolated tissues, and purified cell preparations. Yet it was not until 1972 that Burnstock introduced the concept of "purinergic nerves" and suggested that ATP might fulfil the criteria generally regarded as necessary for establishing a substance as a neurotransmitter, summarised by Eccles (1964):
• synthesis and storage of transmitter in nerve terminals
Strips of guinea-pig taenia coli (GPTC) were shown to take up large amounts of tritium-labelled adenosine when incubated with tritium-labelled adenosine, adenosine 5'-monophosphate (AMP), adenosine 5'-diphosphate (ADP) and ATP. The nucleoside was rapidly converted into and retained largely as [ 3 H]-ATP (Su et al., 1971).
• release of transmitter during nerve stimulation
Spontaneous relaxation of GPTC as well as relaxations induced by nerve stimulation or nicotine, respectively, in the presence of compounds which block adrenergic and cholinergic responses were accompanied by a remarkable increase in release of tritium-labelled material from taenia coli incubated in [ 3 H]-adenosine (Su et al., 1971).
• postjunctional responses to exogenous transmitters that mimic responses to nerve stimulation
Burnstock et al. (1966) characterised ATP and ADP as the most potent inhibitory purine compounds in the gut and observed that the effects of ATP mimic more closely the inhibitory response of the taenia to non-adrenergic nerve-stimulation than to adrenergic nerve stimulation (Burnstock et al., 1970).
enzymes that inactivate the transmitter and/or uptake systems for the transmitter or its breakdown products
When ATP was added to a perfusion fluid recycled through the vasculature of the stomach, very little ATP remained, but the perfusate contained substantially increased amounts of adenosine and inosine, as well as some ADP and AMP (Burnstock et al., 1970).
• drugs that can produce parallel blocking of potentiating effects on the responses of both exogenous transmitter and nerve stimulation
Tachyphylaxis to ATP produced in the rabbit ileum resulted in a consistent depression of responses to non-adrenergic inhibitory nerve stimulation, whereas responses to adrenergic nerve stimulation remained unaffected (Burnstock et al., 1970). Lower concentrations of quinidine reduced and finally abolished relaxation of GPTC induced by noradrenaline (NA) and by adrenergic nerve stimulation. Using higher concentrations of the compound, relaxant responses of GPTC to ATP as well as to non-adrenergic inhibitory nerve stimulation were abolished (Burnstock et al., 1970). ...
Auf der Basis komplexer Paaruntersuchungen mit dem erweiterten Gießen-Test (pro Partner sieben Auswertungsbögen) werden zwölf Paare beschrieben und analysiert, die in einer Beziehungskrise die Psychosoziale Ambulanz der Frankfurter Universitätsklinik aufsuchten, um Beratungsgespräche und gegebenenfalls therapeutische Hilfe in Anspruch zu nehmen. Der Erweiterung der Testanwendung auf die Erfassung der Einfühlungsbilder beider Partner (eingefühltes Selbst- und Beziehungsbild sowie eingefühltes Partnerbild, Moeller 1979, siehe 3. Methodik) lag unter anderem die Vermutung zugrunde, dass die — immer auch von der Durchlässigkeit des Partners abhängige — Einfühlungsfähigkeit Aufschluss über den Grad der Beziehungsintensität sowie der Kommunikation des Paares zu geben vermag. Anders formuliert: gravierende Einfühlungsdefizite können möglicherweise auf eine Beziehungsstörung hinweisen, die - wie auch immer bedingt - mit einem zu geringen Austausch über die inneren Befindlichkeiten zusammenhängt. Dabei ist zu berücksichtigen, dass die untersuchten Paare ausnahmslos aufgrund einer Beziehungskrise um professionelle Hilfe nachsuchten, sodass mit globalen oder selektiven Einfühlungsdefiziten zu rechnen ist, aber unter Umständen auch mit einer brüchig gewordenen kollusiven emotionalen Abwehr (Dicks, 1969, S. 68 ff.) die sich in einer — auf den ersten Blick — hohen wechselseitigen Rollenbestätigung niederschlagen wird (siehe 2. Einführung). Die vorliegende Studie demonstriert, welche Aussagen aus den direkten Profilvergleichen hergeleitet werden können, zu denen systematisch auch die Beziehungsbilder einbezogen werden, welche die inneren Veränderungen der Partner in der Beziehung spiegeln. Im Anschluss an jeden Profilvergleich wird gezeigt, inwieweit - ausgehend von je spezifischen Auffälligkeiten - intensive Analysen von Paarbeziehungen anhand der Konzentrierten Paardokumentation durchgeführt werden können (siehe 4.1 Profilvergleiche und dynamische Interpretationen). Damit wird das diagnostische Potenzial des erweiterten Gießen-Tests ausgelotet, indem von einfachen über intra-individuelle und inter-individuelle Vergleiche hin zu komplexen neuen Formen von Gegenüberstellungen geprüft wird, ob und wie die Konzentrierte Beziehungsdokumentation in einer diagnostischen Gesamtschau eine im Aufwand zu vertretende empirische Kontrolle des therapeutischen Prozesses ermöglicht. Weiter soll untersucht werden, inwieweit sie im Rahmen der Erstuntersuchung zu einer Verbesserung und Erweiterung der Paardiagnostik dient. Sie soll damit einen Beitrag zum besseren Verständnis der zwischenmenschlichen Beziehung, der „Dyadologie“ (Moeller 2002) leisten, die das intuitive Wissen um Liebesbeziehungen in Wissenschaft verwandelt, die „Scientification of Love“ (Odent, 1999).
Die Osseointegration in der dentalen Implantologie wurde anhand einer Literaturübersicht dargestellt und ausgewertet. Die Literaturübersicht beinhaltet Verlaufsstudien, in vitro und in vivo Studien, die ultrastrukturelle, biomechanische und biochemische Untersuchungen und deren Resultate aufzeigen. Im 1. Kapitel wurden die Kriterien zur Beurteilung des Implantaterfolges dargestellt. Es lässt sich feststellen, dass nicht nur ein Implantatverlust als Misserfolg zu bewerten ist, sondern auch klinische und röntgenologische Erfolgskriterien eine Rolle spielen. Die Mobilität, der Knochenabbau, Entzündungsreaktionen, Schädigungen von anatomischen Strukturen und die Funktionstüchtigkeit des Implantates werden mitbewertet. Im 2. Kapitel wurden die Voraussetzungen für die Erzielung der Osseointegration aufgezeigt. Zu diesen gehören die Physiologie der Knochenheilung, die Implantatwerkstoffe, das operative Vorgehen und die Einheilungsphase. Der Vorgang der Knochenheilung, speziell der primären Frakturheilung, wird der Implantateinheilung gleichgesetzt. Dies bedeutet, dass ein ausreichender belastungsfreier Zeitraum für die Implantateinheilung einzuhalten ist. Bei den Implantatwerkstoffen wurden die Metalle und die Keramiken verglichen. Der Implantatwerkstoff der Wahl ist aufgrund seiner mechanischen und biokompatiblen Eigenschaften das Titan. Andere Materialien, wie z.B. Tantal und Hydroxylapatit, haben sich als problematisch erwiesen. Beim operativen Vorgehen haben sich die Aspekte der atraumatischen, aseptischen und standardisierten Operationsbedingungen als vorteilhaft erwiesen. Der Einfluss der Knochenqualität und des Implantatdesigns auf die erreichbare Primärstabilität wurde dargestellt. Bei der Einheilphase wurde eine Übersicht über die bis dato gültigen Einheilzeiten gegeben. Die Vorgänge während der Implantateinheilung wurden unter Bezug auf die ultrastrukturellen Aspekte dargestellt. Der Einfluss von osteogenetischen Faktoren wurde speziell aufgezeigt. Die Implantateinheilung ist als komplexer Vorgang zu verstehen, bei dem die Wechselwirkung der verschiedenen Faktoren eine wichtige Rolle spielt. Die Morphologie des Interface wurde anhand von Studien diskutiert. Unterschiede in der Morphologie sind in Abhängigkeit von den Implantatwerkstoffen, der Remodelingphase und den verschiedenen Versuchstieren zu finden. Im 3. Kapitel wurden die Voraussetzungen für den Erhalt der Osseointegration besprochen. Zu diesen gehören die Knochenbelastung, die Konstruktionsprinzipien dentaler Implantate, die prothetischen Konzepte und Implantat-Systembeispiele. Bei der Knochenbelastung wurden die Aspekte der okklusalen Überbelastung, der axialen bzw. nicht-axialen Krafteinleitung, Zahn-Implantat- und rein implantat-getragene Rekonstruktionen und materialabhängige Faktoren der Suprakonstruktion berücksichtigt. Hierbei stellte sich heraus, dass Überbelastungen vermieden werden sollten. Die Art der Krafteinleitung sowie die Verbindung von Implantaten mit der natürlichen Bezahnung haben keinen negativen Einfluss auf die Osseointegration. Rekonstruktionen auf Kuststoffbasis werden als problematisch dargestellt. Bei den Konstruktionsprinzipien wurden die Bereiche des enossalen Teils, die Implantatdimension, die Implantatform, der Durchtritt durch die Weichgewebe und die Position der Implantatoberkante dargestellt. Die Unterschiede in den Konstruktionsprinzipien der dentalen Implantate sind heutzutage gering und sind in der Strukturierung der Oberflächen, der Positionierung der Implantatoberkante und im Durchtritt durch die Weichgewebe zu finden. Die Bedeutung der Weichgewebsmanschette beim Osseointegrationsvorgang wurde hervorgehoben. Die Vorteile von konischen Schraubenimplantaten im Vergleich zu Zylinderimplantaten werden aufgezeigt. Ein wurde ein Überblick über die etablierten Okklusionskonzepte und prothetischen Konzepte gegeben. Eine Abhängigkeit von der Ausgangssituation im natürlichen Restgebiss wurde festgestellt, so dass das Konzept sich nach dieser richten muss. Bei den Systembeispielen wurden sechs Implantattypen dargestellt: das Brånemark-System, das Astra-System, das Ankylos-System, das Frialit 2, das ITI- und das 3i-System. Im 4. Kapitel wurden weitere Einflüsse auf die Osseointegration diskutiert. Dazu gehören die Knochenqualität, die Regenerationsfähigkeit des Knochens, neue OP-Verfahren, "neue" Oberflächen und deren Wirkung auf die zelluläre Umgebung, die fraktionierte Lasteinleitung und die Früh- und Sofortbelastung. Die Beurteilung der Knochensituation, d.h. das Erkennen von Veränderungen, die Evaluation der Knochendichte und die Regenerationsfähigkeit des Knochens wurden als prächirurgische Aspekte besprochen. Neue Op-Verfahren wie die Knochen -kondensation und -verdrängung wurden als Möglichkeit vorgestellt, die eine Implantatversorgung auch in schwierigen anatomischen Verhältnissen erlaubt. Der Einfluss der Implantatoberfläche auf den Knochen-Implantatkontakt, die Verankerungsfestigkeit und die Zellaktivität wurde dargestellt. Bei den Implantatoberflächen ist erkennbar, dass eine Vergrößerung der Gesamtoberfläche durch Mikro und -Makrostruktur angestrebt wird. Eine optimale Primärstabilität durch einen besseren Verzahnungseffekt wird dadurch möglich. Die Prinzipien der fraktionierten Lasteinleitung und des progressive bone loadings, sowie die Früh- und Sofortbelastung wurden vorgestellt. Eine Verkürzung der Einheilphase und somit eine Frühbelastung ist unter optimierten Bedingungen möglich. Ein sich anschließendes Knochentraining verbessert die vorgefundene Knochensituation und somit die Prognose der Implantattherapie. Zusammenfassend lässt sich feststellen, dass eine Osseointegration unter Einhaltung von standardisierten Operationsbedingungen mit jedem der hier vorgestellten Implantattypen erzielbar ist. Beim Erhalt der Osseointegration spielen die Unterschiede bei den Implantattypen und die Belastung über die prothetische Versorgung eine wichtige Rolle.
Orotracheale Keimverschleppung während der Umintubation und bei verschiedenen Tracheotomietechniken
(2002)
Langzeitbeatmete Patienten sind häufig von nosokomialen Pneumonien betroffen. Für diese Patienten stehen zur Optimierung des Airwaymanagement verschiedene Techniken zur Verfügung. In der vorliegenden Studie wurden diese Techniken (nasale Umintubation, konventionelle Tracheotomie und perkutane Tracheotomie einschließlich GWDF, PDT und TLT) auf eine Keimverschleppung aus den oberen in die unteren Atemwege untersucht. Bei insgesamt 200 Patienten erfolgte ein mikrobiologisches Monitoring durch Gewinnung von Rachen- und Trachealabstrichen am Morgen des Eingriffs und am darauffolgenden Tag. Abweichend hiervon wurde in der Gruppe der nasotracheal umintubierten Patienten statt eines Rachenabstrich ein Nasenabstrich gewonnen. Die Proben wurden mikrobiologisch hinsichtlich eines Wachstums von Bakterien bzw. Pilzen untersucht. Zur Differenzierung wurden bei jedem Isolat die biochemischen Eigenschaften und das antibiotische Resistenzverhalten erhoben. Die Eingriffe wurden im Mittel am 3. Tag (Umintubation), 8. Tag (konventionelle Tracheotomie und GWDF), 9. Tag (TLT) und 10. Tag (PDT) des Aufenthalts auf der Intensivstation durchgefiihrt. Bei 155 von 200 Patienten (77,5 %) gelang ein positiver Erregernachweis im Rachen- bzw. Nasenabstrich, bei 143 von 200 Patienten (71,5%) ein positiver Erregernachweis im Trachealsekret. Die am häufigsten isolierten Erreger waren S. aureus, Acinetobacter sp., Pseudomonas sp., Stenotrophomonas maltophilia und Candida sp.. Bezogen auf alle Erregernachweise (n = 859) funden sich in 165 Fällen grampositive Erreger (19,2 %), in 403 Fällen granmegative Erreger (46,9 %) und in den restlichen 291 Fällen Pilze (33,8 %). In der Gruppe der nasotracheal umintubierten Patienten kam es bei 10 von 40 Patienten (25,0 %) zu einem positiven postinterventionellen Nachweis eines Erregers im Trachealsekret, der vor der Intervention nur im Nasenabstrich nachgewiesen wurde. In den restlichen Gruppen erfolgte dieser postinterventionelle Erregernachweis im Trachealsekret bei je 6 von 40 Patienten (15 %) in den Gruppen PDT und TLT, sowie bei je 7 von 40 Patienten (17,5 %) in den Gruppen konventionelle Tracheotomie und GWDF. Die von uns ermittelte Inzidenz von Keimbesiedlungen der oberen Atemwege (77,5 %) und der unteren Atemwege (71,5 %) entspricht der allgemeinen Inzidenz bei beatmeten Intensivpatienten. Der hohe Anteil von gramnegativen Erregern (46,9 %) ist Ausdruck eines Wechsel des Erregerspektrums in den gramnegativen Bereich bei schwerstkranken Patienten auf Intensivstationen. Die TLT scheint aufgrund einer im Vergleich zu den anderen Verfahren nicht erhöhten Inzidenz einer Keimverschleppung aus den oberen in die unteren Atemwege als infektionsepidemiologisch risikoarme Technik. Die nasotracheale Umintubation weist im Vergleich zu den anderen Verfahren eine höhere, aber statistisch nicht signifikante Inzidenz von Keimverschleppungen auf. Die Nase stellt aufgrund ihrer Keimbesiedlung ein wesentliches Erregerreservoir dar, das im Zusammenhang mit der nasotrachealen Umintubation hinsichtlich nosokomialer Pneumonien eine Rolle spielen könnte.
Optoelektronische THz-Systeme finden seit 1995 Anwendung in der Bildgebung. Alle bisherigen Systeme basieren dabei auf gepulsten Femtosekunden-Laserquellen und emittieren gepulste, breitbandige THz-Strahlung. In dieser Arbeit wird erstmals ein bildgebendes optoelektronisches Dauerstrich-THz-Svstem auf Basis von Photomischern als Emitter und Detektor vorgestellt. Zur Optimierung des Systems wurden im Rahmen dieser Arbeit die einzelnen Komponenten detailliert untersucht und insbesondere ihre Wechselwirkung im Rahmen einer Systembetrachtung analysiert. Für den Laborbetrieb wurde ein Zweifarben-Ti:Saphir-Laser entwickelt, der es ermöglicht, die beiden zu mischenden nah-infraroten Frequenzen in einem Verstärkermedium zu generieren. Für das bildgebende System wurde der Laser in unidirektionaler Ringkonfiguration mit zwei sich im Laserkristall kreuzenden Resonatoren verwendet. Zur Optimierung der als THz-Emitter verwendeten Photomischer wurde die generierte THz-Leistung von schnellen Photoschaltern basierend auf bei unterschiedlichen Temperaturen gewachsenem LT-GaAs gemessen. Es zeigt sich, dass neben der Ladungsträgereinfangzeit auch die effektive Ladungsträgermobilität mit der Wachstumstemperatur variiert. Sie nimmt zu höheren Wachstumstemperaturen hin ab. Für eine gegebene THz-Zielfrequenz muss das LT-GaAs Material so gewählt werden, dass es eine optimale elektrische Effizienz aufweist. Die so optimierten Photoschalter müssen in eine resonante Antennenstruktur eingebettet werden, um eine optimale THz-Abstrahlung zu ermöglichen. Je nach Anwendung kann die Antennenstruktur entweder breitbandig (d.h. breiter Abstimmbereich) mit vergleichsweise niedriger Abstrahlungseffizienz oder schmalbandig mit hoher Abstrahlungseffizienz gewählt werden. Das Schlüsselproblem beim Entwurf effizienter Photomischer ist jedoch die Fehlanpassung zwischen der Impedanz des Photoschalters und der Eingangsimpedanz der Antenne, die nur durch die Wahl einer geeigneten Antenne verbessert werden kann. Eine der ungeklärten Fragen bei der Entwicklung von leistungsfähigen Photomischern auf LT-GaAs-Basis für Dauerstrich- und hochrepetierlichen Pulsbetrieb war bisher der Einfluss der Feldabschirmung im Photoschalter. Zur Untersuchung des lokalen Feldes und seiner Abschirmung wurde ein zeitaufgelöstes Doppelpulsexperiment durchgeführt. Das beobachtete Abschirmverhalten ist, entgegen allen bisherigen Aussagen, nicht auf die Abschirmung durch Raumladungen. sondern auf die Abschirmung durch das elektrische THz-Strahlungsfeld (Nahfeld) zurückzuführen.
Für verschiedene gentherapeutische Ansätze zur Behandlung der HIV-Infektion oder anderer erworbener oder angeborener Krankheiten wie z. B. der angeborenen Immunschwäche SCID ist ein hocheffizienter Gentransfer in CD4-positive T- Lymphozyten erforderlich. In der vorliegenden Arbeit wurden daher geeignete retrovirale Pseudotypvektoren weiterentwickelt. Unter Einsatz von Markergenen wurden Methoden der Transduktion primärer humaner Lymphozyten optimiert. Schließlich wurden verschiedene potentielle therapeutische anti-HIV-Gene durch retroviralen Gentransfer in humane T-Zelllinien übertragen und hinsichtlich der Hemmung der in-vitro Replikation verschiedener HIV-Stämme verglichen. Zunächst wurden stabile Verpackungszelllinien zur Herstellung von [MLV(HIV-1)]- und [MLV(GaLV)]-Pseudotypvektoren entwickelt, die ein für die Analyse der Transduktionseffizienz geeignetes Markergen übertragen. [MLV(HIV-1)]-Vektoren konnten mit Titern bis zu 2 x 10 hoch 5 i.E. / ml hergestellt werden. Die Optimierung der Kultivierung primärer humaner T-Lymphozyten vor dem ex- vivo Gentransfer ergab, dass eine 24-stündige PHA/IL-2 Stimulation mit anschließender 48-stündiger Kultivierung in IL-2 Medium optimal für die Transduktion primärer CD4-positiver T-Lymphozyten unter weitgehender Erhaltung des Expressionsmusters der Chemokinrezeptoren CXCR4 und CCR5 ist. Bei längerer Stimulation mit PHA und IL-2 verändert sich sowohl das CD4/CD8-Verhältnis als auch die CCR5-Expression gegenüber nativem Blut signifikant. Die Analyse der Expression des übertragenen Markergens und anderen Oberflächenmarkern der Zellen nach der Transduktion zeigte eine strikte Abhängigkeit der Transduktion der [MLV(HIV-1)]-Vektoren vom HIV-Rezeptor CD4, während herkömmliche [MLV(GaLV)]-Vektoren sowohl CD4-positive als auch CD4-negative Zellen transduzierten. Die Effizienz von [MLV(HIV-1CXCR4)]- Vektoren für CD4-positive Zellen war signifikant höher als die der [MLV(GaLV)]-Vektoren, während die Transduktionseffizienz der [MLV(HIV-1CCR5)]-Vektoren aufgrund der geringen Anzahl CCR5-positiver CD4-T-Zellen am niedrigsten war. Zwei Tage nach der Transduktion wurde eine reduzierte Korezeptorexpression in den Zellen nachgewiesen. Gründe hierfür könnten die Internalisierung der Korezeptoren nach der Transduktion oder eine durch die Kultivierung der Zellen bedingte Änderung der Expression sein. Nach weiterer Optimierung des retroviralen Gentransferprotokolls, u.a. durch Verwendung autologen Plasmas, konnten schließlich bei einmaliger Transduktion mit einer m.o.i. von 5 mit den [MLV(HIV-1CXCR4)]-Vektoren Transduktionsraten von bis zu 80 % erreicht werden. Zum Vergleich der Wirkung potentieller anti-HIV-Gene, die mit den neuen Vektoren in der Gentherapie des Immunschwächesyndroms AIDS eingesetzt werden könnten, wurden fünf verschiedene HIV-Inhibitoren (zwei intrazellulär exprimierte Antikörperfragmente (scFv) gegen HIV-1 Integrase und Reverse Transkriptase, zwei Ribozyme, die die HIV-1 RNA in der 5´-LTR oder im Pol- Leserahmen spezifisch spalten, sowie Interleukin-16) in den gleichen Transfervektor kloniert und durch retroviralen Gentransfer in die T-Zelllinie SupT1 übertragen. In Infektionsversuchen mit zwei unterschiedlichen HIV-1 Stämmen vermittelte jedoch keiner der potentiellen Inhibitoren eine signifikante Resistenz gegenüber HIV-1. Erst nach Sortierung der Kulturen auf starke Expression der übertragenen Gene konnte in den sortierten Zellen eine geringe Hemmwirkung des 5´-LTR-spezifischen Ribozyms auf die in-vitro Replikation des Stammes HIV-1IIIB, nicht jedoch auf die des Stammes HIV-1NL4-3 gezeigt werden. Die Signifikanz dieser Beobachtung muß über den Vergleich der Hemmwirkung weiterer Inhibitorgene geklärt werden.
Optimierte Labordiagnostik zum Nachweis einer Heparin-induzierten Thrombozytopenie (HIT) Typ II
(2002)
Es ist bekannt, dass nicht alle Patienten, die sich unter einer Heparintherapie nachweislich gegen Heparin/PF4-Komplex immunisieren, das klinische Bild einer Heparin-induzierten Thrombozytopenie (HIT) Typ II entwickeln, wenngleich Heparin/PF4-Antikörper ursächlich für diese schwerwiegende Nebenwirkung angeschuldigt werden. Es ist davon auszugehen, dass in Abhängigkeit von der Grunderkrankung der Anteil der Patienten mit Heparin/PF4-Antikörpern, der keine Klinik entwickelt, relativ groß ist. Da die bisher entwickelten Testsysteme auf dem Nachweis von Heparin/PF4-Antikörpern beruhen, wirkt sich dieses Phänomen nachteilig auf die Testspezifität aus. In der vorliegenden Arbeit wurde untersucht, welche der Immunglobulinklassen der HITspezifischen Antikörper für die Auslösung einer HIT Typ II von Bedeutung sind, und inwieweit die isolierte Bestimmung einer der Immunglobulinklassen IgG, IgM und IgA in der Lage ist, die Aussagekraft eines immunologischen Testsystems zu verbessern. Hierzu wurden Patienten, bei denen Heparin/PF4-Antikörper nachweisbar waren, nach klinischen Kriterien in drei verschiedene Gruppen unterteilt und bezüglich der Immunglobulinklassen verglichen. In Gruppe I wurden Patienten zusammengefasst, bei denen sich der klinische Verdacht einer HIT Typ II labordiagnostisch durch Heparin/PF4-Antikörpernachweis bestätigte, und die als besonderes Kriterium thromboembolische Komplikationen entwickelten. Patienten mit einer isolierten Heparin-induzierten Thrombozytopenie und positivem Antikörpernachweis aber ohne thromboembolische Komplikationen wurden als Gruppe II unterschieden. Durch die getrennte Beobachtung dieser beiden Patientengruppen sollte der prädiktive Wert der Immunglobulinklassen für die Entwicklung von Thrombosen unter HIT Typ II untersucht werden. Verglichen wurden diese beiden Gruppen mit einer dritten Gruppe von selektierten Patienten aus einer prospektiven Studie. Die eingeschlossenen gefäßchirurgischen Patienten aus dieser Studie mussten die Kriterien "positiver Heparin/PF4-Antikörpernachweis während Heparintherapie" und "keine klinischen Zeichen einer Heparin-induzierten Thrombozytopenie Typ II" erfüllen. In dieser Arbeit wurde weiter untersucht, welche der Immunglobulinklasse IgG, IgM und IgA am besten zwischen Patienten mit positiven Heparin/PF4-Antikörpern mit und ohne typischer "HIT-Klinik" unterscheiden kann. Die Bestimmung der Immunglobulinklassen erfolgte zum Zeitpunkt des akuten thrombozytopenischen Geschehens, bzw. bei den asymptomatischen Patienten in einem Zeitfenster von 5 bis 20 Tagen nach Therapiebeginn mit einer ELISA-Methode nach Amiral et al. (1991). Parallel zu den immunologischen Untersuchungen wurde ein etablierter, funktioneller Test, der Heparin-induzierte Plättchenaktivierungstest (HIPA) von Greinacher et al. (1991) bei allen Patienten angewandt. Es kam zu folgenden Ergebnissen im Vergleich der Gruppen: Die Patienten mit einer HIT Typ II mit thromboembolischen Komplikationen ließen sich durch keine der untersuchten Immunglobulinklasse oder den Heparin-induzierten Plättchenaktivierungstest (HIPA-Test) signifikant von den Patienten mit HIT ohne thromboembolische Ereignisse unterscheiden. Die asymptomatischen Patienten mit positivem Heparin/PF4-Antikörpernachweis waren signifikant (p < 0,05) von den Patienten mit einer klinisch wahrscheinlichen und laborchemisch nachgewiesenen HIT Typ II zu unterscheiden durch die Immunglobulinklasse IgG und den Heparin-induzierten Plättchenaktivierungstest (HIPA-Test), nicht aber durch die Immunglobulinklassen IgM und IgA. Dementsprechend zeigte IgG in der Diskriminanzanalyse zwischen Patienten mit klinisch eindeutigem HIT Typ II und asymptomatischen Patienten mit positivem Heparin/PF4- Antikörpernachweis mit 20 % eine um 9 % niedrigere Fehlklassifikationsrate als die Mischung aus IgG, IgM und IgA. Der durch die Diskriminanzanalyse optimierte Cut-Off konnte zwar für die Mischung aus IgG, IgM und IgA eine Spezifitätssteigerung von 0 auf 66,6 % erzielen, dies verursachte jedoch einen Verlust an Sensitivität von 91 % auf 76 %. Der Verlust an Sensitivität ist bei der Immunglobulinklasse IgG mit 2 % deutlich günstiger, während die Spezifität zusätzlich durch die Cut-Off Optimierung von 62,5 auf 70,8 % gesteigert werden konnte. Damit ist der Heparin/PF4-Antikörper-EIA mit der isolierten Bestimmung der Immunglobulinklasse IgG bei vergleichbarer Sensitivität spezifischer als der funktionelle HIPA-Test. Aus diesen Ergebnissen lässt sich bestätigen, dass die Immunglobulinklasse IgG eine zentrale Rolle in der Pathogenese spielt, während die Klassen IgM und IgA keinen Einfluß auf die Klinik der HIT Typ II zu haben scheinen. Da nicht alle Patienten mit Heparin/PF4-Antikörpern der Klasse IgG eine HIT Typ II entwickeln, müssen weitere Faktoren am Zustandekommen der klinischen Symptomatik beteiligt sein. Weiter lässt sich schlussfolgern, dass der Heparin/PF4-Antikörper-EIA (HPIA), sofern man nur die relevante Immunglobulinklasse IgG misst, ein brauchbares Instrument zur Diagnostik der HIT Typ II darstellt, und daher von weniger spezialisierten Labors wegen seiner besseren Praktikabilität einem funktionellen Test wie dem HIPA-Test vorgezogen werden sollte. Zwischen Immunglobulinklassen und dem Risiko, ein thromboembolisches Ereignis während einer HIT Typ II zu entwickeln, konnte kein Zusammenhang festgestellt werden. Es ist zu vermuten, dass der überwiegende Teil der Patienten mit initial isolierter Thrombozytopenie bei fortlaufender Therapiedauer auch Thrombosen entwickelt hätte und sich die beiden Patientengruppen I und II nur hinsichtlich der Dauer der Heparintherapie unterscheiden.
Stickstoffmonoxid (NO) ist ein gasförmiger Botenstoff, der über die Regulation des Vasotonus, die Hemmung der Thrombocytenaggregation sowie die Stimulation der Angiogenese auf die vaskuläre Homöostase einwirkt. Das wichtigste NO-produzierende Enzym im kardiovaskulären System ist die endotheliale NO-Synthase (eNOS), deren Aktivität durch posttranslationale Modifikationen wie Phosphorylierung und Acylierung, durch Interaktionen mit regulatorischen Proteinen wie Ca2 /Calmodulin und Caveolin sowie durch differentielle subzelluläre Lokalisation reguliert wird. Dabei sind die Faktoren, welche die (Trans-)Lokation der eNOS zwischen subzellulären Kompartimenten wie den Caveolae der Plasmamembran und dem Golgi-Apparat dirigieren, weitgehend unbekannt. Zur Identifizierung neuer Interaktionspartner wurde humane eNOS im "yeast two-hybrid"-System als "Köderprotein" eingesetzt und dabei das Fragment eines neuen humanen Proteins identifiziert, das vorläufig NOSTRIN (für: eNOS traffic inducer) genannt wurde. Im Rahmen der vorliegenden Arbeit gelang nun die Klonierung der kompletten NOSTRIN-cDNA, der Nachweis einer spezifischen Interaktion von eNOS und NOSTRIN in Säugerzellen sowie die Charakterisierung von NOSTRIN als Modulator der subzellulären Lokalisation und Aktivität von eNOS. Nach der kompletten Klonierung der NOSTRIN-cDNA mit Hilfe einer 5'-RACE resultierte ein offenes Leseraster von 506 Aminosäuren entsprechend einer Größe von ca. 58 kDa für NOSTRIN. Eine Datenbankrecherche zum Vergleich der NOSTRIN-Sequenz mit Sequenzen bekannter Proteinmotive ergab die Vorhersage einer N-terminalen Cdc15-Domäne sowie einer C-terminalen SH3-Domäne. Die direkte Interaktion zwischen eNOS und NOSTRIN konnte durch Copräzipitation in vivo und in vitro bestätigt werden. Weiterhin wurde nachgewiesen, dass die SH3-Domäne von NOSTRIN essentiell für die Bindung an eNOS ist. Zur Untersuchung des Einflusses von NOSTRIN auf die eNOS-Lokalisation wurden stabil transfizierte CHO-Zellen, die eNOS überexprimierten ("CHO-eNOS") eingesetzt. In der Immunofluoreszenz war eNOS vornehmlich in Assoziation mit der Plasmamembran und dem Golgi-Apparat zu sehen. Mit Hilfe des Semliki-Forest-Virussystems (SFV) wurde nun NOSTRIN transient überexprimiert; dabei zeigte sich für NOSTRIN eine vesikelartige Verteilung im Cytoplasma. Die NOSTRIN-Überexpression führte zu einer drastischen Umverteilung von eNOS, die nun in charakteristischen vesikelartigen Strukturen mit NOSTRIN colokalisierte. Die Verwendung von NOSTRIN-Konstukten, bei denen die SH3- Domäne deletiert war ("NOSTRIN.SH3"), veränderte zwar die typische NOSTRIN-Lokalisation nicht, ließ aber auch die subzelluläre Verteilung von eNOS unverändert, so dass NOSTRIN.SH3 und eNOS in unterschiedlichen zellulären Kompartimenten lokalisiert waren. Mit Hilfe der Immunofluoreszenz konnte ebenfalls eine Colokalisation von NOSTRIN und Caveolin-1, einem inhibitorisch wirkenden Interaktionspartner von eNOS, nachgewiesen werden. Die Analyse von Copräzipitationen mit NOSTRIN bzw. NOSTRIN.SH3 zeigte, dass Caveolin-1 in eNOS-unabhängiger Weise an NOSTRIN bindet, so dass ein ternärer Komplex aus NOSTRIN, eNOS und Caveolin-1 resultiert. Zur Klärung der Frage, ob NOSTRIN neben der subzellulären Lokalisation auch die Aktivität von eNOS beeinflusst, wurde die NO-Freisetzung von CHO-eNOS-Zellen analysiert. Dabei ergab sich, dass die transiente Überexpression von NOSTRIN in CHO-eNOS-Zellen die eNOS-Aktivität um 62 % im Vergleich zu Kontrollzellen reduzierte. In humanen primären Endothelzellen konnte mittels Immunoblotting und Immunofluoreszenzmikroskopie das Vorkommen von endogenem NOSTRIN sowie dessen Colokalisation mit endogener eNOS an der Plasmamembran nachgewiesen werden. Die Ergebnisse der vorliegenden Dissertation führen zur Hypothese, dass NOSTRIN als "molekulare Klammer" zwischen eNOS und Caveolin-1 dient, eine dynamische Umverteilung von eNOS innerhalb der Zelle vermittelt und damit das Enzym - direkt und/oder indirekt - inhibiert. Somit dürfte NOSTRIN als Modulator der Aktivität und Lokalisation von eNOS eine wichtige Rolle bei der Regulation der endothelialen NO-Produktion spielen.
Natürliche Enantioselektivität und Isotopendiskriminierung - Schlüssel zur Echtheit ätherischer Öle
(2002)
Als Grundlage für die Beurteilung der Echtheit ätherischer Öle können zwei biochemische Prinzipien Enantioselektivität und Isotopendiskriminierung während der Biosynthese herangezogen werden. In der vorliegenden Arbeit wurde die enantioselektive Kapillargaschromatographie sowie die online-Kopplung der Gaschromatographie mit der Isotopenmas- senspektrometrie zur Authentizitätsbewertung verschiedener ätherischer Öle eingesetzt. Die Bestimmung von Enantiomerenverhältnissen mittels Multidimensionaler Gaschromatographie-Massenspektrometrie (MDGC-MS) sowie von 13C/12C-Isotopenverhältnissen mittels GC-C-IRMS (Gaschromatographie-Combustion- Isotopenmassenspektrometrie) sind etablierte Methoden, die in der Authentizitätsbewertung von Aroma- und Duftstoffen eingesetzt werden. Dagegen ist die Bestimmung von 2H/1H-Isotopenverhältnissen mittels GC-P-IRMS (Gaschromatographie-Pyrolyse-Isotopenmassenspektrometrie) eine relativ neue Methode. In der vorliegenden Arbeit wurden Strategien zur Bestimmung von zuverlässigen 2H/1H-Isotopenverhältnissen mittels GC-P-IRMS entwickelt. Die Kalibrierung des Referenzgases mit Hilfe von internationalen Standards kann nur mittels eines Elemental Analyzers (EA-IRMS) erfolgen, da für die Gaschromatographie geeignete Standards nicht zur Verfügung stehen. Daher ist insbesondere der Vergleich von Isotopenverhältnissen von Standardsubstanzen, die mittels TC/EA-IRMS und GC- P-IRMS bestimmt wurden, von Bedeutung. Es konnte gezeigt werden, dass eine Konditionierung (Einbringen einer Kohlenstoffschicht) des Pyrolysereaktors im GC- P-IRMS-System notwendig ist, um für die untersuchten Aromastoffe mittels GC-P- IRMS zum Elemental Analyzer vergleichbare Ergebnisse zu erzielen. Von zwei verschiedenen getesteten Methoden zur Konditionierung des Pyrolysereaktors war die Konditionierung durch Einleiten von Methan in den Pyrolysereaktor die geeignetere und effektivere Methode. Weiterhin wurden der Einfluss des Trägergasflusses des Gaschromatographen auf die bestimmten Isotopenwerte sowie der lineare Bereich der Methode untersucht. Es konnte erstmalig gezeigt werden, dass die mittels GC-P-IRMS bestimmten Isotopenverhältnisse von verschiedenen Parametern abhängig sind. Richtige Ergebnisse zu erzielen setzt folgende Konditionen voraus: Konditionierung des Pyrolysereaktors, optimaler Trägergasfluss sowie Mindestmenge des Analyten (> 0,3 µg on column). Die neuen Möglichkeiten, die die online-Bestimmung von 2H/1H-Isotopenverhältnissen in der Authentizitätsbewertung von Lavendelölen, Anis- und Fenchelölen sowie Kümmelölen bietet, wurden erstmalig untersucht. Darüber hinaus wurden die enantioselektive Kapillargaschromatographie und die Bestimmung von 13C/12C-Isotopenverhältnissen mittels GC-C-IRMS eingesetzt. Es konnte gezeigt werden, dass sich die Bereiche der 2HV-SMOW-Werte von Linalool und Linalylacetat aus authentischen Lavendelölen deutlich vom Bereich der Isotopenverhältnisse kommerziell erhältlicher, synthetischer Analoga unterscheiden und somit eine Verfälschung von Lavendelölen mit synthetischem Linalool und/oder Linalylacetat nachweisbar ist. Mit dieser Methode konnten diverse Handelsöle eindeutig als verfälscht beurteilt werden. Über die Bestimmung der Enantiomerenverhältnisse von Linalool und Linalylacetat dieser Öle konnte die Aussage bestätigt werden (hohe Reinheit zugunsten des (R)-Enantiomeren in genuinen Lavendelölen). Anhand der unterschiedlichen 13C/12C-Isotopenverhältnisse ist eine Unterscheidung zwischen synthetischem und Linalylacetat aus Lavendel möglich. Die 13CV-PDB-Werte von synthetischem und natürlichem Linalool aus Lavendelölen liegen im gleichen Bereich und sind somit zur analytischen Differenzierung natürlich/naturidentisch nicht geeignet. Mittels GC-C(P)-IRMS Analyse von trans-Anethol aus Fenchel- und Anisölen wurden die authentischen Bereiche der 13C/12C- und 2H/1H-Isotopenverhältnisse ermittelt. Es konnte gezeigt werden, dass sich einige der synthetischen trans-Anethol- Muster nur aufgrund eines der beiden bestimmten Isotopenverhältnisse von dem authentischen Bereich abgrenzen lassen. Somit konnte gezeigt werden, dass die integrale Betrachtungsweise der 13CV-PDB-Werte und der 2HV-SMOW-Werte biogener Stoffe für die Authentizitätsbewertung von großer Bedeutung ist. Zur Authentizitätsbewertung von Kümmelölen wurden die Enantiomerenverhältnisse, die 13C/12C- und die 2H/1H-Isotopenverhältnisse der Hauptkomponenten Limonen und Carvon bestimmt. Aufgrund der 2HV-SMOW-Werte von Limonen lassen sich keine Unterscheidungen zwischen kommerziell erhältlichen Limonen und Limonen aus Kümmelölen treffen. Dagegen können die 13CV-PDB-Werte von Limonen zur Authentizitätsbewertung von Kümmelölen herangezogen werden. Die dargestellten Ergebnisse zeigen, dass die Bestimmung von 2H/1H- Isotopenverhältnissen mittels GC-P-IRMS neue Möglichkeiten in der Echtheitsbewertung ätherischer Öle bietet. Insbesondere die integrale Betrachtung von 2HV- SMOW- und 13CV-PDB-Werten ( 2H/ 13C-Korrelation) wird eine Authentizitätsbewertung künftig noch wesentlich differenzierter möglich machen. Weitere Perspektiven wird die Bestimmung von 18O/16O-Isotopenverhältnissen bieten. Die Authentizitätsbewertung anhand der Multielement-Analyse mittels GC- IRMS eröffnet gerade für achirale Aromastoffe Perspektiven, stellt aber auch eine Ergänzung zur enantioselektiven Analytik dar.
Einleitung und Zielsetzung: In der vorliegenden Arbeit sollte der Nachweis von TSH-Rezeptorantikörpern mittels eines Bindungsassays und JP26- Zellen erbracht werden. TSH-Rezeptorantikörper (TRAK) werden in Seren von vielen Patienten mit einer Autoimmunthyreoiditis entdeckt. Der in dieser Arbeit ausgewählte Radioimmunassay verwendet chinesische Hamster Ovarienzellen (CHO-Zellen), die humanen TSH-Rezeptoren exprimieren. Der Bindungsassay basiert auf dem Prinzip der Verdrängung von radioaktiv markiertem bovinem-TSH (Tracer) durch vorhandene TSH-Rezeptorantikörper im Patientenserum. Dabei ist es nicht entscheidend, ob es sich um funktionsblockierende oder funktionsstimulierende TRAK handelt. Der verwendete Bindungsassay gilt als einer der sensitivsten, kompetitiven Bindungsassays für die Detektion von TRAK und kann deshalb ein relevanter Verlaufsmarker bei Patienten mit Morbus Basedow und Hashimoto sein. Material und Methode: Die JP26-Zellen wurden ausgewählt, weil sie sich mit einer Anzahl von 2.000 TSH-Rezeptoren an ihrer Oberfläche gut mit der TSH-Rezeptordichte humaner Thyreozyten vergleichen lassen. Die verwendeten Patientenseren wurden unterteilt in 5 Gruppen: Gruppe 1: Morbus Basedow (n = 85), Gruppe 2: Kontrollgruppe (n = 76), Gruppe 3: Hashimoto-Thyreoiditis (n = 29), Gruppe 4: Andere Autoimmunerkrankungen (n = 14), Gruppe 5: Nicht-autoimmune Schilddrüsenerkrankungen (n = 38). Die Morbus Basedow-Gruppe wurde zusätzlich untergliedert in floride und länger als 9 Monate behandelte Gruppen sowie in TRAK positive und TRAK negative Gruppen: Gruppe 1A: floride und positive TRAK, Gruppe 1B: floride und negative TRAK, Gruppe 1C: behandelt und positive TRAK, Gruppe 1D: behandelt und negative TRAK. Die kultivierten JP26-Zellen wurden mit einer Zellanzahl von 300.000 Zellen / Well zusammen mit IMDM-Medium in 24-Lochplatten aufgeteilt. Am nächsten Tag wurden die in 5 %iger CO2-Atmosphäre bei 37°C inkubierten Lochplatten mit PBS gewaschen. Danach wurde 150 ml modifizierter KRB-Puffer, 50 ml Serum und 50 ml 125 I-bTSH in jede Vertiefung pipettiert. Die bestückten Lochplatten wurden diesmal bei 4°C über 24 Stunden inkubiert. Anschließend wurden die JP26-Zellen mit 0,5 ml 4 °C kalten KRB-Puffers gewaschen und mit 0,5 ml 1 N Natronlauge (NaOH) gelöst. Die verbliebene Radioaktivität wurde zuletzt im gamma-Counter gemessen. Ergebnisse: Gruppe 1: 31 %, Gruppe 2: 5 %, Gruppe 3: 17 %, Gruppe 4: 0 %, Gruppe 5: 16 %. Gruppe 1A: 80 %, Gruppe 1B: 0 %, Gruppe 1C: 36 %, Gruppe 1D: 14 %. Schlußfolgerung: Die Sensitivität der TRAK-Nachweise in der MB-Gruppe war entgegen aller Erwartungen niedriger als im Routinelabor. Dies lag vermutlich auch an einer sehr hohen Affinität des verwendeten bovinen-TSH-Tracers für TSH-Rezeptoren. Es fanden sich jedoch bemerkenswerte Ergebnisse in der Gruppe der Hashimoto- Thyreoiditis und der nicht-autoimmunen Schilddrüsenerkrankungen. In beiden Gruppen konnten in mehreren Seren ( 17 bzw. 16 % ) positive TRAK-Werte nachgewiesen werden. Daraus läßt sich schließen, daß die in vorliegender Arbeit angewendete Untersuchungsmethode eine höhere Sensitivität zum Nachweis von TRAK bei Hashimoto- Thyreoiditis besitzt. Gewichtige und neueste Studien, sowie Ergebnisse von Untersuchungen der gleichen Arbeitsgruppe, die sich mit zwei unterschiedlichen Assays zur Unterscheidung funktionsblockierender und funktionsstimulierender TRAK befaßt haben, stützen diese Aussage. Letztlich liegt der Schluß nahe, daß es sich bei den in diesen beiden Gruppen nachgewiesenen TSH-Rezeptorantikörpern, um überwiegend funktionsblockierende TRAK handelt. Dagegen erscheint zum TRAK-Nachweis, insbesondere funktionsstimulierender TRAK bei Morbus Basedow Patienten, die Anwendung einer auf kompetitiver Hemmung beruhende Untersuchungs-methode nur unzureichend sensitiv. Das in vorliegender Arbeit angewendete Verfahren eignet sich offenbar vergleichsweise besser zur Detektion funktionsblockierenden TRAK.
Im ersten Abschnitt der Doktorarbeit wurden kurze alpha-helikale Modellpeptide mit Oligosacchariden, die Teile der Core-Region der N-Glycane bilden, N-glycosyliert, um den konformationellen Effekt der N-Glycosylierung auf das Peptidrückgrat zu untersuchen. CD- und NMR-Untersuchungen ergaben, daß die Konformation der N-Glycopeptide durch die Größe der angehängten N-Glycanreste und die Wahl der Aminosäurereste nahe der Glycosylierungsstelle beeinflußbar war. Die signifikantesten konformationellen Änderungen ergaben die N-Glycosylierung mit einem Monosaccharid beziehungsweise einem Pentasaccharid. Die Kombination von organischer Synthese mit biologischen Methoden ermöglicht es heute, neben den 20 natürlichen Aminosäuren, auch unnatürliche Aminosäuren ortsspezifisch in Proteine einzubauen. Dabei wird das Codon für die jeweilige Aminosäure durch Oligonucleotid-Mutagenese durch das Nonsense-Codon UAG ersetzt. Für dieses spezielle Codon wird eine Suppressor-tRNA hergestellt und in vitro chemisch mit der gewünschten unnatürlichen Aminosäure aminoacyliert. Mit dem späteren Ziel einer in vitro-N-Glycoproteinsynthese wurde hier die Darstellung von N-glycosylierten Aminosäuren und der Versuch der Anknüpfung an ein Dinukleotid pdCpA beschrieben. Die für die Aminoacylierung des Dinukleotids geeigneten Zuckeraminosäuren trugen Nterminal die photochemisch abspaltbare NVOC-Schutzgruppe, Acetylgruppen an den Zucker-OH-Funktionen und eine Cyanomethylaktivesterfunktion am C-Terminus. Die Aminoacylierungsreaktionen führten nicht zu dem gewünschten N-Glycosylaminoacyldinukleotid. Insbesondere durch die Wahl anderer Zuckerschutzgruppen sollte dennoch die Acylierung des Dinukleotids pdCpA mit einer N-glycosylierten Aminosäure gelingen. Der dritte Teil der Doktorarbeit beinhaltete die Synthese eines Prionen-N-Glycoproteins über chemische Ligation eines Thioesters mit einem Cystein-Peptid. Die Verknüpfung von Peptidfragmenten erlaubt die selektive Isotopen-Markierung, was die Strukturaufklärung mit Hilfe der NMR-Spektroskopie enorm vereinfacht. Die Funktion der Glycosylierung des Prionenproteins scheint in wenigen Aspekten geklärt zu sein. Unklar ist, ob die N-Glycosylierung auch die Konformation des Prionenproteins verändern kann. Ein kurzes Prionen-N-Glycopeptidfragment SHA PrP172-194 aus der Helix B des Prionenproteins wurde der Strukturanalyse unterzogen, wobei ein Effekt der NGlycosylierung auf die Konformation des Peptidrückgrats verzeichnet werden konnte. Motiviert durch diese Ergebnisse wurden in der Doktorarbeit das Prionenproteinfragment SHA PrP12l-178 als N-terminales Thioesterfragment und das Fragment SHA PrP179-231 als C-terminales Cystein-Peptid mit Festphasenpeptidsynthese dargestellt. Mit diesen wasserlöslichen Proteinfragmenten wurde erfolgreich eine chemische Ligation unter denaturierenden Bedingungen durchgeführt. Da man selektiv Isotopen-markierte Proteine herstellen wollte, war man auf die biochemische Expression des N-terminalen Thioesterfragments SHA PrPl2l-178 angewiesen. Dr. S. Becker (Max-Planck-Institut für Biophysikalische Chemie, Göttingen) gelang die Expression eines unmarkierten Prionen-Inteinfusionsproteins, aus dem durch Thiol-vermittelte Inteinspaltung ein Thioester generiert werden konnte. Auch mit diesem biochemischen Ligationsansatz konnte das Fragment SHA PrP121-23l erhalten werden. Ein N-glycosyliertes Prionenfragment SHA PrP179-231 wurde in der vorliegenden Doktorarbeit ebenfalls dargestellt und steht für Intein-vermittelte Ligationsreaktionen zur Verfügung.
Aus dem Bereich der, bei Sportlern vermehrt auftretenden dermatologischen Erkrankungen, werden nach ausführlicher Darstellung der Mykoseproblematik in unterschiedlichen Sportbereichen, die Prävalenz und prädisponierende Faktoren für die Tinea pedis-Infektionen bei einem Kollektiv von 235 Marathonläufern erhoben. Auf Grundlage der gewonnenen Studienergebnisse sollen Prophylaxeempfehlungen für die Sporttreibenden formuliert und Grundlagen für weiterführende Studien geschaffen werden. Zur medizinischen Einführung in die Studienthematik wird im zweiten Kapitel ein Exkurs in die Fuß- und Nagelpilzerkrankungen vorangestellt. Die klinischen Krankheitsbilder und klassische Transfektionswege von Tinea pedis interdigitalis, Onychomykosen und Tinea pedis vom Mokassin-Typ werden so weit beschrieben, wie es für das Verständnis der Studie notwendig ist. Die Studie basiert auf drei, mit insgesamt 296 Teilnehmern, zwischen Februar 1998 und Juni 2000 durchgeführten Pilotstudien. Im Verlauf der Pilotstudien wurden unterschiedliche Studienschwerpunkte, so zum Beispiel die Fragen nach der mykologischen Prävalenz von Sportlern, ob Mykoseerreger auch in Sportschuhen nachgewiesen werden können oder ob Sportler und Schuh schnell und effektiv saniert werden können bearbeitet. Über die Durchführung der Pilotstudien hinweg wurde ein Prüfbogen entwickelt, der es im Rahmen einer Sportgroßveranstaltung, dem Euro Marathon 2000, in Frankfurt ermöglichte, studienrelevante Variablen der Stichprobenmitglieder vor bzw. parallel zu den durch Mediziner durchgeführten klinischen Inspektionen zu erfassen. Die klinischen Befunde wurden durch anschließende labortechnische Untersuchungen überprüft und spezifiziert. Auf der Basis des gewonnenen Datenmaterials wurden die primären Fragestellungen: „Wie hoch ist die mykotische Infektionsrate bei der Stichprobe? Welche Verteilung der mykotischen Erkrankungen Onychomykose, Tinea pedis interdigitalis oder Mokassin-Typ liegen bei der untersuchten Stichprobe vor? Welche Abhängigkeiten zwischen erhobenen Begleitvariablen und mykotischen Erkrankungen können festgestellt werden?“ sowie die sekundären Fragestellungen: „Wie sind die mykotischen Erkrankungen auf die einzelnen Füße, Zehen, Zehenzwischenräume verteilt? Welchen Ausprägungsgrad weisen die mykotischen Erkrankungen im Fußbereich auf? Sind Abhängigkeiten zwischen Ausprägungsgrad und erhobenen Begleitvariablen festzustellen? Welche Erreger können durch die Laboruntersuchungen nachgewiesen werden? Können frühere Pilot-Studienergebnisse durch diese Studie bestätigt werden?“ mit Hilfe statistischer Verfahren, ausgewertet und interpretiert. Die Probanden wiesen zu 59,6% positive mykotische Befunde im Fußbereich auf. Einige der erhobenen Begleitvariablen, so zum Beispiel Alter der Sportler und Anzahl der betriebenen Sportarten, stehen in signifikantem Zusammenhang zum Auftreten positiver mykologischer Befunde. Weitere Einflussvariablen liesen bei der Korrelationsanalyse Gefährdungstendenzen erkennen. Mit Hilfe der logistischen Regression wurde die Hypothese „Die Wahrscheinlichkeit für positive mykotische Befunde ist abhängig von der Anzahl der vorhandenen Risikofaktoren“ stufenweise in ein Modell mit den vier Risikofaktoren: Alter des Sportlers >= 40 Jahre, nur ein bis zwei betriebene Sportarten, drei und mehr Sportschuhe in Gebrauch und Gewicht >= 70 kg angepasst und überprüft. Die Darstellung von vier exemplarischen Einzelfällen veranschaulicht die in den Korellationsbetrachtungen uni- und multivariat beschriebenen Risikofaktoren. Die Arbeit schließt mit einem therapeutischen Exkurs, in dem für die drei beschriebenen Tinea pedis-Infektionen die gängigen Therapien aber auch pespektivisch zu erwartende Wirkstoffkombinationen genannt werden. Sportspezifische und allgemeine Prophylaxeempfehlungen komplettieren das letzte Kapitel.
In der vorliegenden Arbeit konnte eine neue Ca2 -abhängige NDPase (EC 3.6.1.6) kloniert und funktionell charakterisiert werden. Die mRNA der Ca2 -NDPase wurde in allen untersuchten Geweben der Ratte nachgewiesen. UDP, GDP und IDP, jedoch nicht ATP und ADP waren Substrate der Ca2 -NDPase. Ihre Enzymaktivität war strikt von Calciumionen abhängig und zeigte ein breites pH-Optimum zwischen 6,5 und 7,5. Der Km-Wert für UDP lag bei 216 µM. Die Ca2 -NDPase konnte im ER und in Prä-Golgi-Strukturen lokalisiert werden. Sie ist ein Transmembranprotein, dessen katalytische Domäne im Lumen des ER liegt. Dort ist sie vermutlich ein wichtiger Bestandteil der Qualitätskontrolle neu synthetisierter glycosylierter Proteine, in dem sie das die UDP-Glucose:glycoproteinglucosyltransferase inhibierende UDP zu UMP hydrolysiert. Das resultierende UMP dient als Antiporter um UDP-Glucose, das im Zytosol synthetisierte Substrat der UDP-Glucose:glycoproteinglucosyltransferase, in das ER zu transportieren. Im zweiten Teil der Arbeit wurden die Oligomerstrukturen der zelloberflächenlokalisierten NTPDase1 und NTPDase2 untersucht. Die Enzyme wurden heterolog in Xenopus laevis-Oocyten exprimiert. Nach metabolischer Markierung sowie Zelloberflächenmarkierung wurden die mittels Hexahistidyl-Epitop markierten Proteine durch Digitonin solubilisiert und die Oligomerenkomplexe wurden über Ni2 -NTA-Chromatographie gereinigt. Die gereinigten Proteinkomplexe wurden mittels Cross-Linking-Experimenten und der Blau-nativen Gelelektrophorese analysiert. Es konnte gezeigt werden, dass die NTPDase1 an der Zelloberfläche als Dimer vorlag. Die Dimerisierung erfolgte nicht über intermolekulare S-S-Brücken. Die Dimere der NTPDase1 erwiesen sich als relativ stabil. Inkubation bei 37°C resultierte mit zunehmender Dauer in einer steigenden, jedoch auch nach zwei Stunden noch nicht vollständigen Dissoziation der Dimere. Inkubation unter reduzierenden Bedingungen führte ebenfalls nicht zur vollständigen Dissoziation. Erst eine Inkubation bei 37°C in Gegenwart von DTT und Coomassie Brilliant Blue G250 vermochte eine vollständige Dissoziation der NTPDase1 zu bewirken. Zur vollständigen Dissoziation der Multimerstruktur der NTPDase1 wurden somit das Reduktionsmittel DTT und die unter diesen Bedingungen denaturierende Wirkung des Farbstoffs Coomassie Brilliant Blue G250 benötigt. Die NTPDase2 bildete kein distinktes Multimer, sondern lag im nativen Zustand an der Zelloberfläche in Form von nicht intermolekular über S-S-Brücken verknüpften Di-, Tri- und Tetrameren vor. Die Homomultimere der NTPDase2 zeigten im Vergleich zur NTPDase1 eine deutlich höhere Stabilität. Inkubation unter reduzierenden Bedingungen und in Gegenwart von Coomassie Brilliant Blue G250 führte im Gegensatz zur NTPDase1 nur zu einer unwesentlichen Dissoziation der Multimerstrukturen. Die Substratspezifität der NTPDase2 änderte sich mit zunehmender Dauer der heterologen Expression. Die ADPase-Aktivität der NTPDase2 stieg nach sieben Tagen signifikant (p < 0,0001) um das vierfache im Vergleich zum ersten Tag der Expression. Dies erniedrigte das ATP:ADP-Verhältnis von 1 : 0,1 nach 24 h Expression zu 1 : 0,4 nach sieben Tagen. Die Änderung der Substratspezifität der NTPDase2 ging mit einer Änderung des multimeren Verteilungsmusters der NTPDase2 einher. Mit zunehmender Expressionsdauer nahm der relative Anteil an höheren Multimeren zu. Im Gegensatz zur NTPDase2 zeigte die NTPDase1 keine signifikanten Änderungen ihrer Substratspezifität und Multimerstruktur. Die durch unterschiedliche Verteilungsmuster der Multimere bedingte Änderung der Substratspezifität der NTPDase2 eröffnet eine neue Möglichkeit zur Modulation Nukleotid-vermittelter Signalübertragung. Es konnte keine signifikante Tendenz zur Ausbildung von Heteromultimeren aus NTPDase1 und NTPDase2 nachgewiesen werden.
In der vorliegenden Arbeit sollten die in unserer Arbeitsgruppe identifizierten Splice- Varianten des murinen ARVCF (mARVCF) cloniert und charakterisiert werden. Es wurde gezeigt, daß alle 8 putativen Isoformen im gleichen Maße mit den Zelladhäsions-Molekülen M-, E- und N-Cadherin interagieren können und mit diesen an der Plasmamembran bzw. den Zell-Zellkontakten colocalisieren. Dabei nimmt N-Cadherin eine Sonderstellung ein. Zum einen ist die Interaktion mit endogenem N-Cadherin abhängig vom Zellkontext und zum anderen konnte mit Hilfe des MOM recruitment assays gezeigt werden, daß, im Gegensatz zu MOM-M- und MOM-E-Cadherin, eine Assoziation von mARVCF und MOM-N-Cadherin nicht in jeder Zelle stattfindet. Eine mögliche Konkurrenz von mARVCF mit dem nahe verwandten armadillo repeat Protein p120(ctn) um die Bindestelle in N-Cadherin konnte dabei als Ursache ausgeschlossen werden. Als nächstes wurde im Rahmen dieser Arbeit gezeigt, daß mARVCF eine duale Lokalisation an der Plasmamembran und im Zellkern aufweist. Dabei unterliegt mARVCF einem effektiven Exportmechanismus. Dieser Export kann durch Leptomycin B inhibiert werden, scheint somit also CRM1/exportin1-vermittelt zu sein und wird offenbar durch zwei verschiedene NES (nuclear export signal)-Sequenzen in mARVCF reguliert. Das in der p120(ctn) Subfamilie (zu der auch mARVCF gehört) konservierte NLS (nuclear localisation signal) konnte als für den Protein-Import unwirksam charakterisiert werden. Weiterhin wurde das LIM-only Protein FHL2 als neuer Interaktionspartner von mARVCF identifiziert. Dabei wirkt mARVCF als Mediator zwischen dem Cadherin- Catenin Komplex an der Plasmamembran und dem Interaktionspartner der Integrine FHL2. mARVCF ist in der Lage, FHL2 aus den Fokalkontakten zum Cadherin- Catenin Komplex an der Membran zu translozieren und in den Komplex einzubinden.
Das Thema der vorliegenden Promotion war die Aufklärung von Neutralisationsmechanismen auf Lymphozyten und Makrophagen unterschiedlicher primärer HIV-1-Subtypen im Verlauf der Krankheitsprogression. Ausgangspunkt für die Experimente war die Tatsache, dass humane Seren von HIV-1 infizierten Patienten bereits kurz nach der Serokonversion autologe Virusisolate auf Makrophagen, nicht aber auf Lymphozyten neutralisieren können (Ruppach et al., 2000). Bei Neutralisationsexperimenten mit einem dem V3-loop des gp120 komplementären P1 -Peptids (Subtyp B), sollte der Nachweis von neutralisierenden Antikörpern im Serum erbracht werden. Weiterhin sollte gezeigt werden, inwieweit die Neutralisation auf Makrophagen durch V3-Antikörper begründet ist. Nach erfolgter Neutralisation auf Makrophagen mit und ohne P1-Peptidvorinkubation konnte gezeigt werden, dass es zu keinen Veränderungen im Neutralisationsverhalten durch Vorinkubation mit einem V3-Peptid gekommen war. Daraus ließ sich folgern, dass es nicht die V3-Antikörper sind, die eine Neutralisation auf Makrophagen hervorrufen können. Als nächstes wurde das Neutralisationsverhalten eines frühen lsolates (8 Monate nach der Infektion) und einer späten Folgeprobe (27 Monate nach der Infektion) durch autologes Serum auf Lymphozyten und auf Makrophagen verglichen. Dabei konnte gezeigt werden, dass sowohl Ursprungs- wie auch Folgeisolat auf Makrophagen eine große Neutralisationsaktivität aufweisen, die auf Lymphozyten fehlt. Um besser eingrenzen zu können, welche Antikörper bei Neutralisationsreaktionen auf Makrophagen eine Rolle spielen, wurden Neutralisationsexperimente mit Serumimmunglobulinen eines frühen Isolates durchgeführt. Als Ergebnis konnte festgehalten werden, dass autologe IgG' s auf Makrophagen eine Neutralisationsreaktion herbeiführen können. Weiterhin stellte sich die Frage, ob autologe Immunglobuline in der Lage sind, heterologe Virusisolate zu neutralisieren. Dabei zeigte sich, dass im Test unterschiedlicher Subtypen, es zu einer hohen Kreuzneutralisationsaktivität gekommen war. Zusammenfassend konnte im Verlauf der Promotion erfolgreich dargestellt werden, dass die Serumimmunglobuline für die Neutralisation auf Makrophagen verantwortlich sind und, dass diese heterologe Eigenschaften besitzen.
Seit langem gibt es ein großes Interesse daran, den zeitlichen Ablauf von chemischen Reaktionen zu untersuchen. Ein wichtiges Instrument hierfür ist die Kurzzeitspektroskopie, die in jüngerer Vergangenheit parallel zum rasanten technischen Fortschritt mit immer kürzeren Laserpulsen bis hinein in den Femtosekunden-Bereich einen neuen Boom erlebt hat. Durch die extrem hohe Zeitauflösung ist es heutzutage möglich geworden, die Reaktionsdynamik eines Moleküls quasi in Echtzeit zu verfolgen, weil man durch die Femtosekunden-Pulse die Bewegung der Atomkerne wie mit einer schnellen Kamera beobachten kann. Mit wachsender Anzahl der Experimente gibt es gleichzeitig einen steigenden Bedarf, die Vielzahl der gemessenen und in vielen Aspekten noch unverstandenen Signale auf mikroskopischer Ebene theoretisch zu beschreiben und zu erklären. Besonders interessant dabei ist, dass dies u.a. für komplexe Systeme möglich wird, weil auf den extrem kurzen Zeitskalen auch in sehr großen Molekülen nur einige wenige Freiheitsgrade eine Rolle spielen. Thema dieser Arbeit war die überwiegend klassische Modellierung von nicht-adiabatischer Kurzzeitdynamik in molekularen Quantensystemen, deren Beschreibung über die Born-Oppenheimer-Näherung hinausgeht. Dabei wurden im Rahmen der vorliegenden Arbeit neue Methoden und Rechenverfahren entwickelt, die einerseits eine verbesserte. physikalisch intuitive Anschauung vermitteln und andererseits aufgrund geeigneter Näherungen deutlich Rechenzeit einsparen und dadurch den Zugang zu Modellen größerer Moleküle ermöglichen können. Zunächst wurde die Simulation von zeitaufgelösten Pump-Probe-Spektren mit Hilfe der Franck-Condon-Approximation durchgeführt, bei der die nukleare. Dynamik während des Laserpulses vernachlässigt wird. Diese bekannte Näherung konnte im Rahmen der Arbeit erstmals auf nichtadiabatisch gekoppelte Potentialflächen angewandt werden. Anschließend wurde für das interessierende Quantensystem mit Hilfe des Mapping-Formalismus ein klassisches Analogon eingeführt und dessen Dynamik eingehend studiert. Dies ist deshalb bemerkenswert, weil dadurch erstmals eine Anwendung von klassischen Methoden aus dem Bereich der nichtlinearen Dvnamik auf nichtadiabatische Quantensvsteme möglich wurde. Schließlich konnten klassische periodische Bahnen des Systems identifiziert werden. Dabei handelte es sich im hier betrachteten Fall nichtadiabatisch gekoppelter Potentiale um eine völlig neue Art von vibronischen periodischen Orbits, die sowohl aus einem nuklearen als auch einem elektronischen Freiheitsgrad bestehen. Dadurch konnte in einem nächsten Schritt mit Hilfe einiger weniger Orbits die Kurzzeitdynamik des Systems modelliert werden. Den Schlusspunkt dieser Untersuchungen bildete die klassische Simulation von zeitaufgelösten Pump-Probe-Spektren. Nachdem diese neue Methode mit periodischen Orbits an einem einfachen, stark idealisierten Modell erfolgreich getestet werden konnte, stellte sich jedoch schnell heraus, dass es in mehrdimensionalen Modellen mit einer Torsionsmode zur Beschreibung von Photoisomerisierungs-Prozessen nicht mehr so leicht möglich ist, solche einfachen periodischen Bahnen zu finden, weil die Zeitskalen von nuklearer und elektronischer Bewegung in diesen Systemen sehr unterschiedlich sind. Es ist deshalb in diesem Fall sinnvoll, das Konzept periodischer Orbits dahingehend zu erweitern, die klassische Dynamik in unterschiedliche allgemeine Bewegungstypen einzuteilen, die dann zur Interpretation von quantenmechanischen Ergebnissen herangezogen werden können. Dies stellt eine neue Möglichkeit dar, die komplizierte Wellenpaketdynamik auf physikalisch intuitive Weise zu veranschaulichen. Zusammenfassend kann man sagen, dass diese Arbeit Beiträge für das Verständnis nichtadiabatischer Quantendynamik liefert: Zum einen werden Fragestellungen von prinzipiellem Interesse diskutiert, wie z.B. der klassische Limes von Quantensystemen insbesondere bei chaotischem Verhalten, zum anderen werden durch die Anwendung von Analyseverfahren der klassischen nichtlinearen Dynamik auf vibronisch gekoppelte Molekülmodelle neue Gebiete erschlossen, die ein verbessertes theoretisches Verständnis experimenteller Ergebnisse im Bereich der Kurzzeitspektroskopie ermöglichen.
Methoden zur Präparation und Charakterisierung von time dependent haze auf Siliziumoberflächen
(2002)
Zwischen der Herstellung von Siliziumwafern und ihrer weiteren Verarbeitung zu Halbleiterbauelementen liegt eine Zeitspanne, in welcher die Scheiben in Kunststoffboxen aufbewahrt werden. Während dieser Lagerung kann es zu einem Ansteigen der Oberflächenrauhigkeit kommen. Dieses Phänomen wird als Time Dependent Haze (TDH) bezeichnet und durch chemische Prozesse von Verunreinigungen auf der Siliziumoberfläche verursacht. Diese Kontaminationen entstammen dem Kunststoff der Transportboxen, der Reinraumluft oder den Chemikalien der naßchemischen Waferreinigung. Time Dependent Haze wurde künstlich hergestellt und charakterisiert. Die Präparationen erfolgten in verschiedenen Versuchsreihen mit organischen und anorganischen Verbindungen. Diese gezielten Kontaminationen erlauben Rückschlüsse auf Substanzen und Einflußgrößen, welche TDH verursachen. Nach einer Lagerungsperiode wurden die Siliziumoberflächen mittels Streulichtmessungen untersucht. Das Auftreten von Licht-Punkt-Defekten diente als Maßstab für die TDH-Bildung. Mit verschiedenen analytischen Methoden, insbesondere dem Rasterkraftmikroskop, wurde TDH in einem frühen Entstehungszustand untersucht. Präparationen mit flüchtigen organischen Verbindungen zeigten, daß solche Substanzen TDH erzeugten, die sowohl einen hohen Dampfdruck als auch eine gute Wasserlöslichkeit besitzen. Beide Eigenschaften sind notwendig, um über die Gasphase auf die hydrophile Oberfläche eines Wafers zu gelangen. Die Morphologie dieses TDH fiel sehr unterschiedlich aus. Im Fall der Präparation mit Aceton enstanden Partikel von wenigen Nanometern Durchmesser. Die gezielte Verunreinigung mit Tetrahydrofuran führte zu einem Kontaminationsfilm mit einer sehr geringen Mikrorauhigkeit. Anorganische Verbindungen wie beispielsweise Schwefelsäure, die in der Waferreinigung Verwendung findet, können bei fehlerhaften Reinigungsschritten TDH bilden. Unter dem Einfluß einer solchen Lösung, bestehend aus H2SO4/H2O2, entstanden sulfathaltige Kristallite, welche im Verlauf der Waferlagerung agglomerierten. Das gleiche Resultat ergab eine Präparation, bei der Siliziumwafer einer Atmosphäre aus Schwefeldioxid ausgesetzt waren. Sehr wahrscheinlich existieren die Kristallisationskeime bereits unmittelbar nach der Präparation. Aufgrund ihrer geringen Größe können diese von der Streulichtmessung nicht als Partikel erfaßt werden. Erst nach mehr monatiger Waferlagerung ist das Kristallwachstum soweit fortgeschritten, daß das untere Detektionslimit der Streulichtmethode erreicht wird und die Partikel als solche registriert werden können. Auf Wafern mit organischem TDH konnte Kupfer nachgewiesen werden. Dieses Metall ist als Verunreinigung im Reinstsilizium enthalten. Es diffundiert innerhalb der Lagerungsperiode zur Oberfläche und scheidet sich ab. Dort fungiert Kupfer als Nukleationszentrum für Kontaminanten und fördert auf diese Weise die TDH-Entstehung. Experimente mit mehreren Einflußgrößen, bei welchen Siliziumwafer verschiedenen Parametern gleichzeitig ausgesetzt waren, zeigten synergetische Effekte in Bezug auf die Bildung von Time Dependent Haze. Im Vergleich zu Präparationen mit nur einem Kontaminanten lag die Zahl der neu entstandenen Licht-Punkt-Defekte unerwartet hoch. Innerhalb dieser Versuchsmatrix hatten die Anwesenheit von Ammoniumsulfat und eine hohe Luftfeuchtigkeit einen deutlichen Einfluß auf die TDH-Entstehung. Die Siliziumoberfläche wird durch einzelne Substanzen aktiviert und die Abscheidung weiterer Kontaminationen dadurch erhöht. Eine nähere Untersuchung von TDH bestehend aus verschiedenen Kontaminanten erfolgte mit Hilfe des Pulsed Force Mode/AFM. Diese Methode ermöglicht anhand der Bestimmung der Adhäsion zwischen einer AFM-Meßspitze und der Oberfläche die Unterscheidung verschiedener Materialien mit der hohen Auflösung eines Rasterkraftmikroskops. Zu Beginn der Untersuchungen erfolgte eine Evaluation der Methode. Dabei zeigte sich, daß die Adhäsion unbeeinflußt von der Partikelgröße ist. Das Adhäsionssignal ist abhängig vom Radius der AFM-Spitze und von der umgebenden Luftfeuchtigkeit. Dieses Signal setzt sich zusammen aus der Oberflächenenergie des Materials und aus dem Wasser- und Kontaminationsfilm, welcher die Oberfläche bedeckt. Adhäsionsmessungen an kontaminierten Wafern zeigten außer der rasterkraftmikroskopischen Abbildung der Oberfläche zusätzliche Strukturen. Diese deuten auf das gleichzeitige Auftreten von TDH-Partikeln mit unterschiedlicher Zusammensetzung hin. Die Ergebnisse dieser Arbeit bestätigten ein bereits existierendes Modell zur Entstehung von Time Dependent Haze. Unter Berücksichtigung der neuen Erkenntnisse konnte dieses Modell erweitert werden.
Mit Hilfe der direkten Nachweismethode von Singulettsauerstoff über die 1O2-Phosphoreszenzemission bei 1270 nm wurden zeitabhängige Messungen durchgeführt, mit denen größtenteils die jeweiligen Reaktionsmechanismen der Perhydrolyse von Nitrilen, Chlorameisensäureestern und Acetamid sowie von Natriumcyanat und teilweise von Benzoylsäurechloriden ermittelt werden konnten. Über den Mechanismus der erstmals von Radziszewski durchgeführten Reaktion von Wasserstoffperoxid mit Nitrilen (Radziszewski 1885) bestand bis heute noch keine endgültige Gewißheit. Es konnte nun gezeigt werden, daß im Gegensatz zu dem bisher allgemein akzeptierten Mechanismus von Wiberg (Wiberg 1953) der geschwindigkeitsbestimmende Schritt in wäßriger alkalischer Lösung der heterolytische Zerfall der intermediär gebildeten Peroxoiminosäure ist. Diese Zerfallsreaktion läuft nach einer Reaktion zweiter Ordnung ab und ist stark vorn pN-Wert abhängig. Durch die ph-Abhängigkeit konnten erstmals sowohl die pKs-Werte sowie auch die heterolytischen Zerfallskonstanten kZ, der untersuchten Peroxoiminosäuren abgeschätzt werden. In Gegenwart eines Ketons wird diese Reaktion bei Verwendung von Acetonitril stark beschleunigt. Verwendet man reaktivere Ketone wie zum Beispiel Fluoraceton wird das Zeitgesetz so komplex, daß eine quantitative Auswertung allein anhand der Singulettsauerstoffbildung nicht mehr möglich ist. Im Rahmen der Untersuchung der Nitrile wurde auch die Perhydrolyse des anorganischen Natriumcyanats in alkalischer Pufferlösung untersucht. Der hierbei gefundene Mechanismus unterscheidet sich allerdings von dem der Nitrile. In der ersten Reaktion pseudo-erster Ordnung wird die bisher unbekannte Peroxocarbaminsäure (H2N-C(O)OOH) gebildet, die dann unter Bildung von Ammoniak und dem instabilen Kohlenstoffperoxid (C03) zerfällt. Kohlenstoffperoxid (C03) wird als die Verbindung angesehen, deren Zerfall zur Bildung von Kohlenstoffdioxid und Singulettsauerstoff führt. Bei der Perhydrolyse des Acetamids im basischen Bereich konnten nur bei einem großen Überschuß an Wasserstoffperoxid auswertbare 1O2-Phosphoreszenz-Zeit-Kurven gefunden werden. Weiterhin wurde in THF die Perhydrolyse einiger Chlorameisensäureester in Abwesenheit und Gegenwart von Pyridin studiert. Die Perhydrolyse der Ester führte in Abwesenheit von Pyridin überwiegend zur Ausbildung eines konstanten 1O2-Phosphoreszenzsignal, dem Soge nannten "Chloridsignal", das eindeutig auf die in saurer Lösung durch Chloridionen katalysierte Zerfallsreaktion von Wasserstoffperoxid zurückzuführen ist. Die Induktionszeit, das heißt die Zeit nach der ein Singulettsauerstoffsignal beobachtet wird, korreliert mit der Stärke der elektronenziehenden Estergruppe. Wird die Perhydrolyse der genannten Ester in Gegenwart von Pyridin untersucht, wird die Reaktion bei dem Chlorameisensäuremethylester (CAME), dem Chlorameisensäureethylester (CAEE), dem Chlorameisensäurebenzylester (CABE) und dem Chlorameisensäure-4-nitrobenzylester (CANBE) durch Pyridin sehr stark beschleunigt. Nach Zugabe von Pyridin wird ohne lnduktionsperiode ein intensives 1O2-Phosphoreszenzsignal beobachtet, das nach einer Reaktion pseudo-erster Ordnung abklingt. Vermutlich wird bei den genannten Estern intermediär das N-Peroxocarboxylpvridiniumkation gebildet, welches auf Grund des in alpha-Stellung zur Peroxocarhoxylgruppe stehenden positiv geladenen Stickstoffatoms ein starkes Oxidationsmittel ist. Ferner wurde die Umsetzung von Säurechloriden mit Wasserstoffperoxid untersucht, bei der ebenfalls intermediär eine Peroxosäure gebildet wird, Jedoch war es nicht möglich, den Reaktionsmechanismus tatsächlich aufzuklären.
Mechanismus der funktionell relevanten Kopplung von Kontaktallergenen in dendritischen Zellen
(2002)
Über die Signaltransduktion in Langerhanszellen, den antigenpräsentierenden Zellen der Epidermis, ist bisher nur wenig bekannt. Mit ein Grund dafür ist die schlechte Verfügbarkeit reiner Langerhanszellen aufgrund ihrer geringen Zahl und der schwierigen Präparation, die häufig schon zur Voraktivierung dieser Zellen führt. Humane unreife und reife dendritische Zellen erwiesen sich als geeignete Modellzellpopulation für kutane antigenpräsentierende Zellen. Mit Hilfe dieser Modellzellen wurde die Beteiligung von zentralen Signaltransduktionswegen nach Interaktion mit dem Kontaktallergen TNCB untersucht. 1. Zum ersten Mal wird gezeigt, dass TNCB in den ersten 10 Minuten nach der Haptenisierung bei dendritischen Zellen intrazellulär lokalisiert ist. Die Stimulation von DC mit dem starken Kontaktallergen TNCB führte zu einer Aktivierung der ERK1/2 MAP Kinase. Dieses Ergebnis entspricht der Vorstellung, dass starke Kontaktallergene in subtoxischen Konzentrationen zellulären Streß bei MAP Kinasen auslösen und somit zu einer für die Kontaktallergie typischen Antigenpräsentation führen. 2. Die Tyrosinphosphorylierung wurde bereits in vorausgegangenen Arbeiten (Kuhn, 1998; Brand, 2002) als Charakteristikum für haptenbehandelte Monozyten und humane dendritische Zellen herausgestellt. Diese Ergebnisse konnten mit humanen unreifen und reifen DC weitergeführt werden. Proteinbiochemisch ergab das Kontaktallergen TNCB ein spezifisches und reproduzierbares Muster hyperphosphorylierter Proteinbanden. Der gemessene Anstieg an Phosphotyrosin beruhte auf der gesteigerten Aktivität von Protein Tyrosin-Kinasen. 3. In weiteren Untersuchungen wurden Proteine massenspektrometrisch analysiert, die tyrosinphosphoryliert waren und gleichzeitig TNCB gebunden hatten. Es wurden drei Proteine identifiziert: Gewebstransglutaminase bei 74-80kD, Thyroidhormon Bindeprotein bei 58kD und Aktin bei 38kD. Nach Literaturrecherchen war die Transglutaminase am vielversprechendsten und wurde auf ihre Aktivität innerhalb der Kontaktallergen-induzierten Signaltransduktionskaskade hin untersucht. Drei strukturell verschiedene Stoffe, das Kontaktallergen TNCB, die Retinsäure (RA) und ein Phorbolester (PMA) induzierten eine starke, proteinbiochemisch meßbare Tyrosinphosphorylierung der ERK1/2 MAP Kinase. Aus der Literatur war die RA für eine Aktivierung der tTG bekannt (Antonyak et al., 2002) und PMA als Stimulator der ERK1/2 MAP Kinase (Chen et al., 2002; Lee et al., 2002) - aus diesem Grund wurden sie als Positivkontrolle mitgeführt. 4. Mittels Immunpräzipitation wurde der Nachweis, dass TNCB an die tTG bindet, erbracht. Dies war der erste Indikator für eine Bedeutung der tTG als Zielstruktur für ein Kontaktallergen. 5. TNCB, RA und PMA lösen eine gesteigerte Transamidierungsaktivität der tTG aus, die essentiell zur Induktion der ERK-Phosphorylierung ist. Dies wurde durch einen Transamidierungs Aktivitäts Assay bestimmt (Zhang et al., 1998), einem Nachweis der tTG Aktivität mittels Inkorporation von biotinylierten Polyaminen in lokale Proteine. 6. Sowohl die tTG Aktivität als auch die ERK-Phosphorylierung nach TNCB Stimulation konnten durch den spezifischen Inhibitor der Transamidierungsaktivität der tTG MDC gehemmt werden. Dies war ein zweiter Hinweis, dass die enzymatische Aktivität der tTG eine große Rolle spielt. Das gleichzeitige Ausbleiben der Transamidierung und der ERK-Phosphorylierung deutet auf den deutlichen Einfluß der tTG auf den Signaltransduktionsweg der ERK1/2 MAP Kinase hin. Analysen mit anderen starken Kontaktallergenen, wie z.B. Thiomersal und Chlormethylisothiazolon/ Methylisothiazolon bieten zukünftige Forschungsansätze zur weiteren Charakterisierung der funktionellen Bedeutung der tTG und des ERKWeges. Interessant wären auch Untersuchungen zur Hochregulation der tTGExpression in DC von 24-72 Stunden nach einer Inkubation mit TNCB, RA und PMA. Auch sind weitere Untersuchungen zur Signaltransduktionskaskade im Hinblick auf die erforderlichen, nachgeschalteten Elemente interessant, wie z.B. der von der tTG aktivierten Protein B Kinase AKT (Antonyak et al., 2002) sowie beteiligter Kinasen des ERK-Weges.
Lipidartige Formulierungen zur Verbesserung der Bioverfügbarkeit schwer löslicher Arzneistoffe
(2002)
In dieser Arbeit wurde anhand der zwei schwerwasserlöslichen Modellsubstanzen EMD 57033 und Danazol untersucht, inwieweit sich (schwerpunktmäßig halbfeste) lipidartige Hilfsstoffe zur Verbesserung der Wirkstofffreigabe aus der Arzneiform eignen, um dadurch eine im Vergleich mit einer Standardrezeptur erhöhte Bioverfügbarkeit zu erhalten.
Fourier-Transform Infrarot Differenz Spektroskopie ist eine Methode. die es erlaubt, selbst kleinste konformelle Änderungen in der Umgebung der katalytischen Zentren in Enzymen selektiv und mit hoher Zeitauflösung zu messen. Diese Technik wurde an Oxidasen von Paracoccus denitrificans, Thermus thermophilus und Escherichia coli angewandt, um einen Einblick in strukturelle und molekulare Prozesse der Bindung und Dynamik von Liganden am binuklearen Zentrum zu erhalten. Die pH- und Temperatur-Abhängigkeit von CO Schwingungsmoden sowie deren Verhalten nach der Photolyse konnten zeitaufgelöst untersucht und miteinander verglichen werden. Bei Temperaturen >180K war die Bestimmung von thermodynamischen Parametern wie Enthalpie-Barrieren und Arrhenius-Vorfaktoren möglich. Aus dem Verlauf der Rückbindungskinetiken ließen sich ferner Rückschlüsse über die konformelle Heterogenität der Bindung ziehen. Für Temperaturen um 140K konnte das Protein im "quasistationären" Zustand vermessen werden, da Rückreaktionen des Liganden an die Bindungsstelle des Häm a3 unterbunden waren. Trotz der strukturellen Ähnlichkeit und analoger Funktion zeigten diese typischen Oxidasen große Unterschiede sowohl im Reaktionszentrum als auch im kinetischen Verhalten des Liganden. Die kinetischen Parameter für alle untersuchten Oxidasen weichen deutlich voneinander ab und spiegeln unter anderem die Stärke der Bindung am CUB wider. Die Temperaturabhängigkeit der Populationen der CO-Konformere und die äquivalente Rückbindungs-Kinetik der unterschiedlichen Konformere in den Oxidasen aus dem thermophilen System weisen auf ein strukturelles Merkmal in der Nähe des binuklearen Zentrums hin, das den Populations-Austausch in anderen Oxidasen unterbindet. Aufgrund der pH-Abhängigkeit der entsprechenden Oxidasen kann man schließen, daß diese Eigenschaft durch eine oder mehrere protonierbare Gruppen bewirkt wird, die die unterschiedlichen Konformere in bestimmten Positionen fixiert hält. Die Rückbindungsraten des Liganden zeigen für die T. thermophilus Oxidasen eine Rückbindung erster Ordnung. was auf eine homogene Verteilung der zwei Konformer-Populationen im Enzym deutet. Hingegen zeigte die Oxidase aus P. denitrificans für die Rückbindung eine Verteilung der Reaktionsraten. Ursache dafür ist ein sehr heterogenes Ensemble an Proteinen, das minimale strukturelle Unterschiede im Konformationsraum des Reaktionszentrums aufweist. Ein weiterer Aspekt der Arbeit war die Beobachtung von Absorptionsbanden der Hämpropionate an Cytochrome c Oxidase von Paracoccus denitrificans nach CO Rückbindung. Sowohl über 13C-isotopenmarkierte Hämpropionate als auch über ortsgerichtete Mutagenese in deren unmittelbarer Umgebung konnten definierte Banden-Zuordnungen im IR-Differenzspektrum erhalten werden. Experimente am Enzym mit Mutationen an der Stelle Asp 399 zeigten, daß die strukturellen Eigenschaften des Häm a3-CuB Zentrums im wesentlichen von dieser Veränderung nicht beeinflußt werden. Jedoch war die pH-Abhängigkeit der CO Konformere hier unterbunden, was auf deren Einfluß auf eine Protonierbarkeit im Wildtyp-Enzym hinweist. Rückschlüsse anhand der Mutante Asp399Asn zeigten (über den Verlust der pH-Abhängigkeit) ganz klar, daß alle unterschiedlichen CO-Konformere funktionell intakt sind. FT-IR Messungen an einem weiteren Enzym, der isolierten Cytochrom bd Oxidase aus E. coli, zeigten bei einer Untersuchung der CO Rückbindungs-Eigenschaften bei 84K die ausschließliche Rückbindung an das Häm d. der möglichen Sauerstoff-Bindungsstelle. Die Bindungsstelle an Häm b, die zu ca. 5% ebenfalls CO bindet, kann bei diesen Temperaturen nicht wiederbesetzt werden. Im typischen Spektralbereich von 1680 bis 1760 cm hoch minus 1 konnten eindeutig die Absorptionsbanden von Asparagin- oder Glutaminsäure-Seitenketten identifiziert werden. Über einen direkten Vergleich der Spektren, die über Redox-Reaktion und CO Rückbindung erhalten wurden, konnten diese Signale als klar in der direkten Umgebung des binuklearen Zentrums lokalisiert zugeordnet werden. Eine Rolle als vorübergehender Protonen-Akzeptor/Donor auf dem Weg zur Sauerstoff-Bindungsstelle ist naheliegend.
Unsere Kultur beinhaltet zahlreiche Vorstellungen darüber, welche Probleme in Liebesbeziehungen auftreten können, welche Ursachen diese Probleme haben und wie mit ihnen umzugehen sei. Dominiert wurden diese Vorstellungen in der Literatur zwischen Empfindsamkeit und Romantik bekanntermaßen durch einige wenige epochenübergreifende Motive: Untreue, der Gegensatz von gesellschaftlicher oder moralischer Pflicht und Neigung, der Tod des anderen, einseitige und verhinderte Liebe bildeten die immer wiederkehrenden Konfliktursachen der meisten Liebesgeschichten. Dabei floss die Geschlechterdifferenz in die Darstellungen zwar stets mit ein, wurde aber in der Regel als solche nicht reflektiert. Die in der Arbeit untersuchten Texte zeigen nun, dass neben diesen typischen Liebesgeschichten auch eine bisher kaum beachtete Ideentradition besteht, die Liebeskonflikte explizit unter dem Aspekt der Geschlechterdifferenz beschreibt und dieser Differenz eine grundlegende Bedeutung beimisst. Dabei konnte für die fünf in dieser Arbeit ausgewählten Konfliktfelder Folgendes festgestellt werden: Egalitäre Liebe versus männliche Eheherrschaft Ein breit diskutiertes Konfliktfeld betrifft das Verhältnis von egalitärer Liebe und männlicher Eheherrschaft. Seit der Mitte des 18. Jahrhunderts setzt sich in Deutschland die Idee der Liebesehe durch, wobei Liebe oftmals ausdrücklich im Gegensatz zu jeglicher Form von traditioneller Herrschaft zwischen den Geschlechtern begriffen wird. Sozial gedeckt muss sie in die Ehe führen. Dort wird aber nicht nur praktisch, sondern auch theoretisch bis ins 20. Jahrhundert hinein an der Herrschaft des Mannes über die Frau festgehalten. Wie reflektiert sich dieser Gegensatz um 1800? Ich habe in meiner Arbeit unter dieser Perspektive eine Reihe von literarischen, philosophischen und populärpädagogischen Texten untersucht, die einen ersten Eindruck der eher theoretisch-normativen Diskurse dieser Zeit geben. Die Autoren sind Gellert, Kant, Fichte, Hegel und Campe. Dem stelle ich ein populäres Lustspiel von August von Kotzebue und einen autobiographischen Text die Jugenderinnerungen von Elisa von der Recke gegenüber. Diese Texte ermöglichen es, der theoretischen eine eher alltagsorientierte Sichtweise des Problems zur Seite zu stellen. Für die philosophisch-pädagogischen Schriften lässt sich Folgendes erkennen: Erstens wird der Widerspruch zwischen egalitärer Liebe und männlicher Eheherrschaft, entsprechend einer Grundkategorie der Zeit, vorwiegend entlang der Differenz Vernunft Natur bearbeitet. Aufgeboten werden unterschiedliche Varianten einer geschlechterdifferenzierten Anthropologie, die sich teilweise direkt widersprechen (zum Beispiel bei Kant und Fichte). Zweitens wird an die Vernunft und Klugheit appelliert. Dies geschieht ebenfalls widersprüchlich, nämlich entweder in konsensorientierter (Gellert) oder aber manipulativer Ausrichtung (Kant und Campe). Eine allgemein getragene argumentative Problemlösung ist nicht zu erkennen, verbindendes Element ist jedoch die vermittelnde Funktion: Liebe und Herrschaft werden für kompatibel erklärt. Demgegenüber beinhalten die Texte von Kotzebue und Elisa von der Recke auch eine andere Diskursform. Bei Kotzebue zeichnet sich momenthaft das Bild einer durchaus emanzipierten Frau ab, deren Verhalten zu den vorherrschenden weiblichen Normen des literaturwissenschaftlichen Kanons nicht recht passen will. Hier könnten sich - dem wäre aber erst genauer nachzugehen - Tendenzunterschiede zwischen der sogenannten hohen und der Unterhaltungsliteratur der Zeit abzeichnen. Während bei Kotzebue die Eheherrschaft aber letztlich affirmiert wird, zeichnet Elisa von der Recke in ihren Jugenderinnerungen anhand dreier Frauengenerationen das Bild einer Lebenswelt, für die das Spannungsverhältnis von Liebe und Patriarchat sowohl identitätsstiftend als auch kaum überbrückbar erscheint. Die zahlreichen Klugheitsratschläge der Zeit bedeuten letztendlich für die Frau, nicht aber für den Mann, einen Verzicht auf die "wahre" gegenseitige Liebe. Gemeinsame Weltsicht versus Zunahme der Individualität Zu diesem Konfliktfeld untersuchte ich exemplarisch die Erzählung Der Sandmann von E.T.A. Hoffmann. Hoffmanns Text erweist sich in dieser Perspektive als eine differenzierte Satire genau dieser Problematik und verschiedener Strategien, unter patriarchalen Bedingungen mit ihr umzugehen. Der Autor illustriert an der Figur Nathanaels ein Extrem an mangelnder Anpassungsleistung und der Neigung zur Projektion gewünschter Eigenschaften auf die Geliebte zur Vermeidung eigener Veränderung. Er weist dies deutlich als ein geschlechtsspezifisches Verhaltensschema aus. Dem korrespondieren auf je unterschiedliche Weise die weiblichen Figuren der Erzählung. Dabei wird an der Figur Olimpias vorgeführt, wie absurd sich eine patriarchal verordnete Bestätigung darstellt. Hoffmann erkennt damit das soziale Bestätigungsproblem gesteigerter Individualität als ein allgemein bürgerliches, führt das Scheitern der Lösung dieses Problems in der patriarchalen Liebesbeziehung vor und verweist so bereits auf eine wesentliche Ursache der heutigen Krise traditioneller Beziehungsmuster. Geschlechterstereotypen versus Wahrnehmung von Individualität Der Liebesdiskurs des 18. Jahrhunderts fordert seit der Empfindsamkeit die genaue Kenntnis der Individualität des Geliebten als Voraussetzung wahrer Liebe. Zugleich jedoch bewegen sich Liebende in einem Umfeld, das den sozialen Umgang über stereotype Geschlechterbilder strukturiert, die eine Wahrnehmung des anderen als Individuum gerade verstellen können. Inwieweit wird dies im 18. Jahrundert als Problem wahrgenommen und verarbeitet? Hier zeigt meine Arbeit, unter anderem anhand des frühempfindsamen Briefwechsels zwischen Meta Moller und Friedrich Gottlieb Klopstock, exemplarisch Folgendes: Klopstock, der als Inbegriff des empfindsamen Dichters gilt, zeigt zumindest in den Briefen an seine spätere Frau kein Bewusstsein dieser Problematik. Er bleibt in seiner Kommunikation bei einer vorempfindsamen Konfliktwahrnehmung stehen. Moller hingegen bringt die Bilderproduktion der Geschlechterdifferenz als störenden Faktor der Annäherung deutlich zur Sprache. Sie befürchtet, Klopstock könne sich ein durch Weiblichkeitsentwürfe entstelltes Bild von ihr machen, er könne sie als Muse funktionalisieren und/oder sei an ihren ernsthaften Seiten "sie ist ja nur eine Frau" nicht interessiert. Darüber hinaus konfrontiert sie Klopstock in sarkastisch-ironischem Ton mit seinem Fehlverhalten. Insofern ist die These Ulrike Prokops, Meta Moller setze typisch für Frauen ihrer Generation Selbstverleugnung und narzisstische Identifikation an die Stelle aktiver Auseinandersetzung, kritisch zu ergänzen. "Schale Alltäglichkeit" versus "Die große Liebe" Ehen werden, um es mit Luhmann zu pointieren, im Himmel geschlossen und im Auto geschieden. Das Ideal der Liebesehe stellt an die Gatten Anforderungen an Aufmerksamkeit und Zuwendung, die in einem durch Geschlechterrollen differenzierten gemeinsamen Alltag schwer zu erfüllen sind. Viele der untersuchten Texte dieser Arbeit verweisen auf dieses Problem. Eine der dichtesten Auseinandersetzungen damit findet sich jedoch in der Erzählung Das mißlungene Opfer von Therese Huber: Huber legt hier eine vielschichtige Reflexion über Liebes- und Eheprobleme vor, die durch Bezüge zu Goethes Werther stereotype Leseerwartungen des Publikums (Pflicht versus Neigung) herausfordert. Diese Leseerwartungen konfrontiert sie dann mit der Darstellung der geschlechterdifferenzierten Arbeitsteilung in der bürgerlichen Ehe. Zugleich dokumentiert sie verschiedene weibliche Attributionsmuster, die den Alltag männlicher Lieblosigkeit entschuldigen. Der Text changiert dabei zwischen Alltagsdarstellung und bis ins surreal-komische getriebenen Situationen kommunikativer Entfremdung, überlässt es aber der Leserin, eigene Erfahrungen und Sehnsüchte im Text bestätigt oder hinterfragt zu finden. Weibliche Pflichterfüllung versus Bedürfnis nach individuellem Glück Die Idee der Liebesehe ist an die Freiwilligkeit der Partnerwahl und eines glücklichen Zusammenlebens gebunden. Sozialgeschichtlich betrachtet wurden Ehen aber um 1800 bekanntermaßen häufig gegen den Willen der Frau geschlossen; und sie verliefen für diese häufig nicht glücklich. Eine bislang kaum zur Kenntnis genommene umfangreiche Darstellung der Lage und Emanzipation einer Frau in einer solchen unglücklichen Zwangsehe sind die Eheerinnerungen Elisa von der Reckes. Der Text ist, wie sich zeigen lässt, entgegen der Überzeugung seines Herausgebers, keine Sammlung von Briefen, sondern eine literarische Bearbeitung und Ergänzung der Tagebücher der Autorin. Die Autorin legt hier eine ungewöhnlich realitätsnahe und die Grenzen des intimschicklichen überschreitende Milieustudie vor, in deren Zentrum der bedrückende Ehealltag einer jungen Frau steht. Sozialisiert ist sie in einer Umwelt, in der ländlich- patriarchale, galante und empfindsame Ehe- und Liebesdiskurse aufeinander prallen. Ihre Ehegeschichte erweist sich so als eine psychologische Dokumentation kognitiver Dissonanzen, verdrängter Bedürfnisse, psychosomatischer Symptome, Rationalisierungen und der Instrumentalisierungen von Sexualität im Ehealltag. Interessant ist dieser Text auch hinsichtlich der Frage nach der Freiheit von Subjekten gegenüber den sie formenden Diskursen. Er zeigt beispielhaft, wie eine Frau mit Bruchstücken des empfindsamen Liebesdiskurses und des autoritären Ehe- und Pflichtdiskurses für sich selbst eine individuelle Ehe- und Liebeskonzeption entwickelt und auf dieser Grundlage ihre Vorstellung eines richtigen Lebens gegen die Überzeugungen ihres gesamten sozialen Umfeldes durchsetzt. Weiterführende Fragestellungen Ich möchte nun abschließend einige weiterführende Fragestellungen andeuten, die durch die Ergebnisse meiner Arbeit nahegelegt werden. Erstens: Die Interpretation von Hoffmanns Sandmann zeigt, dass auch klassische Texte unter der hier dargestellten Perspektive neue Facetten erkennen lassen. An dieser Stelle bietet sich etwa eine Betrachtung der Frühromantik an, zum Beispiel unter der Perspektive, ob die Unterscheidung männlich/weiblich in Bezug auf Liebeskonflikte dort eine wesentlich andere ist, als in der Zeit ansonsten üblich. Zudem legen die Werke von Therese Huber und Elisa von der Recke nahe, weitere bisher weitgehend unbekannte Texte zur Analyse historischer Liebeskonfliktdiskurse heranzuziehen. Ähnliches ergibt sich aus Kotzebues Lustspiel für den Bereich der sogenannten populären Literatur. Zweitens: Die Texte von Huber und Elisa von der Recke werfen die Frage auf, wie Liebeskonflikte aus der Perspektive von Müttern und Vätern wahrgenommen werden. Die Untersuchung beider Texte legt hier erste Spuren, deren Weiterverfolgung fruchtbar sein könnte. Drittens: Es ist auffällig, dass keiner der untersuchten Texte eine wirkliche Alternative zum modernen Liebesdiskurs andeutet, außer in Form eines Rückzugs auf vorempfindsame Liebesideen oder Freundschaften. Hier schließt sich die auf die Zukunft gerichtete Frage an: Wo im modernen Liebesdiskurs ist um es mit Foucault zu formulieren die Gegenmacht zu finden? Oder verschwindet dieser Diskurs allmählich und einer liebenden Annäherung wird in einigen Generationen so begegnet, wie dies die emanzipierte Elisa von der Recke gegenüber den linkischen Annäherungen ihres Gatten getan hat: mit kaltem Ernste, aber ohne Zeichen des Unwillens: "Unter uns, mein Theurer, sind solche Tändeleien überflüssig."
Zielsetzung der ultrarelativistischen Schwerionenphysik ist es, hoch verdichtete und stark erhitzte Kernmaterie (gemeint ist hierbei nicht nur die Materie der Atomkerne, sondern allgemein stark wechselwirkende Materie) im Labor zu erzeugen und deren Eigenschaften zu untersuchen. Gitter-QCD Rechnungen sagen bei einer kritischen Energiedichte von 1-2 GeV/fm3 einen Übergang der hadronischen Materie in eine partonische Phase, dem Quark-Gluon-Plasma, voraus. Neben anderen Observablen wurde die Seltsamkeitsproduktion als mögliche Signatur für den Materiezustand quasifreier Quarks und Gluonen vorgeschlagen. Im Vergleich zu elementaren Nukleon-Nukleon-Reaktionen beobachtet man in Schwerionenkollisionen generell eine Überhöhung der Seltsamkeitsproduktion. Inwieweit dieser Unterschied bei allen Schwerpunktenergie auf rein hadronische Phänomene zurückgeführt werden kann, oder ob partonische Gleichgewichtseffekte eine wesentliche Rolle spielen, ist derzeit eines der wichtigen Themen der Schwerionenphysik. Antworten auf diese Fragen erhofft man sich aus der Untersuchung der Energieabhängigkeit der Erzeugung seltsamer Hadronen. Die NA49 Kollaboration hat deshalb am CERN-SPS ein Energie-Scan Programm aufgelegt, in dem zentrale Blei-Blei-Kollisionen bei 40, 80 und 158 A·GeV untersucht wurden. In dieser Arbeit wird die Produktion von Lambda und Antilambda Hyperonen bei den drei verschiedenen Strahlenergien untersucht. Lambda Hyperonen, die 30-60% der produzierten s-Quarks enthalten, erlauben neben der Seltsamkeitsproduktion gleichzeitig auch den durch die kollidierenden Kerne erzeugten Effekt der Baryonendichte zu studieren. Das NA49 Experiment führt präzise Messungen des hadronischen Endzustands über einen weiten Akzeptanzbereich durch. Die geladenen Sekundärteilchen werden in vier hochauflösenden Spurdriftkammern gemessen. Neutrale seltsame Teilchen (Lambda, Antilambda und K0s) werden anhand ihrer Zerfallstopologie identifiziert. Die untersuchten Lambda Hyperonen werden über drei Rapiditätseinheiten um den Bereich zentraler Rapidität und mit Transversalimpulsen von 0,4 und 2,5 GeV/c gemessen. Die Temperaturparameter der Lambda und Antilambda Transversalimpulsverteilungen bei zentraler Rapidität sind für die drei Energien im Rahmen der Fehler gleich. Als Funktion der Schwerpunktenergie beobachtet man einen Anstieg des Lambda-Temperaturparameters, was durch eine Erhöhung des kollektiven transversalen Flusses erklärt werden kann. Erste Ergebnisse zur Proton-Produktion zeigen einen ähnlichen Trend. Die Rapiditätsverteilungen der Lambda sind breiter als die der Antilambda-Hyperonen. Die Lambda Rapiditätsverteilung verbreitert sich mit ansteigender Schwerpunktenergie von einer bei zentraler Rapidität konzentrierten Verteilung bei 40 A·GeV zu einem flachen Verlauf bei 158 A·GeV. Die Lambdas enthalten Beiträge der extrem kurzlebigen Sigma 0, die elektromagnetisch in ein Lambda und ein Photon zerfallen. Die in der Analyse selektierten Lambda und Antilambda sind aufgrund der gewählten Qualitätskriterien nahezu frei von Beiträgen mehrfachseltsamer Baryonen. Der systematische Fehler der Spektren konnte zu 9% abgeschätzt werden. Die Korrekturen und die Analyseprozedur wurden durch die Extraktion des K0s Mesons bei 158 A·GeV und den Vergleich dieser Ergebnisse mit denen der geladenen Kaonen überprüft. Man stellt eine gute Übereinstimmung fest. Zusammen mit Ergebnissen bei niedrigeren Energien läßt sich die Anregungsfunktion der Lambda und AntiLambda Hyperonen studieren. Während die Lambda Multiplizität bei mittlerer Rapidität nach dem Anstieg bei niedrigen Energien im SPS-Energiebereich leicht abfällt bzw. die totale Multiplizität saturiert, beobachtet man für die AntiLambda einen stetigen Anstieg als Funktion der Schwerpunktenergie. Das <Lambda>/<Pi>-Verhältnis in Kern-Kern-Kollisionen zeigt einen steilen Anstieg im AGS-Energiebereich mit anschließendem Maximum und einem Abfall bei SPS-Energien. Dagegen beobachtet man in Nukleon-Nukleon-Reaktionen eine Saturation dieses Verhältnisses bei etwa der höchsten AGS-Energie. Die Normierung auf die Pionen dient dem Vergleich der Produktionsraten in Kern-Kern-Stößen mit denen der elementaren Systeme und ist unabhängig von der Anzahl der beteiligten Nukleonen. Das Maximum des Lambda/Pi Verhältnisses liegt zwischen 10 und 40 A·GeV, wie es von statistischen Modellen vorhergesagt wird. Die Energieabhängigkeit des Lambda/Pi-Verhältnisses läßt sich dementsprechend gut mit dem Statistischen Modell von Cleymans, Redlich et al. beschreiben. Der generelle Trend des Lambda/Pi Verhältnisses wird von den mikroskopischen Modellen (UrQMD, HSD, RQMD) richtig wiedergegeben, wobei jedoch die Datenpunkte (besonders für 40 A·GeV) unterschätzt werden. Die Vorhersagen des UrQMD- und HSD-Modells für die Lambda Rapiditätsverteilung zeigen sehr gute Übereinstimmung mit den Daten. Die Diskrepanz im Lambda/Pi Verhältnis ist somit auf die überschätzte Pion-Produktion zurückzuführen. Die AntiLambda Produktion wird von dem UrQMD- und RQMD-Modell um mehr als einen Faktor zwei unterschätzt. Die Lambda und Antilambda Produktionsraten für alle drei Energien und die totale K0s Multiplizität bei 158 A·GeV fügen sich in einer statistischen Modellanalyse von Becattini in die Systematik der anderen Teilchen ein. Der Seltsamkeits-Saturationsfaktor gamma s zeigt keine große Änderung als Funktion der Energie. Das AntiLambda/Lambda Verhältnis bei mittlerer Rapidität, das den Paarproduktionsprozess widerspiegelt, steigt rapide von AGS- bis RHIC-Energien an. Der gleiche Trend ist für das ¯p/p Verhältnis beobachtbar. Das AntiLambda/¯p Verhältnis erlaubt das Zusammenspiel der Produktions und Annihilationsprozesse zu studieren. Im SPS-Energiebereich steigt dieses Verhältnis mit abnehmender Schwerpunktenergie leicht an. Die Ergebnisse der vorliegenden Arbeit wurden auf der Strange-Quark-Matter Konferenz 2001 [1] und der Quark-Matter Konferenz 2002 [2] vorgestellt und diskutiert.