Refine
Year of publication
- 2002 (190) (remove)
Document Type
- Doctoral Thesis (190) (remove)
Has Fulltext
- yes (190)
Is part of the Bibliography
- no (190)
Keywords
- Gaschromatographie (3)
- Genexpression (3)
- Authentizität (2)
- Gephyrin (2)
- Halbleiteroberfläche (2)
- Ionenkanal (2)
- Kontamination (2)
- Abmahnung (1)
- Abweichendes Verhalten (1)
- Allosterischer Effektor (1)
Institute
- Medizin (43)
- Biochemie und Chemie (41)
- Biowissenschaften (30)
- Pharmazie (23)
- Physik (17)
- Geowissenschaften (9)
- Informatik (4)
- Geschichtswissenschaften (3)
- Gesellschaftswissenschaften (3)
- Psychologie (3)
Das Ziel dieser Arbeit wurde eingangs über den Begriff der erweiterten Schließung der optischen und mikrophysikalischen Eigenschaften der Partikel definiert. Hierunter versteht man das Zusammenfügen von verschiedenen Messungen zu einem konsistenten Bild der betrachteten Partikeleigenschaften. Darüber hinaus sollen die Messungen auch in anderen Teilgebieten der Aerosolphysik verwendbar sein, um so das konsistente Bild zu erweitern. Dieses so umschriebene Ziel konnte für die mikrophysikalischen und optischen Messergebnisse, die während des LACE 98 Experimentes, einem vom Bundesministerium für Forschung und Bildung (Bmb f) geförderten Schließungsexperiment, in Lindenberg (Brandenburg) rund 50 km südöstlich von Berlin im Juli und August 1998 erfasst wurden, erreicht werden. Die Messungen wurden erfolgreich zu einem konsistenten Datensatz und einem "Bild" der Partikeleigenschaften zusammengefügt. Unter dem Begriff "Bild" subsummiert sich hierbei nicht nur eine Charakterisierung der Variabilität und Abhängigkeit der Partikeleigenschaften, z.B. von der rel. Luftfeuchte, sondern darüber hinaus auch eine Charakterisierung der Beeinflussung verschiedener von den Eigenschaften der Partikel abhängiger Größen. Hierzu zählen Strahlungshaushaltsgrößen (Erwärmungsrate der Luft durch Absorption solarer Strahlung und die Volumenabsorption solarer Strahlung durch Partikel), wolkenphysikalische Größen (maximale Übersättigung der Wolkenluft während der Wolkenentstehung und Anzahlkonzentration der wachsenden Wolkentropfen), die massengewichtete mittlere Sedimentationsgeschwindigkeit von Partikeln und nicht zuletzt gesundheitsrelevante Größen, wie z.B. die vom Menschen beim Atmen aufgenommene und eingelagerte Partikelmasse. Nachfolgende Zusammenstellung soll nochmals die erzielten Ergebnisse zusammenfassen. Für eine detaillierte Darstellung der in den einzelnen Kapiteln erzielten Ergebnisse soll hier nur auf die jeweiligen Zusammenfassungen der einzelnen Kapitel verwiesen werden. . Im Rahmen der direkten Schließung, wurden unterschiedliche Verfahren zur Bestimmung der optischen Eigenschaften der Partikel erfolgreich miteinander verglichen. Beteiligt waren bei diesem Vergleich folgende Methoden: Partikel im trockenen Zustand: -- Aerosolphotometer (alle optischen Eigenschaften, ) -- Nephelometer (Streukoeffizient) -- PSAP (Absorptionskoeffizient) -- IPMethode (Absorptionskoeffizient) -- Telephotometer (Extinktionskoeffizient) Partikel bei Umgebungsfeuchte: -- Telephotometer (Extinktionskoeffizient) -- horizontales Lidar (Extinktionskoeffizient) Es zeigte sich, dass sich das Aerosolphotometer mit seinem schon aus der Theorie des Messverfahrens her begründeten konsistenten Satz aller optischen Eigenschaften als Referenzmethode während LACE 98 bewährte. Mit seiner Hilfe konnte nun auch die Gültigkeit einer empirischen Korrektur des PSAP nach Bond et al. [1999] für natürliche Aerosolpartikel bestätigt werden. Dem Anwender dieses Gerätes, das mit einer hervorragenden zeitlichen Auflösung von wenigen Minuten den Absorptionskoeffizienten bestimmt, stehen somit zwei unabhängig voneinander gewonnene Kalibrierungsfunktionen zur Verfügung, die innerhalb der Fehlergrenzen auch mit einander im Einklang stehen. . Im Rahmen der indirekten Schließung wurde ein Modell entwickelt, mit dem auf Basis eines Kugelschalenmodells der Partikel aus Messungen der mikrophysikalischen Eigenschaften der Partikel den Extinktions, den Streu- und den Absorptionskoeffizienten sowie die Single Scattering Albedo berechnet wurden. Mit Hilfe dieses Modells wurde der Feuchteeffekt der oben genannten optischen Eigenschaften berechnet. Mit diesen Ergebnissen konnten dann die Messwerte des Telephotometers feuchtekorrigiert, und mit den Messungen des Aerosolphotometers verglichen werden, wo bei eine gute Übereinstimmung der Messreihen festgestellt werden konnte. Die beobachteten Unterschiede konnten auf Ernteaktivitäten, die nur die Messungen des Telephotometers beeinflussten, zurückgeführt werden. Ein Vergleich der mit Hilfe des Modells auch direkt berechenbaren optischen Eigenschaften mit den direkten Messwerten der beteiligten Verfahren fiel ebenfalls positiv aus. Anhand aller Modellrechnungen wurde eine physikalisch motivierte Näherungsfunktion für den Feuchteeffekt des Extinktions- und des Streukoeffizienten als Funktion des Aktivierungsparameters bereit gestellt. In Klimamodellen kann mit Hilfe der vorgestellten Näherungsfunktionen der Feuchteeffekt auf einfache Weise parametrisiert werden. Wenn man allerdings konkrete Messergebnisse miteinander vergleichen möchte, ist man auf eine vollständige Erfassung der mikrophysikalischen Eigenschaften der Partikel angewiesen. . Im Teil IV der Arbeit wurden auf der Basis des zuvor vorgestellten Datensatzes und der hierfür entwickelten Verfahren (Algorithmen) weitere Auswertungen zu unterschiedlichen, für die Meteorologie interessanten Themengebieten, vorgestellt und ihre Ergebnisse charakterisiert. . In Kapitel 6.1 wurde mit Hilfe von Auswertegleichungen aus den in dieser Arbeit erstellten Messungen des Sieben-Sensor-Bilanzphotometers und den Messungen des Aerosolphotometers die Volumenabsorptionsrate solarer Strahlung der bodennahen Partikel und die daraus resultierende Erwärmungsrate der Luft berechnet. Die Ergebnisse wurden mit Literaturwerten anderer Messkampagnen verglichen. Insbesondere konnte ein interessantes Ergebnis von Hänel
Ziel dieser Arbeit ist es, Wege darzustellen, wie die Thematik Ökobilanzen im Chemieunterricht allgemeinbildender Schulen behandelt werden kann. Ökobilanzen sind definiert als ein Verfahren zur Ermittlung der potentiellen Umweltbelastungen eines Produktes über dessen gesamten Lebensweg. Ein solcher Lebensweg besteht aus mehreren Abschnitten. Am Anfang steht die Rohstoffgewinnung, dann folgt die Herstellung des Produktes, darauf der Gebrauch/Verbrauch und schließlich die Entsorgung oder das Recycling. Die grundlegende Vorgehensweise, wie eine (klassische) Ökobilanz aufzustellen ist, ist ausführlich in den DIN EN ISO-Normen 14040 bis 14043 beschrieben. Für den Chemieunterricht ist aber ein solche, den gesamten Lebensweg umfassende und DIN-gerechte Betrachtung zu zeitaufwendig und schwierig. Daher wurde nach Lösungsmöglichkeiten gesucht, dieses aufgrund seines Umweltbezuges interessante Thema dennoch für den Unterricht erschließen zu können. Es wurde ein kombinierter experimenteller und computerunterstützter Zugang entwickelt. Schwerpunkt ist der Chemieunterricht der Sekundarstufe II, jedoch kann die Thematik Ökobilanzen aufgrund umfassender didaktischer Reduktion bereits in der Sekundarstufe I oder ganz vereinfacht sogar im Sachunterricht der Grundschule behandelt werden. Methodische Möglichkeiten werden auch für diese Schulstufen vorgestellt. Für die Sekundarstufe II wurden Experimente erarbeitet, deren Daten zu den Stoff- und Energieströmen dazu dienen, eine vereinfachte Ökobilanz im Unterricht aufstellen zu können. Gegenstand der Experimente ist zum einen die Herstellung von entionisiertem Wasser über Destillation und Ionenaustausch, zum anderen die Herstellung und das Recycling von Kunststoffen. Die Experimente sind so konzipiert, daß sie von Schülern selbst durchgeführt werden können. Um die Auswertung und die Aufstellung der Ökobilanz zu vereinfachen und somit zu beschleunigen, wurde das Programm ÖKO-BILLY unter Microsoft Excel 97 entwickelt, welches hier ebenfalls vorgestellt werden soll. Es dient nicht nur Datenerfassung, sondern ist darüber hinaus auch ein Lernprogramm, welches den Aufbau und die Durchführung einer Ökobilanz demonstriert. Durch die Kombination von Experiment und Computerprogramm kann die Thematik Ökobilanzen erfolgreich im Chemieunterricht der gymnasialen Oberstufe vermittelt werden.
Das Photosystem II (PSII) und die F1Fo-ATP-Synthase, zwei Membranproteinkomplexen der Energieumwandlung, wurden im Rahmen dieser Dissertation bearbeitet. Mittels zweidimensionaler (2D) Kristallisation und elektronenkristallographischen Methoden sollte die dreidimensionale (3D) Struktur aufgeklärt werden. PSII katalysiert den ersten Schritt der Lichtreaktion der Photosynthese. Es ist für das Einfangen von Lichtquanten, die Anregung von Elektronen, die Freisetzung von Sauerstoff aus Wasser verantwortlich. Über 25 Untereinheiten sind an diesem Prozess in den Thylakoidmembranen der Chloroplasten beteiligt. Ziel des ersten Projekts war die Verbesserung der 8 Å-Struktur des CP47-RC-Subkomplexes durch neue oder bessere 2D-Kristalle. Die Aufreinigung aus Spinat lieferte reproduzierbar eine gute Ausbeute an aktivem PSII. Das solubilisierte PSII enthielt genug endogenes Lipid, um es ohne den Zusatz von weiterem Lipid direkt durch Mikrodialyse zu rekonstituieren. Während der Rekonstitution verlor der PSII-Komplex CP43 und andere Untereinheiten, wahrscheinlich durch das Detergenz begünstigt, und ergab hoch geordnete Membranen aus CP47-RC. Die besten vesikulären 2D-Kristalle hatten eine tubuläre Morphologie und waren bis zu 1 µm breit und 3 µm lang. Elektronenmikroskopische Bilder unter Cryo-Bedingungen von ihnen aufgenommen zeigten nach der Bildverarbeitung Daten bis 6 Å. Durch Erhöhung der Zinkazetatkonzentration im Dialysepuffer konnten dünne 3D-Kristalle gezüchtet werden, die aus 2D-Kristallstapeln bestanden. Obwohl Elektronenbeugungsmuster Reflexe bis 4,5 Å aufwiesen, konnte auf Grund der unbekannten und veränderlichen Anzahl von Schichten keine 3D-Struktur erstellt werden. Weitere Versuche die Qualität der 2D-Kristalle von CP47-RC zu verbessern waren nicht erfolgreich. Durch die kürzliche Veröffentlichung der Röntgenkristallstruktur des dimeren PSII-Komplexes aus Synechococcus elongatus wurden weitere Untersuchungen eingestellt. Im letzten Schritt der Energieumwandlungskette bildet die F1Fo-ATP-Synthase unter Ausnutzung eines elektrochemischen Gradienten schließlich ATP, die universelle Energieeinheit der Zelle. Die Struktur und Funktion des löslichen, katalytischen F1-Teils sind seit einigen Jahren im Detail bekannt. Im Gegensatz zeichnet sich die Struktur des membranintegrierten, Ionen-translozierenden Fo-Teiles aus den Untereinheiten ab2cx erst langsam ab. Der c-Ring besteht in Hefe aus 10 und in Spinatchloroplasten aus 14 Untereinheiten. Ziel des zweiten Projekts war die Aufklärung der 3D-Struktur des sehr stabilen, undecameren c-Rings aus dem Bakterium Ilyobacter tartaricus, welches Na als Kopplungsion nutzt. Große, tubuläre 2D-Kristalle mit einer Einheitszelle von 89,7 x 91,7 Å und p1-Symmetrie bildeten sich nach der Rekonstitution von gereinigten c-Ringen mit dem Lipid Palmitoyl-Oleoyl-Phosphatidylcholin, nachdem das Detergenz durch Mikrodialyse entzogen wurde. Bilder von in Trehalose eingebetteten 2D-Kristallen wurden im Elektronenmikroskop JEOL 3000 SFF bei 4 K aufgenommen. Ein 3D-Datensatz, bestehend aus 58 Bilder bis zu einem Kippwinkel von 45°, ermöglichte die Berechnung einer 3D-Dichtekarte mit einer Auflösung von 4 Å in der Membranebene und 15 Å senkrecht dazu. Die elffach symmetrisierte Karte eines c-Rings zeigt einen taillierten Zylinder mit einer Höhe von 70 Å und einem äußeren Durchmesser von 50 Å, der aus zwei konzentrischen Ringen von transmembranen (-Helices besteht. Ein C-(-Modell der c-Untereinheit, die eine helikale "hair pin" bildet, konnte in die Dichte eingepaßt werden. Die inneren Helices sind nur 6,5 Å (Zentrum-zu-Zentrum-Abstand) von einander entfernt um eine zentrale Öffnung von 17 Å Durchmesser angeordnet. Die dichte Helixpackung wird durch ein konserviertes Motiv aus vier Glycinresten ermöglicht. Jede innere Helix ist mit einer äußeren, C-terminalen Helix über einen kurzen, wohl geordneten Loop auf der cytoplasmatischen Seite verbunden. Die äußere Helix weist in der Nähe der Ionenbindungsstelle einen Knick auf, der gleichzeitig in der Mitte der Membran liegt, wo sich die äußeren und inneren Helices am nächsten kommen. Dadurch wird es möglich, dass die Ionenbindungsstelle aus den Resten von zwei äußeren (Glu65, Ser66) und einer inneren Helix (Pro28) geformt wird. Zur Unterstützung der Ein-Kanal-Modell der Ionentranslokation konnte ein Zugang von der Ionenbindungsstelle zum Cytoplasma durch polare Reste in der c-Untereinheit vorgeschlagen werden. Des Weiteren kann spekuliert werden, dass drei Ionenbrücken zwischen den c-Untereinheiten für die hohe Temperaturstabilität des Oligomers von I. tartaricus verantwortlich sind. Die Vorstellung dieses 3D-Modells des c-Rings ist ein erster Schritt hin zum Verständnis der Kopplung der Ionentranslokation an die Rotation der F1Fo-ATP-Synthase. Wenn die Struktur der a-Untereinheit gelöst worden ist, wird hoffentlich auch der Mechanismus des kleinsten, biologischen Rotationsmotors entschlüsselt werden.
Dihydrocodein wird im wesentlichen zu Dihydrocodein-6-O-43-ß-glucuronid (DHC6G), Dihydromorphin (DHM), Dihydromorpbin-3-O-ß-D-glucuronid (DHM3G), Dihydromorphin-6-O-ß-D-glucuronid (DHM6G) und Nordihydrocodein (NDHC) biotransformiert. In Analogie zu Codein wird vermutet, dass die Metaboliten DHM und DHM6G pharmkologisch deutlich aktiver als die Muttersubstanz sind und somit zur Wirkung von DHC wesentlich beitragen können, auch wenn sie nur in geringen Mengen gebildet werden. Da die O-Demethylierung von Dihydrocodein zu Dihydromorphin durch das polymorphe Cytochrom P450-Enzym CYP2D6 katalysiert wird, sind in EM (schnelle Metabolisierer) und PM (langsame Metabolisierer, weisen kein funktionelles CYP2D6-Enzym auf) unterschiedliche Metabolitenprofile zu beobachten. In etwa 5-10% der Kaukasier, die PM für CYP2D6 sind, könnte sich somit ein Therapiemisserfolg nach Gabe von therapeutisch empfohlenen Standarddosen an DHC einstellen. Es war daher Ziel der vorliegenden Arbeit, die Bedeutung der Biotransformation für die Wirkung von Dihydrocodein beim Menschen zu untersuchen. Im Rahmen dieser Untersuchung wurden Affinitätsprofile an Hirnmembranpräparationen und Affinitäts- und Aktivitätsprofile an humanen Neuroblastomzellen für DHC und seine Metaboliten erstellt. Des weiteren wurden pharmakokinetische und pharmakodynamische Parameter (und deren Zusammenhang) von Dihydrocodein und seinen Metaboliten beim gesunden Menschen unter Berücksichtigung des CYP2D6-Phänotyps mit Hilfe einer Pilot-Probandenstudie bestimmt. Zuletzt wurden die Ergebnisse der Affinitäts- und Aktivitätsversuche mit den Ergebnissen der Probandenstudie unter Berücksichtigung der verfügbaren Literaturdaten in Zusammenhang gebracht. Di in vitro-Untersuchungen zeigten, dass alls Prüfsubstanzen mit Ausnahme des unwirksamen DHM3G vorwiegend u-selektive Agonisten waren und dass das prinzipielle Verhältnis der Affinitäten bzw. Aktivitäten der einzelnen aktiven Prüfsubstanzen zueinander in allen Untersuchungen annähernd gleich war. Auf Grundlage dieser Daten konnte folgender Grundsatz formuliert werden; Die Affinitäten/Aktivitäten von DHM und DHM6G waren etwa um den Faktor 100 größer als die von DHC, während die anderen Metaboliten (mit Ausnahme des unwirksamen DHM3G) vergleichbare Affinitäten/Aktivitäten besaßen. Die im Rahmen der Probandenstudie ermittelten pharmakokinetischen Werte bestätigten verfügbare Literaturdaten, insbesondere dass CYP2D6 wesentlich für die Bildung von DHM war. So konnten weder DHM, DHM3G noch DHM6G in Plasma und Urin von PM detektiert werden. Die pharmakodynamischep Untersuchungen mittels Pupillometrie zeigten einen signifikanten Unterschied im ursprünglichen Pupillendurchmesser an den Zeitpunkten 1 bis 6 Stunden zwischen Placebo einerseits und EM bzw. PM andererseits. Damit konnte zunächst eine eigene in vivo-Wirkung von DHC beim Menschen nachgewiesen werden. Jedoch ergab sich kein signifikanter Unterschied zwischen EM und PM. Im zweiten pharmakodynamischen Modell (Schmerzmodell) konnten bezüglich der Parameter R-III-Reflexschwelle und VAS-EC30 keine Unterschiede sowohl zwischen EM und PM als auch zwischen Placebo und EM bzw. PM festgestellt werden, so dass 60 mg DHC keine analgetische Wirkung hatte oder das Modell für die Ermittlung der analgetischen Potenz von 60 mg DHC ungeeignet war. Einschränkend muss jedoch hier erwähnt werden, dass die Studie aufgrund der kleinen Fallzahl nur Pilotcharakter aufwies. Die Ergebnisse der vorliegenden Arbeit in Zusammenhang mit den verfügbaren Literaturdaten lassen die Schlussfolgerung zu, dass die pharmakologisch wesentlich aktiveren Metaboliten DHM und DHM6G nicht oder nur geringfügig zur Wirkung von DHC nach oraler Einzelgabe von 60 mg DHC beitragen. Gründe hierfür könnten die geringe Bildung von DHM und seinen Metaboliten (ca. 9%) und/oder durch Verteilung und Ausscheidung bedingte niedrige Konzentrationen am Rezeptor in vivo sein. Somit scheint die Biotransformation keine Bedeutung für die Wirkung von DHC zu haben. Entsprechend sind keine Unterschiede in der Therapie von EM und PM mit niedrigen therapierelevanten DHC-Dosen zu erwarten.
Der Einsatz verschiedenster Substanzen, die die affektive, emotionale oder körperliche Befindlichkeit verändern, ist so alt wie die Menschheit selbst. Rauschmittel im weitesten Sinn werden seit alters her zur Linderung oder Heilung von Krankheiten, bei rituellen Zusammenkünften, zur Bewußtseinsveränderung oder -erweiterung oder einfach als Genußmittel eingesetzt. Als "grundlegende Funktionsbereiche des Drogengebrauchs" werden allgemein "religiöse, medizinische, hedonistische, soziale, kompensatorische, ökonomische und politische" genannt (Blätter, 1995, 279). Im Rahmen einer mehrjährigen Tätigkeit als Sozialpädagogin in einer Jugend- und Drogenberatungsstelle im "Drogenbrennpunkt" Frankfurt hatte ich Gelegenheit festzustellen, daß zumindest bei Heroinkonsumenten in Deutschland soziale und kompensatorische Aspekte gegenüber den anderen genannten Faktoren offensichtlich im Vordergrund stehen. Die häufig gehörte Einschätzung, es handele sich bei Drogenabhängigen um hedonistisch orientiertes "arbeitscheues Gesindel", das sich auf Kosten der Allgemeinheit einen "schönen Lenz mache", erweist sich spätestens dann als falsch, wenn man Gelegenheit erhält, Einblick in ihren hektischen und nicht selten auch mittelbar oder unmittelbar lebensbedrohlichen Alltag zu nehmen. ...
Zur Zeit basiert die Behandlung der Infektion mit dem Humanen-Immunschwäche-Virus (HIV) ausschließlich auf einer Chemotherapie, die das Virus nicht eradiziert, sondern in seiner Vermehrung hemmt. Diese Therapie muß lebenslang erfolgen. Die Wirksamkeit der Medikamente ist, auch in einer Kombinationstherapie, durch die Entwicklung von Resistenzen limitiert. Diese begründet sich zum einen in der Selektion resistenter Virusmutanten. Zum anderen weisen experimentell und in Studien gewonnene Ergebnisse auf die Beteiligung zellulärer Faktoren am Therapieversagen hin. Über die Rolle zellulärer Prozesse bei der Resistenzentwicklung gegen die in der HIV-1 Therapie eingesetzten Nukleosidalen-Reverse-Transkriptase-Inhibitoren ist jedoch noch wenig bekannt. NRTIs sind Prodrugs und werden durch zelleigene Kinasen aktiviert. Eine verminderte Expression oder Aktivität dieser Kinasen kann zu subtherapeutischen intrazellulären Wirkspiegeln führen. In der vorliegenden Arbeit wurden anhand einer T-lymphoiden Zellkultur (H9) die zellulären Mechanismen, die nach einer langdauernden Zidovudin (AZT) Exposition eine zelluläre AZT-Resistenz bewirken, und Methoden diese Resistenz zu umgehen bzw. zu verhindern, untersucht. Es zeigte sich, daß die kontinuierliche AZT-Exposition eine verminderte Expression der Thymidinkinase 1 (TK1) bewirkt. Dies führt zu einer verminderten AZT-Phosphorylierung und letztendlich zu geringeren Wirkstoffspiegeln des antiretroviral wirksamen Metaboliten AZT-Triphosphat (AZT-TP). In AZT resistenten H9 Zellen zeigte AZT eine verminderte Zytotoxizität, und eine um mehr als den Faktor 1000 verminderte antiretrovirale Aktivität. Als mögliche Ursachen für die verminderte Expression der TK1 wurden die DNA-Methylierung und die Histon-Deacetylierung, zwei Faktoren, die Hand in Hand die Genexpression auf transkriptioneller Ebene beinflussen, untersucht. AZT resistente Zellen zeigten in immunzytochemischen Färbungen eine starke Histon-Deacetylierung. Die Behandlung resistenter Zellen mit Trichostatin A (TSA), einem Hemmstoff der Histon-Deacetylierung führte jedoch nicht zu einer Erhöhung der TK1 mRNA-Spiegel. Die Behandlung resistenter Zellen mit 5-AZA-C, einem Inhibitor der Methyltransferase 1 (DNMT1) erhöhte sowohl die Expression der TK1 als auch die Zytotoxizität und die antiretrovirale Aktivität von AZT. Darüber hinaus verminderte die gleichzeitige Behandlung von H9 Zellen mit AZT und 5-AZA-C die Resistenzentwicklung gegen AZT erheblich. Weiterhin konnte gezeigt werden, daß in den AZT resistenten Zellen die Expression der „de novo“ Methyltransferasen 3a und 3b (DNMT3a / 3b) erhöht ist. Diese Ergebnisse weisen darauf hin, daß eine „de novo“ Methylierung des TK1-Gens durch die DNMT3a und DNMT3b die Ursache für die verminderte TK1 Expression in AZT resistenten H9 Zellen ist. Zusätzlich wurde in dieser Arbeit gezeigt, daß einige amphiphile Heterodinukleosidphosphate, die nach intrazellulärer Spaltung monophosphorylierte Nukleosidanaloga freisetzen, die AZT Resistenz überwinden können. Die Ergebnisse dieser Arbeit lassen vermuten, daß eine spezifische Hemmung der „de novo“ Methyltransferasen oder der Einsatz monophosphorylierter Substanzen die Wirksamkeit einer antiretroviralen Therapie erheblich verbessern können, indem sie zelluläre Faktoren, die eine Phosphorylierung von AZT vermindern und dadurch zum Versagen von AZT als antiretroviralem Therapeutikum führen, unterdrücken bzw. umgehen.
In der vorliegenden Arbeit wurden 10 Typen der Gehölzvegetation und 14 Typen der Krautvegetation für das Untersuchungsgebiet Atakora vorgestellt. Dabei konnten nur Sonderstandorte, wie Galeriewälder und Lateritkrusten, klar abgetrennt werden. Viele Arten besitzen keine eindeutigen ökologischen Präferenzen, was sich gut mit der Einschätzung der lokalen Bevölkerung deckt, die für den Großteil der Arten angaben, dass diese wüchsen wo sie wollten. Dabei fällt auf, dass sich die Typen (vor allem in Gehölzschicht aber auch in Krautschicht) in den einzelnen Dörfern oft nur in Teilen entsprechen. Gründe dafür konnten nur teilweise in den unterschiedlichen ökologischen Gegebenheiten und unterschiedlichen Nutzungspräferenzen einzelner wichtiger Trennarten gegeben werden. Selten findet sich ein hundertprozentiges Zusammentreffen eines Gehölztyps mit einem Krauttyp. Damit bestätigt sich die Annahme unterschiedlicher Entwicklungsbedingungen und teilweise unabhängiger Entwicklung dieser beiden Elemente in der westafrikanischen Savanne. Gesellschaften, in denen eine Krautschicht mit einer Gehölzschicht eng korreliert sind, konnten nur für landwirtschaftlich nicht genutzte Sonderstandorten wie Galeriewälder und Lateritkrusten gebildet werden. Zudem zeigt sich, dass die Vegetation in der dichter besiedelten Ebene klarer strukturiert ist, als in der Bergregion. Dies trifft vor allem auf die Gehölzvegetation zu. Dennoch sind erstaunlich viele Gehölzarten auch in der intensiver genutzten Ebene anzutreffen, was für große Regenerationsfähigkeit und die Anpassung der hauptsächlichen Savannengehölze an das menschliche Wirken spricht. Die geringere Zahl an Gehölzarten in der Ebene ist hauptsächlich Resultat der wesentlich stärker degradierten Galeriewälder. In den Berggebieten sind zudem mehr Gehölzschichttypen und mehr krautige Arten angetroffen worden. Hier zeigt sich, dass Berggebiete auch in dieser Untersuchungsregion als Refugium für Vegetationsformationen und Arten gelten können. Die Nutzung von Wildpflanzen für verschiedene Zwecke wurde dokumentiert. Dabei konnte gezeigt werden, dass Präferenzen für diverse Nutzungen auf ethnischen, teilweise auch auf persönlichen Präferenzen, sowie auf der Verfügbarkeit der Pflanzen basieren. Dabei zeigte sich, dass die Präferenzen von Arten als Bau- und Brennholz eher auf der Verfügbarkeit basieren, während die Präferenzen für Medizinalpflanzen eher auf ethnischnen Vorstellungen von Wirksamkeit und teilweise auch auf kollektiven Erfahrungen basieren. Es erwies sich, dass die traditionelle Nutzung von Wildpflanzen als Brenn- und Bauholz und zu zusätzlichen Ernährung in dem Untersuchungsgebiet einen geringen Einfluß auf die Biodiversität hat, solange diese Pflanzen nicht kommerzialisiert werden. Es gibt genügend Pflanzenarten, die leicht zu finden sind und gute Eigenschaften für die eingesetzten Zwecke aufweisen, so dass man meist auf die jeweiligen in einem Dorfgebiet häufig anzutreffenden Arten ausweichen kann. Für diese geringe Auswirkung der traditionellen Nutzung von Gehölzpflanzen auf die Biodiversität sprechen auch die Aussagen der Bevölkerung über die geringere Verfügbarkeit von Gehölzpflanzen zu bestimmten Nutzungen. Dabei ergab sich eine Reihung von Nennungen, die von weniger Bauholz über weniger Brennholz zu weniger Gehölzpflanzen für die traditionelle Medizin abnahmen. Zudem wurde in allen Befragungen verneint, dass eine Art aus dem Dorfgebiet verschwunden wäre. Daraus läßt sich schließen, dass ein Großteil der wichtigen Gehölzpflanzen in dem Untersuchungsgebiet noch vorhanden ist, aber auf Grund der intensivierten Landwirtschaft nicht mehr in der Lage ist, sich zu richtigen Bäumen zu entwickeln. Da sich dadurch einige Gehölzpflanzen nur noch vegetativ vermehren können, kann eine genetische Verarmung von Populationen bestimmter Arten angenommen werden. Dies wäre ein interessanter Ansatzpunkt für zukünftige Forschungen. Ein negativer Einfluß auf die Biodiversität durch traditionelle Nutzungen ist bei der Nutzung von Gehölzpflanzen für die traditionellen Medizin größer, vor allem wenn Wurzeln verwendet werden. Dennoch lässt sich erkennen, dass der Einfluß der traditionellen Nutzungen von Wildpflanzen im Vergleich zu der landwirtschaftlichen Nutzung der Flächen einen marginalen Effekt auf die Vegetation hat. Im Rahmen der ethnobotanischen Befragungen wurden Pflanzennamen, Umweltwahrnehmung und die Vorstellungen von Krankheit der Bétamaribè und Wama dokumentiert. Diese weisen im Gegensatz zu den Vorstellungen anderer afrikanischer Völker kaum Differenzen auf. Die Vorstellungen von Krankheit sind dabei von einem starken Wandel betroffen, da man sich immer stärker auf westliche Konzepte und Medikamente verläßt. Ein positiver Effekt hiervon auf die Phytodiversität ist jedoch nicht zu erwarten, da die Medikamentkosten eine Intensivierung der Landwirtschaft erfordern. Über 240 traditionelle Heilrezepte wurden gesammelt. Die wichtigste Rolle spielen dabei Gehölzpflanzen. Dabei zeigt sich, dass sich die Präferenzen zwischen den einzelnen Dörfern stärker unterscheiden als bei der Nutzung von Pflanzen zu Brenn- und Bauholzzwecken. Auch erweisen sich große Unterschiede zu Verwendungen von Medizinalpflanzen in anderen Untersuchungsgebieten. Dies liegt an unterschiedlichen Vorstellungen und Erfahrungen zur Wirksamkeit von Pflanzen vor allem bei Krankheiten, die auch von alleine wieder vergehen wie Magen-Darm-Erkrankungen. Das Wissen über Heilpflanzen ist in der Ebene geringer ausgeprägt, als in den beiden Bergdörfern. Gründe hierfür können jedoch nicht alleine in den geringeren pflanzlichen Ressourcen gesehen werden. Ein Wandel in der Landwirtschaft bezieht sich hauptsächlich auf die Anbauprodukte. Während traditionelle angepaßte Cerealien seltener angebaut werden, baut man viele Produkte für den Verkauf an. Die herausragende Stellung darunter nimmt die anspruchsvolle und arbeitsintensive Baumwolle ein. Die Auszahlungsmodalitäten der halbstaatlichen Baumwollgesellschaft kommen dabei den bäuerlichen Bedürfnissen am ehesten entgegen. Um den finanziellen Ansprüchen der Verwandtschaft zu entgehen werden kurzfristige Strategien zur Geldbeschaffung angenommen. Es zeigt sich also, dass die Ursachen von Degradation eher in dem Kulturwandel und einer zunehmenden Abhängigkeit der Bauern von Bareinkünften zu sehen ist als in der oft pauschal genannten Überbevölkerung. Zukünftige Forschungen über Biodiversität und Vegetationswandel sollten auch den Kulturwandel stärker berücksichtigen. Die Degradation zeigt sich in dem Untersuchungsgebiet mehr in der Verarmung der Böden als in einem Rückgang der Biodiversität. Obwohl schon historische Vegetationsbeschreibungen von einer starken Beeinträchtigung der vermuteten natürlichen Wälder sprechen, ist nicht davon auszugehen, dass sich die Vegetation in dem Untersuchungsgebiet die letzten 50 Jahre stark verändert hat. Das in nördlicheren Gebieten von der lokalen Bevölkerung beobachtete Verschwinden von Arten wird kategorisch verneint. Bei den genannten zurückgehenden Arten handelt es sich hauptsächlich um wichtige Nutzarten. Da hierzu historische Daten fehlen, kann es sich auch um selektive Wahrnehmung der Bauern handeln. Dennoch ist anzunehmen, dass sich in Zukunft die Degradationsphänomene verschlimmern werden. Da die Bargeldbedürfnisse der Bauern nicht mehr zurückzuschrauben sind und zudem die Experimentiefreudigkeit in der recht unsicheren Umweltsituation gering ist, muss auf bestehende Produkte zurückgegriffen werden, um sowohl diese Bargeldbedürfnisse zu befriedigen, als auch die Umwelt zu schonen. Eine Chance hierfür könnte eine Vermarktung von Fonio, wie bereits in Mali geschehen, darstellen. Dieses anspruchslose, noch auf sehr ausgelaugten Böden wachsende und zudem sehr nahrhafte und wohlschmeckende Getreide sollte wieder vermehrt angebaut werden und auf lange Sicht die anspruchsvolle und Boden auslaugende Baumwolle ersetzten. Dies ist jedoch nur möglich, wenn Fonio über internationale Strukturen auch in Europa und Amerika vermarktet wird. Eine weitere finanziell nicht ausgeschöpfte Ressource bieten die Mangobäume. In der Hochzeit der Mangoernte werden die Bäume vielfach nicht mehr abgeerntet, weil die Preise für die Früchte stark sinken. Die Früchte fallen dann meist Flughunden und Vögeln zum Opfer. Wie das Beispiel Burkina Faso zeigt, könnten diese Früchte getrocknet, zu Marmelade oder Saft verarbeitet werden und selbst in Europa in dieser haltbaren Form verkauft werden. Leider sind bislang die entsprechenden Initiativen und Strukturen dazu in Benin noch nicht geschaffen. Eine weitere, wenn auch langfristigere Möglichkeit wäre die Ersetzung der Baumwollfelder durch Cashjew-Pflanzungen. Diese werden von der Bevölkerung immer mehr angenommen. Dabei könnten neue Gehölzresourcen geschaffen und die Bodenfruchtbarkeit erhöht werden. Einige Initiativen von kleinen NGO's, die das Pflanzen von Bäumen befürworten, finden großen Anklang. Es muß nur eine Möglichkeit gefunden werden, solche Produkte auch international zu kommerzialisieren, um die Böden stark belastende und zudem arbeitsaufwendige Baumwolle zu ersetzten. Zudem sind Initiativen von einzelnen Dörfern in der Atakoraregion, Teile des Dorfgebietes unter Schutz zu stellen und damit Ressourcen und Wissen vor allem für die traditionelle Medizin zu sichern, ermutigend. Es zeigt, dass die lokale Bevölkerung Bedrohungen ihrer Umwelt ernst nimmt und versucht mit Hilfe von NGO's Gegenmaßnahmen zu schaffen. In diesem Hinblick wäre es wichtig, dass sich zukünftige Forschungen mehr den pharmazeutischen Inhaltsstoffen von Heilpflanzen widmen, so wie dies in Südamerika bereits geschieht. Dabei sollten jedoch die Rechte der autochtonen Bevölkerung gewahrt werden. Zudem wäre es wichtig, mehr über die Ökologie einzelner Gehölzpflanzen unter Berücksichtigung der jeweiligen Nutzungsverhältnisse zu kennen. Hierbei wäre es auch interessant über die Naturverjüngung ausgewählter Arten zu arbeiten. Zudem sollten Forscher, die über Degradationsprobleme arbeiten, vor allem in angewandten Bereichen, mehr auf die Erfahrungen der lokalen Bevölkerung hören und weniger scheinbar offensichtliche und populäre Theorien wie Überbevölkerung strapazieren. Dabei sollten auch vermehrt historische Quellen zu Rate gezogen werden, da es scheint, dass die westafrikanische Savanne nicht so degradiert ist, wie es oft behauptet wird und noch große Potentiale besitzt, wenn diese richtig genutzt werden. Abschließend sei bemerkt, dass, wenn man Berichte aus anderen afrikanischen Regionen hört und sieht, der Norden Benins als "Insel der Glückseeligen" betrachtet werden kann. Die politische Lage ist stabil, die Bevölkerung aufgeschlossen und freundlich, es gibt kaum Kriminalität, große Krankheitsepedemien sind in den letzten Jahren ausgeblieben, Hunger wird selten erlitten und auch die Umweltdegradation hält sich in Grenzen. Möge die hier vorliegende Arbeit dazu beitragen, diese Region und die Bétamaribè ein wenig mehr ins Bewußtsein der Öffentlichkeit bringen und ein wenig dazu beitragen, dass die Situation der Region und ihrer Bevölkerung sich nicht verschlechtert.
The substantia nigra is not the induction site in the brain of the neurodegenerative process that underlies Parkinson’s disease. Instead, the results of this semiquantitative study of 30 autopsy cases with incidental Lewy body pathology indicate that Parkinson’s disease in the brain commences with the formation of the very first immunoreactive Lewy neurites and Lewy bodies in noncatecholaminergic visceromotor neurons of the dorsal glossopharyngeusvagus complex, in projection neurons of the intermediate reticular zone, and in specific nerve cell types of the gain setting system (coeruleussubcoeruleus complex, caudal raphe nuclei, gigantocellular reticular nucleus), olfactory bulb, olfactory tract, and/or anterior olfactory nucleus in the absence of nigral involvement. The topographical parcellation of the nuclear grays described here is based upon known architectonic analyses of the human brain stem and takes into consideration the pigmentation properties of a few highly susceptible nerve cell types involved in Parkinson’s disease. In this sample and in all 58 ageand gendermatched controls, Lewy bodies and Lewy neurites do not occur in any of the known telencephalic Parkinson’s disease predilection sites (hippocampal formation, temporal mesocortex, proneocortical cingulate areas, amygdala, basal nucleus of Meynert, interstitial nucleus of the diagonal band of Broca, hypothalamic tuberomamillary nucleus).
ZIELSETZUNG: Die postoperative kardiale Ventrikelfunktion ist stark mit den Auswirkungen der kardialen Ischämie und den Auswirkungen der extrakorporalen Zirkulation (EKZ) assoziiert. Um die alleinigen Auswirkungen der EKZ auf die postoperative linksventrikuläre Herzfunktion zu untersuchen, wurde ein Leitfähigkeitskatheter verwendet mit dem die linksventrikuläre Funktion mit Hilfe der Druck-Volumen Beziehung vor und nach EKZ erfasst werden konnte. METHODEN: 22 drei Wochen alte Schweine wurden sternotomiert und einer normothermen EKZ von 1 h ausgesetzt. Der Leitfähigkeitskatheter wurde in den linken Ventrikel eingeführt. Die endsystolische Druck-Volumen-Beziehung (ESPVR), der linksventrikuläre enddiastolische Druck (LVEDP) und der systemische Gefässwiderstand (SVR) wurden in Ruhephasen vor und 15 Min nach EKZ in Gruppe A (n=11) gemessen. Gruppe B (n=11) diente als Kontrollgruppe ohne EKZ. ERGEBNISSE: Vor der Implementierung der EKZ wurden in beiden Gruppen keine signifikanten Unterschiede efunden. Als Mass für eine eingeschränkte LV Funktion wurde eine signifikant niedrigere Steigung der ESPVR (mmHg/ml) in der EKZ-Gruppe nach Abgang von der HLM im Vergleich zur Kontrollgruppe festgestellt (1,69 ± 0,51 vs. 1,86 ± 0,55; p<0.0081). In der EKZ-Gruppe war der maximale Druckanstiegsgeschwindigkeits- Index dP/dtmax index (mmHg/sec/kg) signifikant erniedrigt (1596,10 ± 339,51 vs. 2045,0 ± 205,57; p<0.03). In Gruppe A war die Steigung der EDPVR (mmHg/ml) signifikant erniedrigt (7,21 ± 2,20 vs. 5,43 ± 1,36; p = 0,0293), während der LVEDP (mmHg) signifikant erhöht war (11,67 ± 2,59 vs. 5,39 ± 0,92; p<0.001). Zudem konnte ein signifikant niedrigerer systemischer Gefässwiderstand- Index(SVR)(dyn.sec.cm-5/kg) in der Kontrollgruppe gemessen werden (1407,30 ± 176,44 vs. 1676,94 ± 312,96; p<0.0001). SCHLUSSFOLGERUNG: Auch ohne ischämischen Arrest führt der Einsatz der EKZ zu einer signifikanten Einschränkung der LV Funktion in der frühen post EKZ Phase. Dies sollte bei der Entscheidungsfindung für die Wahl der Operationsstrategie bedacht werden.
Ziel der Arbeit war es, neue Techniken zur Erschließung und Selektion von Web- basierten Suchservern zu entwickeln und zu evaluieren, um hieraus eine integrierte Architektur für nicht-kooperative Suchserver im WWW abzuleiten. Dabei konnte gezeigt werden, daß die im Sichtbaren Web vorhandene Informationsmenge dazu geeignet ist, um eine effektive Erschließung des Unsichtbaren Webs zu unterstützen. Existierende Strategien für verteiltes Information Retrieval setzen eine explizite Kooperation von Seiten der Suchserver voraus. Insbesondere Verfahren zur Selektion von Suchservern basieren auf der Auswertung von umfangreichen Termlisten bzw. Termhäufigkeiten, um eine Auswahl der potentiell relevantesten Suchserver zu einer gegebenen Suchanfrage vornehmen zu können (z. B. CORI [26] und GlOSS [54]). Allerdings werden derartige Informationen von realen Suchservern des WWW in der Regel nicht zu Verfügung gestellt. Die meisten Web-basierten Suchserver verhalten sich nicht kooperativ gegenüber hierauf aufsetzenden Metasuchsystemen, was die Übertragbarkeit der Selektionsverfahren auf das WWW erheblich erschwert. Außerdem erfolgt die Evaluierung der Selektionsstrategien in der Regel in Experimentumgebungen, die sich aus mehr oder weniger homogenen, künstlich partitionierten Dokumentkollektionen zusammensetzen und somit das Unsichtbare Web und dessen inhärente Heterogenität nur unzureichend simulieren. Dabei bleiben Daten unberücksichtigt, die sich aus der Einbettung von Suchservern in die Hyperlinkstruktur des WWW ergeben. So bietet z. B. die systematische Auswertung von Backlink-Seiten also jener Seiten die einen Hyperlink auf die Start- oder Suchseite eines Suchservers enthalten die Möglichkeit, die im WWW kollektiv geleistete Indexierungsarbeit zu nutzen, um die Erschließung von Suchservern effektiv zu unterstützen. Eine einheitliche Systematik zur Beschreibung von Suchservern Zunächst ist es notwendig alle Informationen, die über einen Suchserver erreichbar sind, in ein allgemeingültiges Beschreibungsmodell zu integrieren. Dies stellt eine Grundvorraussetzung dar, um die einheitliche Intepretierbarkeit der Daten zu gewährleisten, und somit die Vergleichbarkeit von heterogenen Suchservern und den Aufbau komplexer Metasuchsysteme zu erlauben. Ein solche Beschreibung soll auch qualitative Merkmale enthalten, aus denen sich Aussagen über die Reputation einer Ressource ableiten lassen. Existierende Beschreibungen von Suchservern bzw. Dokumentkollektionen wie STARTS-CS [53] oder RSLP-CD [93] realisieren wenn überhaupt nur Teilaspekte hiervon. Ein wichtiger Beitrag dieser Arbeit besteht somit in der Identifizierung und Klassifizierung von suchserverbeschreibenden Metadaten und hierauf aufbauend der Spezifikation eines als Frankfurt Core bezeichneten Metadatensatzes für web-basierte Suchserver, der die genannten Forderungen erfüllt. Der Frankfurt Core berücksichtigt Metadaten, deren Erzeugung eine explizite Kooperation von Seiten der Suchserver voraussetzt, als auch Metadaten, die sich automatisiert z. B. durch linkbasierte Analyseverfahren aus dem sichtbaren Teil des WWW generieren lassen. Integration von Wissensdarstellungen in Suchserver-Beschreibungen Ein wichtige Forderung an Suchserver-Beschreibungen besteht in der zusätzlichen Integration von wissens- bzw. ontologiebasierten Darstellungen. Anhand einer in Description Logic spezifizierten Taxonomie von Suchkonzepten wurde in der Arbeit exemplarisch eine Vorgehensweise aufgezeigt, wie die Integration von Wissensdarstellungen in eine Frankfurt Core Beschreibung praktisch umgesetzt werden kann. Dabei wurde eine Methode entwickelt, um unter Auswertung einer Suchkonzept-Taxonomie Anfragen an heterogene Suchschnittstellen verschiedener Suchserver zu generieren, ohne die Aussagekraft von kollektionsspezifischen Suchfeldern einzuschränken. Durch die Taxonomie wird die einheitliche Verwendung von syntaktisch und semantisch divergierenden Suchfeldern verschiedener Suchserver sowie deren einheitliche Verwendung auf der integrierten Suchschnittstelle eines Metasuchsystems sichergestellt. Damit kann diese Arbeit auch in Zusammenhang mit den Aktivitäten des Semantischen Webs betrachtet werden. Die Abstützung auf Description Logic zur Wissensrepräsentation sowie die Verwendung von RDF zur Spezifikation des Frankfurt Core verhält sich konform zu aktuellen Aktivitäten im Bereich Semantisches Web, wie beispielsweise der Ontology Inference Layer (OIL) [24]. Darüber hinaus konnte durch die Integration der Suchkonzept-Taxonomie in den Arbeitsablauf einer Metasuchmaschine, bereits eine konkrete Anwendung demonstriert werden. Entwicklung neuartiger Verfahren zur Erschließung von Suchservern Für einzelne Felder des Frankfurt Core wurden im Rahmen dieser Arbeit Strategien entwickelt, die aufzeigen, wie sich durch die systematische Auswertung von Backlink- Seiten Suchserver-beschreibende Metadaten automatisiert generieren lassen. Dabei konnte gezeigt werden, daß der Prozeß der automatisierten Erschließung von Suchservern durch die strukturelle und inhaltliche Analyse von Hyperlinks sinnvoll unterstützt werden kann. Zwar hat sich ein HITS-basiertes Clustering-Verfahren als wenig praktikabel erwiesen, um eine effiziente Erschließung von Suchservern zu unterstützen, dafür aber ein hyperlinkbasiertes Kategorisierungsverfahren. Das Verfahren erlaubt eine Zuordnung von Kategorien zu Suchservern und kommt ohne zusätzliche Volltextinformationen aus. Dabei wird das WWW als globale Wissenbasis verwendet: die Zuordnung von Kategorienbezeichnern zu Web-Ressourcen basiert ausschließlich auf der Auswertung von globalen Term- und Linkhäufigkeiten wie sie unter Verwendung einer generellen Suchmaschine ermittelt werden können. Der Grad der Ähnlichkeit zwischen einer Kategorie und einer Ressource wird durch die Häufigkeit bestimmt, mit der ein Kategoriebezeichner und ein Backlink auf die Ressource im WWW kozitiert werden. Durch eine Reihe von Experimenten konnte gezeigt werden, daß der Anteil korrekt kategorisierter Dokumente an Verfahren heranreicht, die auf Lerntechniken basieren. Das dargestellte Verfahren läßt sich leicht implementieren und ist nicht auf eine aufwendige Lernphase angewiesen, da die zu kategorisierenden Ressourcen nur durch ihren URL repräsentiert werden. Somit erscheint das Verfahren geeignet, um existierende Kategorisierungsverfahren für Web-Ressourcen zu ergänzen. Ein Verfahren zur Selektion von Suchservern Ein gewichtiges Problem, durch welches sich die Selektion von Suchservern im WWW erheblich erschwert, besteht in der Diskrepanz zwischen der freien Anfrageformulierung auf Benutzerseite und nur spärlich ausgezeichneten Suchserver-Beschreibungen auf Seiten des Metasuchsystems. Da auf der Basis der geringen Datenmenge eine Zuordnung der potentiell relevantesten Suchserver zu einer Suchanfrage kaum vorgenommen werden kann, wird oft auf zusätzliches Kontextwissen zurückgegriffen, um z. B. ein Anfragerweiterung durch verwandte Begriffe vornehmen zu können (siehe z. B. QPilot [110]). Eine solche Vorgehensweise erhöht allerdings nur die Wahrscheinlichkeit für Treffer von Anfragetermen in den Suchserver-Beschreibungen und liefert noch keine ausreichende Sicherheit. Deshalb wurde in der Arbeit ein Selektionsverfahren entwickelt, das sich auf die Auswertung von Ko-Zitierungs- und Dokumenthäufigkeiten von Termen in großen Dokumentsammlungen abstützt. Das Verfahren berechnet ein Gewicht zwischen einem Anfrageterm und einem Suchserver auf der Basis von einigen wenigen Deskriptortermen, wie sie z. B. aus der FC-Beschreibung eines Suchservers extrahiert werden können. Dies hat den Vorteil, daß die Suchbegriffe nicht explizit in den einzelnen Suchserver-Beschreibungen vorkommen müssen, um eine geeignete Selektion vornehmen zu können. Um die Anwendbarkeit des Verfahrens in einer realistischen Web-Umgebung zu demonstrieren, wurde eine geeignete Experimentumgebung von spezialisierten Suchservern aus dem WWW zusammengestellt. Durch anschließende Experimente konnte die Tauglichkeit des entwickelten Verfahrens aufgezeigt werden, indem es mit einem Verfahren verglichen wurde, das auf Probe-Anfragen basiert. Das heißt, daß eine erfolgreiche Selektion durchgeführt werden kann, ohne daß man explizit auf das Vorhandensein von lokalen Informationen angewiesen ist, die erst aufwendig durch das Versenden von Probe-Anfragen ¨uber die Web-Schnittstelle des Suchservers extrahiert werden müssten. Herleitung einer integrierten Architektur Um das Zusammenspiel der erarbeiteten Strategien und Techniken zur Erschließung, Beschreibung und Selektion in einer integrierten Architektur umzusetzen, wurde die Metasuchmaschine QUEST entwickelt und prototypisch implementiert. QUEST erweitert die Architektur einer traditionellen Metasuchmaschinenarchitektur, um Komponenten, die eine praktische Umsetzung der Konzepte und Techniken darstellen, die im Rahmen dieser Arbeit entwickelt wurden. QUEST bildet einen tragfähigen Ansatz zur Kombination von wissensbasierten Darstellungen auf der einen und eher heuristisch orientierten Methoden zur automatischen Metadatengenerierung auf der anderen Seite. Dabei stellt der Frankfurt Core das zentrale Bindeglied dar, um die einheitliche Behandlung der verfügbaren Daten zu gewährleisten.
Um die Privatsphäre der Kinder und deren Eltern zu schützen, wurden die Fotos der Kinder aus dieser PDF-Datei entfernt. Interessierte Eltern oder Fachleute können die vollständige Arbeit als PDF-Datei (11 MB) zum Download bei http://www.leona-ev.de/piper/ oder chrispiper@freenet.de anfordern. Chromosomenstörungen gehören mit einer Häufigkeit von 1,8/1000 Neugeborene zu den häufigeren angeborenen Störungen. Die Mehrzahl der betroffenen Kinder stirbt bereits intrauterin in der Frühschwangerschaft, weil schon Nidation bzw. die frühe Embryonalentwicklung durch die Chromosomenstörung verhindert werden. Etwa 50% aller Spontanaborte sind durch eine Chromosomenstörung verursacht. Einige Chromosomenstörungen wie z.B. komplette Trisomie 14 oder 16 führen immer zu einem Abort, so daß keine die normale Schwangerschaft überlebenden Patienten bekannt sind. Bei den Trisomien 13 und 18 enden 95% der Schwangerschaften mit einem Abort, bei der häufigeren Trisomie 21 sterben 80% der Patienten intrauterin. Von den lebendgeborenen Kindern mit Chromosomenaberrationen sterben wiederum viele schon im ersten Lebensjahr, zumeist aufgrund schwerer Fehlbildungen, insbesondere Herzfehlern und Nierenfehlbildungen. Während der Phänotyp der häufigeren Chromosomenstörungen gut bekannt ist, gibt es bis auf die Trisomie 21 nur wenige Untersuchungen zu ihrem Verlauf. Systematische Daten zur psychomotorischen Entwicklung der Patienten, zu Komplikationen, zu möglichen Therapien sowie zur Effektivität der Therapien fehlen völlig. So wird auch heute noch in vielen Arztbriefen davon ausgegangen, daß Kinder mit Trisomie 13 oder 18 innerhalb der ersten Lebensmonate versterben und deshalb werden Therapien - wenn überhaupt - nur verzögert oder partiell eingeleitet. Darüber hinaus wird den Eltern durch die Prognose eines schnellen und frühen Todes ein Verlauf suggeriert, der im Einzelfall eben nicht eintreten muß. Die Beziehung zum Patienten, die Erwartungen an den Patienten sowie der Umgang mit dem Patienten, die gesamte Lebensplanung einer Familie und viele Dinge mehr werden dadurch in eine nicht gerechtfertigte Richtung gelenkt. Bei einigen Patienten führte falsche Voraussage eines „baldigen frühen Todes“ soweit, daß die Eltern und die Umgebung ständig darauf wartete, daß der Patient stirbt und die Diagnose von Eltern und Ärzten bezweifelt wurde als das Kind die ersten Lebensjahre überlebte. Mehrfach wurden deshalb Chromosomenanalysen wiederholt, um die Diagnose zu überprüfen. Gerade in unserer Zeit, in der die Intensivmedizin und die operativen Techniken auch Patienten mit komplexen Fehlbildungen ein Überleben ermöglichen, gibt es deshalb immer mehr Patienten mit Chromosomenstörungen, die ein höheres Lebensalter erreichen. Daraus folgt unmittelbar, daß mehr Daten über ältere Patienten mit Chromosomenstörungen gewonnen werden müssen, um bessere und individuellere Therapien zu entwickeln.
Es war Gegenstand dieser Arbeit, die Zahl und das Vorkommen der Sporen der Bacillus Spezies im Vergleich zu anderen Parameter in der Trinkwasseruntersuchung die bisher im §37 des Infektionsschutzgesetzes eingesetzt wurden an 288 Wasserproben von verschiedenen Wassergewinnungsanlagen und Trinkwassersystemen nachzuweisen, um das Verhalten der Sporen der Bacillus Spezies in diesen Bereichen zu beschreiben und mit den bisher üblichen Keimen der Trinkwasseruntersuchung in Beziehung zu setzen. Es sollte überprüft werden, ob eine Korrelation zwischen der Koloniezahl und der Zahl der aeroben Sporenbildner nachgewiesen werden kann. Es wurden 77 Wasserproben aus dem Leitungswassersystem der Uni-Klinik Frankfurt entnommen und auf Vorkommen von Sporen der Bacillus Spezies, Koloniezahl, E. coli und Coliformen Bakterien untersucht. Alle 77 Wasserproben konnten bei einem Erfahrungsrichtwert von 10 KBE in 100 ml Trinkwasser und einer Koloniezahl von 100 pro 1ml Trinkwasser als zufrieden stellend angesehen werden. An keine der Proben konnte ein Wachstum von E. coli festgestellt werden, an 7 Wasserproben konnten Coliforme Bakterien nachgewiesen werden. Es konnte keine Korrelation zwischen Sporen der Bacillus Spezies und der Koloniezahl beim Leitungswassersystem der Uni-Klinik Frankfurt festgestellt werden. Von den 113 untersuchten Flachbrunnen von privaten Haushalten (Oberflächenwasser), konnten nach den strengen Trinkwasserverordnungsrichtlinien nur 60 Proben als zufrieden stellend bezeichnet werden, da aber diese Wassergewinnungsanlagen hauptsächlich zur Bewässerung dient, ist es unbedenklich. An keine der Wasserproben konnten Coliforme Bakterien nachgewiesen werden, und an 10 Wasserproben konnte E. coli nachgewiesen werden. Bei diesen Wassergewinnungsanlagen konnte eine Korrelation zwischen Sporen der Bacillus Spezies und der Koloniezahl nachgewiesen werden. Es wurden 82 Grundwasserproben der Stadtwerke Hanau entnommen, davon waren 35 Wasserproben gechlort und aufbereitet, 28 Wasserproben ungechlort und aufbereitet und 19 Proben waren ungechlortes Rohwasser. Vergleicht man die Werte der einzelnen Wasserarten miteinander, so stellt man fest, dass die Sporenzahl fast identisch ist, Werte zwischen 0-32 pro 100 ml Wasser. Die Aufbereitung und Chlorung des Wassers verändert die Sporenzahl nicht. Die Koloniezahl ist bei Rohwasser aber deutlich höher als bei aufbereiteten und gechlorten Wasser. Der Höchstwert bei gechlorten und aufbereiteten Wasser betrug 200 Kolonien pro 100 ml Wasser, bei aufbereiteten und ungechlorten Wasser stieg der Wert auf 4800 Kolonien an und bei Rohwasser sogar auf 5500 Kolonien pro 100 ml Wasser. In nur einer Rohwasserprobe konnte E. coli nachgewiesen werden, keine der Proben enthielt Coliforme Bakterien. Der Wert des Korrelationskoeffizienten war beim ungechlorten Rohwasser am Höchsten und beim aufbereiteten und gechlorten Wasser am niedrigsten. Vergleicht man die 6 Wasserproben des Oberflächenwassers der Wahnbach Talsperre mit den 4 Proben des Mains und des Rheins miteinander, so stellt man fest, dass in allen Wasserproben alle untersuchten Bakterienarten nachweisbar waren. Die höchste Koloniezahlkonzentration von 1.420.000 pro 100 ml wurde im Oberflächen-wasser des Mains nachgewiesen, der zweithöchste Wert von 960.000 pro 100 ml war im Oberflächenwasser des Rheins. Die höchste Sporenzahl von 26.000 pro 100 ml wurde in der Wasserprobe der Wahnbach Talsperre ermittelt, der Main und der Rhein hatten fast identische Werte zwischen 2700 und 5800 Sporen pro 100 ml Wasser. Der höchste Korrelationskoeffizient wurde hier bei den Wasserproben der Wahnbach Talsperre ermittelt, der niedrigste Wert wurde bei den Wasserproben des Rheins ermittelt. Auf Grund ihres differenzierten Nährstoffbedarfs kann sich die Gattung Bacillus in nährstoffärmeren Biotopen nicht vermehren und befinden sich deshalb vermehrt in Oberflächenwasser und den oberen Erdschichten. Sie stellen im Grundwasser und den Folgebereichen seiner Nutzung einen Indikator für den Grad der Kontamination des Wassers mit Abfallstoffen dar. Obwohl der Nachweis der Sporen der Bacillus Spezies sehr leicht erbracht werden kann, und in jedem Stadium der Untersuchung nachweisbar ist, muß bei der Entnahme der Wasserprobe sehr vorsichtig gearbeitet werden, da es in den oberen Bodenschichten leicht zu einer Einschleppung der Sporen der Bacillus Spezies kommen kann und somit zu einer Ver-fälschung der Ergebnisse. Bei Korrekter Probeentnahme ist aber die Aussagekraft der Sporen der Bacillus Spezies sehr hoch. Ein Vorteil der Auszählung der Sporen ist, dass die analytische Methode nur Sporen misst, andere Bakterienformen werden nicht gezählt. Die Auszählung der Sporen und der Koloniezahl sind zwei der wertvollsten Parameter der Wasserqualität. Die Konzentration der Sporen liegt im Grundwasser und seinem Folgebereich zwischen 0,39 und 1,81 pro 100 ml Wasser. In Oberflächenwasser liegt die Konzentration der Sporen der Bacillus Spezies zwischen 1050 und 4500 pro 100 ml Wasser. Die ermittelten Werte dieser Arbeit entsprechen fast alle den Normwerten. Das Vorkommen aller im Rahmen dieser Arbeit untersuchten Bakterienarten mit sehr hoher Bakterienanzahl konnte nur in den nährstoffreichen Oberflächenwasserproben von Rhein, Main und der Wahnbach Talsperre nachgewiesen werden. Von den 288 untersuchten Wasserproben können 264 Proben unter Betrachtung der Grenzwerte als hygienisch einwandfrei bezeichnet werden. Nach dem heutigen Stand der Literatur ist der Nachweis der Sporen der Bacillus Spezies ein wertvoller und aussagekräftiger Parameter für den Grad der Wasserverschmutzung mit Abfallstoffen, er ist ein Maß für die Effizienz der Aufbereitung bzw. der Kontamination des Grundwassers und somit ein geeigneter Parameter für die hygienische Trinkwasseruntersuchung.
Die vorliegende Arbeit beschreibt Untersuchungen zur Beurteilung der pharmazeutischen Qualität von Phytopharmaka am Beispiel der häufig eingesetzten Johanniskrautextrakt-Präparate. Elf Johanniskrautextrakt-Präparate des deutschen Arzneimittelmarktes wurden hinsichtlich Chargenhomogenität, Chargenkonformität und Gehalt der wirksamkeitsmitbestimmenden Inhaltsstoffe Gesamthypericin und Hyperforin untersucht. Außerdem wurde die Freisetzung von Hyperforin, Hypericinen und Flavonoiden aus verschiedenen Präparaten in kompendialen und biorelevanten Medien geprüft. Zur Analytik des Hyperforins und der Flavonoide wurden zwei HPLC-Verfahren etabliert und nach ICH-Guidelines validiert. Die Analysenzeit der isokratischen Methode zur Bestimmung von Hyperforin war mit 10 Minuten sehr kurz. Somit war die Methode sowohl für die Gehaltsbestimmungen als auch für die Freisetzungsuntersuchungen sehr gut geeignet. Zur Bestimmung der Flavonoide Rutin, Hyperosid/ Isoquercitrin und Quercitrin wurde eine Gradientenelution verwendet, wodurch eine Analysenzeit von 18 Minuten resultierte. Gesamthypericin wurde mittels Differentieller Puls-Polarographie nach Belichtung der Proben bestimmt. Die Ergebnisse der Untersuchung zur Chargenhomogenität von Gesamthypericin und Hyperforin belegten für nahezu alle Präparate eine gute Gleichförmigkeit des Gehaltes der analysierten wirksamkeitsmitbestimmenden Inhaltsstoffe. Im Bezug auf die Chargenkonformität hinsichtlich Gesamthypericin wiesen die Präparate unterschiedliche Resultate auf. Zwar ist es seit Erscheinen des „Bühler-Papiers“ nicht mehr zulässig auf einen definierten Gehalt an Gesamthypericin, zu normieren, einige Extrakthersteller ziehen diese Substanzgruppe jedoch als analytischen Qualitätsparameter bei der Herstellung standardisierter Extrakte heran. So zeigten vier Präparate bei der Untersuchung von je fünf Chargen mit relativen Standardabweichungen von unter 10% eine gute Reproduzierbarkeit des Gesamthypericingehaltes. Die übrigen Präparate wiesen mehr oder weniger starke Schwankungen im Gesamthypericingehalt auf. Die Untersuchung der Chargenkonformität bezüglich Hyperforin führte zu dem Ergebnis, daß lediglich für zwei Präparate (eines Herstellers) eine sehr gute Reproduzierbarkeit des Hyperforingehaltes erreicht wurde. Hier betrugen die relativen Standardabweichungen weniger als 4%. Die übrigen Präparate zeigten mehr oder weniger starke Schwankungen, wobei für ein Präparat der Variationskoeffizient 70% betrug. Auffällig ist, daß die Präparate mit einheitlichen Hyperforingehalten höhere relative Standardabweichungen von ca. 20% bzgl. des Gesamthypericingehaltes zeigten. Umgekehrt zeigten Präparate mit einheitlichem Gesamthypericingehalt oftmals höhere Variationskoeffizienten bei den Hyperforingehalten. Eine gute Chargenkonformität für beide Analyten wiesen lediglich drei Präparate auf. Der relative Gesamthypericingehalt im Extrakt betrug zwischen 0,11 und 0,43%, während der Absolutgehalt an Gesamthypericin Werte zwischen 0,33 und 1,92 mg je Darreichungsform aufwies. Orientiert an den Einnahmeanweisungen der Hersteller lagen die maximalen Tagesdosen Gesamthypericin zwischen 1,00 und 3,69 mg Gesamthypericin. Die gefundenen relativen Hyperforinmengen lagen in der Regel zwischen 1,09 und 4,48% im Extrakt, wobei ein einzelnes Präparat weniger als 0,2% Hyperforin im Extrakt aufwies. Für den Absolutgehalt an Hyperforin wiesen die Präparate Werte zwischen weniger als 0,5 und 28,88 mg auf. Unter Berücksichtigung der Einnahmeempfehlungen des Herstellers ergaben sich daraus Tagesmaximaldosen zwischen < 1 und 53,76 mg Hyperforin. Die Ergebnisse der Freisetzungsuntersuchungen in kompendialen und biorelevanten Medien zeigten, daß Hyperforin im sauren Milieu des Magensaftes nicht freigesetzt wird und es auch unter Bedingungen, die den nüchternen Zustand im proximalen Dünndarm simulieren lediglich zu einer geringfügigen Freisetzung aus der Arzneiform kam. Eine gute Freisetzung konnte hingegen im Medium FeSSIF erreicht werden, daß die Bedingungen des proximalen Dünndarms im gesättigten Zustand simuliert. Gesamthypericin ging zwar im sauren pH-Milieu des Magensaftes ebenfalls nicht in Lösung, unter simulierten Nüchternbedingungen im Dünndarm konnte im Gegensatz zu Hyperforin aber bereits eine gute Freisetzung verzeichnet werden. Die untersuchten Flavonoide zeigten in allen verwendeten Medien eine gute Freisetzung. Der Vergleich verschiedener Präparate ergab starke Unterschiede hinsichtlich ihrer Freisetzungscharakteristik. Dabei ergaben sich Abweichungen sowohl hinsichtlich Geschwindigkeit als auch bezüglich Vollständigkeit der Freisetzung der untersuchten Inhaltsstoffe. Eine Tatsache ist, daß Präparate, die laut Deklaration als pharmazeutisch äquivalent einzustufen wären, sich einerseits im Bezug auf den Gehalt an pharmazeutisch-relevanten Inhaltsstoffen und andererseits auch in ihrem in-vitro-Freisetzungverhalten unterschiedlich verhalten und somit nicht als biopharmazeutisch äquivalent gelten können. Dies läßt den Schluß zu, daß Johnniskrautextrakt-Präparate zur Therapie leichter bis mittelschwerer Depressionen nicht ohne weiteres untereinander ausgetauscht werden sollten. Es ist unumstritten, daß Bedarf an neuen aussagekräftigen Beurteilungsansätzen zur Qualität von Phytopharmaka vorhanden ist. In dieser Arbeit wurde eine neue und verfolgenswerte Idee zur vergleichenden Bewertung der pharmazeutischgalenischen Qualität von Phytopharmaka am Beispiel von Johanniskrautextrakt-Präparaten aufgezeigt.
Vanille ein tropisches Orchideengewächs liefert eines der bedeutendsten Aromen weltweit. Die stetig wachsende Nachfrage und das hohe Preisniveau sind allerdings häufig die Ursache für Verfälschung von Vanilleextrakten und -aromen. Ziel der Arbeit war es daher, die Methoden zur Echtheitsbewertung von Vanille weiter zu entwickeln. Daneben sollten Untersuchungen im Hinblick auf aromaaktive Minorkomponenten durchgeführt werden. Als Basisdaten für die Authentizität von Vanille dienen häufig Verhältniszahlen, die aus den Gehalten der Hauptinhaltsstoffe Vanillin, 4-Hydroxybenzaldehyd, Vanillinsäure und 4-Hydroxybenzoesäure gebildet werden. Um diese Verhältniszahlen zuverlässig bestimmen zu können, wurden eine hochdruckflüssigkeits-chromatographische (HPLC) und zum ersten Mal eine gas-chromatographische (GC) Methode entwickelt. Unter Verwendung von internen Standards konnte mit beiden Methoden eine zuverlässige Quantifizierung erzielt werden. Die ermittelten Werte erwiesen sich als unabhängig von der Analysenmethode, von Erntejahrgang und Herkunft der Schoten. Weiterhin konnte gezeigt werden, dass die bisher zur Bewertung herangezogenen Richtwerte im Vergleich mit den im Rahmen dieser Arbeit ermittelten Werte durchweg zu enge Spannbreiten aufweisen. Die neu bestimmten Daten zur quantitativen Zusammensetzung von Vanilleschoten stellen daher wertvolle Basiskriterien für eine Echtheitsbewertung von Vanille dar. Für eine weitergehende, noch zuverlässigere Authentizitätsbewertung wurden die 13C/12C-Verhältnisse von Vanillin und der zweiten Hauptkomponente 4- Hydroxybenzaldehyd ermittelt. Als grundlegende Voraussetzung für die Bestimmung korrekter Isotopenwerte wurde zum einen die Gerätekonfiguration optimiert, um eine vollständige Verbrennung zu gewährleisten, zum anderen wurde der Einfluss der Schotenaufarbeitung untersucht. Durch Korrelation der Delta13CV-PDB-Werte der beiden Komponenten konnten klare Authentizitätbereiche festgelegt werden. Insbesondere durch die integrale Betrachtungsweise beider Kriterien Verhältniszahlen und Isotopenwerte konnte die Authentizitätsbewertung von Vanille erheblich verbessert werden. Neben den Hauptkomponenten kommen in der Vanille aber auch eine große Zahl von aromaaktiven Minorkomponenten vor. Im Rahmen dieser Arbeit sollten daher auch Untersuchungen zu einigen dieser Minorkomponenten durchgeführt werden. Dabei ermöglichte es der Einsatz der neuen, hochempfindlichen Methode der Stir Bar Sorptive Extraction, eine enantioselektive Analyse von - Nonalacton und verschiedenen Monoterpenen durchzuführen. -Nonalacton konnte dabei in allen untersuchten Proben mit einem nahezu racemischen Enantiomerenverhältnis nachgewiesen werden. Die Enantiomerenreinheit und die Schwankungen der Enantiomerenverhältnisse für die untersuchten Monoterpene waren stark variierend. Es konnte dabei aber weder eine Herkunfts- noch eine Jahrgangsabhängigkeit festgestellt werden. Die sehr geruchsaktive Substanz Guajacol wurde in Schoten der Gattungen V. planifolia und V. tahitensis semiquantitativ untersucht. Es konnte aber auch hier keine Abhängigkeit von der Herkunft der Schoten festgestellt werden. Um weitere geruchsaktive Minorkomponenten zu identifizieren, wurde ein Headspace- Extrakt von Vanilleschoten mittels Gaschromatographie-Olfaktometrie untersucht. Es konnten dabei die beiden Substanzen Kreosol und 4- Hydroxybenzylamin identifiziert werden. Letztgenanntes war bisher als natürlicher Aromastoff nicht bekannt. Obwohl beide Komponenten nur im ppb- Bereich vorkommen, leisten sie dennoch eine Beitrag zum Gesamtaroma von Vanille. Insgesamt konnten im Rahmen dieser Arbeit neue Wege im Hinblick auf die Analytik und Authentizitätsbewertung von Vanille aufgezeigt werden.
An der chemischen Synapse des Nervensystems führt ein präsynaptisches Aktionspotential zur Freisetzung eines Neurotransmitters, der über den synaptischen Spalt diffundiert und an die Rezeptoren der postsynaptischen Membran bindet. Die ionotropen Rezeptoren sind an dieser Membran zu Clustern aggregiert. Entstehung und Dynamik dieser Rezeptoraggregate sind für Funktion und Plastizität der Synapse essentiell. Für die Aggregation der inhibitorischen Glyzin- und der meisten Subtypen der GABAA-Rezeptoren ist das periphere Membranprotein Gephyrin notwendig. Es ist ein Schlüsselfaktor für die Genese und Aufrechterhaltung der glyzinergen postsynaptischen Membran. Dabei bindet es direkt an den GlyR und verbindet diesen über die Bindung von Mikrotubulie an das Zytoskelett. Auch andere Bindungspartner wurden nachgewiesen. Gephyrin ist in einer zweiten Funktion in die Synthese des Molybdän-Cofaktors involviert und weist Sequnezhomologien zu Proteinen anderer Spezies auf, die in diesen Syntheseweg eingebunden sind. Gephyrin ist ubiquitär exprimiert und wird alternativ gespleißt. Möglicherweise existieren verschiedene Varianten mit unterschiedlichen Funktionen. Die Untersuchung der Domänen und Bindungseigenschaften Gephyrins ist daher für das weitere Verständnis über Aufbau und Funktion der Synapse unerlässlich. In dieser Arbeit wurde ein Testsystem etabliert, mit dem sowohl heterolog exprimiertes als auch natives Gephyrin über die hoch-affine Bindung an den GlyR aufgereinigt werden konnte. Mit diesem System konnten erstmals unterschiedliche Varianten Gephyrins nachgewiesen werden. In verschiedenen Organen der adulten Ratte wurden dabei Gephyrinmoleküle mit Molekulargewichten zwischen 52 und den bekannten 93 kDA identifiziert. Auch Bestandteile des GlyR-Komplexes lassen sich mit dieser Methode anreichern. So wurde gezeigt, daß Gephyrin und Collybistin in einem trimeren Komplex mit dem GlyR vorliegen können. Hiermit ist es künftig möglich, in einem proteomischen Ansatz weitere aus dem GlyR-Konmplex anzureichern und zu identifizieren. Mit dem gleichen System wurde auch die Bindungsregion Gephyrins für den GlyR gefunden. Diese diskontinuierliche Bindungsstelle wird aus einer a-Helix der Aminosäuren 164 bis 184, sowie aus hydrophoben Resten gebildet, die von Aminosäure 15 bis 163 unregelmäßig über den gesamten N-Terminus Gephyrins verteilt sind. Zur Bindung an den GlyR werden beide Elemente benötigt. Das kleinste GlyR-bindende Gephyrinfragment erstreckt sich somit über die Aminosäuren 1-184. Mit einem Kosedimentationsassay wurde die Bindung Gephyrins an Mikrotubuli untersucht. Es stellte sich heraus, daß die vermutete Bindungsstelle nicht zur Bindung an Mikrotubuli benötigt wird. Vielmehr ist der C-terminale Abschnitt Gephyrins hierzu ausreichend. Um Regionen Gephyrins zu finden, die die Autoaggregation vermitteln, wurden Bindungsstudien mit dem Zwei-Hybrid-System und ein heterologes Expressionssystem in Zellkulturen durchgeführt. Es wurde gezeigt, daß sowohl die N- als auch der C-terminal gelegene Bereich in der Lage sind, mit Gephyrin zu aggregieren. Im C-Terminus wurde die Domäne auf 62 Aminosäuren eingegrenzt. Zur Erfüllung der verschiedenen Funktionen Gephyrins sind die hierfür notwendigen Domänen offensichtlich in modularer Art organisiert. So lässt sich durch alternatives Spleißen eine Variante exprimieren, die den speziellen Erfordernissen der Zelle gerecht wird. In dieser Arbeit wurden mehrere Domänen und Regionen Gephyrins eingegrenzt, deren Aufgaben von der GlyR-Bindung über die Autoaggregation zur Bildung glyzinerger Proteinkomplexe und der Verknüpfung mit dem Zytoskelett reichen. Somit konnte ein Beitrag zum weiteren Verständnis über die glyzinerge Synapse geleistet werden.
Die hier durchgeführten Untersuchungen an Staphylococcus aureus ATCC 6538 unter Verwendung von Silbernitrat als Desinfektionsmittel auf Standard-CSA sowie Agar-Agar mit Kalliumtelluritzusatz hatten das Ziel, den Einfluss von Silbernitrat-Ionen auf den Keim zu untersuchen. Hier galt es nicht nur die Schädigung von Silbernitrat-Ionen auf Staphylokokken zu untersuchen, sondern zusätzlich zu prüfen, ob eine Reduzierung der Pathogenität der Keime nach vorheriger Desinfektion stattfindet. Die Empfindlichkeit der geschädigten Bakterien gegenüber Tellurit, wie in diesen Untersuchungen verwendet, löste das früher verwendete Mäusepathogenitätsmodell ab. Die Ergebnisse zeigten deutlich, dass die Keimzahl zum einen durch eine erhöhte Konzentration des Silbernitrats, zum anderen durch eine verlängerte Einwirkzeit reduziert wurde. Weiterhin ist ersichtlich, dass eine Minderung der Pathogenität nach Desinfektion eintrat. Der mit Tellurit versetzte CSA-Agar hemmte das Wachstum stärker als bei den Platten ohne Zusatz. Dies zeigt eine erhöhte Empfindlichkeit der Keime gegenüber Tellurit. Eine weitere Virulenzminderung trat mit zunehmender Telluritkonzentration auf. Dies lässt die Schlussfolgerung zu, dass Kalliumtellurit eine Wachstumshemmung auf das Bakterium Staphylococcus aureus bewirkt. Da sich in den Kontrollansätzen ohne Desinfektionsmittel die Keimzahl ebenfalls mit zunehmender Telluritkonzentration reduzierte, bestätigt dies, dass die Eignung von Hemmstoffen - im vorliegendem Fall Kalliumtellurit - nur in einem engen Konzentrationsbereich für die Erfassung geschädigter Keime geeignet ist.
In der vorliegenden Untersuchung wurden Populationen der Gattung Corbicula im Rhein mit Individuen aus der Mosel, der Weser sowie aus Frankreich, Spanien, Nordamerika und dem Nahen und Fernen Osten sowohl mit genetischen als auch morphologischen Methoden untersucht. Aus diesen Daten sollte ermittelt werden, wie viele Taxa bei der rezenten Besiedelung Europas auftraten und welche Migrationsrouten hierbei nachgewiesen werden konnten. Es konnte gezeigt werden, dass im Rhein zwei hybridisierende genetische Linien auftraten, wobei keine Rückkreuzung mit den Eltern nachgewiesen werden konnte. Die Hybride waren morphologisch nicht zu unterscheiden. Hinweise auf einen unterschiedlichen Chromosomensatz dieser Linien bzw. eine Polyploidie konnte nicht gefunden werden. In der Rhone wurde eine weitere Linie entdeckt. Eine der genetischen Linien im Rhein konnte im Vergleich zu Individuen aus Fernost als C. fluminea identifiziert werden. Die Herkunft der beiden Linien aus Rhein und Rhone blieb unklar, da sie nicht Individuen aus Israel oder Nordamerika zugeordnet werden konnten. Eine Polytomie der MP- und ML-Analysen war nicht auf einen zu geringen Datensatz zurückzuführen, vielmehr konnte gezeigt werden, dass Corbicula im Pleistozän eine Radiation durchief. Schalenmorphologisch konnten die genetischen Linien aus dem Rhein nicht durchgehend den zwei auftretenden Morphen zugeordnet werden. Gleichzeitig schienen diese Individuen die Extreme einer weltweiten Variabilität der Schalenform darzustellen. Ein morphologischer Vergleich von Schalen aus der Sammlung Senckenberg zeigte keine Unterschiede zwischen Individuen, die als C. fluminalis und C. fluminea bezeichnet waren. Vielmehr scheint die Schalenform nicht genügend conchologischen Merkmale zu besitzen, um die genetischen Linien zu unterscheiden. Die Besiedelung Europas durch die Körbchenmuschel erfolgte mehrfach unabhängig in verschiedenen Flusssystemen Südwest- und Mitteleuropas Anfang der 1980er Jahre. Auf- grund der hier nachgewiesenen Isolationswirkung von Stauwehren der Bundeswasserstrassen auf Makroinvertebraten und der Ergebnisse der DAF-Fingerprints von Corbicula- Populationen wurde die Mosel vermutlich von Frankreich aus besiedelt.
Die Peritonitis bezeichnet eine durch Bakterien oder chemische Noxen ausgelöste Entzündung des Peritoneums. Entwickelt sich aus der lokalisierten Entzündung der Bauchhöhle durch Abstrom bakterieller Bestandteile in die systemische Zirkulation eine generalisierte Sepsis mit multiplem Organversagen, beträgt die Letalität trotz chirurgischer Herdsanierung, intensivmedizinischer Betreuung und potenter Antibiotikatherapie 20-50%. Eine entscheidende Rolle in der Abwehr der Peritonitis tragen polymorphkernige Leukozyten. PMNL werden bei einer Infektion der Abdominalhöhle durch chemotaktile Botenstoffe zum Fokus gelockt und tragen durch Phagozytose der Bakterien und Sauerstoffradikalproduktion entscheidend zur Elimination der Mikroorganismen bei. Viele Untersuchungen weisen jedoch auch darauf hin, daß überschießend aktivierte zirkulierende PMNL für die Pathologie des septischen multiplen Organversagens mitverantwortlich sind. Die vorliegende Studie dient der Charakterisierung der Sauerstoffradikalproduktion emigrierter und zirkulierender PMNL bei Patienten mit sekundärer Peritonitis. Hierfür wurde mit Hilfe der luzigenin- bzw. luminolverstärkten Chemilumineszenz die extra- sowie intrazelluläre Sauerstoffradikalproduktion polymorphkerniger Leukozyten bestimmt. Dabei wurde die Sauerstoffradikalproduktion von Patienten mit unkompliziertem Verlauf einer Peritonitis mit der der Peritonitispatienten mit systemischen Komplikationen (septischer Schock, multiples Organversagen) verglichen. Acht Patienten nach abdominalchirurgischer Operation ohne Infektion dienten als Kontrollen. Eine Aktivierung der extrazellulären und intrazellulären Sauerstoffradikalproduktion polymorphkerniger Leukozyten war durch rezeptorabhängige und rezeptor-unabhängige Stimuli möglich. Bei Patienten nach abdominalchirurgischer Operation ohne Infektion war die Sauerstoffradikalproduktion der in die Bauchhöhle emigrierten PMNL höher als die zirkulierender PMNL. Auch bei Patienten mit einer unkomplizierten Peritonitis war die Sauerstoffradikalproduktion der intraabdominalen Granulozyten stärker aktivierbar als die der zPMNL. Im Gegensatz hierzu war jedoch bei Peritonitispatienten mit systemischen Komplikationen die extrazelluläre sowie auch die intrazelluläre Sauerstoffradikal-produktion emigrierter, intraabdominaler PMNL reduziert. Die stimulierte Sauerstoff-radikalproduktion zirkulierender PMNL war bei Patienten mit schwerer Peritonitis hochgradig aktivierbar und übertraf die der emigrierten PMNL. Die hohe Sauerstoffradikalproduktion zirkulierender PMNL bei Patienten mit kompliziertem Verlauf einer Peritonitis verbunden mit einer erniedrigten Sauerstoffradikalproduktion emigrierter polymorphkerniger Leukozyten sprechen für eine überaus starke systemische Aktivierung der Leukozyten. Dagegen scheint die lokale Abwehr im Rahmen einer schweren Peritonitis supprimiert. Die bei der vorliegenden Untersuchung erfaßten hohen intraabdominalen Zytokinkonzen-trationen könnten für eine Deaktivierung emigrierter Leukozyten verantwortlich sein. Zudem könnte die systemische Hyperinflammation polymorphkerniger Leukozyten mit einer vorzeitigen Einleitung der Apoptose und konsekutiver lokaler Immunparalyse verbunden sein. Wenig ist bis heute über die Modulierbarkeit emigrierter, intraabdominaler polymorphkerniger Leukozyten durch antiinflammatorische Substanzen bekannt. Daher wurde in der vorliegenden Untersuchung die Suppression der Sauerstoff-radikalproduktion emigrierter polymorphkerniger Leukozyten durch verschiedene antiinflammatorische Substanzen erprobt. Der Einfluß dieser Substanzen auf die Phagozytoseaktivität emigrierter PMNL wurde mit Hilfe der Durchflußzytometrie evaluiert. Chloramin, Buflomedilhydrochlorid und Pentoxiphyllin konnten die Sauerstoffradikal-produktion der emigrierten polymorphkernigen Leukozyten supprimieren, ohne die Phagozytosekapazität der Leukozyten zu beeinträchtigen.
Untersuchungen zur Funktion von Koaktivatoren in der JAK-STAT-vermittelten Transkriptionsaktivierung
(2002)
STAT-Proteine sind latente Transkriptionsfaktoren, die durch Stimulation mit Zytokinen aktiviert werden. STAT5 vermittelt beispielsweise die durch Prolaktin-Stimulation induzierte Bildung von Milchproteinen während der Schwangerschaft. STAT6 wird durch die Zytokine IL-4 und IL-13 aktiviert, die die humorale Immunität regulieren. STAT-Proteine schalten die Transkription ihrer Zielgene an, indem sie bestimmte Koaktivatorkomplexe, die p300/CBP enthalten, an den Promotor rekrutieren. In dieser Arbeit wurde die Bedeutung der NCoA-Koaktivatorfamilie (p160/SRC) für die Transkriptionsaktivierung durch STAT5a, STAT5b und STAT6 untersucht. In transienten Transfektionsexperimenten konnte gezeigt werden, daß NCoA-1, jedoch nicht die beiden anderen Vertreter NCoA-2 und NCoA-3, als essentieller Koaktivator dieser STAT-Proteine wirkt. Obwohl NCoA-l von den Transaktivierungsdomänen der drei STAT-Proteine gleichermaßen rekrutiert wird, wird die Bindung über verschiedene Kontaktstellen vermittelt: STAT5 bildet einen Komplex mit NCoA-1 in Zellen, wobei die Interaktion vermutlich durch sekundäre Modifikationen in NCoA-l reguliert ist. Dagegen bindet STAT6 direkt an die aminoterminale Region von NCoA-l in vitro und in vivo. Die Bindungsregion wurde auf einen Bereich von AS 257-420 von NCoA-l kartiert. Somit wurde eine neue Interaktionsdomäne von NCoA-l identifiziert. Die Rekrutierung von NCoA-l wird durch ein LXXLL-Motiv innerhalb der Interaktionsdomäne von STAT6 (AS 792-847) vermittelt, das spezifisch für STAT6 ist. Das LXXLL-Motiv ist essentiell für die Funktion von STAT6, z. B. bei der Expression des endogenen Zielgens Eotaxin-3. Die STAT6/NCoA-l-Interaktion kann kompetitiv durch Peptide bzw. Polypeptide, die von den interagierenden Domänen abgeleitet wurden, und durch spezifische Antikörper inhibiert werden. Diese Inhibitoren haben keinen Effekt auf die Interaktion von nukleären Hormonrezeptoren mit NCoA-l, die ebenfalls durch LXXLL-Motive vermittelt wird. Die Blockierung der STAT6/NCoA-l-Interaktion führt zu einer verminderten Expression des endogenen STAT6-Zielgens Lipoxygenase. In dieser Arbeit wurde erstmals demonstriert, daß über die gezielte Blockierung von Kontaktstellen zwischen Transkriptionsfaktoren und ihren Koaktivatoren endogene Signalwege inhibiert werden können. Somit ergeben sich neuartige Möglichkeiten für die therapeutische Interferenz von Signalwegen, z. B. bei asthmatischen Erkrankungen.
Gephyrin ist ein Protein mit strukturellen und enzymatischen Eigenschaften. Ein Aspekt der strukturellen Funktion ist die synaptische Verankerung inhibitorischer Rezeptoren an das Zytoskelett. Darüber hinaus besteht die Möglichkeit, dass ein Interaktionspartner von Gephyrin, Collybistin, die Organistion des Aktin-Zytoskeletts reguliert. Die enzymatische Funktion von Gephyrin besteht in der Synthese eines Kofaktors, welcher für die Aktivität von Molybdoenzymen notwendig ist. Das gezielte Ausschalten des für Gephyrin kodierenden Gens weist im Mausmodell einen letalen Phänotyp auf. Als Ursache hierfür kommen die fehlende synaptische Aggregation von Glyzin- und GABAA-Rezeptoren in neuronalem Gewebe, sowie die fehlende Aktivität von Molybdoenzymen in peripheren Organen in Frage. Da sowohl Molybdän-Kofaktor-Defizienzen beim Menschen, wie auch bestimmte Mutationen von Glyzin- und GABAA-Rezeptoren bei Mäusen letal sind, kann der beobachtete Phänotyp nicht eindeutig zugeordnet werden. Die vorliegende Arbeit verfolgt zwei Ziele. Das erste ist eine Einengung der Binderegion von Collybistin an Gephyrin. Dabei konnte diese durch immunzytochemische und biochemische Methoden auf wenige Aminosäuren genau beschrieben werden. Verschiedene Strukturvorhersageprogramme weisen auf eine helikale Struktur für diesen Sequenzabschnitt hin. Der Austausch der Aminosäuren R107, D108, R111 und E117 mit Alanin führt über den Verlust ionischer Ladungen zum Verlust der Bindungseigenschaft. Das zweite verfolgte Ziel ist die Einführung eines transgenen Konstrukts, welches nur die Molybdän-Kofaktor-Synthesefunktion wiederherstellen soll, in den genetischen Hintergrund der Gephyrin-„knock-out“ Maus. Ziel dieser Analyse ist die Herstellung eines Phänotyps, bei dem die inhibitorische Transmission in einer Weise gestört ist, welche Symptome der Molybdän-Kofaktor-Insufizienz ausschließt. So sollte die Ursache für die Letalität der Gephyrin-Mutation zugeordnet werden können. Dazu wurde das pflanzliche Gephyrin-Homolog Cnx1 in ein Expressionskonstrukt kloniert, und nach biochemischer, immunzytochemischer und funktioneller Analyse in heterologen Zellen in eine Wildtyp-Mauslinie injiziert. Diese wurde mit Geph-/--Mäusen gekreuzt und die daraus resultierenden homozygoten, transgenen Tiere analysiert. Diese Tiere sterben ebenso wie die Geph-/--Mäuse am Tag der Geburt. mRNA des Transgens konnte in Hirn und Leber nachgewiesen werden, das Protein allerdings nur in Hirnextrakten. Dementsprechend lag die Aktivität des für die Lebensfähigkeit von Säugetieren wichtigsten Molybdoenzyms, der Sulfitoxidase, in Leberextrakten nur bei 30%. Eine morphologische Untersuchung von Gehirnschnitten ergab keine Auffälligkeiten. Eine Immunhistochemische Analyse von Rückenmarkschnitten zeigte in Übereinstimmung mit Beobachtungen an Gephyrin-„knock out“-Mäusen diffus verteilte Glyzin-Rezeptoren. Somit wurde eine Maus mit beeinträchtigter inhibitorischer synaptischer Transmission und partiell wiederhergestellter Molybdän-Kofaktor Biosynthese hergestellt. Aufgrund der großen Schwankungsbreite der Aktivität der Sulfitoxidase in Leberextrakten verschiedener Geph-/- + cnx Tiere wäre ein Unterschied in der Lebenserwartung verschiedener Tiere zu erwarten gewesen, wenn die Defizienz dieses Molybdoenzyms die Ursache für den letalen Phänoyp gewesen wäre. Da die transgenen Tiere aber wie die Geph-/- Mäuse wenige Stunden nach der Geburt sterben, ist davon auszugehen, dass der beschriebene Phänotyp auf das Fehlen der strukturellen Eigenschaften von Gephyrin zurückzuführen ist, und nicht von einer durch Beeinträchtigung des Schwefelstoffwechsels hervorgerufene progressive Schädigung des ZNS.
Untersuchungen zum technischen und teilchenoptischen Design kompakter Speicherringe für Ionen
(2002)
Die vorliegende Arbeit befasst sich mit der Berechnung und dem Bau von elektrostatischen Speicherringen. Eine solche Maschine kann als eine Kreuzung zwischen elektrostatischen Fallen und "klassischen" magnetischen Ringen angesehen werden. Kompakte Bauform, gute Zugänglichkeit der Elemente und vergleichsweise niedrigen Kosten werden mit hoher Flexibilität in Bezug auf mögliche Experimente kombiniert. Im 1. Kapitel werden zunächst die Unterschiede der Bewegung von Ionen in elektrostatischen und magnetischen Speicherringen untersucht. Die Massenunabhängigkeit der Teilchenbewegung bei gegebener Energie und Ladung in rein elektrostatischen Feldern erlaubt es, unterschiedlichste Ionen im Prinzip in direkter Folge in einen elektrostatischen Ring einzuschießen, ohne dass die Felder der optischen Elemente verändern werden müssen. Die Felder in den für einen Speicherring notwendigen Strahlführungskomponenten werden berechnet, die zugehörigen Bewegungsgleichungen aufgestellt und in linearer Näherung gelöst. Dabei werden zunächst die Bahnen einzelner Teilchen untersucht und dann das Strahlverhalten insgesamt durch Übergang auf einen Matrizenformalismus beschrieben. Die aus dieser Darstellung resultierenden Trajektorien stellen eine starke Vereinfachung dar. Die Untersuchung der realen Teilchenbewegung mit Einfluss von Randfeldern, Positionierungsfehlern und die Berechnung der dreidimensionalen Feldverteilung ist Gegenstand des 2. Kapitels. Ein kritischer Punkt bei der Bewegung von Teilchen in Ringbeschleunigern sind durch Feldfehler induzierten Resonanzerscheinungen. Zur Diskussion der verschiedenen möglichen Resonanzen werden im 3. Kapitel die Effekte durch zusätzliche Dipol- und Quadrupolfelder analysiert, dargestellt und schließlich anhand eines Resonanzdiagramms erläutert. In den geplanten Speicherring werden Ionen in einem einzigen Bunch, mit einer Ausdehnung von rund dem halben Ringumfang, injiziert. Ihre Lebensdauer hängt wesentlich von dem erzielbaren Vakuumenddruck ab. Die vorgesehenen Getterpumpen weisen eine sehr hohe Pumpleistung für die meisten Gase auf. Ihre Wirkungsweise wird im 4. Kapitel beschrieben und praktische Aspekte ihrer Handhabung diskutiert. Für den Betrieb eines Speicherrings ist es notwendig, die Parameter des umlaufenden Strahls zu jeder Zeit zu kennen und gegebenenfalls modifizieren zu können. Zentrales Element des Kontroll- und Diagnosesystems sind Strahlpositionsmonitore. In elektrostatischen Pickup-Elektroden induziert der Strahl beim Durchgang Spannungen über die eine Positionsbestimmung möglich ist. Die Wirkungsweise dieser Sonden wird in der zweiten Hälfte des 4. Kapitels diskutiert und Methoden zur Signalaufbereitung und -analyse beschrieben. Die allgemeinen Ergebnisse der Überlegungen zu elektrostatischen Speicherringen aus den ersten Kapiteln werden schließlich auf spezielle Fälle übertragen. Im Rahmen dieser Arbeit wurden verschiedene Entwürfe für einen elektrostatischen Speicherring angefertigt und ein Viertelringsegment zu Testzwecken entworfen und aufgebaut. Die Ergebnisse sind Inhalt des abschließenden 5. Kapitels. Mit den in dieser Arbeit vorgestellten Methoden ist es möglich, elektrostatische Speicherringe detailliert zu berechnen und an die experimentellen Rahmenbedingungen anzupassen. Sämtliche Rechnungen wurden im Hinblick auf den geplanten Bau eines Rings für Teilchen mit Energien bis 50 keV durchgeführt.
In dieser Arbeit erfolgt eine Untersuchung der intrazellulären Transporteigenschaften des Na /Glucose Cotransporters SGLT1 aus dem Kaninchen. Der Transporter wird dazu heterolog in Xenopus laevis Oozyten exprimiert. Die hohe Expressionsdichte erlaubt die Anwendung der "giant excised patch clamp"-Technik in der inside-out Konfiguration. Die Patches mit Durchmessern von 20-30 µm enthalten ca. 2,5 - 5·10 hoch 6 Transportern bei einem durchschnittlichen Strom von 20-40 pA. Der Transport des Substrats Glucose bzw. des hier verwendeten alpha MDG wird angetrieben durch den elektrochemischen Gradienten für das Cosubstrat Na . Bei 0 mV Haltepotential wird zuerst die reine Konzentrationsabhängigkeit des Auswärtstransports durch die Bestimmung der apparenten intrazellulären Affinität für alpha MDG bei verschiedenen festen Na -Konzentrationen untersucht. Es kann eine deutliche Abhängigkeit des KM alpha MDG von der Na -Konzentration festgestellt werden. Eine Erhöhung der intrazellulären Na -Konzentration von 10 mM auf 400 mM führt zu einer ca. 12fachen Abnahme des KM alpha MDG. Experimente mit symmetrischer Na -Verteilung zeigen, dass auch ohne Na -Konzentrations-Gradient Transport stattfinden kann, allerdings mit einer deutlich geringeren Affinität für alpha MDG. Verglichen mit Literaturwerten für die extrazelluläre alpha MDG-Affinität ist die intrazelluläre Affinität 10-15mal geringer ist als die extrazelluläre. Die Untersuchung der Abhängigkeit von der Na -Konzentration bei verschiedenen festen MDG-Konzentrationen zeigt, dass KM Na eine geringe Abhängigkeit von der alpha MDG- Konzentration besitzt. Die 10fache Erhöhung der alpha MDG-Konzentration von 25 mM auf 250 mM führt nur zu einer leichten Erniedrigung des KM Na. Die intrazelluläre Na - Affinität liegt in der gleichen Größenordnung wie die extrazelluläre. Zur Untersuchung der intrazellulären Bindungsreihenfolge werden die gemessenen Abhängigkeiten des KM alpha MDG und des I Max von der Na -Konzentration mit Simulationen für die 3 möglichen Bindungsreihenfolgen (2Na :G), (Na :G:Na ) und (G:2Na ) verglichen. Mit den hier gemachten Annahmen für die intrazellulären Bindungskonstanten für MDG und Na wird die beste Übereinstimmung für die intrazelluläre Bindungsreihenfolge (2Na :G) gefunden. Zur Untersuchung des spannungsabhängigen Verhaltens der Affintitäten für alpha MDG und Na werden Spannungssprünge unter denselben Konzentrationsbedingungen wie vorher durchgeführt. Die Strom-Spannungs-Kennlinien zeigen eine Zunahme der zuckerinduzierten Stromamplituden zu positiven Potentialen hin. Dabei wird weder bei hyperpolarisierenden noch bei depolarisierenden Potentialen eine Sättigung erreicht. Dies läßt den Rückschluss, dass im betrachteten Spannungsbereich ein spannungsabhängiger Schritt im Transportzyklus geschwindigkeitsbestimmend ist. Die apparenten Affinitäten für alpha MDG und Na besitzen eine geringe Spannungsabhängigkeit. Der KM alpha MDG bei annähernd sättigender Na -Konzentration fällt zwischen 40 mV und 40 mV um einen Faktor 4,4. Bei verringerter Na -Konzentration beeinflusst das Membranpotential die MDG-Affinität stärker. Der KM Na fällt unter sättigenden Zuckerbedingungen im gleichen Spannungsbereich auf die Hälfte ab, wobei der Hill-Koeffizient konstant bleibt. Die Erniedrigung der alpha MDG-Konzentration verursacht keine Veränderung des spannungsabhängigen Verlaufs. Die Ergebnisse zeigen, dass SGLT1 ein reversibler Transporter ist, der sowohl Einwärts-, aber auch Auswärtstransport von Glucose generieren kann. Er zeigt dabei eine starke Abhängigkeit von der Na -Konzentration und eine geringe Abhängigkeit vom Membranpotential. Die hier bestimmten Eigenschaften zeigen aber auch, dass unter physiologischen Bedingungen ein Auswärtstransport von Glucose sehr unwahrscheinlich ist. Das Zusammenwirken der Faktoren Richtung des Na -Gradient, geringe Zuckeraffinität, negatives Membranpotential und geringe intrazelluläre Na - Konzentration verhindern den Auswärtstransport. Der physiologische Na -Gradient ist dem Auswärtstransport entgegengerichtet. Die geringe intrazelluläre Na -Konzentration und das negative Membranpotential verursachen eine sehr geringe intrazelluläre Zuckeraffinität von ca. 75 mM alpha MDG, so dass ein merklicher Auswärtstransport nur bei einer hohen Zuckerkonzentration innerhalb der Epithelzellen stattfinden kann. Dies wird jedoch durch basolaterale Glucose-Transporter verhindert. Das negative Membran- potential führt zu einer geringen Aktivität des Auswärtstransports. Die geringe intrazelluläre Na -Konzentration liegt weit unterhalb es KM Na , so dass auch hier die Transporteraktivität gering ist. Die asymmetrische Funktionsweise des SGLT1 gewährleistet, dass der Glucose- Transport nur in eine physiologisch sinnvolle Richtung, nämlich der Aufnahme von Glucose in die Epitheltzellen, stattfindet.
Mit der fortschreitenden Verkleinerung von Prozessoren und Speicherbausteinen in der Mikroelektronik ist der Einsatz neuer Materialien oft unumgänglich. Zur Zeit steht Siliciumdioxid, das als Dielektrikum in Transistoren eingesetzt wird, im Blickfeld des Interesses. Die kleiner werdenden Strukturen führen hier zu dünneren SiO2-Schichten, was bei Schichtdicken unter 2 nm einen Anstieg der Tunnelströme im SiO2 zur Folge hat. Dies stellt für die Bauelemente ein erhöhtes (Kurzschluss-) Risiko dar. Seit geraumer Zeit finden spezielle Speicherzellen große Aufmerksamkeit, in denen Perowskite für die Gate-Oxidschichten zum Einsatz kommen. Sie sind charakterisiert durch hohe Dielektrizitätskonstanten (ε > 20, SiO2 ~ 4 ) oder weisen ferroelektrische Eigenschaften auf. Als interessante Kanditaten für das Dielektrikum gelten zur Zeit BST (Barium-Strontium-Titanat), SBT (Strontium-Bismut-Tantalat) oder PZT (Blei-Zirkonium-Titanat). Die Einführung neuer Materialien in die Chip-Technologie ist immer mit einem Risiko verbunden. Einer der Hauptfaktoren für die Ausbeutelimitierung bei der Produktion von Halbleiterbauelementen ist die Metallkontamination auf Silicium-Oberflächen. Aufgrund ihrer Eigenschaften können Metallverunreinigungen die elektrischen Eigenschaften von Halbleiterbauelementen schädigen. Bisherige Untersuchungen an oben genannten Schichten konzentrierten sich auf das elektrische und physikalische Verhalten. Wenig war bislang bekannt über das Kontaminationsverhalten und dadurch bedingte Auswirkungen/Risiken auf die Bauelemente. Im Rahmen der vorliegenden Arbeit wurden Kontaminationsaspekte, insbesondere während Hochtemperaturprozessen, einiger Metalle auf Silicium (100)-Oberflächen näher untersucht. Das Hauptaugenmerk lag hierbei neben dem Adsorptions- und Desorptionsverhalten auf der Diffusion folgender Elemente: Barium, Strontium, Bismut, Iridium und Platin. Erkenntnisse über die Reaktivität der Metalle bei unterschiedlichen Reaktionsbedingungen sollten mögliche Risikofaktoren des Einsatzes neuer obiger Dielektrikum-Schichten aufzeigen. Die Ergebnisse für die untersuchten Elemente der II. Hauptgruppe, Barium und Strontium sprechen für ein träges Reaktionsverhalten während der Temperprozesse. Unter den vorliegenden Bedingungen wurden die Metalle im nativen oder thermischen Oxid eingelagert (gute Oxidbildner) und ließen sich mittels einer Oxid-Ätzung vollständig von der Si-Oberfläche entfernen. Unabhängig von der Atmosphäre (N2, O2) und der Si-Oberfläche (hydrophil, hydrophob) waren keine Quer-Kontaminationen durch Desorption zu beobachten. Angesichts der starken Tendenz zur Oxid-Bildung bzw. Einlagerung ließ sich keine nennenswerte Diffusion ins Si-Substrat erkennen. Ferner war ein Einfluss auf die Oxidationsrate und Oberflächenrauhigkeit nicht zu beobachten. Mit Blick auf den Einsatz in der CMOS-Technologie stellen Barium und Strontium, wegen ihres geringen Diffusionsvermögens, keine Gefahr für die Si-Substrateigenschaften dar. Sie können jedoch als Verunreinigungen Si-Oxid zu einer Anreicherung an zusätzlichen positiven Ladungen führen und sich negativ auf die Qualität des Oxids auswirken. Bismut präsentierte sich auf hydrophilen Si-Substraten insbesondere unter N2-Atmosphäre als sehr volatil. Dieses Verhalten, höchstwahrscheinlich flüchtiger Bi-Oxide, kann durch Gasphasentransport zu Quer-Kontaminationen benachbarter Si-Substrate führen. Unabhängig von der Temperatmosphäre lassen sich Quer-Kontaminationen ausschließlich auf oxidierten Si-Substraten beobachten, was auf die Notwendigkeit eines bereits vorhandenen dünnen Siliciumoxids als Voraussetzung für eine Quer-Kontamination hindeutet. Eine mögliche Erklärung wäre in der Bildung von weniger flüchtigen Bi-Silikaten zu finden. Die enormen Verluste an Bismut auf hydrophoben Oberflächen finden eine Begründung in dem hohen Abdampfverhalten des vermutlich reduktiv abgeschiedenen Bismuts auf dem Silicium Ähnlich wie Barium und Strontium bevorzugt Bismut den Verbleib im Oxid während Oxidationsprozessen (Bildung von Oxiden und mgl. Bi-Silikaten). Auch hier wiesen die Verunreinigungen keinen Einfluss auf das Oxidwachstum sowie dessen Oberflächenrauhigkeit auf und ließen sich mit einer Oxid-Ätzung von der Si-Oberfläche entfernen. Tiefenprofil- und ELYMAT-Untersuchungen ließen keine Diffusion und schädliche Einflüsse auf die Eigenschaften des Siliciums beobachten. Prozesstechnisch gesehen ist die Bildung möglicher Bi-Silikate unerwünscht, da sie wegen der unterschiedlichen Dichte des SiO2 zu Stress-Regionen auf dem Wafer führen können [21]. Weiterhin besteht gerade in der hohen Flüchtigkeit und Quer-Kontamination ein hohes Kontaminationsrisiko für die Prozess-Apparaturen, andere Wafer und somit der „Verschleppung“ in andere Technologien. Von einer anderen Seite zeigten sich die untersuchten Metalle der Platingruppe, Iridium und Platin. Verunreinigungen an Iridium diffundieren, unabhängig von den RTPBedingungen, ins Si-Substrat und führen zu einer eindeutigen Verringerung der Ladungsträgerlebensdauer („Liftime-Killer“ [45]). Hier zeigten in O2 behandelte Substrate niedrigere Eindringtiefen, was auf eine stärkere Desorption flüchtiger Oxidverbindungen und denkbaren Ir-O-Si-Verbindungen im SiO2 [174] zurückgeht. Parallel hierzu waren Quer-Kontaminationen zu beobachten die durch die Flüchtigkeit von IrO3 erklärt werden können. Ferner führen Verunreinigungen an Iridium zu einem geringeren Oxidwachstum. AFM-Untersuchungen unterstützen die Vermutung einer Ir-Silicidierung an der SiO2/Si-Grenzfläche unter N2-Atmosphäre und forcieren die Bildung von diffusionseinschränkenden Ir-Verbindungen unter O2. Das in der Halbleiter-Technologie bereits eingesetzte Platin ist ausreichend untersucht worden [45] und begleitete die Untersuchungen als Referenzelement. Aus der Literatur bereits bekannt, zeigt Platin ein ausgeprägtes Diffusionsvermögen in das Si-Substrat, unabhängig von dem Temperaturprozess. Dort wirkt es als Generations-/ Rekombinationszentrum und reduziert die Lebensdauer der Ladungsträger. Quer-Kontaminationen waren generell nicht zu beobachten, da unter den vorliegenden Versuchsbedingungen keine flüchtigen Pt-Verbindungen gebildet werden. Dem Iridium ähnlich zeigte Platin bei 1000°C unter O2 im Vergleich eine etwas niedrigere Oxiddicke, was ebenfalls in der Bildung einer Diffusionsbarriere bzw. Pt-O-Si-Bereichen [174] einen möglichen Interpretationsansatz findet. Hinsichtlich des Einsatzes in der Halbleitertechnologie stellen Iridium und Platin wegen ihrer Eigenschaften (hohe Mobilität sowohl im SiO2 und Si, Gasphasentransfer (Ir unter O2), Reduktion der Ladungsträgerlebensdauer) ein enormes Risiko- und Störpotential dar. Während bei Bismut ebenso die Gefahr der Quer-Kontamination besteht, sind die Metalle Barium und Strontium dagegen als weniger kritisch einzustufen.
Die Messung von heteronuklearen 15N-Relaxationszeiten (Longitudinale, transversale sowie heteronukleare NOE) bei verschiedenen Magnetfeldstärken (500, 600 und 800 MHz 1H Larmorfrequenz) ergeben Informationen über interne dynamische Prozesse in Biomolekülen. Diese verschiedenen Relaxationsraten sind voneinander abhängig und über die spektrale Leistungsdichtefunktion miteinander gekoppelt. Die mikrodynamischen Parameter des NH-Peptidrückgratvektors (der Ordnungsparameter S2 und die effektive interne Korrelationszeit te) sowie der Beitrag des konformationellen Austausches zur transversalen Relaxationsrate der Austauschparameter Rex wurden für einige Proteine errechnet und angepaßt. Das Human ILBP gehört zur Familie der intrazellulären Lipidbindungsproteine (LBP), die in der Lage sind, Fett- und Gallensäuren spezifisch zu binden und in Cytosol zu transportieren. Viele verschiedene Typen von LBPs sind bis heute identifiziert worden. Diese Proteine enthalten 127 - 135 Aminosäurereste und werden nach dem Gewebe benannt, aus dem sie isoliert wurden. Human-ILBP enthält 127 Aminosäurereste und besteht haupsächlich aus 10 antiparallelen beta-Faltblattsträngen, die eine beta-Fassstruktur mit einer großen Bindungstasche bilden, und zwei alpha-Helices. ILBP hat die Tendenz, Gallensäuren oder Fettsäuren zu binden. Diese geringe Tendenz zur liganden Spezifität ist entweder in der Struktur oder in seiner Dynamik begründet. Aus diesem Grund kann die Untersuchung der Dynamik des Human ILBP (apo- und holo-Form) in zwei Zeitfenstern zum besseren Verständnis der Funktion führen. Für die nicht-terminalen Peptidrückgratgruppen wurde ein S2-Parameter> 0,8 mit einen Durchschnitt von 0,88 beobachtet, was auf eine niedrige Mobilität im ganzen Protein in einem Nano- zu Picosekunden-Zeitfenster deutet, wobei eine Korrelationszeit von tc = 6.25 ns für ILBP (apo-form) und tc = 6.10 ns für ILBP (holo-Form) beobachtet wurde. Apo- und holo-Form (mit Taurocholat als Ligand) zeigen eine ähnliche Dynamik in diesem Zeitfenster. Überdurchschnittliche S2-Werte der alpha-Helix I deuten eine geringe Flexibilität des Peptidrückgrats an, während alpha-Helix II als Teil der Portalregion eine höhere Beweglichkeit zeigt. Austauschparameter Rex wurden hauptsächlich in den Regionen der Ligandenbindung nachgewiesen. Die hier beschriebenen Eigenschaften unterscheiden sich von denen des H-FABP und des E-FABP. Offensichtlich unterscheiden sich verschiedene Mitglieder der LBP-Familie wie ILBP (Human oder Schwein), H-FABP und E-FABP in der Funktion und Dynamik des Peptidrückgrats. In der vorliegenden Arbeit wurden die transversalen 15N CSA/DD-kreuzkorrelierten Kreuzrelaxationsraten bestimmt. Für die Bestimmung der Anisotropie des chemischen Verschiebungstensors wurde des Verhältnis zwischen den Auto- und Kreuzrelaxationsraten in Abhängigkeit von der magnetischen Feldstärke genutzt, wobei es möglich war, die Orientierung und Größe des CSA-Tensors einzelner Aminosäurereste zu bestimmen. Bei dieser Methode (wie auch in vielen anderen Studien gezeigt) wurde keine Korrelation zwischen der Sekundärstruktur des Proteins und den 15N CSA-Werten festgestellt. Zum Vergleich der CSA-Konstanten der ILBP-Spezies wurden die entsprechenden Parameter der RNaseT1 gemessen. Alle Daten wurden im Hinblick auf strukturelle Details kritisch diskutiert.
Das Genom des Archaeons Halobacterium salinarum kodiert vier Proteine der SMC Protein Superfamilie. Zwei Proteine bilden dabei eine neue Gruppe und werden "SMC-artige Proteine von H. salinarum" (Sph1 und Sph2) genannt. Eine Transkriptanalyse ergab, dass sph1 und das 114 bp stromabwärts gelegene hp24 Gen ausschließlich in exponentiell wachsenden Zellen transkribiert werden. In Zellen der stationären Wachstumsphase ist keines der beiden Transkripte nachweisbar. Die Funktion von Sph1 wurde durch Versuche mit Überproduktions- und Depletionsstämmen von H. salinarum untersucht. Die konditionale Überproduktion von Sph1 inhibiert die weitere Zellteilung und führt zu einer Längenzunahme der Zellen. Erstmals wurde durch ein antisense-mRNA-System in einem Archaeon ein Protein, Sph1, depletiert. Die Depletion führt ebenfalls zur Inhibition der weiteren Zellteilungsereignisse. Beide Phänotypen zeigen, dass Sph1 eine essentielle Rolle im Verlauf des Zellzyklusses einnimmt. Um Zellzyklus spezifische Ereignisse zu analysieren wurde eine Synchronisationsprozedur für H. salinarum entwickelt. Dazu wurde der Effekt von sechs eukaryalen Zellzyklusinhibitoren auf den Zellzyklus von H. salinarum untersucht. Bei geeigneter Konzentration verursacht der effizienten DNA Polymerase Inhibitor Aphidicolin eine schnelle und reversible Zellzyklusblockade, während andere zelluläre Prozesse nicht beeinflusst werden. Durch Ermittlung der Zelldichte, der mittleren Zelllänge und des Anteils an Septum bildenden Zellen wurde festgestellt, dass nach Entfernen des Inhibitors ca. 70 % der in der Kultur vorhandenen Zellen den Zellzyklus synchron durchlaufen. Diese Prozedur erlaubt erstmals die Untersuchung der Zellzyklus abhängigen Regulation der Transkription, Proteinakkumulation sowie der intrazellulären DNA-Lokalisation in einem Archaeon. Transkriptionsstudien mit synchron wachsenden H. salinarum-Kulturen ergaben, dass das sph1 Transkript eindeutig Zellzyklus abhängig reguliert ist. Die maximale Transkriptmenge ist dabei zum Zeitpunkt der Septumbildung nachweisbar. Die Expression des hp24 Gens beginnt etwa eine Stunde vor der Expression des sph1 Gens. Bevor die sph1 Transkriptmenge ihr Maximum erreicht, nimmt die hp24 Expression wieder ab. Das cdcH Gen, das für ein Protein der Cdc48 Familie kodiert, ist wie das sph1 Gen um den Zeitpunkt der Septumbildung stark induziert, während ein ftsZ Allel nicht in Zellzyklus abhängiger Weise reguliert ist. Die Transkriptionsmuster zeigen, dass die Transkription verschiedener Gene im Verlauf des haloarchaealen Zellzyklusses präzise reguliert wird. Die Sph1 Proteinmenge ist ebenfalls während des Zellzyklusses reguliert; sie ist erhöht, wenn die Segregation der neuen Chromosomen nahezu abgeschlossen ist. Folglich hat Sph1 vermutlich eine Funktion in der späten Phase der Replikation, z.B. in der DNA-Reparatur wie auch die eukaryalen Rad18 Proteine. Im Gegensatz zum sph1 Transkript ist das Protein während des gesamten Zellzyklusses in H. salinarum nachweisbar. Es ist daher nicht auszuschließen, dass Sph1 eine weitere Funktion ausübt, die eine Präsenz während des gesamten Zellzyklusses benötigt. Ein Färbeprotokoll mit einem DNA spezifischen Fluoreszenzfarbstoff wurde entwickelt, um die intrazelluläre Lokalisation des Nukleoids in H. salinarum zu bestimmen und seine differenzierte Positionierung im Verlauf des Zellzyklusses in synchronisierten Zellen zu verfolgen. Synchronisierte Kulturen wurden mit Fluoreszenzmikroskopie untersucht. Es zeigte sich, dass das haloarchaeale Nukleoid nach einer anfänglichen Verteilung auf die gesamte Zelle in der Zellteilungsebene kondensiert. Im weiteren Verlauf wird die DNA zügig an die 1/4 und 3/4 Positionen transportiert. Alle DNA-Strukturen wurden auch in unbehandelten Zellen beobachtet, so dass Synchronisationsartefakte ausgeschlossen werden können. Diese Daten beweisen, dass die DNA in Haloarchaea aktiv zu spezifischen intrazellulären Regionen transportiert wird und legen nahe, dass die Replikation in der Zellteilungsebene erfolgt, wie es in den letzten Jahren für einige bakterielle Arten nachgewiesen wurde. Die Untersuchungen bilden die Grundlage für weitere Untersuchungen molekularer Details des archaealen Zellzyklusses.
In der vorliegenden Arbeit wurden die Eigenschaften heißer dichter Kernmaterie in relativistischen Schwerionenkollisionen mit Hilfe transporttheoretischer Methoden untersucht. Dabei wurden über einen weiten Energiebereich von 1 A GeV am GSI/SIS18 über BNL/AGS und GSI/SIS200 bis hin zu 160A GeV Einschußenergie am CERN/SPS verschiedene Observablen diskutiert und mit eigenen Modellrechnungen verglichen. Zunächst wurden in Kapitel 1 in die theoretischen Grundlagen der mikroskopischen Transporttheorie eingeführt und die wichtigsten semiklassischen mikroskopischen Transportmodelle vorgestellt. Das unter eigener Mitwirkung am Institut für Theoretische Physik entstandene Transportmodell, das UrQMD-Modell, wurde im Rahmen dieser Arbeit bis zur Versionsnummer 1.3 verbessert und erweitert. Das Modell und ein Überblick verschiedener Observablen im Modell wurden bereits früher gemeinsam publiziert. Die ausführliche Diskussion dieses Modells in der jetzigen Fassung findet sich in Kapitel 2. Besonders der komplexe Kollisionsterm wird detailliert und systematisch beschrieben. Wo vorhanden, werden die implementierten Kanäle und Wirkungsquerschnitte den experimentellen Daten gegenübergestellt. In Kapitel 3 wurde eine Methode zur relativistisch korrekten Berechnung von Baryon und Mesonendichten sowie von Energiedichten entwickelt. Mit dieser Methode konnten Zeitentwicklungen und Ortsraumverteilungen von Dichten im Bereich von 1 bis 160 A GeV erstellt werden. Im Vordergrund der Analysen stand die Fragestellung, welches Raum-Zei-tVolumen die Hochdichtephase in Abhängigkeit von der Einschuß energie einnehmen kann. Bemerkenswertes Ergebnis dieser Untersuchungen war, daß die maximal erreichbare Dichte zwar mit der Einschußenergie monoton ansteigt, je doch eine besonders ausgedehnte und langlebige Phase hoher Baryonendichte bei Einschußenergien zwischen 5 und 10 GeV/Nukleon erreicht wird. Auch wurde am Beispiel des Systems Uran-Uran bei 23 A GeV untersucht, inwieweit durch den Einsatz deformierter Kerne die Hochdichtephase intensiviert werden kann. Die Rechnungen haben gezeigt, daß die vorhergesagte Steigerung der Baryondichte um 30% bei Verlängerung der Hochdichtephase um 50% nicht realistisch ist. In weiteren Analysen wurden die in Schwerionenkollisionen erreichbaren Energiedichten diskutiert, sowie eine Interpretation der nichtformierten Hadronen als ein "partonischer" Freiheitsgrad vorgestellt. Es hat sich gezeigt, daß der partonische Beitrag zur Energiedichte vor allem in der Frühphase der Kollision bei weitem überwiegt. Im Kapitel 4 wurde ein Modell zur Produktion von Kaonen in der Nähe der Produktionsschwelle vorgestellt. Die elementaren Produktionskanäle wurden hier über hoch massige Resonanzen modelliert, im Gegensatz zu anderen vorgeschlagenen Modellen, die direkte Parametrisierungen vornehmen. Desweiteren wurden alle implementierten Produktions und Streukaäale von seltsamen Hadronen im Vergleich mit experimentellen Daten diskutiert. Das Kapitel 5 widmete sich ausschließlich der Produktion von Mesonen bei SIS18 Energien. Zunächst wurde ausführlich auf den Produktions und Absorptionsprozeß von Pionen im System Pi-N-Delta eingegangen. Sowohl Spektren als auch Multiplizitäten in Abhängigkeit von der Anzahl an Partizipanten im UrQMD wurden mit experimentellen Daten von TAPS und FOPI verglichen. Die Ergebnisse legen nahe, daß die Pionproduktion bis 2 A GeV im Rahmen der mikroskopischen Transporttheorie vollständig verstanden werden kann, wenn neben dem Delta1232 auch alle höheren Resonanzzustände sowie multiste-pAnregungen in die Rechnung einbezogen werden. Auch die Produktion von Kaonen in Abhängigkeit von der Anzahl an Partizipanten und der Systemgröße wurde diskutiert. Auch hier können die gemessenen Zusammenhänge qualitativ im Rahmen des mikroskopischen Modells verstanden werden. Zum Abschluß des Kapitels wurden Ausfrierzeiten, radien und dichten für einzelne Baryonen und Mesonenspezies analysiert. Zentrales Ergebnis dieser Untersuchungen ist, daß es bei einer Schwerionenreaktion keineswegs zu einem simultanen Ausfrieren aller Hadronspezies bei gleicher Dichte und gleichem Radius kommt, sondern daß die Ausfrierverteilungen eine komplexe Zeit und Ortsraumstruktur aufweisen, die u.a. von den Wirkungsquerschnitten und Produktionsmechanismen für die einzelnen Spezies abhängt. In Kapitel 6 wurden die erst kürzlich publizierten Daten der NA49Kollaboration bei 40, 80 und 160 A GeV einer detaillierten Analyse mit dem UrQMD-Modell unterzogen, sowie Vorhersagen für die geplanten Messungen bei 20 A GeV gemacht. Es konnte gezeigt werden, daß es für den Vergleich von Modellrechnung mit dem Experiment notwendig ist, genau die gleiche Zentralitätsbestimmung wie im Experiment zu benutzen. Eine einfache Beschränkung auf ein festes Stoßparameterintervall führt zur Selektion einer falschen Gruppe von Ereignissen. Ein Vergleich des Abstoppverhaltens von Protonen, Hyperonen, Antiprotonen und Antihyperonen hat gezeigt, daß zwar die Dynamik der Baryonen im Rahmen des UrQMD-Modells gut verstanden werden kann, jedoch die Produktion der Antibaryonen um ein mehrfaches unterschätzt wird. Verschiedene Erklärungsmodelle, wie screening oder die Verletzung des detaillierten Gleichgewichts bei Stringzerfällen wurden diskutiert. Auch der starke Einfluß der Implementierung von Annihilationskanälen konnte aufgezeigt werden. Zum Schluß des Kapitels wurde die Produktion von Kaonen und Antikaonen im Modell und im Experiment einer genauen Analyse unterzogen. Die Modellrechnungen legen nahe, daß bei SPS-Energien weder Kaonen noch Antikaonen als direkte Signael der frühen Phase der Kollision betrachtet werden können. Zwar wird die Gesamtseltsamkeit des Systems im wesentlichen in den ersten, harten Kollisionen erzeugt, jedoch finden hinterher noch zahllose Kollisionen mit Seltsamkeitsaustausch statt, bevor Kaonen und Antikaonen endlich ausfrieren. Im letzten Kapitel schließlich wurden die Analysen auf die Daten vom BNL/AGS ausgedehnt und ein vergleichender Überblick über den gesamten Energiebereich von SIS18 bis SPS vorgenommen. Um die Robustheit sowohl der Observablen als auch der mikroskopischen Transporttheorie zu testen, wurden bei acht Energien die Form der Spektren von Protonen, Pionen, Kaonen, Lambdas und Sigmas in Rechnungen mit zwei unabhängigen Transportmodellen und den experimentellen Daten verglichen. Desweiteren wurden für alle Spektren sowohl die 4-Pi -Daten als die Werte bei Mittrapidität ermittelt und als Funktion der Einschußenergie mit den experimentellen Daten verglichen. Schließlich wurden aus den Multiplizitäten Hadron-Hadron-Verhältnise gebildet und diese wiederum mit den Daten verglichen. Neben vielen interessanten Detailerkenntnissen konnte das folgende grobe Bild entwickelt werden: Die korrekte Produktion von Seltsamkeit, sowohl in Hyperonen als auch in Kaonen, gelingt beiden hadronischen Modellen, ohne daß besondere nichthadronische Effekte angenommen werden müßten, über den gesamten Energiebereich. Die Pionproduktion wird bei den verschiedenen Energien mal von dem einen, mal von dem anderen Modell besser beschrieben, nie jedoch sind die Abweichungen größer als etwa 20%. Die Teilchenverhältnisse, deren qualitativer Verlauf ein mögliches Signal für einen Phasenübergang sein soll, werden trotz guter Beschreibung der Pionen und sehr guter Beschreibung der Kaonen von beiden Modellen qualitativ völlig unterschiedlich vorhergesagt. Die im Rahmen dieser Arbeit durchgeführten Rechnungen legen also nahe, daß zum einen die Rolle der Seltsamkeitsproduktion als Indikator für nichthadronische Physik überdacht werden sollte, und zum anderen der qualitative Verlauf des K +/Pi -Verhältnisses aufgrund der geringen Fehlertolleranz nicht als belastbarer Beweis eines Phasenübergangs gesehen werden sollte.
Untersuchung biochemischer Parameter des Lipidstoffwechsels bei chirurgischen Intensivpatienten
(2002)
Das Ziel der vorliegenden Arbeit war, die biochemischen Zusammenhänge von häufig auftretenden Störungen des Fettstoffwechsels unter den Bedingungen der längerfristigen postoperativen Intensivtherapie zu untersuchen. In die Untersuchung eingeschlossen wurden Patienten mit einer Mindestaufenthaltsdauer auf der chirurgischen Intensivpflegestation von sieben Tagen, bei denen im Verlauf dieses Aufenthalts der prozentuale Anteil der alpha-Lipoproteine (elektrophoretisch) auf 20 % oder darunter bzw. der Cholesterinesterquotient auf 50 % oder darunter sank. Die Ergebnisse der Lipidelektrophorese korrelieren bei Seren von Gesunden gut mit Ergebnissen der Referenzmethode Ultrazentrifugation. Bei chirurgischen Intensivpatienten, die z. T. starke Veränderungen des Lipoproteinstoffwechsels aufweisen, ist die Lipidelektrophorese als Methode nur bedingt geeignet, denn es ergeben sich deutliche Abweichungen der Ergebnisse im Vergleich zu denen der Ultrazentrifugation. Bei den untersuchten Intensivpatienten, in deren Seren keine elektrophoretische Mobilität der alpha-Lipoproteine feststellbar war, konnten dennoch Lipoproteine mit hoher Dichte (HDL2 und HDL3) per Ultrazentrifugation nachgewiesen werden. Im Vergleich zu gesunden Kontrollpersonen waren in diesen Fraktionen allerdings die Konzentrationen von Apolipoprotein AI und auch die berechnete Gesamtmasse der Fraktionen signifikant vermindert. Mit der elektrophoretischen Trennmethode wurde der prozentuale beta-Lipoproteinanteil im Serum signifikant höher berechnet als der Anteil der Lipoproteine mit geringer Dichte (LDL) nach Trennung durch Ultrazentrifugation, der alpha-Lipoproteinanteil wurde signifikant niedriger berechnet als der HDL-Anteil. Nach Ultrazentrifugation der Patientenseren wurden stark veränderte Zusammensetzungen der einzelnen Lipoproteinfraktionen beobachtet. Der Anteil des freien Cholesterins war bei diesen Patienten in allen vier Lipoproteinfraktionen signifikant erhöht. Extrem niedrige Cholesterinesteranteile fanden sich in LDL- und HDL-Fraktionen. Da in diesen Fraktionen andererseits die Triglycerid-Anteile erhöht waren, wiesen die Lipoproteinpartikel im Vergleich zum Normbereich veränderte Kernzusammensetzungen auf. Bei den Intensivpatienten war der Quotient Kernbestandteile/Oberflächenbestandteile insbesondere in den beiden HDL-Fraktionen signifikant erniedrigt, woraus sich auf verkleinerte Lipoproteinpartikel schließen läßt. Erniedrigte Serumkonzentrationen von Cholesterinestern und abnormale Lipoproteinzusammensetzungen korrelierten mit signifikant verminderter, teils ganz fehlender in vitro Cholesterinveresterung. Zugleich lag Apolipoprotein AI, welches als Cofaktor des Enzyms Lecithin-Cholesteryl-Acyl-Transferase (LCAT) fungiert, in den HDL-Fraktionen nur in sehr niedrigen Konzentrationen vor. Bei den Patienten, in deren Serum keine LCAT-Aktivität nachweisbar war, konnten dennoch Cholesterinester in allen Fraktionen gemessen werden. Eine stark erniedrigte oder fehlende LCAT-Aktivität gilt als prognostisch ungünstig, kann aber reversibel sein. Signifikant erniedrigt war der prozentuale Anteil des Linolats an den Esterfettsäuren im Serum, während der prozentuale Anteil des Oleats signifikant erhöht war. Dadurch erhöhte sich auch der Quotient Oleat/Linolat (18:1 / 18:2) in signifikanter Weise. Der signifikant erhöhte Serumacylquotient (18:1 + 18:2) / 16:0 weist darauf hin, daß die Konzentrationen der freien ungesättigten C 18–Fettsäuren im Vergleich zur Palmitinsäure erhöht waren. Die vorgestellten Ergebnisse verdeutlichen die Komplexität des Fettstoffwechsels insbesondere im Hinblick auf die Entgleisungen bei intensivpflegepflichtigen chirurgischen Patienten.
Mycophenolat Mofetil hat die Zulassung zur immunsuppressiven Behandlung nierentransplantierter Patienten seit sieben Jahren. Mycophenolat Mofetil entfaltet seine immunsuppressive Wirkung über eine Hemmung der Lymphozytenproliferation. Das Nebenwirkungsprofil dieser Substanz unterscheidet sich in klinisch bedeutsamen Aspekten von den der überwiegend verwendeten Immunsuppressiva vom Typ der Calcineurininhibitoren wie Cyclosporin A und Tacrolimus und der heute seltener verwendeten antiproliferativen Substanz Azathioprin. In der vorliegenden Arbeit werden die klinischen Daten des Verlaufes über 6 Monate von 85 nierentransplantierten Patienten untersucht, deren immunsuppressives Therapieschema wegen unerwünschter Nebenwirkungen der bisherigen Therapie auf Mycophenolat umgesetzt wurden. Grund der Therapieumstellung war am häufigsten (48,2%) eine Nierenfunktionsverschlechterung unter der bisherigen Therapie, die überwiegend mit den potentiell nephrotoxischen Calcineurininhibitoren durchgeführt wurde. Die Umstellung war von einer signifikanten Besserung der Nierenfunktion, gemessen an dem Serumkreatinin und der Kreatininclearance, gefolgt. Ebenso war eine Verbesserung der Blutdruckeinstellung zu beobachten, die Anzahl der eingenommenen Blutdruckmedikamente konnte reduziert werden. Eine typische Nebenwirkung der Therapie mit Azathioprin sind Veränderungen im Blutbild mit reduzierter Leukozytenzahl und Störung der Erythropoese. Mit der Umstellung auf Mycophenolat Mofetil wurde eine deutliche Besserung der Blutbildindizes erreicht. Die Hepatoxizität des Azathioprins war ebenfalls reversibel, unter Mycophenolat Mofetil war ein signifikanter Abfall der Serumaktivität der Leberindikatorenzyme zu beobachten. Bei 13% der Patienten mußte Mycophenolat Mofetil wegen darunter aufgetretener neuer Nebenwirkungen abgesetzt werden. Diarrhoen traten bei fast 5% der Patienten auf, sie waren der häufigste Grund zum Absetzen des Medikamentes. Weitere für Mycophenolat typische Nebenwirkungen waren andere gastrointestinale Störungen wie Übelkeit, Erbrechen und abdominelle Schmerzen. Die immunsuppressive Wirkung des Mycophenolat Mofetil war gut, es wurden keine gehäuften Abstoßungsreaktionen nach der Umstellung beobachtet. Es fanden sich auch keine Zeichen einer Überimmunsuppression, die sich beispielsweise durch eine Zunahme von Infekten bemerkbar gemacht hätte. Die Daten dieser Untersuchung legen den Schluß nahe, daß im Falle ernster Nebenwirkungen der herkömmlichen immunsuppressiven Therapie eine Umstellung auf Mycophenolat Mofetil erfolgversprechend durchgeführt werden kann.
Die analytische Ultrazentrifuge ist ein unverzichtbares Instrument zur Charakterisierung von schwachen Protein-Protein-Wechselwirkungen und deren funktioneller oder regulatorischer Bedeutung. Eine besondere Gruppe von Untersuchungsobjekten bilden die integralen Membranproteine, die für eine Ultrazentrifugenanalyse solubilisiert, d.h. aus ihrer natürlichen, hydrophoben Umgebung in wäßriges Milieu überführt werden müssen. Diese Aufgabe wird vom Standpunkt der Erhaltung des natürlichen Proteinzustands am besten von nichtionischen Detergenzien erfüllt, wobei das biochemisch optimale Detergens von Protein zu Protein i.A. verschieden ist. Die notwendige Anwesenheit von Detergens während der Zentrifugenanalyse belastet diese andererseits, da freies wie proteingebundenes Detergens zusätzliche unbekannte Größen darstellen. Diese Unbekannten können durch experimentelle Gleichsetzung von Detergensdichte und Lösungsdichte eliminiert werden (Dichtekompensation). Die Möglichkeiten der etablierten Dichtekompensationsverfahren sind allerdings beschränkt, insbesondere Detergenzien mit hoher Dichte sind damit nicht erfaßbar - ein Mangel, der manche Untersuchung be- oder verhindert. Aus diesem Grund wurden neue Dichtekompensationsverfahren entwickelt und bestehende verbessert bzw. erweitert: zum einen die Erhöhung der Lösungsdichte durch Zusatz von Saccharose, Glyzerin oder einer Saccharose-D2O-Kombination, zum anderen die Anpassung der Detergensdichte durch Mischen von Detergenzien mit niedriger und mit hoher Dichte. Die neuen Verfahren wurden überprüft, indem ein integrales Membranprotein mit bekannten Eigenschaften, Cytochrom c-Oxidase von Paracoccus denitrificans, unter Anwendung sowohl der neuen Verfahren als auch der etablierten D2O-Methode im Sedimentationsgleichgewicht analysiert wurde. Der Vergleich der Ergebnisse zeigte zum einen die Äquivalenz der verschiedenen Methoden im Falle der Kompensation von Detergensdichten, die auf herkömmliche Weise kompensierbar sind, zum andern, daß nach Kompensation deutlich höherer Dichten das partialspezifische Volumen des Proteins zu korrigieren ist. Eine derartige Korrektur wurde nötig beim Vorhaben, den oligomeren Zustand des Cytochrom bc1-Komplexes von Paracoccus denitrificans zu bestimmen, da dieses Atmungskettenenzym nur in Gegenwart von DDM, einem Detergens mit hoher Dichte, stabil war. Die Unsicherheit, die sich aus der via Vergleich mit Cytochrom c-Oxidase durchgeführten Korrektur ergab, war nicht relevant, da sich der intakte bc1-Komplex in DDM-Lösung als einheitliche Substanz erwies und er damit ein "einfaches" Problem darstellte. Die Sedimentationsgleichgewichtsuntersuchung des Proteins unter der Bedingung der Dichtekompensation ergab nach Berücksichtigung des Korrekturterms, daß der solubilisierte, enzymatisch aktive bc1-Komplex als Dimer vorliegt. Dieses Ergebnis korreliert mit der aktuellen Vorstellung von der Funktionsweise des Enzyms, derzufolge die dimere Form für den Elektronentransfer notwendig ist. Komplizierter als der oligomere Zustand des bc1-Komplexes ist offenbar das Selbstassoziationsverhalten des Bande 3-Proteins, des Anionenaustauschers aus der menschlichen Erythrozytenmembran: Entgegen der vorherrschenden Meinung, eine in Detergenslösung vorliegende intakte Bande 3 bilde stabile Dimere, weisen die vorliegenden Ergebnisse darauf hin, daß das solubilisierte Protein aus mehreren Oligomeren besteht. So zeigen die vorhandenen Daten neben dimerer Bande 3 die Existenz von monomerem und tetramerem Protein, letztere Form vermutlich in unterschiedlichen Zuständen, und verweisen auf ein Assoziationsgleichgewicht zwischen den Oligomeren, vermutlich überlagert durch stabiles Dimer. Letzteres erscheint als "Grenzfall" eines Bande 3-Präparats, der nach langer Lagerung und/ oder nach suboptimaler Behandlung eintritt. Wegen der Komplexität des Bande 3-Verhaltens konnten die Zentrifugenuntersuchungen nur in Gegenwart von Detergenzien durchgeführt werden, deren Dichte eine Kompensation ohne Korrekturbedarf zuläßt. Darüber hinaus kamen wegen der offensichtlichen Empfindlichkeit der Bande 3 nur sehr milde Detergenzien zum Einsatz: C12E9 und Triton X-100 (reduzierte Form). Aus selbigem Grund wurde die Detergensdichte bevorzugt mit Saccharose oder Glyzerin kompensiert, deren proteinstabilisierende Wirkung bekannt ist.
Die Physik beschäftigt sich seit jeher mit der Frage nach dem Aufbau und der Struktur der Materie. Die Antworten änderten sich im Laufe der Zeit, der gegenwärtige Stand der Erkenntnis ist im sogenannten Standardmodell zusammengefasst. Dort werden die Elementarteilchen in Leptonen und Quarks unterteilt, die Wechselwirkungen zwischen ihnen beschreibt man durch vier fundamentale Kräfte: die Gravitation, die elektromagnetischen Kraft, die schwache und die starke Kernkraft. Gemäß dem Standardmodell sind Nukleonen, also Protonen und Neutronen, aus Quarks aufgebaut. Das Proton ist beispielsweise ein gebundener Zustand aus zwei up und einem down Quark. Die Nukelonen bilden ihrerseits die Atomkerne, welche die Systematik der Elemente bestimmen. Quarks treten in sechs verschiedenen Arten (flavours) auf: up, down, strange, charm, bottom und top. Freie Quarks konnten bislang nicht nachgewiesen werden, sie werden nur als Quark-Antiquark Paar (Meson) oder als Kombination aus drei Quarks (Baryon) beobachtet. Mesonen und Baryonen werden unter dem Begriff Hadronen zusammengefaßt. Die starke Kernkraft beruht letztlich auf der Wechselwirkung zwischen Quarks, diese wird durch die Quantenchromodynamik (QCD) beschrieben. Ähnlich der Glashow- Salam-Weinberg Theorie (GSW), die die elektromagnetische und die schwache Kernkraft beschreibt, ist die Quantenchromodynamik durch Austauschteilchen charakterisiert. Im Fall der GSW wurden die Photonen bzw. W± oder Z-Teilchen als Austauschteilchen identifiziert, in der QCD fungieren Gluonen als Austauschteilchen. Photonen vermitteln die elektromagnetische Kraft zwischen allen Teilchen, die elektrische Ladung tragen. Analog wirkt die Kraft, die durch den Austausch von Gluonen beschrieben wird, zwischen Teilchen, die eine Farbladung tragen. Anders als das neutrale Photon trägt das Gluon selbst Farbe und wechselwirkt daher mit anderen Teilchen, die Farbe tragen. Dieser Umstand zeigt bereits, dass in der QCD ganz andere Phänomene zu erwarten sind als in der GSW. Die Tatsache, dass Quarks nur in gebundenen Zuständen vorliegen, erschwert die direkte Beobachtung der Wechselwirkung zwischen ihnen. Ein indirekter Weg, um die Wirkungweise diese Kraft zu untersuchen, liegt in der Erzeugung hoher Kernmateriedichten und hoher Kerntemperaturen. Die Idee besteht darin, das Phasendiagramm von Kernmaterie experimentell zu bestimmen (Abbildung 1.3) und dann auf die zugrundeliegende Kraft zu schließen. Unter anderem führen die Kräfte, die zwischen den Einzelteilchen des Mediums herrschen, zu charakteristischen Phasenübergängen. Im Fall der Kernmaterie hofft man insbesondere, den Übergang von gebundenen Zuständen in eine Quark-Gluon-Plasma Phase (QGP), in der sich Quarks und Gluonen frei bewegen, zu beobachten. Zwei prominente Beispiele demonstrieren, warum die Eigenschaften dieses Materiezustandes - und ob er überhaupt existiert - auch für andere Teilgebiete der Physik von großem Interesse sind. Zum einen geht man davon aus, dass in der Frühphase des Universums, 10-12 s nach dem Urknall, die Energiedichte so hoch war, dass die Materie in einem Plasmazustand vorlag. In diesem Bild führt die Expansion des Raumes zu einer Abkühlung des Plasmas und schließlich zum Ausfrieren in Hadronen. Zum anderen zeigen viele Modellstudien, dass im Innern von Neutronensternen mit extremen Dichten zu rechnen ist. Unter Umständen werden Energiedichten erreicht, die hoch genung sind, um einen Phasenübergang in ein Quark Gluon Plasma zu erzwingen. Die Beschreibung dieser astronomischen Objekte setzt somit auch die Kenntnis der Kräfte zwischen den Quarks voraus. Der einzige Weg, dichte Kernmaterie im Labor zu erzeugen, stellen Schwerionenreaktionen dar. Wenn zwei ultrarelativistische schwere Kerne zentral kollidieren, entsteht für kurze Zeit eine Region hoher Energiedichte (Abbildung 1.1). QCD-Gitter-Rechnungen deuten darauf hin, dass die Dichte, die man in Schwerionreaktion gegenwärtig erreicht, hoch genung ist, um einen Übergang der Kernmaterie in eine Plasma-Phase zu erzwingen. Aufgrund des hohen Drucks expandiert die verdichtete, heiße Kernmaterie in longitudinaler (entlang des Strahls) und transversaler (senkrecht zum Strahl) Richtung und die Dichte nimmt ab. Vorausgesetzt am Anfang der Reaktion wurde ein Quark-Gluon-Plasma erzeugt, dann friert diese Phase in Hadronen aus (chemisches Ausfrieren), wenn Dichte und Temperatur einen kritischen Wert unterschreiten. Die erzeugten Hadronen wechselwirken zunächst noch elastisch miteinander, d.h. die Impulse der Teilchen ändern sich, die Identität der Teilchen bleibt jedoch erhalten. Schließlich enden auch diese Wechselwirkungen (thermisches Ausfrieren), und die Teilchen verlassen die Reaktionszone (Abbildung 1.4). Der Ablauf einer solchen Schwerionenreaktion dauert einige 10-23s und ihre räumliche Ausdehnung liegt in der Größenordnung von 10-15m, damit ist die Reaktion selbst nicht beobachtbar. Nur der Endzustand, also die Identitäten und Impluse der emittierten Teilchen, kann bestimmt werden. Um den Ablauf der Reaktion zu rekonstruieren, ist man daher auf Modellrechnungen angewiesen. Aufgrund dieser Modellrechnungen wurden einige Observablen vorgeschlagen, die einen Phasenübergang kennzeichnen. Neben anderen Signaturen führt ein Phasenübergang wahrscheinlich zu einer verlängerten Emissionsdauer. Dieser Effekt kann möglicherweise durch die Analyse von Zwei-Teilchen-Korrelationen sichtbar gemacht werden. Ganz allgemein stellt die Untersuchung von Teilchenkorrelationen die einzige Möglichkeit dar, die raum-zeitlichen Strukturen während des thermischen Ausfrierens experimentell zu bestimmen. Korrelationen zwischen Teilchen, die von einer hinreichend kleinen Quelle emittiert werden, haben verschiedene Ursachen. Betrachtet man beispielsweise die Häufigkeitsverteilung der Impulsdifferenz zwischen zwei elektrisch gleich geladenen Teilchen, so stellt man fest, dass Paare mit geringer Impulsdifferenz weniger häufig vorkommen, als man anhand der Ein-Teilchen Impulsverteilung vorhersagen würde. Dieser Effekt ist auf die Abstoßung zwischen zwei elektrisch gleich geladenen Teilchen zurückzuführen, die mit kleiner Impulsdifferenz emittiert wurden. Eine weniger offensichtliche Korrelation wird durch den Quantencharakter identischer Teilchen verursacht. Zwei identische Bosonen, die im Phasenraum nahe beieinander liegen, können gemäß den Prinzipien der Quantentheorie nicht unterschieden werden. Die Wellenfunktion, die diesen Zwei-Teilchen-Zustand beschreibt, muß beim Vertauschen der Teilchen erhalten bleiben. Diese Forderung führt zu einem Interferenzterm in der Zwei-Teilchen Intensitätsverteilung. Diese Verteilung ist proportional zur Wahrscheinlichkeit, ein Teilchenpaar mit der Impulsdifferenz q zu messen. Berechnet man die Impulsdifferenzverteilung von Pionenpaaren und berücksichtig nur quanten- statistische Effekte, so findet man, dass Paare mit geringem Impulsunterschied bis zu zweimal häufiger vorkommen, als man aufgrund einfacher statistischer Überlegungen erwarten würde. Um diesen Effekt experimentell sichtbar zu machen, konstruiert man die Korrelationsfunktion, die die gemessene Impulsdifferenzverteilung in Relation zu einer Untergrundverteilung setzt. Experimentell gewinnt man diese Referenzverteilung, indem Paare aus Spuren aus verschiedenen Ereignissen gebildet werden. Die Referenzverteilung entspricht damit der Verteilung, die man messen würde, wenn die Teilchen nicht der Quantenstatistik unterlägen. Die Korrelationsfunktion wird im allgemeinen durch eine Gauß-Funktion angenähert. Das Inverse der Standardabweichung dieser Funktion wird nach den Pionieren der Intensitätsinterferometrie R. Hanbury Brown und R. Twiss als HBT-Radius bezeichnet. Teilchen interferieren nur dann, wenn sie im Phasenraum nahe beieinander liegen, das heißt sowohl die Impulsdifferenz als auch der räumliche Abstand muß hinreichend klein sein. Diese Bedingung kann genutzt werden, um von der gemessenen Korrelationsfunktion, die nur auf den Impulskomponenten basiert, auf die räumliche Verteilung der Teilchenproduktion zu schließen. Eine detaillierte Betrachtung erlaubt sogar, aufgrund der gemessenen Korrelationsfunktion quantitative Aussagen über die räumlichen Aspekte der Teilchenquelle zu machen. Beispielsweise können im Rahmen eines Modells die Stärke der transversalen Expansion oder die Emissionsdauer in Relation zu den HBT-Radien gesetzt werden. In Kapitel 2 sind die Grundlagen der Teilcheninterferometrie ausführlicher dargestellt. Der eigentliche Gegenstand dieser Arbeit ist experimentelle Analyse der Zwei- Teilchen-Korrelationen in einer Schwerionenreaktion. Dazu wird zunächst in Kapitel 3 das STAR Experiment am RHIC vorgestellt, in dem die Daten aufgezeichnet wurden, die Grundlage dieser Analyse sind. Am RHIC-Beschleuniger am BNL in den USA werden AuAu Kollisionen bis zu einer Schwerpunktsenergie von Wurzel aus SNN=200 GeV erzeugt. Figur 3.1 zeigt den Beschleuniger-Ring und die vier Experimente Brahms, Phenix, Phobos und STAR. Der hier analysierte Datensatz wurde bei der Datennahme im Jahr 2000 aufgezeichnet. Zu dieser Zeit wurde am RHIC eine Schwerpunktsenergie von Wurzel aus SNN=130 GeV erreicht. Bei einer zentralen AuAu Kollision werden mehrere Tausend Teilchen produziert. Der STAR Detektor ist dafür konzipiert, hadronische Teilchen kleiner Rapidität (d.h. großer Winkel zur Strahlachse) zu messen, innerhalb der Akzeptanz werden etwa 80% der produzierten geladenen Teilchen nachgewiesen. Der schematische Aufbau des STAR Detektorsystems ist in Figur 3.2 dargestellt. Der zentrale Detektor ist eine TPC (Zeit-Projektions-Kammer). Dieser Detektor basiert darauf, dass geladene Teilchen beim Durchgang durch ein Messgas eine Spur von Ionen hinterlassen. Ein starkes elektrisches Feld driftet die Elektronen, die bei den Ionisationsprozessen freigesetzt wurden, zu einer Ausleseebene. Der Punkt, an dem die Elektronen auf der Ausleseebene ein Signal erzeugen, entspricht der Projektion des Ionisationpunktes auf die Ausleseebene. Die dritte Komponente, die den Raumpunkt der Ionisation festlegt, ist durch die Driftzeit bei bekannter Driftgeschwindigkeit gegeben. So erscheint eine Teilchenspur als eine Kette von Ionisationspunkten im Detektorgas. Ein magnetisches Feld parallel zur Strahlachse führt zu einer Ablenkung der geladenen Teilchen. Die Krümmung der Spur ist dabei umgekehrt proportional zum transversalen Impuls. Abbildung 3.6 zeigt ein typisches Ereignis mit etwa 105 Ionisationspunkten und den entsprechenden Teilchenspuren. Der spezifische Energieverlust eines Teilchens beim Durchgang durch das Messgas hängt von seinem Impuls und seiner Masse ab. Die Stärke des auf der Ausleseebene induzierten Signals erlaubt den spezifischen Energieverlust zu bestimmen. Da der Impuls durch die Krümmung der Spur bekannt ist, kann so die Masse und damit die Identität des Teilchens bestimmt werden (siehe Abbildung 3.7). In Kapitel 4 wird der Datensatz beschrieben, der als Grundlage für diese Analyse dient. Während der Datennahme werden die digitalisierten Daten der TPC auf ein Speichermedium geschrieben. Der erste Schritt bei der Rekonstruktion der Ereignisse besteht darin, die Ionisationspunkte zu lokalisieren. Dies leistet der Clusterfinder- Algorithmus, der in Kapitel 4.1.1 beschrieben ist. Die Spurpunkte werden dann durch den Tracking-Algorithmus zu Teilchenspuren verbunden. Die erreichte Effizienz, Akzeptanz und Impulsauflösung der Rekonstruktion sind in Kapitel 4.1.2 zusammengefaßt. Die Zwei-Teilchen-Korrelationen werden nur für zentrale Kollisionen betrachtet, das sind Ereignisse mit kleinem Stoßparameter. Die Multipliztät der gemessenen Spuren ist in erster Näherung ein Maß für die Zentralität des Ereignisses. Für diese Analyse werden nur die 12% zentralsten Ereignisse zugelassen. Die Selektion der Ereignisse ist in Kapitel 4.2 beschrieben. Die Auswahl der Spuren, die in der Analyse verwendet werden, ist in Kapitel 4.3 beschrieben. Es werden nur Spuren zugelassen, deren Impulse in einem Bereich hinreichend hoher Akzeptanz und Effizienz liegen. Außerdem werden die Spuren ausgewählt, die mit hoher Wahrscheinlichkeit von Pionen stammen. Eine weitere Auswahl wird auf der Paarebene getroffen. Die Korrelationsfunktion wird in einzelnen Intervallen transversalen Paarimpulses kt und Paarrapidität Yðð gebildet. Damit kann die Abhängigkeit der HBT-Radien von diesen Größen dargestellt werden. Zwei weitere Auswahlkriterien sollen die Qualität der Spurpaare garantieren. Zum einen werden solche Paare verworfen, die im Detektor zu nahe beieinander liegen. Für die HBT-Analyse sind Paare mit geringem Impulsunterschied entscheidend, ein geringer Impulsunterschied heißt notwendigerweise, dass die Spuren räumlich nicht sehr weit getrennt sind. Wenn die Spuren aber zu nahe liegen, können sie vom Detektor und von der Rekonstruktionskette nicht mehr aufgelöst werden. Damit verliert man einen Teil der Paare in der Signalverteilung, nicht aber in der Untergrundverteilung, da in diesem Fall die endliche Zwei-Spur-Auflösung keine Rolle spielt. Um die Korrelationsfunktion nicht durch einen Detektoreffekt zu verfälschen, entfernt man die Paare, die im Detektor nahe beieinander liegen, sowohl in der Signal- als auch in der Untergrundverteilung. Ein weiteres Problem stellen "gebrochene" Spuren dar. In einigen Fällen wird eine Teilchenspur von der Rekonstruktionskette nicht als Ganzes erkannt, vielmehr werden zwei Spurstücke im Dektor gefunden. Da diese Spurstücke vom selben Teilchen stammen, haben sie eine sehr geringe Impulsdifferenz. Diese Paare können anhand ihrer Topologie im Detekor erkannt werden. Wie im Fall der begrenzten Zwei-Spur-Auflösung werden sie sowohl für die Signal- als auch für die Untergrundverteilung nicht zugelassen. In Kapitel 5 werden schließlich die Ergebnisse der Korrelationsanalyse dargestellt. Die Korrelationsfunktion wird in verschiedenen Parametrisierungen betrachtet. In der einfachsten Form betrachtet man nur den Betrag des Impulsdifferenzvektors. Dieser Ansatz bedeutet aber, dass der entsprechende HBT-Radius alle Raum-Zeit Komponenten mischt und damit nur wenig Aussagekraft bezüglich der Quellfunktion besitzt. Eine differenzierte Analyse in drei unabhängigen Komponenten ermöglichen die Pratt-Bertsch (PB) und die Yano-Koonin-Podgoretskii (YKP) Parametrisierung. Die beiden Parametrisierungen unterscheiden sich in der Zerlegung des Impulsdifferenzvektors in drei unabhängige Komponenten. Im ersten Fall bezeichnet man die Komponenten als qout, qlong und qside, im zweiten Fall als qpara, qperp und q0 (Kapitel 2.7 und 2.8). Die entsprechenden Korrelationsfunktionen sind in Gleichung 2.31 bzw. 2.34 gegeben. Die jeweiligen HBT-Radien Rout, Rlong und Rside bzw. Rpara, Rperp und R0 können in Relation zu den Parametern der Quellfunktion (Gleichung 2.43) gesetzt werden. Die beiden Parametrisierungen liefern im Prinzip die gleiche Information und die beiden Sätze von HBT-Radien können in Beziehung zueinander gesetzt werden (Gleichung 2.41). Beispielsweise entspricht der HBT-Radius R0 in der YKP-Parametrisierung in erster Näherung der Emissionsdauer, während in der PB- Parametrisierung diese Größe Verhältnis von Rout zu Rside abhängt. Zusätzlich zu den Radien enthält die YKP-Parametrisierung einen Parameter ß, der erlaubt, die longitudinale Geschwindigkeit des betrachteten Quellelementes zu bestimmen. Die Abbildungen 5.7 bis 5.10 zeigen die HBT-Radien beider Parametrisierungen in Abhänigigkeit vom transversalen Paarimpuls kt und von der Paarrapidität Yðð. Die Größe der gemessenen Radien bewegt sich zwischen 3 und 7 fm. Nur der Radius R0 verschwindet in den meisten kt-Yðð Intervallen. Die anderen Radien nehmen mit steigendem kt ab und sind unabhängig von Yðð . Abbildung 5.11 demonstriert, dass die beiden Parametrisierungen -dort wo sie vergleichbar sind- konsistente Ergebnisse liefern. Eine Diskussion der Ergebnisse schließt sich in Kapitel 6 an. Die Abhänigigkeit des Parameters ß von Yðð zeigt eine starke longitudinale Expansion an. Ein ähnliches Verhalten wurde bei niedrigeren Schwerpunktsenergien beobachtet, wo man allerdings eine schwächere longitudinale Expansion erwarten würde. Die Lebensdauer der Quelle, also die Zeit vom anfänglichen Überlapp der Kerne bis zum thermischen Ausfrieren, bestimmt die kt-Abhänigigkeit des Parameters Rlong. Dieser Zusammenhang wurde von Mahklin und Sinyukow formuliert, eine Anpassung der entsprechenden Funktion an die gemessene kt Abhänigigkeit von Rlong ergibt eine Lebensdauer von etwa 8 fm/c bei einer Ausfriertemperatur von etwa 126 MeV. Entsprechende Messungen bei niedrigeren Kollisionsenergien lieferten ähnliche Resultate. Die kt-Abhängigkeit des Parameters Rside ist mit der Stärke der transversalen Expansion gemäß Gleichung 6.3 verknüpft. Da die Relation nicht eindeutig ist, muß entweder eine feste Ausfriertemperatur angenommen werden oder es werden gleichzeitig Einteilchenspektren betrachtet, um die Mehrdeutigkeit zu eliminieren. Eine vorläufige Abschätzung ergibt eine mittlere transversale Expansions- geschwindigkteit von v ungefähr gleich 0.6 und einen gemetrischen Radius von RG ungefähr gleich 7.4 fm . Auch diese Ergebnisse sind vergleichbar mit entsprechenden Resultaten bei niedrigeren Kollisionsenergien. Ein weiterer Parameter der Quellfunktion ist die Emissionsdauer. Die Pionen werden nicht zu einem festen Zeitpunkt emittiert, man geht vielmehr davon aus, dass die Zeitpunkte der letzten elastischen Wechselwirkung in der Quelle gaußförmig verteilt sind. Den Mittelwert dieser Verteilung bezeichnet man als Lebensdauer der Quelle, die Breite als Emissionsdauer. Entsprechend Gleichung 6.4 bzw. 6.5 ist die Emissionsdauer mit dem Radius R0 bzw. dem Verhältnis Rout zu Rside verbunden. Wie in Abbildung 5.8 ersichtlich verschwindet der Parameter R0 , außer im kleinsten kt Intervall. Dies entspricht in der PB-Parametrisierung der Tatsache, dass das Verhältnis Rout zu Rside bei hohen kt kleiner als eins ist. Diese Resultate sind nicht vereinbar mit herkömmlichen Modellen. Insbesondere weil eine verlängerte Emissionsdauer als Signatur für die Bildung eines Quark-Gluon-Plasmas vorgeschlagen wurde, wird dieses Ergebnis derzeit intensiv diskutiert. Die Ergebnisse dieser Analyse sind sowohl mit bereits publizierten Daten der STAR Kollaboration als auch mit Resultaten von anderen RHIC Experimenten verträglich (siehe Abbildung 6.8). In Abbildung 6.9 ist die Abhängigkeit der HBT-Radien von kt bei verschiedenen Schwerpunktsenergien dargestellt. Im Gegensatz zu vielen anderen Observablen ändern sich die HBT Radien nur geringfügig. Da man erwartet, dass die Reaktion bei hohen Energien vollkommen anders abläuft, würde man auch davon ausgehen, dass sich die Ausfrierbedingungen ändern. Dass dies nicht in den Zwei-Teilchen- Korrelationen sichtbar wird, deutet darauf hin, dass die Näherungen die notwendig sind, um die gemessenen Radien mit Modellparametern zu verbinden, nicht gültig sind. Die Systematik der HBT Parameter als Funktion der Schwerpunktsenergie enthält damit keinen direkten Hinweis, dass die kritische Energiedichte überschritten wurde, ab der die Kernmaterie in einer Plasmaphase vorliegt. Andererseits werden weder die verschwindende Emissionsdauer noch die Tatsache, dass die anderen HBT-Parameter sich nur wenig mit der Schwerpunktsenergie ändern, als Argument dafür gewertet, dass die kritische Energiedichte nicht überschritten wurde. Die Frage, ob ein Quark- Gluon-Plasma im Labor erzeugt und analysiert werden kann, bleibt damit offen. Das thermische Ausfrieren einer Pionenquelle scheint hingegen anders zu verlaufen, als bisher angenommen wurde. Systematische Studien der Korrelationsfunktion in AA Kollisionen am RHIC in Kombination mit Fortschritten im theoretischen Verständnis der Teilcheninterferometrie in Schwerionenreaktion werden in Zukunft hoffentlich erlauben, die gemessenen Radien in ein konsistentes Bild einzuordnen. In zukünftigen Experimenten am LHC werden noch weit höhere Dichten erreicht als bisher, damit sollten sich auch die Ausfrierbedingungen stark verändern. Es wird sich dann zeigen, ob die Teilcheninterferometrie das geeignete Instrument ist, um die Quellfunktion einer Schwerionenreaktion zu messen.
Mithilfe der klinischen Routinemethode, TRAK-Assay®, wurden bei Patienten TSH-Rezeptor-Antikörpern (TRAK) nachgewiesen, um die Diagnose M. Basedow zu erhärten oder auszuschließen. Diese Methode ist aber nur in der Lage die Gesamtheit aller TRAK zu erfassen. In dieser Studie wurde eine andere Methode, der cAMP-Assay verwendet, bei welchem Chinesische Hamster Ovarien (CHO)-Zellen eingesetzt wurden, die auf ihrer Oberfläche stabil exprimierte humane TSH-Rezeptoren besitzen, und welcher in der Lage ist, zwischen dem Vorhandensein von funktionsstimulierenden und funktionsblockierenden Antikörpern zu unterscheiden. Die Differenzierung zwischen diesen verschiedenen Antikörper-Typen kann wichtige Hinweise dafür liefern, warum das klinische Bild bei vielen Erkrankten nicht mit dem Vorhandensein oder der Höhe der TRAK korreliert und Anhaltspunkte über die Prognose über den weiteren Verlauf der Erkrankung geben. Große Patientenkollektive von insgesamt mehr als 300 Patienten wurden auf das Vorhandensein von TRAK im Serum untersucht, getrennt nach TRAK mit stimulierender und blockierender Funktion. Neben Patienten mit M. Basedow wurden in diese Studie auch Patienten einbezogen, welche an Hashimoto-Thyreoiditis, an einer anderen Autoimmunerkrankung, an nicht-autoimmunen Schilddrüsenerkrankungen oder an Thyreoiditis de Quervain erkrankt waren. Bei Patienten mit M. Basedow wurde außerdem der Einfluß der thyreostatischen Behandlungsdauer auf das Auftreten von TRAK mit stimulierender und blockierender Funktion untersucht. Material und Methode Es wurde die CHO- Zelllinie JP 26 verwendet. Die Zellen wurden kultiviert mit IMDM- Medium, 100 U/ml Penicillin, 100 U/ml Streptomycin, 5% FCS in einer 5%igen CO2-Atmosphäre bei 37°C. Für den cAMP-Assay wurden die Zellen in 96-Well-Platten angezüchtet. 24 Stunden später wurden die CHO-Zellen, nach Entfernung des Kulturmediums, zur Ermittlung funktionsstimulierender TRAK, mit 60 µl hypotonem KRB- Puffer, 20 µl IMBX (Isobutylmethylxanthine) und 20 µl Patientenserum für zwei Stunden inkubiert. Zur Ermittlung funktionsblockierender TRAK wurden 40 µl KRB, 20 µl IMBX, 20 µl Patientenserum und 20 µl TSH (Konz. 0,5 mU/ml) verwendet. Die cAMP-Konzentration wurde mittels eines kompetitiven Radioimmunoassays (BIOTRAK® cAMP) und eines Gamma-Counters gemessen. Ergebnisse Mit dieser Methode läßt sich zeigen, dass nicht nur bei Patienten mit M. Basedow signifikant hohe Titer mit funktionsstimulierenden und funktionsblockierenden Antikörpern vorhanden sind. Funktionsstimulierende TRAK wurden bei 25,7% der Hashimoto-Thyreoiditis-Patienten, bei 5,56% der Patienten mit schilddrüsenunabhängigen Autoimmunerkrankungen (M. Addison, Diabetes mellitus Typ 1) und bei 17,4% der Patienten mit nicht-autoimmunen Schilddrüsenerkrankungen detektiert. Funktionsblockierende TRAK waren in signifikanter Höhe bei 19,15% der Patienten mit Hashimoto-Thyreoiditis, bei 27,78% mit schilddrüsenunabhängigen Autoimmunerkrankungen und bei 50% mit nicht-autoimmunen Schilddrüsenerkrankungen aufzufinden. Die Gruppe der Thyroiditis-de Quervain-Patienten zeigte keine signifikanten Unterschiede im Vorkommen von Antikörpern zur Kontrollgruppe. In der Gruppe der M. Basedow-Patienten konnten bei 52,1% funktionsstimulierende Antikörper entdeckt werden. Bei den Patienten, welche weniger als vier Wochen thyreostatisch behandelt wurden, konnten in ca. 10% mehr Antikörper-positive Fälle detektiert werden, als bei Patienten mit einer Behandlungsdauer von mehr als neun Monaten. Nur 9,62% der M. Basedow-Patienten hatten laut cAMP-Assay TRAK mit blockierender Funktion. Diese verteilen sich ausschließlich auf Patienten, welche seit mindestens neun Monaten in thyreostatischer Behandlung waren. Der hier verwendete cAMP ist ein geeignetes Verfahren zur Differenzierung unterschiedlicher TRAK-Typen, was mit dem herkömmlichen TRAK-Assay® nicht möglich ist. In dieser Studie konnte gezeigt werden, dass Antikörper gegen den TSH-Rezeptor nicht nur bei Patienten mit M. Basedow vorkommen, sondern auch bei Patienten anderer Schilddrüsen- und Autoimmunerkrankungen. Es wird außerdem deutlich, dass eine thyreostatische Behandlung mit einer Dauer über neun Monaten bei M. Basedow-Patienten zum gehäuften Auftreten von funktionsblockierenden Antikörpern führt.
Gehirne von an Scrapie erkrankten Tieren sind histopathologisch durch Vakuolisierung, Astrogliose, Neurodegeneration und charakteristische PrPSc-Ablagerungen gekennzeichnet. Die pathologischen Mechanismen, die zu diesen Veränderungen führen, sind noch weitgehend unverstanden. Die Untersuchung der differentiellen Genexpression in Scrapie-infizierten Mausgeweben kann zu einem besseren Verständnis der pathogenen Mechanismen dieser Erkrankung auf molekularer Ebene beitragen. Auch könnten einige der differentiell exprimierten Gene zur Entwicklung eines auf Surrogatmarkern basierenden Testsystems beitragen oder für die Entwicklung von Strategien zur therapeutischen Intervention nützlich sein. Um im Verlauf der Scrapieerkrankung in Mäusen hoch- oder herunterregulierte Gene zu identifizieren, wurden RNA arbitrarily primed PCR (RAP-PCR) und suppression subtractive hybridisation (SSH) an Hirn- und Milzproben Scrapie-infizierter Mäuse und gesunder Kontrolltiere durchgeführt. Die Ergebnisse wurden anhand eines differentiellen Screening-Schrittes, Sequenzanalysen und Northernblots bestätigt. Durch einen Datenbankabgleich der erhaltenen Sequenzen wurden mehrere Kandidaten identifiziert. Einige davon, wie GFAP, Apolipoprotein D, Vimentin, Mx-Protein, MHC I und II wurden bereits als in Scrapie-infizierten Gehirnen hochreguliert von anderen Arbeitsgruppen publiziert. Eine differentielle Regulation weniger weiterer Kandidaten, wie Cytochromoxidase, Ubiqitinierungsfaktor E4a und das herunterregulierte Stathmin wurden bisher noch nicht beschrieben. Auch eine bisher unbekannte differentiell exprimierte Sequenz wurde gefunden. Ergänzend zu den Untersuchungen auf Nukleinsäureebene wurde die 2DElektrophorese für Gehirngewebe zur Untersuchung der differentiellen Expresssion auf Proteinebene unter Berücksichtigung posttranslationaler Modifikationen etabliert. Protokolle für die Vorbereitung von Mäusegehirnproben, die Durchführung der isoelektrischen Fokussierung und der 2. Dimension, sowie Färbeprotokolle für qualitative und quantitative Analysen der Gele unter Berücksichtigung der Erfordernisse nachfolgender MALDI-Analysen wurden erarbeitet.
Endogene Retroviren des Schweines (PERV), die vertikal auf die Nachkommen vererbt werden, stellen ein potentielles Infektionsrisiko bei der Transplantation porziner Zellen, Gewebe oder solider Organe auf den Menschen (Xenotransplantation) dar. Bislang sind zwei PERV- Klassen des C-Typs bekannt, die in-vitro humane Zellen produktiv infizieren können. Voraussetzung einer produktiven Infektion ist neben dem Rezeptor-vermittelten Eindringen des Virus in die Wirtszellen die transkriptionelle Aktivität des retroviralen Promotors (LTR), welcher die zweite Determinante des Wirtstropismus darstellt. Mittels eines Luciferase Reportergen Assays wurde die Aktivität verschiedener PERV LTRs in humanen und anderen Säugerzellen im Vergleich zu bekanntermaßen starken Promotoren untersucht. Dabei zeigten LTRs, welche in der die Transkription regulierenden Region U3 eine aus 39-bp Repeats bestehende Repeatbox trugen, in nahezu allen getesteten Zellinien eine außerordentlich starke Promotoraktiviät. Diese wurde insbesondere durch die Repeatbox vermittelt und korrelierte direkt mit der Anzahl der 39-bp Repeats. Wie weiterführende Untersuchungen zeigten, konnte die Aktivität heterologer und Repeat-loser homologer Promotoren durch eine 4-fach 39-bp Repeatbox unabhängig von deren Lage und Orientierung über weite Distanzen hinweg signifikant erhöht werden. Die Repeatbox stellt damit einen klassischen Enhancer dar. Als die Transkription regulierende zelluläre Komponente konnte der ubiquitäre, in der Evolution konservierte Transkriptionsfaktors NF-Y identifiziert werden, dessen Bindung an Sequenzabschnitte des 39-bp Repeats nachgewiesen wurde. Weitere cis-aktive Elemente konnten in der U3 Region stromaufwärts der Repeatbox sowie in der R Region lokalisiert werden. Im Verlauf einer seriellen Passagierung in infizierten humanen Zellen erfolgte eine rasche Adaptation der Repeatzahl und damit der transkriptionellen Aktivität an den neuen Wirt. Wie die Ergebnisse einer neu etablierten quantitativen Real- Time PCR zeigten, korrelierte die Anzahl der von einer infizierten Zelle freigesetzten Viruspartikel direkt mit der Aktivität der LTR. Durch Adaptation der LTR Aktivität kann somit eine maximale, für die Wirtszelle verträgliche Virusproduktion erfolgen. Ausgehend von den beschriebenen Eigenschaften der PERV LTR ergeben sich für die Xenotransplantation spezifische Risiken, die Infektion des möglichen Transplantatempfängers vorausgesetzt. Diese betreffen durch mögliche Aktivierung von Protoonkogen oder Disruption zellulärer Gene den Empfänger selbst, durch die mögliche Rekombination von PERV mit humanen endogenen Sequenzen oder anderen exogenen Erregern und der Ausbildung potentiell hochpathogener Formen aber auch sein soziales Umfeld. Wie in-vitro Studien mit zwei routinemäßig in der Transplantationsmedizin eingesetzten Immunsuppressiva belegen, werden diese Risiken durch deren unvermeidlichen Einsatz im Falle einer Xenotransplantation nicht potenziert. Ausgehend von der starken transkriptionellen Aktivität Repeat-tragenden LTRs könnten diese geeignete Werkzeuge für molekularbiologische Anwendungen darstellen, bei denen, wie im Falle des Gentransfers oder der Gentherapie, starke Promotoren benötigt werden. In einem zweiten Projekt der vorliegenden Arbeit sollte untersucht werden, ob die Expression des humanen endogenen Retrovirus HERV-K in einem transgenen Mausmodell Auswirkungen auf den Phänotyp der Tiere hat. HERV-K kodiert im Gegensatz zu den meisten anderen HERV-Familien für komplette virale Proteine, deren Bedeutung für den menschlichen Organismus jedoch weitgehend unbekannt sind. Zur Etablierung transgener Tiere waren zwei verschiedene Transgen-Konstrukte verwendet worden, von denen eines die komplette provirale Sequenz exklusive der LTRs beinhaltete, das andere lediglich das env-Gen. Für beide Konstrukte war die Etablierung homozygot transgener Tiere gelungen, der Nachweis der RNA Expression konnte jedoch nur bei jenen Linien erfolgen, die das komplette virale Genom trugen. Immuno Blot-Analysen und indirekte Immunfluoreszenz belegten die Expression viraler Proteine in verschiedenen Organen juveniler und adulter Tiere dieser Linien. Die transgenen Mäuse zeigten einen normalen Phänotyp und einen normalen Lebenszyklus mit einer unveränderten Reproduktionsrate. Eine auftretende Tumorgenese konnte stets auf das hohe Alter der betroffenen Tiere zurückgeführt werden, histologische oder anatomische Auffälligkeiten traten nicht auf. Ausgehend von diesen Beobachtungen in einem Tiermodell kann der Schluß gezogen werden, daß die HERV-K Expression im humanen Organismus keine große Bedeutung hat.
Die lösliche Guanylyl Zyklase (sGC) ist das Schlüsselenzym, das die Stickstoffmonoxid (NO)-induzierte Vasodilatation über eine Erhöhung des intrazellulären zyklischen 3´5´-Guanosinmonophosphats (cGMP) vermittelt. Obwohl die sGC oft als "Haushalts"-Gen bezeichnet wurde, dessen Aktivität nur akut durch die verfügbare NO-Menge reguliert wird, zeigen einige neuere Befunde, dass eine Regulation auch auf Ebene der Gen-Expression stattfindet. Z.B. wurde in zwei Rattenmodellen, der Nitrat-Toleranz (Mülsch et al., 2001) bzw. des chronischen Herzversagens (Bauersachs et al., 1999), eine zwei- bis dreifache Induktion der sGC-Expression beobachtet. Bei der Nitrat-Toleranz wurde zudem ein Anstieg der Endothelin- 1 (ET-1)-Expression beobachtet (Münzel et al., 1995). In dieser Arbeit wurde deshalb untersucht, ob ET- 1 einen Einfluss auf die sGC-Expression und die sGC/cGMP vermittelte Relaxation von Rattengefäßen hat. Um den möglichen Einfluss von ET-1 auf die Transkription der sGC zu untersuchen sollten die Promotoren der beiden Untereinheiten (UE) a1 und ß1 der Ratte kloniert werden. Dazu wurde zuerst eine Bestimmung der Transkriptionsstarts für beide UE durchgeführt. Es konnte gezeigt werde, dass die Sequenz der bis dahin bekannten 5´ Untranslatierten Region (5´ UTR) der a1-UE (Nakane et al., 1990) nicht korrekt war. Die ersten 213 bp dieser Sequenz konnten nicht gefunden werden. Für die ß1-UE konnte der 5´ UTR um 30 bp, im Vergleich zu der von Nakane (1990) publizierten Sequenz, verlängert werden. Letztlich konnten mit Hilfe einer PCR-Technik 2864 bp (a1) und 1287 bp (ß1) in 5´ Richtung des Transkriptionsstarts kloniert und sequenziert werden. Beide Promotoren zeigten eine basale Aktivität, die sich mit zunehmender Verkürzung der Bereiche in Richtung Transkriptionsstart erhöhte. Die basale Aktivität der beiden UE-Prornotoren zeigte, dass die Gene der beiden UE nicht in Tandemorganisation, wie im Medakafisch (Mikami et aI., 1999) vorliegen, sondern ähnlich wie bei der Maus (Sharina et al., 2000) beide UE unabhängig voneinander reguliert werden. Beide Promotoren ließen sich durch eine 6 stündige Stimulation mit ET-1 [10nM] um das ca. 1,6 bis l,9fache aktivieren. Bei Verkürzung des a1-Promotors wurde zudem festgestellt, dass das kürzeste Fragment sich nicht mehr durch ET-1 stimulieren ließ. In den 146 bp, die diesem Konstrukt fehlten, befinden sich mögliche Bindestellen für die Transkriptionsfaktoren PEA3, NF-Il6 und E2A. In kultivierten glatten Gefäßmuskelzellen der Ratte konnte mit Hilfe der RT-PCR gezeigt werden, dass ET-I (10 nM, 6 Std.) die Expression beider UE auf mRNA-Ebene um das ca. dreifache erhöht. Zudem konnte für die ß1-UE mit Hilfe der Real-Time-PCR (TaqManTM) und für die ET-Rezeptortypen spezifische Antagonisten gezeigt werden, dass dieser ET-1 Effekt über den ETA-Rezeptor vermittelt wird. Bei isometrischen Kontraktionsmessungen an Endothel-freien Rattengefäßen konnte gezeigt werden, dass eine 4 stündige Vorstimulation mit 10 nM ET-1 die für eine 50%ige Relaxation der Gefäße nötige Konzentration des NO-Donors Natriumnitropussuid (SNP) um ca. eine Zehnerpotenz verringert. ET-1 erzeugt also eine deutliche Sensitivierung der Gefäße gegenüber NO. Durch Versuche mit einem stabilem cGMP-Analogon (8-Bromo-cGMP) konnte zudem gezeigt werden, dass nachfolgenden Elemente der NO/cGMP Signalkette nicht durch die ET-1 Stimulation beeinflusst wurden. Auch Teile der Signalkette, die die cAMP-induzierte Relaxation vermitteln, wurden nicht durch ET-1 beeinflusst. Schließlich konnte in in-vitro Versuchen gezeigt werden, dass ET-1 sowohl in Endothel-freien Rattenaorten und Koronargefäßen des Schweins, als auch in kultivierten, glatten Rattengefäßmuskelzellen eine signifikante Steigerung der spezifischen NO-induzierten sGC-Aktivität bewirkt. Die in dieser Arbeit gezeigte Steigerung der Promotoraktivität, der mRNA-Mengen und der enzymatischen Aktivität der sGC durch ET-1 deutet auf einen biologischen Rückkoppelungsmechanismus hin. Dieser würde einer übermässigen Vasokontraktion und den mitogenen Effekten von ET-l bei einer Überexpression entgegen wirken und wäre somit ein wichtiges Element der Feineinstellung der ET-1 Wirkung.
Die verschiedenen Typen von Nervenzellen sind durch die differentielle Expression terminaler Differenzierungsgene charakterisiert. Dies sind z.B. Gene, deren Produkte die Synthese und den Transport der verwendeten Neurotransmitter gewährleisten. Die Expression dieser Gene wird während der Entwicklung durch spezifisch exprimierte Transkriptionsfaktoren reguliert. In der Entwicklung sympathischer Nervenzellen sind Mitglieder aus der Familie der basic Helix-Loop-Helix-(bHLH)-Transkriptionsfaktoren und der paired-Homöodomänen-Faktoren identifiziert worden, deren Expression in Vorläuferzellen aus der Neuralleiste durch das Signalmolekül BMP4 induziert wird und die an der Regulation des sympathischen Phänotyps beteiligt sind. Nullmutanten des bHLH-Faktors Mash1 und des Homöodomänen-Faktors Phox2b zeigen eine stark gestörte Entwicklung der sympathischer Nervenzellen. Weitere bHLH-Faktoren, dHand und eHand, vermögen in vitro die Expression noradrenerger Differenzierungsgene in Neuralleistenzell-kulturen zu induzieren. Ob diese Faktoren in vivo eine Rolle in der entwicklungsabhängigen sympathischen Differenzierung spielen, kann im Mausmodell nicht untersucht werden, da die Nullmutanten noch vor der Sympathogenese sterben. Das Huhnembryo bietet das ideale Modellsystem, die Rolle von Transkriptionsfaktoren in vivo zu untersuchen und durch Kopplung embryologisch-experimenteller und molekularer Verfahren die Faktoren gezielt in bestimmten Geweben zu exprimieren. In dieser Arbeit werden Experimente dargestellt, welche die Rolle dieser Transkriptionsfaktoren genauer definieren. Durch die viral induzierte Expression von Phox2a und Phox2b im Huhnembryo wird gezeigt, dass die Expression dieser Faktoren ausreicht, in multipotenten Vorläuferzellen des Brachialnervs und des Hinterwurzelganglions die Differenzierung sympathischer Nervenzellen zu induzieren. Dieser Phänotyp umfasst neben der Expression typisch noradrenerger und panneuronaler Gene ebenfalls die Expression der Transkriptionsfaktoren Phox2a und -b, dHand und Cash1. Es wird gezeigt, dass dHand im Laufe der sympathischen Entwicklung noch vor den noradrenergen und panneuronalen Differenzierungsgenen exprimiert wird. Auch dHand ist in der Lage, nach viraler Misexpression in multipotenten Vorläuferzellen des Embryos Differenzierung zu sympathischen Nervenzellen auszulösen. Weiter wird gezeigt, dass die Überexpression von BMP4 im Huhnembryo dazu führt, dass undifferenzierte Vorläuferzellen im Brachialnerv zu sympathischen Nervenzellen differenzieren. Mash1 vermag nach Überexpression die Expression neuronaler Gene im Brachialnerv und umliegenden Mesoderm zu induzieren. Die Bildung sympathischer Nervenzellen im Bereich des Brachialnervs wird ebenfalls induziert. Diese exprimieren wiederum neben den noradrenergen und panneuronalen Genen auch die Transkriptionsfaktoren Phox2a/b und dHand. Die Ergebnisse zeigen überzeugend das Vermögen der Transkriptionsfaktoren Phox2a/b, dHand und Mash1 den komplexen sympathischen Phänotyp in multipotenten Vorläuferzellen aus der Neuralleiste zu induzieren. Besonders wichtig sind hierbei die Ergebnisse nach dHand-Überexpression. Hiermit wird erstmals gezeigt, dass dieser bHLH-Transkriptionsfaktor in vivo eine hervorragende Rolle innerhalb der Regulation noradrenerger und neuronaler Gene einnimmt. Die Ergebnisse der verschiedenen Untersuchungen zeigen darüber hinaus, dass während der Normalentwicklung in Vorläuferzellen des peripheren Nervensystems die Expression einer Gruppe von Transkriptionsfaktoren induziert wird. Deren Mitglieder werden in einer festgelegten zeitlichen und epistatischen Reihung exprimiert. Jeder Einzelne dieser Transkiptionsfaktoren ist ausreichend, in Vorläuferzellen die Entstehung sympathischer Nervenzellen auszulösen. Dabei wird die Expression der anderen Mitglieder dieser Gruppe induziert. Es handelt sich also nicht um eine lineare Kaskade von Transkriptionsfaktoren, sondern um ein Netzwerk von Faktoren, die ihre Expression gegenseitig regulieren und vermutlich gemeinsam die Expression terminaler Differenzierungsgene steuern.
The light-harvesting chlorophyll a/b protein complex (LHC-II) is the major collector of solar energy in all plants and it binds about half of the chlorophyll in green plants. LHCII is a trimer in the photosynthetic membrane; each monomer consists of 232 amino acids, binds and orients a minimum of 12 chlorophyll molecules and three caroteinoids (two luteins and one neoxanthin) for light-harvesting and energy transfer. Although, the structure of LHC-II has been determined at 3.4 Å resolution by electron microscopy of two-dimensional crystals (Kühlbrandt et al., 1994), this is not sufficient to allow a complete understanding of the mechanism of energy transfer from LHC-II to the reaction centre, since the effective resolution in the z dimension is 4.9 Å. In fact, the chemical difference between Chl a and Chl b, which has a formyl group instead of the methyl group at the 7-position in the chlorin ring, is too small to be detected at this level of resolution. In addition, the orientation of the chlorophyll tetrapyrroles have not been determined unambiguously. This information is essential for a detailed understanding of the energy transfer within the complex and to the reaction centres of photosystem II and I (PSII and PSI). X-ray crystallography of three dimensional (3D) crystals may yield a more complete structure at high resolution. 3D crystals have been grown from LHC-II isolated from pea leaves using a standard purification procedure (Burke et al., 1978). The thylakoid membranes are solubilised in Triton X-100 and further purified by sucrose gradient ultra centrifugation. The LHC-II fraction is salt precipitated and pellets resuspended at the chlorophyll a/b ratio 2.8 mg/ml in 0.9 % Nonyl-glucoside. Crystals are currently obtained by vapour diffusion in hanging drops. These crystals are thin hexagonal plates, have a fairly large unit cell and diffract quite weakly. The high level of the background is due both to the detergent, necessary for protein solubilisation, and lipids, required for the trimer and crystals formation. However, three data sets, each from one single crystal have been collected up to 3.2 Å resolution over a rotation range of 135°. The crystals were exposed to a very highly collimated and brilliant beam (ID-14 EH1 at ESRF, Grenoble, France) and were kept under a stream of cold nitrogen to prevent radiation damage. Data were successfully integrated using the program XDS by Kabsch (1993). The crystals were found to belong to the space group P6 22 3 and have unit cell dimensions of a=128.45, b=128.45, c=135.32, a= ß=90º, ?=120. The solution of the phase problem was tackled by molecular replacement using, as a search model, the LHC-II structure solved by electron cryo-microscopy studies of twodimensional crystals (Kühlbrandt et al. 1994). Three different programs were tested: the most used AMoRe (Navaza et al., 1994) and the brute force based program Brute (Fujinaga
Die Autorin behandelt am Beispiel Brasilien das universelle Thema der Gewalt gegen Frauen in einem international vergleichenden und interkulturell kommunikativen Zusammenhang. Wichtiges Anliegen ihrer Fallstudie zur Gewalt gegen Frauen ist deutlich zu machen, dass die kontextbedingt aktive Bewegung der Frauen wider Gewalt in Brasilien sich nicht nur von Aktionen und Diskursen aus dem internationalen Bereich inspiriert hat, sondern einen beachtenswerten eigenen Beitrag leistet, von dem auch andere Frauenbewegungen lernen könnten. Voraussetzung hierzu ist allerdings, dass in allen diesen Gesellschaften, denen innerhalb der stratifizierten globalen Zusammenhänge unterschiedlicher Status zugewiesen wird, ein interkulturell kommunikativer Lernprozess stattfindet. In der Einleitung zu dieser Studie wird auf die spezifische Problematik des Themas hingewiesen, die Untersuchungsmethode und die eigene Argumentationsweise vorgestellt, die eng mit der Motivation zur Behandlung des Themas verwoben ist. Im ersten Kapitel wird die Gewalt gegen Frauen als zugleich universales wie auch partikulares Problem diskutiert, und dementsprechend die divergierenden Definitionen der Gewalt gegen Frauen, die vielfältigen Ansätze zum Verständnis von Frauen aus verschiedenen Gesellschaften und schließlich die Vielfalt der Erfahrungen von Frauen gegenüber Gewalt im Licht der interkulturellen Kommunikation vorgestellt und kritisch analysiert. Im zweiten Kapitel werden die diskursiv analytischen Interpretationen der Gewalt gegen Frauen im Licht der interkulturellen Kommunikation behandelt. Die Autorin knüpft an das diskursive Modell der Bedürfnisinterpretation von Nancy Fraser an und wendet es als methodischer Ansatz zur Interpretation der Gewalt gegen Frauen an. Sie weist auf die gesellschaftspolitischen und kulturellen Grenzen dieses Modells (auf die nördliche Hemisphäre beschränkt) hin und versucht es im Lichte des Ansatzes von Patrick Dias zu interkulturellem Lernen im Kontext der international ungleichen Machtstrukturen kritisch weiterzuentwickeln. Das dritte Kapitel analysiert die relevanten gesellschaftlichen Bedingungen mit ihren diskursiven Konstruktionen zum Verständnis von Frauen und deren Stellung im spezifischen Kontext Brasiliens. Das vierte Kapitel stellt die brasilianische Frauenbewegung wider Gewalt gegen Frauen in ihren historischen Zusammenhängen dar: von ihren Anfängen über deren Strategien in den Achtzigern bis im ausgehenden zwanzigsten Jahrhundert hinein; und es schließt mit den Diskussionen im 21. Jahrhundert ab, die verstärkt unter der Metapher der Cidadania (Aufbau der Zivilgesellschaft) steht. Kapitel fünf fasst die Ergebnisse der Untersuchung zusammen und führt den in der Studie angewandten diskursiv analytischen Ansatz im Rahmen der interkulturell immer noch bestehenden herrschaftlichen Kommunikationsstruktur mit einem Plädoyer für ein interkulturelles Lernen, das die globalen Ungleichheiten nicht verkennt, weiter.
Die vorgelegte Arbeit beschäftigte sich zunächst mit der Synthese von neuen 3'- und basenmodifizierten Nukleotiden und deren Markierung mit Fluoresceinisithiocyanat. Der zweite Teil dieser Arbeit befasst sich mit der Überprüfung der synthetisierten Verbindungen auf ihre Eignung als Terminatoren für die enzymatische DNA-Sequenzierung. Die Synthese des neuen Thioamidtriphosphats 3'- [[6-Amino- 1 -thioxohexyl) amino] -3'-konnte in 10 Schritten ausgehend vom Thymidin erfolgreich durchgeführt werden. Zunächst erfolgte die Umsetzung zum 3'-Amino-5'-O-(4,4'-dimethoxytrityl)-3'-desoxythymidin, an dessen 3'-Aminofunktion ein Aminocapronsäurelinker angekuppelt wurde. Der Schlüsselschritt der Synthese war die Beschwefelung der so generierten 3'-Amidfunktion mittels Lawesson's Reagenz. Dabei konnte durch Optimierung der Synthesebedingungen die Ausbeute der Beschwefelungsreaktion um 30 % gesteigert werden. Das Thioamid 3' -Desoxy-5 '-0- (4,4'-dimethoxytrityl) -3'- {{6-{[(9H-fluoren-9-ylmethoxy)-carbonyl] -amino}-1-thioxohexyl}amino}thymidin wurde zum Triphosphat umgesetzt und anschliessend FITC markiert. Für die Synthese des N2-modifizierten 2-Pentylamin-2',3'-didesoxyguanosin-5'-triphosphats 43 wurden Synthesewege beschritten. Schliesslich führte der Trick des Ausnutzens von Desmethylwyosin als Schutzgruppe zum Erfolg. Ausgehend vom 2'-Desoxyguanosin konnte die Synthese der unmarkierte Verbindung 2-Valeriansäurenitril-2'3'-didesoxyguanosin-5'-triphosphat 41 in 8 Schritten und die des Triphosphats 2-Pentylamin-2'3'-didesoxyguanosin-5'-triphosphat 43 und dessen FITCMarkierung in 12 Schritten erfolgreich durchgeführt werden. Die 5'-entschützte Verbindung 2-Valeriansäurenitril-2'3'-didesoxyguanosin wurde erfolgreich zum Triphosphat umgesetzt. Die Verbindung 5'-0- (tert-Butyldimethylsilyl)-2-Valeriansäurenitril-2'3'-didesoxyguanosin wurde Azid überführt. Das anschliessend synthetisierte Triphosphat 2-Pentylazid-2',3-didesoxyguanosin-5'-triphosphat 42 wurde reduziert und über die entstandene freie Aminofunktion mit FITC markiert. Alle neuen Triphosphate konnten durch optimierte Aufreinigungsbedingungen in hochreinem, salzreien Zustand isoliert werden. Vor dem Einsatz als Terminatoren für die DNA-Sequenzierung wurden alle Triphosphate als Na-Salze gefällt. Die synthetisierten Thioamidtriphosphate sind im Laufe dieser Arbeit als neue Verbindungen synthetisiert und veröffentlicht worden. Die hergestellten N2 - modifizierten Didesoxyguanosintriphosphate sind bisher nicht beschrieben und neue Vertreter ihrer Verbindungsklasse. Im zweiten Teil dieser Arbeit wurden die neuen, modifizierten Triphosphate 39, 40, 41, 43 und 44 auf ihre Eignung als Terminatoren für die Sanger-DANN-Sequenzierung getestet. Dabei wurden fünf verschiedene Polymerasen eingesetzt: Die thermostabilen Polymerasen AmpliTaq, Taq(exo-), Vent(exo-), Bst und die nicht thermostabile T7 Polymerase. Die besten Ergebnisse konnten mit der T7 Polymerase erreicht werden. Alle getesteten Terminatoren wurden als Terminatoren von der T7 Polymerase akzeptiert. Die entsprechenden Sanger-Abbruchfragmente konnten mittels des Cy5-markierten Primers detektiert werden. Die Verbindung 39 wurde auch von der AmpliTaq und der Taq(exo-) Polymerase akzeptiert. Die Terminatoren 41 und 43 wurden von der Taq(exo-) Polymerase eingebaut. Entsprechende Abbruchfragmente konnten in schwacher Konzentration detektiert werden. Mit der Bst- und der Vent(exo-)-Polymerase konnten keine positiven Ergebnisse erzielt werden. Mit Sicherheit können alle getesteten Triphosphate als Substrate zumindest für die positiv getesteten Polymerasen T7, AmpliTaq und Taq(exo-) bezeichnet werden. In Zukunft sollten mit beiden FITC-markierten Nukleotiden Sequenzierversuche mit einem geeigneten Laser durchgeführt werden, um Klarheit darüber zu bekommen, ob der Farbstoff nach dem enzymatischen Einbau am Terminator verbleibt und zur Dye-TerminatorSequenzierung eingesetzt werden kann. Ausserdem ist mit der Synthese des N2 -modifizierten ddG's die Grundlage für ein Sequenziersystem mit den bereits existierenden modifizierten ddA- und ddC-Terminatoren geschaffen.
Die Lösung unbekannter Strukturen aus Pulverbeugungsdaten ist keineswegs eine Routineanwendung, und es steht noch einiges an Arbeit an, um die vorhandenen Methoden so weit zu automatisieren, daß sie von Nichtspezialisten, auch solchen mit kristallographischen Kenntnissen, direkt verwendet werden können. In dieser Arbeit konnte überzeugend dargelegt werden, daß die Anwendung des älteren Verfahrens der Fragmentsuche eine sehr gute Möglichkeit bietet, den Schwierigkeiten der Strukturlösung aus Pulverdaten erfolgreich zu begegnen. Durch graduelle Steigerung des Schwierigkeitsgrads bzw. der Komplexität der Strukturlösung von der anfänglichen Verwendung simulierter Pulverbeugungsdaten bekannter Strukturen über die Messung von Pulverbeugungsdiagrammen bekannter Strukturen bis hin zur Lösung unbekannter Strukturen konnte die sinnvolle Anwendbarkeit des Fragmentsuchprogramms PATSEE zweifelsfrei belegt werden. Die in den einzelnen Stadien der Untersuchungen diskutierten Einflüsse, wie die benötigte minimale Fragmentgröße oder die Fragmentqualität, lieferten entscheidende Hinweise für das Aufstellen einer einfachen Strategie zur Strukturlösung aus Pulverdaten mit PATSEE. So konnte gezeigt werden, daß für einen sinnvollen Strukturlösungsversuch in der Regel mehr als 50% des relativen Streubeitrags aller Atome in der asymmetrischen Einheit benötigt werden und daß sich diese Grenze nur durch die Verwendung qualitativ hochwertiger Pulverbeugungsdaten, wie sie an modernen Synchrotronringen erhalten werden können, durchbrechen läßt. Auch die Variation eines Torsionsfreiheitsgrads im Zuge der Rotationssuche kann entscheidende Vorteile verschaffen, wenn zwei für sich genommen zu kleine starre Bereiche miteinander kombiniert werden. Außerdem konnte die prinzipielle Verwendbarkeit sowohl mittels Kraftfeldmethoden berechneter als auch experimentell bestimmter Fragmente, wie sie in der CSD in großer Zahl bereitstehen, bestätigt werden. Die in PATSEE verwendete Vielzahl an Gütekriterien zur Beurteilung einer Lösung konnte auch im Falle von Pulverdaten im wesentlichen überzeugen. Zwar ist die Diskriminierung zwischen richtigen und falschen Lösungen bei weitem nicht so eindeutig in bezug auf alle Gütekriterien, aber zumindest wird eine sehr gute Bewertung hinsichtlich von CFOM - dem Gütekriterium, nach dem die Lösungen sortiert werden - und den beiden R-Werten RE(1) und RE(2) erreicht. Als etwas problematisch hat sich die Rotationssuche erwiesen, die nur auf der Beurteilung eines einzigen Gütekriteriums beruht. Da aber gerade der Rotationssuche als erstem Schritt der Fragmentsuche eine wichtige Bedeutung zukommt, ist der Anwender zu großer Sorgfalt bei deren Durchführung verpflichtet. Eine Grenze für Strukturlösungsversuche mit PATSEE stellen derzeit Strukturen mit mehreren Molekülen in der asymmetrischen Einheit dar. Da im einfachsten Fall (Z'= 2) bereits ein komplettes Molekül als Suchfragment einen relativen Streubeitrag von unter 50% aufweist, wird eine erfolgreiche Orientierung und Positionierung mit PATSEE nur noch für hervorragende Datensätze möglich sein. Für noch schwierigere Fälle (Z'> 2) oder für Verbindungen, bei denen nicht das gesamte Molekülgerüst als Suchfragment verwendet werden kann, bestehen dann praktisch keine Aussichten mehr auf eine erfolgreiche Strukturlösung mit PATSEE. Basierend auf diesen Ergebnissen, konnten PATSEE-Parameter empfohlen werden, die sowohl für große Fragmente als auch für den Grenzbereich der minimal benötigten Fragmentgröße gute Erfolgsaussichten für die Strukturlösung gewährleisteten. Dabei wichen die empfohlenen Parameter nur in geringem Maße von den für Einkristalldaten optimierten Werten ab. Anhand zweier unbekannter Strukturen konnte die empfohlene Strategie verifiziert werden. Zusätzlich wurde für eine der beiden Strukturen eine Einkristallstrukturbestimmung vorgenommen, welche die aus Pulverdaten gelöste Struktur bestätigte. Auch wenn einerseits die prinzipielle Anwendbarkeit der Fragmentsuche mit PATSEE auf Pulverbeugungsdaten bewiesen werden konnte und andererseits eine allgemeine Strategie zur Vorgehensweise geliefert wurde, sind doch noch nicht alle interessanten Fragestellungen geklärt. Hier sind zum einen die unbefriedigenden Möglichkeiten bei Strukturen mit mehreren Molekülen in der asymmetrischen Einheit zu nennen. Eine sinnvolle Erweiterung der Zahl simultan suchbarer Fragmente in PATSEE könnte diesen Schwachpunkt beheben. Zugleich könnte mit dieser Erweiterung die Anwendbarkeit auf flexiblere Molekülgeometrien ausgedehnt werden, so daß im Endeffekt eine Steigerung der einsetzbaren Fragmentgröße erreicht wird. Diese Erweiterung sollte bei der enormen Rechenleistung moderner Computersysteme kein unüberwindliches Hindernis darstellen, so daß die benötigte Zeit für einen PATSEE-Lauf mit mehreren zu suchenden Fragmenten auf maximal einige wenige Stunden ansteigen würde. Alternativ wäre zu überlegen, ob nicht das Aufheben der strikten Trennung von Rotationssuche und Translationssuche, also eine 6-dimensionale Fragmentsuche, die bisweilen zu beobachtenden Probleme der Rotationssuche beheben würde. Auch bei dieser Änderung der Vorgehensweise in PATSEE könnten moderne Computer sinnvoll eingesetzt werden. Vorteilhaft für die Strukturlösung wäre hier die Kombination der sehr erfolgreichen Diskriminierung der Gütekriterien bei der Translationssuche mit der bisher kritischen Bestimmung der Orientierung. Eine zweite Fragestellung, die im Rahmen dieser Arbeit nicht geklärt werden konnte, betrifft die Anwendbarkeit auf makromolekulare Verbindungen, die über eine große interne Regelmäßigkeit verfügen, wie beispielsweise kleinere Peptide mit alpha-helikaler Struktur oder einer beta-Faltblattstruktur. Verschiedene Testreihen an derartigen Verbindungen belegen die prinzipielle Machbarkeit, und außerdem konnte bereits in mindestens einem ähnlich gelagerten Fall [17] gezeigt werden, daß derartige Strukturlösungsversuche bei sehr großen Verbindungen durchführbar sind. Insbesondere wegen der erheblichen Schwierigkeiten bei der Kristallisation derartiger Verbindungen und dem großen wissenschaftlichen Interesse an ihrer Struktur könnten erfolgversprechende Ansätze zur Strukturlösung aus Pulverdaten einen wichtigen Beitrag in der Pharmazie, der Pharmakologie, der Biologie und nicht zuletzt in der Medizin leisten.
Die auf dem ACDM-Modell beruhenden numerischen Simulationen der gravitativen Strukturbildung sind auf Skalen M >> 10 hoch 10 M sehr erfolgreich, insbesondere konvergieren die Verfahren hinsichtlich des vorhergesagten Masseanteils der Halos an der Gesamtmasse von Galaxien. Jedoch konvergieren die Simulationen nicht bezüglich der lokalen Überdichten von CDM in den Halos, vielmehr setzt sich gravitative Strukturbildung auf immer kleinere Skalen fort. Numerisch kann keine Massen-Schwelle berechnet werden, unterhalb derer keine CDM-Strukturen mehr gravitativ gebildet werden. Die Kenntnis der lokalen Überdichten in den CDM-Wolken und die Verteilung der CDM-Wolken ist jedoch für Experimente zum direkten und indirekten Nachweis von CDM-Teilchen essentiell. Aus den lokalen Überdichten folgen für Experimente zum direkten Nachweis die einfallende Stromdichten der CDM-Teilchen und für Experimente zum indirekten Nachweis die Stromdichte der Annihilationsprodukte. Außerdem können die lokalen Überdichten als Gravitationslinsen wirken. In dieser Arbeit werden Massen Schwellen analytisch berechnet, unterhalb derer akustische Störungen in CDM nicht mehr zur gravitativen Strukturbildung beitragen können. Das Massen-Spektrum von lokalen Überdichten ist nach unten durch zwei unterschiedliche Mechanismen beschränkt: (1) Während der kinetischen Entkopplung formieren sich Nichtgleichgewichtsprozesse, die sich kollektiv als Reihungsphänomene konstituieren. Im lineare Regime sind dies die Volumenviskosität, die Scherungsviskosität und die Wärmeleitung. Die dissipativen Prozesse deponieren Energie und Impuls der akustischen Störungen in die Ebene senkrecht zur Ausbreitungsrichtung der Störungen und schmieren diese so aus. (II) Nach dem kinetischen Entkopplungsprozeß strömt CDM frei auf Geodäten. Dies ermöglicht einen Strom von Teilchen von überdichten in unterdichte Regionen, so daß die Amplituden der lokalen Überdichten weiter gedämpft werden. Die lokalen Transportkoeffizienten in (1) werden durch einen legitimen Vergleich von hydrodynamischer und kinetischer Beschreibung schwach dissipativer Prozesse gewonnen. Dissipative Prozesse induzieren eine Dämpfungsmasse Mc ungefähr gleich 10 hoch minus 9 M in SUSY-CDM und beschränken damit das Spektrum akustischer Störungen in SUSY-CDM. Freies Strömen (II) von CDM-Teilchen auf Geodäten induziert eine weitere Dämpfungsmasse M fs ungefähr gleich 10 hoch minus 6 M in SUSY-CDM, wobei das berechnete M d als Anfangswert dient. Die berechneten Schwellen liefern konsistente Schranken für numerische Simulationen, die weit unterhalb des momentanen numerischen Auflösungsvermögens liegen. Weiterhin folgt aus den Schwellen die Masse der ersten rein gravitativ gebundenen CDM-Wolken. Aus diesen bilden sich im Rahmen der hierarchischen Strukturbildung größere Substrukturen bis hin zu den heute vorhandenen CDM-Halos.
In bestimmten methanogenen Archaea wurde vor einigen Jahren eine metallfreie Hydrogenase gefunden, die den reversiblen und stereoselektiven Transfer eines Hydridions von Wasserstoff auf die an den C1-Carrier Tetrahydroniethanopterin (H4MPT) gebundene Methenyl-Gruppe katalysiert. Damit stellt dieses Enzym den ersten und einzigen rein organischen Hydrogenierungskatalysator dar, den man in der Natur kennt. Ziel der vorgelegten Arbeit war die kristallographische Bestimmung der Enzymstruktur. Versuche zur Strukturlösung des in aktiver Form aus M. marburgensis isolierten Enzyms durch mehrfachen isomorphen Ersatz, über die anomale Dispersion an nicht-isomorphen Quecksilberderivaten und die des Selens an mit Selenomethionin markiertem Enzym verliefen nicht erfolgreich. Ursächlich hierfür war die perfekte meroedrische Zwillingsbildung der Kristalle. Für die beiden heterolog produzierten, inaktiven Apoenzyme aus den Hyperthermophilen M. jannaschii und M. kandleri wurden in dieser Arbeit effektive Expressions- und Reinigungsprotokolle entwickelt. Für das Enzym aus M. jannaschii wurden Mikrokristalle erhalten, die lediglich ein Proteolysefragment von etwa der halben Masse des Vollängenproteins enthalten. Kristalle des Enzyms aus M. kandleri konnten durch serielles Microseeding so weit verbessert werden, daß die Durchführung eines MAD-Experiment möglich wurde. Erst unter Verwendung vor kurzem entwickelter direkter Methoden (Shake-and-Bake) gelang die Strukturlösung bei einer Auflösung von 2.8 Å. Die Monomere bilden ein sehr eng assoziiertes Homodimer; zwei dieser Dimere sind zu einem locker assoziierten Tetramer verbunden. Jedes Monomer besitzt zwei Domänen. Die N-terminale Domäne von etwa 255 Resten besitzt eine Faltung, wie sie für Dinukleotid-bindende Enzyme typisch ist, mit einem zentralen, verdrehten achtsträngigen beta-Faltblatt. Die C-terminale Domäne von etwa 100 Resten besitzt dagegen weitgehend alpha-helikale Struktur und ist für die außerordentlich enge Assoziation des Homodimers verantwortlich. Beide Domänen sind durch eine gestreckte, flexible Verbindung verknüpft. Im Dimer entstehen dadurch zwei tiefe Spalten, die von Anteilen der N-terminalen Domäne eines und der C-terminalen Domäne des jeweils anderen Monomers begrenzt werden. Das aktive Zentrum liegt wahrscheinlich in dieser Spalte, wobei postuliert wird, daß der fest gebundene Cofaktor eher mit der größeren N-terminalen Domäne assoziiert ist und das Substrat zwischen den Domänen bindet. An der Bindung dürfte die C-terminale Domäne und möglicherweise auch direkt der Cofaktor beteiligt sein. Die Struktur zeichnet sich durch außergewöhnlich hohe Tenmperaturfaktoren ans. Für das Enzym aus M. marburgensis konnte eine Lösung durch molekularen Ersatz erhalten werden. Da der für die Katalyse benötigte, noch unbekannte Cofaktor nicht in der Struktur enthalten ist, ist eine weitergehende Diskussion des enzymatischen Mechanismus noch nicht möglich. Die Verfügbarkeit eines ersten Strukturmodells der metallfreien Hydrogenase stallt aber bereits einen entscheidenden Schritt auf dem Weg zum Verständnis dieses ungewöhnlichen Hydrogenierungskatalysators dar.
One of the most species-rich ant-plant mutualisms worldwide is the palaeotropical Crematogaster-Macaranga system. The pioneer-tree genus Macaranga (Euphorbiaceae) is mainly inhabited by at least nine specific species of Crematogaster (Myrmicinae), of which eight belong to the subgenus Decacrema, as well as several species of Camponotus (Formicinae). Ant species are not randomly distributed among the Macaranga host plants but distinct patterns of associations have been found (Fiala et al., 1999 and references cited therein). The specificity of the associations is maintained in spite of common sympatric distribution of several host-plant species. Associations are, however, usually not species-specific and especially the Decacrema ants, that are the focus of this study, usually colonize several host plant species each. In this study I used a combined approach of ecological data as well as phylogenetic data based on mitochondrial DNA sequences in order to elucidate the factors determining the patterns found in the associations and the evolution of this mutualistic system between the specific Decacrema ant partners and their Macaranga host plants. Life history traits of seven different morphospecies found on the most common Macaranga host plants were compared and colony development was followed from colony founding on saplings to adult trees. Temporal variability of the associations between Decacrema ants and their respective host plants was also examined. Associations between Crematogaster ants of the subgenus Decacrema and their Macaranga host plants were found to be stable over periods of time, long enough to enable reproduction of the ant colony and (in most cases) the host plants, too. Life-expectancy of the ant colony seems to be shorter than that of the host plant in general. All adult trees still provide nesting space as well as food for the ants. Colonies from different morphospecies differed in longevity, the onset of alate production, queen number and mode of colony founding. The examined Decacrema species could be placed into two groups according to their life-history traits as well as on morphological grounds: The decamera-group and the captiosa-group, each named after one species that could be synonymized with one morphospecies included in the group. Members of the captiosa-group have larger colonies, presumably with a longer life-span, and a later onset of reproduction compared to the decamera-group. Additionally, queens of the captiosa-group found colonies on saplings as well as in the crown region of bigger trees, whereas queens of the decamera-group found colonies on saplings and small treelets only. Queens belonging to the captiosa-group are brown with relatively large eyes (= 1/3 of the head length), whereas queens from the decamera-group are smaller in size, are dark brown to black in colour and have smaller eyes (< 1/3 of the head length). On some of the host plants examined in this study lifespan of the host plant and their specific ant partners seemed to be well matched whereas on others an ontogenetic succession of specific Decacrema partner ants was found, when host plants were abandoned due to the death of comparatively short-lived ant colonies, usually from species belonging to the decamera-group. Ant-partners of saplings or young plants often differed from specific partner ants found on bigger trees. Only species belonging to the captiosa-group were found to re-colonize the crown region of adult trees, thus facilitating a change of ant species, when longlived host plant species were colonized by relatively short-lived species from the decamera-group first. When long -lived host plants were colonized by long-lived species from the captiosa-group associations were stabler: I did not find any temporal variation in ant-inhabitants then. Life-span of the ant colony as well colony founding behaviour of the different partner ant species therefore play an important role for these ontogenetic changes and the specificity of the associations over time. For the host plant the ontogenetic changes have a strong impact as uninhabited host plants that are not patrolled by workers of specific ant partners suffer higher herbivore damage. Uninhabited host plants may also be colonized by unspecific arboreal ants that only make use of the nesting space and/ or food offered by the plant but do not confer protection against herbivores. Stable associations with a specific ant partner are therefore most beneficial for the host plants. Usually ant colonies are monogynous, but changes in the colony structure were found locally in two Decacrema species. I found colonies that turned secondarily polygynous, possibly after the death of the original founding queen. Secondary polygyny therefore can prolong the life-span of the antcolony on its host plant, leading to a parallel life-history and stable association as it was the case in Macaranga bancana-Crematogaster captiosa. However, in the other association (Macaranga hypoleuca-Crematogaster cf. decamera) life-expectancy of the ant-colony is still much shorter than that of its host plant species, leading to a change in the specific ant partner at a later stage. Pleometrotic foundress associations that directly led to polygynous colonies in one species were also found locally, a phenomenon hardly ever reported from ants in general. Foundress associations were found to be more successful in establishing colonies than single queens. I found indications that this change in colony founding behaviour might be due to interspecific competition for the same host plant species with another Decacrema species specific to Macaranga. For the phylogenetic analysis partial mitochondrial cytochrome oxidase I and II were sequenced and Neighbor-Joining, Maximum Parsimony, Maximum Likelihood as well as Bayesian analyses were performed. The four different analyses yielded phenetic as well as phylogenetic trees that all had a similar topology. Ants of the subgenus Decacrema formed a monophyletic clade, indicating a single colonization event at the beginning of the Macaranga-Decacrema symbiotic system. In the phylogenetic analysis the decamera-group as well as the captiosa-group were confirmed and clearly separated from each other. However, two species that would have been placed into the decamera-group, due to morphological as well as life-history traits, formed a third separate clade within the Decacrema. These two species (msp. 7- group) as well as the decamera-group came out as the basal groups in the phylogenetic analysis. Thus, life -history traits of these two groups (relatively small colonies, early onset of alate production, colony founding in ground region only) would be the ancestral state for Macarangaassociated ants of the subgenus Decacrema. Changes in colony structure, like secondary polygyny, were found in the captiosa- as well as the decamera-group and are therefore independent of the affiliation within the phylogeny. I did not find evidence for strict cocladogenesis between the subgenus Decacrema and their Macaranga host-plants, although ecological interactions between the two partner groups are close and associations can be rather specific. The phylogenies presented here, along with the known association patterns indicate that host-shifting of the ants is common in some of the species, opening the possibility of sympatric speciation as a result of increased host usage. Additionally, the considerable geographic substructuring found in the phylogenetic trees suggests that allopatric speciation has played a major role in diversification of the Decacrema ants.
Human epidermal-type fatty acid binding protein (E-FABP) belongs to a family of intracellular non-enzymatic 14-15 kDa lipid binding proteins (LBP) that specifically bind and facilitate the transport of fatty acids, bile acids or retinoids. Their functions have also been associated with fatty acid signalling, cell growth, regulation and differentiation. As a contribution to better understand the structure-function relationship of this protein, the features of its solution structure determined by NMR spectroscopy are reported here. Both unlabeled and 15N-enriched samples of recombinant human E-FABP were used for multidimensional high-resolution NMR. The sequential backbone as well as side-chain resonance assignments have been completed. They are reported here and are also available at the BioMagResBank under the accession number BMRB-5083. The presence of six cysteines in the amino acid sequence of human E-FABP is highly unusual for LBPs. Four of the six cysteines are unique to the E-FABPs: C43, C47, C67 and C87. In the three-dimensional structure of E-FABP, two cysteine pairs (C67/C87 and C120/C127) were identified by X-ray analysis to be close enough to allow disulfide bridge formation, but a S-S bond was actually found only between C120 and C127 [Hohoff et al., 1999]. Since the exclusion of a disulfide bridge between C67 and C87 improved the Rfree factor of the crystallographic model, the existence of a covalent bond between these two side- chains was considered unlikely. This agrees with the NMR data, where SCH resonances have been observed for the cysteine residues C43, C67 (tentative assignment) and C87, thus excluding the possibility of a second disulfide bridge in solution. Based on the NOE and hydrogen exchange data, an ensemble of 20 energy-minimized conformers representing the solution structure of human E-FABP complexed with stearic acid has been obtained. The analysis of homonuclear 2D NOESY and 15N-edited 3D NOESY spectra led to a total of 2926 NOE-derived distance constraints. Furthermore, 37 slow- exchanging backbone amide protons were identified to be part of the hydrogen-bonding network in the >-sheet and subsequently converted into 74 additional distance constraints. Finally, the disulfide bridge between C120 and C127 was defined by 3 upper and 3 lower distance bounds. The structure calculation program DYANA regarded 998 of these constraints as irrelevant, i.e., they did not restrict the distance between two protons. Out of the remaining 2008 non-trivial distance constraints, 371 were intraresidual (i = j), 508 sequential (|i - j| = 1), 233 medium-range (1 < |i - j| £ 4), and 896 long-range (|i - j| > 4) NOEs. The protein mainly consists of 10 antiparallel -strands forming a >-barrel structure with a large internal cavity. The three-dimensional solution structure of human E-FABP has been determined with a root-mean-square deviation of 0.92 ± 0.11 Å and 1.46 ± 0.10 Å for the backbone and heavy atoms, respectively, excluding the terminal residues. Without the portal region (i.e., for residues 4-26, 40-56, 63-75 and 83-134; the portal region apparently represents the only opening in the protein surface through which the fatty acid ligand can enter and exit the internal binding cavity), an average backbone RMSD of 0.85 ± 0.10 Å was obtained, thus reflecting the higher conformational dispersion in the portal region. Superposition with the X-ray structure of human E-FABP (excluding the terminal residues) yielded average backbone RMSD values of 1.00 ± 0.07 Å for the entire residue range and 0.98 ± 0.06 Å without the portal region. This indicates a close similarity of the crystallographic and the solution structures. The structure coordinates have been deposited at the RCSB data bank under PDB ID code 1JJJ. The measurement of 15N relaxation experiments (T1, T2 and heteronuclear NOE) at three different fields (500, 600 and 800 MHz) provided information on the internal dynamics of the protein backbone. Nearly all non-terminal backbone amide groups showed order parameters S2 > 0.8, with an average value of 0.88 ± 0.04, suggesting a uniformly low backbone mobility in the nanosecond-to-picosecond time range throughout the entire protein sequence. Moreover, hydrogen/deuterium exchange experiments indicated a direct correlation between the stability of the hydrogen-bonding network in the >-sheet structure and the conformational exchange (Rex) in the millisecond-to-microsecond time range. The features of E-FABP backbone dynamics elaborated here differ from those of the phylogenetically closely related heart-type FABP and the more distantly related ileal lipid binding protein. The results on protein dynamics obtained in this work allow to conclude that the different LBP family members E-FABP, H-FABP and ILBP are characterized by varying stabilities in the protein backbone structures. Hydrogen/deuterium exchange experiments displayed significant differences in the chemical exchange with the solvent for the backbone amide protons belonging to the hydrogen-bonding network in the >-sheets. The >-barrel structure of H- FABP appears to be the most rigid, with exchange processes presumably slower than the millisecond-to-microsecond time range. ILBP, on the other hand, shows the fastest hydrogen exchange as well as a significant number of exchange parameters (Rex), implying a decreased stability in the >-sheet structure. E-FABP, finally, appears to rank between these two proteins based on the hydrogen/deuterium exchange, with Rex terms in the >-strands indicating millisecond-to-microsecond exchange processes like in ILBP.
Die Verwendung von Fettemulsionen mit ausschließlich langkettigen Triglyceriden (LCT) und dadurch hohem Anteil an mehrfach ungesättigten Fettsäuren zur parenteralen Ernährung kann zu Veränderungen in der Fettsäurezusammensetzung von Phospholipiden mit entsprechenden Effekten auf die Metaboliten der Arachidonsäure und der Zellmembranen führen. Die Eliminationsgeschwindigkeit mittelkettiger Triglyceride (MCT) soll nach parenteraler Gabe schneller sein als die von langkettigen Triglyceriden. Nach Infusion gleicher Fettmengen an MCT werden niedrigere Triglyceridwerte gemessen als nach LCT-Gabe. In der vorliegenden Arbeit wurden Elimination und Stoffwechseleffekte verschiedener MCT/LCT-Mischemulsionen im Rahmen einer klinischen Prüfung der Phase 1 untersucht. Dazu wurden stoffwechselgesunden männlichen Probanden zwei neu entwickelte 20%ige Fettemulsionen der Firma Laevosan (Lipidol MCT 1/2 mit 50% und Lipidol MCT 1/3 mit 33% MCT-Anteil) in unterschiedlichen Dosierungen infundiert. Es wurden folgende Versuchsansätze verwendet: 10 g Fett als Bolus in 3 Minuten, eine Kurzinfusion von 50 g Fett in 30 Minuten, eine 12 stündige Dauerinfusion mit 0,1 g Fett/kg KG/h und eine hochdosierte Dauerinfusion über 8 Stunden mit 0,25 g Fett/kg KG/h. Die an Versuchspersonen vorgenommenen Untersuchungen wurden durch tierexperimentelle Leberperfusionen ergänzt. Die Umsatzkapazität für die beiden Fettemulsionen mit Zusatz von MCT lag im gleichen Bereich wie die Umsatzkapazität für vergleichbar zusammengesetzte Fettemulsionen. Die Halbwertszeiten für die Elimination der Triglyceride betrugen 15,1 Minuten für MCT 1/2 20% und 27,9 Minuten für MCT 1/3 20% nach Bolusapplikation von 10 g Fett. Nach Kurzinfusion von 50 g Fett lagen die Eliminationshalbwertszeiten bei 46,2 Minuten für MCT 1/2 20% und bei 54.6 Minuten für MCT 1/3 20%. Unter niedrig dosierter Dauerinfusion (0,1 g Fett/kg KG/h) wurde ein Fließgleichgewicht erreicht. Hingegen erwies sich die höhere Dosierung von 0,25 g Fett/kg KG/h als überdosiert, der stetige Anstieg der Triglyceridkonzentration während der 8stündigen Infusion zeigte an, dass mit dieser Dosierung kein Fließgleichgewicht mehr zu erreichen war. Damit war die Eliminationskapazität für die untersuchten Emulsionen bei dieser Dosierung ebenso wie bei Emulsionen mit reinem LCT-Anteil überschritten. Der Zusatz von MCT hat dementsprechend nicht zu einer Erhöhung der Umsatzkapazität für Fettemulsionen geführt. Der erhebliche Anstieg der Fettsäurekonzentrationen während und nach Applikation der Fettemulsionen ist Ausdruck der raschen Hydrolyse der Triglyceride. Die gaschromatographische Differenzierung der Fettsäurekonzentrationen im Serum ergab, dass der Anstieg der Fettsäuren insbesondere auf das Verhalten der mittelkettigen Fettsäuren zurückzuführen war. Sowohl unter hochdosierter Kurzinfusion von 50 g Fett (= 0,625 g-0,667 g Fett/kg Kg bezogen auf das durchschnittliche Probandengewicht) als auch unter hochdosierter Dauerinfusion von 0,25 g Fett/kg KG/h erfolgte dementsprechend mit beiden Fettemulsionen ein Anstieg der Konzentrationen der freien mittelkettigen Fettsäuren (Capryl- und Caprinsäure) auf außerordentlich hohe Werte, wie sie unter physiologischen Bedingungen kaum jemals gemessen werden (5,2 mmol/l mit MCT 1/3 20% und 5,5 mmol/l mit MCT 1/2 20% nach 50 g Fett, 2,4 mmol/l mit MCT 1/3 20% und 3,6 mmol/l mit MCT 1/2 20% unter 0.25 g Fett/kg KG/h). Von einigen der Probanden wurde deutliche Übelkeit als Nebenwirkung der hochdosierten Fettemulsion angegeben. Erwartungsgemäß kam es mit beiden MCT-haltigen Fettinfusionen neben einem Anstieg der Konzentration der freien Fettsäuren auch zu einer deutlichen Erhöhung der Konzentration der Ketonkörper. Der Anstieg war deutlich höher, wenn der Anteil an MCT erhöht war. Außerdem war der Ketonkörperanstieg vor allem unter den beiden hohen Dosierungen bei Verwendung der Emulsion mit dem höheren Anteil an MCT deutlich stärker ausgeprägt als bei der anderen Emulsion mit dem niedrigeren Anteil an MCT. Es wurden dabei nach Kurzinfusion von 50 g Fett Konzentrationen (berechnet als Gesamtsumme an ß-Hydroxybutyrat und Acetoacetat) von lediglich 7,7 mg/dl mit MCT 1/3 20% im Vergleich zu 11,2 mg/dl mit MCT 1/2 20% erreicht. Unter Gabe von 0,25 g Fett/kg KG/h stieg die Gesamtketonkörperkonzentration mit MCT 1/3 20% auf 8,4 mg/dl während es auch hier mit MCT 1/2 20% zu einem höheren Anstieg auf 12,1 mg/dl kam. Auch in der isoliert perfundierten Rattenleber erfolgte ein rascher Umsatz der in den Fettemulsionen enthaltenen Triglyceride. Dabei kam es zu einer extrem schnellen und vor allem nahezu vollständigen Elimination bevorzugt von mittelkettigen Fettsäuren. Dies führte zu erheblichen Anstiegen des ß-Hydroxybutyrats und Acetoacetats, mit beiden Fettemulsionen bis auf Ketonkörperkonzentrationen um 100 mg/dl. Dies entsprach prozentualen Anstiegen von 645,6-750.5 % für ß-Hydroxybutyrat und von 1099,6-1194,8 % für Acetoacetat. Die Glycerin-Konzentration blieb während der Perfusionen niedrig, dies bedeutete, dass das bei der Hydrolyse der Triglyceride gebildete freie Glycerin in der Leber rasch umgesetzt wurde. Bei einer starken Anflutung von freien mittelkettigen Fettsäuren in der Leberzelle zeigte sich, dass es neben der ß-Oxidation vor allein auch zu einer gesteigerten Lipogenese kam. Die in den geprüften Fettemulsionen enthaltenen MCT wurden ebenso wie langkettige Triglyceride rasch hydrolysiert, wie die hohe Konzentration an mittelkettigen Fettsäuren im Serum aufwies. Die Ursache für die hohe Konzentration der mittelkettigen Fettsäuren könnte sein, dass auch die durch Hydrolyse im peripheren Bereich entstandenen mittelkettigen Fettsäuren vorwiegend über die Leber eliminiert werden. Der Anteil der Leber an der Elimination und am Metabolismus der mittelkettigen Fettsäuren ist aus dem Anstieg der Ketonkörper zu erkennen. Diese Beziehung ist bei der Wertung der im Experiment mit der isoliert perfundierten Rattenleber erhobenen Ergebnisse besonders gut zu erkennen. Es konnten keine Anhaltspunkte dafür gefunden werden, dass die Ergänzung von Sojaöl durch MCT in Fettemulsionen zu einer Steigerung des Umsatzes der infundierten Triglyceride führt. Zu beachten wären allerdings die hohen Konzentrationen vor allem an freien mittelkettigen Fettsäuren, die während der Infusion von MCT-haltigen Emulsionen zu messen sind. Da für diese Messung Spezialmethoden erforderlich sind, sind derartige Bestimmungen bei Routineanwendung allerdings nicht möglich.
Es wurden 1000 von der Polizei in und um Frankfurt am Main in der Praxis ermittelte AAK-Messwerte und die entsprechenden BAK, die im Zentrum der Rechtsmedizin der Johann Wolfgang Goethe-Universität in Frankfurt am Main bestimmt wurden, einer statistischen Auswertung unterzogen. In die Auswertung sind alle aus den Untersuchungsunterlagen entnehmbaren Parameter, wie Geburtsdatum der Probanden, Geschlecht, Datum und Uhrzeit der AA-Entnahme, AAK, Datum und Uhrzeit der Tat, zuständiges Polizeirevier, AAK-Messgerät, BAK, Datum und Uhrzeit der Blutentnahme, eingeflossen. Die statistische Auswertung hat ergeben, dass die durchschnittliche Differenz aller AAK- und BAK-Werte bei -0,02 Promille liegt, mit einer Standardabweichung von ±0,35 Promille bei einer maximalen Differenz von -1,13 Promille nach unten und +2,81 Promille nach oben. Die Standardabweichung von ±0,35 Promille wurde als Grenzwert zur Überprüfung der Korrelation der wahrscheinlichen BAK zum Zeitpunkt der AAK-Bestimmung gewählt. Trotz der großen Spanne des Grenzbereichs von 0,7 Promille wurden nur 77,9% der AAK-BAK-Paare als korrelierend ermittelt. Bei Festlegen individueller Grenzwerte, gebildet aus der minimalen bzw. der maximalen BAK zum Zeitpunkt der AAK-Bestimmung, erwiesen sich nur noch 34,7% der Wertepaare als korrelierend. Der durchschnittliche BAK-AAK-Quotient betrug 1:2181, mit einer Standardabweichung von ±1:473. Die Quotientenspanne lag zwischen 1:0 und 1:4480. Als einziger, eindeutig nachzuweisender Faktor für die Beeinflussung der AAK-Messwerte galt die tatsächliche Höhe der BAK. Je höher die Probanden-BAK war, umso größer waren die AAK-Abweichungen von der BAK. Erwähnenswert ist, dass die AAK-Messgeräte der Firma Dräger (Alcotest® 7310 und 7410), auf Redox-Halbleiter-Gassensoren aufbauend, die indirekte BAK im Durchschnitt zu hoch, während die Brennstoffzellen-Geräte LMB S-D3 der Firma LMB Laborservice GmbH die indirekte BAK im Durchschnitt zu niedrig angaben. Die Untersuchung der Wertepaare aus AAK und minimaler BAK zum Zeitpunkt der AAKBestimmung im Vergleich zu den vom Gesetzgeber vorgegebenen Promille-Stufen für ein bestimmtes Strafmaß (0,3 Promille, 0,5 Promille, 0,8 Promille, 1,1 Promille, 1,6 Promille, 2,0 Promille, 3,0 Promille) hat ergeben, dass bei dem vorliegenden Datenmaterial 203 Probanden eine zu niedrige und 239 Probanden eine zu hohe Strafe erhalten hätten, wenn die AAK als alleiniges Maß verwendet worden wäre. Diese Fehleinschätzung wäre eingetreten, weil die AAK der Probanden über bzw. unter den oben genannten Grenzwerten lag und sich ihre BAK umgekehrt unter bzw. über denselben Werten befand. Es lässt sich feststellen, dass eine Berechnung der BAK aus dem Ethanolgehalt der Atemluft nicht möglich ist, weil viele Faktoren die AAK-Messung beeinflussen, die bisher unberücksichtigt blieben und auch von modernen, hochpräzisen AAK-Messgeräten schwerlich erfasst werden können. Daher gilt die Empfehlung, die AAK-Messung nur als Vorprobe und zum Screening zu verwenden. Bei juristischen Begutachtungen sollte nur die BAK verwendet werden, weil diese als einziger Wert präzise und beweissicher ist und außerdem über den Trunkenheitszustand eindeutig informiert. Betroffene sollten auf jeden Fall auf einer BAK-Untersuchung bestehen und die AAK als Messwert in Frage stellen.
Die Chemie und der Strahlungshaushalt der Erdatmosphäre werden durch die nur in relativ geringen Konzentrationen vorhandenen Spurengase und Aerosolpartikel beherrscht. Mit den zunehmenden anthropogenen Emissionen von atmosphärischen Spurengasen, verursacht durch die wachsende Weltbevölkerung und die zunehmende Industrialisierung, wurde in den letzten Dekaden ein globaler Wandel bei der Zusammensetzung der Erdatmosphäre festgestellt: Konzentrationen von atmosphärischen Spurenstoffen verändern sich nicht mehr auf vergleichsweise langsamen geologischen Zeitskalen, sondern mit viel höheren Geschwindigkeiten, in einzelnen Fällen von bis zu einem Prozent pro Jahr. Die wohl bekanntesten Folgen dieser Veränderungen sind die globale Erwärmung durch die ansteigenden Emissionen von Treibhausgasen und der mit dem antarktischen 'Ozonloch" entdeckte drastische Ozonverlust in der Stratosphäre durch anthropogene Fluor-Chlor-Kohlenwasserstoffe (FCKW). Die Verteilung der für Ozonchemie und Klima relevanten Spurengase in der Atmosphäre hängt dabei nicht nur von der Verteilung ihrer Quellen und Senken ab, sondern wird maßgeblich durch verschiedene Transportprozesse beeinflußt. Der Austausch zwischen der mit anthropogenen Emissionen belasteten Troposphäre und den höheren Atmosphärenschichten Stratosphäre und Mesosphäre spielt dabei eine zentrale Rolle. Im Rahmen der Dissertation wurde zum besseren Verständnis von Stratosphären-Troposphären-Austauschprozessen die Verteilung von langlebigen Spurengasen in den beiden atmosphärischen Kompartimenten Troposphäre und Stratosphäre untersucht. Dazu wurde bei einer Meßkampagne im Sommer 1998 im Rahmen des von der Europäischen Union geförderten Forschungsprojektes STREAM 98 der flugzeuggetragene Gaschromatograph GhOST (Gas chromatograph for the Observation of Stratospheric Tracers) an Bord einer Cessna Citation II der TU Delft in Höhen bis 13 km eingesetzt. Dabei konnten bei zwanzig Meß- und Transferflügen über Kanada, dem Atlantik und Westeuropa umfangreiche Messungen der langlebigen Spurengase N20, F11 und F12 in der oberen Troposphäre und der Untersten Stratosphäre durchgeführt werden. Unter Flugbedingungen wurde mit GhOST während der Kampagne eine Reproduzierbarkeit (1 o) von besser als 0,6 % und eine absolute Genauigkeit von besser als 2 % für alle nachgewiesenen Spurengase erreicht. Diese hohe Meßpräzision konnte durch zahlreiche Vergleichsmessungen mit anderen Meßgeräten und Meßverfahren - im Flugbetrieb und im Labor sichergestellt werden; die Linearität des Geräts wurde zudem mit Hilfe einer barometrisch hergestellten Verdünnungsreihe untersucht. Die mit GhOST bei STREAM 98 gewonnenen Meßwerte wurden zusammen mit Messungen und Modelldaten der am Projekt beteiligten Arbeitsgruppen zur Untersuchung von Spurengasverteilungen und Stratosphären-Troposphären-Austauschprozessen herangezogen. Untersucht wurden dabei unter anderem die Verteilung und Variabilität von N20, F11 und F12 in der Troposphäre und in der Untersten Stratosphäre der mittleren Breiten, Austausch- und Mischungsprozesse in der Tropopausenregion und die Variabilität von Tracer/Tracer-Korrelationen in der Untersten Stratosphäre. Aufbauend auf den Erfahrungen bei STREAM 98 wurde für das vom BMBF geförderte Projekt SPURT im Rahmen dieser Doktorarbeit der in-situ-Gaschromatograph GhOST II entwickelt. Unter Beibehaltung der gaschromatographischen Komponenten von GhOST wurden zur Messung der Spurengase SF6 und CO zwei zusätzliche Detektoren integriert und zahlreiche technische Verbesserungen durchgeführt. Für die vollautomatische rechnergestützte Elektronik zur Steuerung des neuen Gerätes wurden zusammen mit der institutseigenen Elektronikwerkstatt verschiedene Baugruppen zur Signalführung und -verarbeitung, zur Temperaturmessung und zur Ansteuerung von Leistungskomponenten entwickelt. Während einer Testkampagne im April 2001 wurde GhOST II erfolgreich mechanisch und elektrisch auf einem Learjet 35A integriert und kam bei zwei Meßflügen der Meßkampagne SPURT 1 im November 2001 zum Einsatz.