Refine
Year of publication
Document Type
- Article (31421)
- Part of Periodical (11962)
- Book (8330)
- Doctoral Thesis (5737)
- Part of a Book (3969)
- Working Paper (3389)
- Review (2939)
- Contribution to a Periodical (2369)
- Preprint (2228)
- Report (1560)
Language
- German (43320)
- English (29784)
- French (1071)
- Portuguese (843)
- Multiple languages (320)
- Spanish (309)
- Croatian (302)
- Italian (198)
- mis (174)
- Turkish (168)
Keywords
- Deutsch (1082)
- Literatur (873)
- taxonomy (768)
- Deutschland (553)
- Rezension (511)
- new species (453)
- Rezeption (354)
- Frankfurt <Main> / Universität (341)
- Übersetzung (329)
- Geschichte (301)
Institute
- Medizin (7779)
- Präsidium (5235)
- Physik (4592)
- Extern (2742)
- Wirtschaftswissenschaften (2710)
- Gesellschaftswissenschaften (2378)
- Biowissenschaften (2198)
- Biochemie und Chemie (1978)
- Frankfurt Institute for Advanced Studies (FIAS) (1775)
- Center for Financial Studies (CFS) (1632)
Weltweit stellen primäre und sekundäre metastatische Leberneoplasien die häufigste Todesursache onkologischer Patienten dar. Die Kontrolle eines Leberbefalls ist ein für das Überleben und die Lebensqualität dieser Patienten wichtiger Aspekt. Die chirurgische Leberresektion stellt z.Z. die einzige potentiell kurative Behandlung dar. In vielen Fällen jedoch ist eine Resektion nicht möglich. Bei diesen Patienten mit nicht resektablen Lebertumoren muß das Ziel eine maximal mögliche Kontrolle dieser Läsionen bei guter Lebensqualität sein. Hier kommen dann hauptsächlich chemotherapeutische sowie verschiedene lokoregionäre Therapiestrategien zur Anwendung. Diese Arbeit widmet sich der Untersuchung eines neu entwickelten Verfahrens im Rahmen einer prospektiven, offenen, multizentrischen Phase-II-Studie. Die hier zu untersuchende direkte selektive intratumorale Chemotherapie bietet die Möglichkeit höhere lokale Chemotherapeutikakonzentrationen bei geringerer systemischer Toxizität zu erreichen. Hierbei wird ein Cisplatin-haltiges lokal applizierbares Gel (Matrix Parmaceutical Inc., Fremont, CA) unter CT-Steuerung direkt in die Lebertumore injiziert. Adrenalin als vasokonstriktorisches Adjuvans erhöht desweiteren die langanhaltende Konzentrationssteigerung vor Ort gegenüber der systemischen Applikation. Im Rahmen dieser Studie wurden 17 Patienten mit nicht resektablen Lebermalignomen behandelt, hiervon 9 Patienten mit primärem HCC und 8 mit kolorektalen Lebermetastasen. Es handelte sich, besonders bei den Patienten mit kolorektalen Lebermetastasen, um unter Therapie progredientes oder rezidivierendes Tumorleiden. Die Behandlung bestand aus mehrfachen Gelapplikationen in etwa wöchentlichem Abstand. Zur Therapiekontrolle wurden vor und zu bestimmten Zeitpunkten nach den Behandlungen kontrastverstärkte Spiral-CT-Untersuchungen zur volumetrischen Messung von Tumor und Nekrose durchgeführt. Die Behandlung mit dem injizierbaren IntraDose® Gel wurde von den Patienten insgesamt gut toleriert und ist auch ambulant möglich. Zeichen einer Cisplatin-induzierten Toxizität traten nicht auf. In zwei Fällen zeigte sich jedoch eine weitere Verschlechterung der Leberfunktion, wenn diese initial bereits eingeschränkt war. Die Ergebnisse unserer Untersuchung unterschieden sich für die beiden Patientengruppen. Die Entwicklungen von Tumor- und Nekrosevolumen und die sich hieraus ergebenden Ansprechraten für die Patienten mit HCC deutlich vielversprechender. 75% der Patienten mit HCC zeigten ein Ansprechen auf die Therapie, hiervon wiesen 25% eine komplette, 50% eine partielle Remission auf; jeweils 12,5% zeigten einen Status idem bzw. eine Progression der behandelten Tumoren. Bei den Patienten mit kolorektalen Lebermetastasen ließ sich eine Ansprechrate von 28,6% (partielle Remission) erzielen, 71,4% der Patienten jedoch zeigten einen Tumorprogreß. Die ermittelten Überlebensdaten weisen auf einen möglichen Vorteil gegenüber nicht oder nur symptomatisch behandelten Patienten hin. Dieser Vorteil ist bei den Patienten mit den kolorektalen Metastasen stärker ausgeprägt als bei den Patienten mit HCC. Mit dem direkt intratumoral zu applizierenden IntraDose® Gel bietet sich eine minimal invasive, ambulant durchführbare Behandlungsoption für maligne nicht resektable Lebertumoren. Eine Wirksamkeit zur Behandlung maligner Lebertumoren bei guter Verträglichkeit konnte durch die vorgestellte Studie nachgewiesen werden. Hierbei waren die Ergebnisse bei den behandelten hepatozellulären Karzinomen besser als bei den kolorektalen Lebermetastasen. Die Ergebnisse, sollten in weiteren Studien mit größeren Patientenkollektiven überprüft werden, erst dann können mögliche Indikationen für die vorgestellte Therapie gefunden werden. Entsprechende Studien sind in Planung.
Verfahren zur elektrochemischen Messung von Stickstoffmonoxid und S-Nitrosothiolen in Flüssigkeiten
(2001)
Stickstoffmonoxid (NO) ist in den letzten Jahren als Kreislaufregulator und biologischer Botenstoff in den Mittelpunkt des Interesses gerückt. Inzwischen gilt als sicher, dass NO an vielen Schlüsselstellen, nicht nur in der Kreislaufregulation, aber dort besonders, eine prominente Rolle spielt. Das Endothel als disseminiertes Organ betrachtet ist als Produktionsort des zu Beginn der Forschungen phänomenologisch ,,endothelium derived relaxing factor" genannten NO scheinbar von größerer Bedeutung, als zunächst angenommen. Anstelle einer einfachen Gefäßauskleidung ist das Endothel Regulator vieler wichtiger Prozesse. Diskutierte Wirkungen reichen vom septischen Kreislaufversagen bei überschießender NO-Produktion, bis zur Atherosklerose bei gestörter Endothelfunktion mit verminderter NO-Produktion. Es gibt hier ,,gute" und ,,böse" Wirkungen, so das hier von einer Janusköpfigkeit, also Doppelgesichtigkeit, gesprochen wird. NO wird hier jeweils eine Schlüsselrolle als Botenstoff und Effektor zugewiesen. Bisher gibt es aber keine praktikablen Verfahren, um die effektive NO-Produktion zeitnah und in vivo zu quantifizieren. In der vorliegenden Arbeit ist im Anschluß an vorbestehenden Überlegungen und Verfahren eine Methode entwickelt worden, mit deren Hilfe Rückschlüsse auf die jeweilige Produktion und den Plasmaspiegel von NO gezogen werden können. Stickstoffmonoxid hat eine Halbwertszeit von wenigen Sekunden im Plasma. Ein wichtiges Stoffwechselprodukt aus dem Abbau des freien NO sind S-Nitrosothiole. Freies NO geht eine Verbindung mit Thiolgruppen von Plasmaproteinen ein. Diese gebundene Form von NO ist relativ stabil und gilt als Plasmaspeicher von NO. Es kann aus dieser Verbindung wieder herausgelöst werden und liegt dann wieder als freies NO vor. In der vorliegenden Arbeit werden die Grundlagen geschaffen für ein Verfahren, mit dem der Plasmaspiegel von S-Nitrosothiolen bestimmt, und Rückschlüsse auf die NO Produktion gezogen werden können. Die Methode basiert auf dem Umstand, dass man mittels Metallionen, wie beispielsweise Kupferionen, S-Nitrosothiole zur Dekomposition bringen kann. Das freigesetzte NO wurde dann mittels einer amperometrischen NO-selektiven Sonde gemessen. Die zu erwartenden Konzentrationen sind sehr gering und einer verlässlichen Messung nur bedingt zugänglich, da die Abspaltung von NO aus hochmolekularen S-Nitrosothiolen, wie dem S-Nitrosoalbumim, nur sehr langsam abläuft. Günstiger ist die Zerfallskinetik von niedermolekularen S-Nitrosoverbindungen. Daher wird der Zwischenschritt der Transnitrosylierung, der Übertragung der Nitrosylgruppe von Albumin auf einen niedermolekularen Baustein mit einer Nitrosogruppe, eingeschaltet. Die Konzentrationen des zu messenden NO bleiben aber sehr gering, so dass die Minimierung der Störeinflüsse der Methodik einen großen Teil der Arbeit einnimmt. Es konnte in dieser Arbeit nachgewiesen werden, dass S-Nitrosoalbumin mittels des beschriebenen Verfahrens quantitativ bestimmbar ist. Eine Übertragung des Verfahrens auf Messungen im Blutplasma wird der Gegenstand weiterer Forschungen sein.
Die Dissertation wurde im Rahmen des von der Deutschen Forschungsgemeinschaft geförderten interdisziplinären Sonderforschungsbereiches 268 "Kultur- und Sprachentwicklung im Natrurraum Westafrikanische Savanne" angefertigt. Dabei war die Kartierung und Analyse von Landbedeckungs- und Landnutzungsveränderungen in einem Ausschnitt des nigerianischen Tschadbeckens Zielsetzung vorliegender Arbeit. Trotz eines recht großen allgemeinen Interesses am Tschadsee, dem größten See Westafrikas, fällt es schwer, topographische und thematische Information über diese Region zu erlangen. Viele Zusammenhänge bezüglich seiner Vergangenheit und seiner zukünftigen Entwicklung sind bis heute nicht geklärt. Soweit Daten zur Landbedeckung und Landnutzung bereits verfügbar waren, wurden sie aufbereitet und im Rahmen des regionalen geographischen Informationssystems FirGIS strukturiert gegliedert aufgenommen. Als hauptsächliche Datenquelle wurde jedoch auf Fernerkundungsdaten der Region zurückgegriffen. Sie liefern meist die einzige großflächig vorhandene, aktuelle und vor allem multitemporale Information über das Untersuchungsgebiet. Die Auswertung der Fernerkundungsdaten erfolgte mit Methoden der digitalen Bildverarbeitung. Aktuelle und historische Luftbilder wurden visuell interpretiert und anschließend vektoriell digitalisiert. Satellitenszenen wurden vorwiegend digital direkt im Rasterdatenmodell bearbeitet. Nach der Datenaufbereitung mit verschiedenen Techniken der Bildverarbeitung erfolgte die Auswertung mittels digitaler Klassifizierung. Weitere wichtige Bearbeitungsschritte bei der Ergebnisfindung waren unterschiedliche multitemporale Darstellungsweisen, die Berechnung von Vegetationsindizes sowie Verschneidungstechniken zur Aufdeckung von Veränderungen. Die Auswertung aller Daten erfolgte nach einem einheitlichen mehrstufigen Klassifizierungssystem, das für die Verhältnisse im Tschadbecken entwickelt wurde. Die aus den Fernerkundungsdaten abgeleiteten Ergebnisse gliedern sich nach vier verschiedenen Dimensionen der Zeit. Die Ausgangsbasis bildet eine digitale aktuelle Kartierung der Landbedeckung und Landnutzung eines mehr als 3500 km² großen Ausschnittes des nigerianischen Tschadbeckens im Maßstab 1 : 25 000. Aufbauend auf der aktuellen Landnutzungskartierung wurde für einen etwa 1100 km² großen zentralen Teilausschnitt aus dem Gesamtuntersuchungsgebiet das dynamische Verhalten der Landbedeckungs- und Landnutzungseinheiten im Jahresverlauf untersucht. Dazu konnten fünf SPOT-XS-Satellitenszenen der Vegetationsperiode 1995/96 herangezogen werden. Als Zusammenfassung aus den phänologischen Analysen aller im Untersuchungsgebiet auftretenden Objekte und ihrem entsprechenden unterschiedlichen Spektralverhalten zu verschiedenen Zeitpunkten wurde eine detaillierte Landbedeckungs- und Landnutzungskartierung der Saison 1995/96 angefertigt. Sie ging aus einer komplexen hierarchischen Satellitenbildklassifizierung mit differenzierten Zuweisungsregeln hervor. Mit den Erfahrungen aus der Untersuchung zur saisonalen Dynamik wurden in einem weiteren Schritt alle für das Teiluntersuchungsgebiet zur Verfügung stehenden Satellitenszenen ausgewertet, um Erkenntnisse über interannuelle Unterschiede der zu verschiedenen Zeitpunkten aufgenommenen Satellitenszenen zu gewinnen und deren Ursachen aufzudecken. Als ideale Grundlage wurden multitemporale Vegetationsindizes verglichen, Veränderungskarten abgeleitet und Niederschlagsdaten zur Interpretation hinzugezogen. Eine 24jährige Zeitreihe der klassifizierten Vegetationsindizes ermöglicht eine zusammenfassende Interpretation. Die Auswertung historischer Luftbilder von 1957 und der Vergleich mit den Luftbildern von 1990 ermöglichte schließlich die Beurteilung langfristiger Entwicklungen im engeren Untersuchungsgebiet. Die Ergebnisse sind in Form einer historischen Karte, als Veränderungskarten und quantitativ festgehalten. Ein wichtiges Ergebnis der vorliegenden Arbeit besteht in der Strukturierung aller verwendeten Grundlagendaten zum Thema Landbedeckung und Landnutzung im Tschadbecken einschließlich seiner Nachbargebiete innerhalb des regionalen geographischen Informationssystemes FirGIS. In ihm sind neben den Ausgangsdaten alle Ergebnisse und die zum Thema gehörigen Zusatzinformationen enthalten. Es ermöglicht damit eine zukünftige Fortschreibung durch thematische, räumliche oder zeitliche Ausdehnung. Das Geoinformationssystem FirGIS bietet außerdem die Möglichkeit, bereits vorhandene wie auch zukünftige Information anderen Interessenten vor allem auch vor Ort zur Verfügung zu stellen.
Dihydrocodein wird im wesentlichen zu Dihydrocodein-6-O-43-ß-glucuronid (DHC6G), Dihydromorphin (DHM), Dihydromorpbin-3-O-ß-D-glucuronid (DHM3G), Dihydromorphin-6-O-ß-D-glucuronid (DHM6G) und Nordihydrocodein (NDHC) biotransformiert. In Analogie zu Codein wird vermutet, dass die Metaboliten DHM und DHM6G pharmkologisch deutlich aktiver als die Muttersubstanz sind und somit zur Wirkung von DHC wesentlich beitragen können, auch wenn sie nur in geringen Mengen gebildet werden. Da die O-Demethylierung von Dihydrocodein zu Dihydromorphin durch das polymorphe Cytochrom P450-Enzym CYP2D6 katalysiert wird, sind in EM (schnelle Metabolisierer) und PM (langsame Metabolisierer, weisen kein funktionelles CYP2D6-Enzym auf) unterschiedliche Metabolitenprofile zu beobachten. In etwa 5-10% der Kaukasier, die PM für CYP2D6 sind, könnte sich somit ein Therapiemisserfolg nach Gabe von therapeutisch empfohlenen Standarddosen an DHC einstellen. Es war daher Ziel der vorliegenden Arbeit, die Bedeutung der Biotransformation für die Wirkung von Dihydrocodein beim Menschen zu untersuchen. Im Rahmen dieser Untersuchung wurden Affinitätsprofile an Hirnmembranpräparationen und Affinitäts- und Aktivitätsprofile an humanen Neuroblastomzellen für DHC und seine Metaboliten erstellt. Des weiteren wurden pharmakokinetische und pharmakodynamische Parameter (und deren Zusammenhang) von Dihydrocodein und seinen Metaboliten beim gesunden Menschen unter Berücksichtigung des CYP2D6-Phänotyps mit Hilfe einer Pilot-Probandenstudie bestimmt. Zuletzt wurden die Ergebnisse der Affinitäts- und Aktivitätsversuche mit den Ergebnissen der Probandenstudie unter Berücksichtigung der verfügbaren Literaturdaten in Zusammenhang gebracht. Di in vitro-Untersuchungen zeigten, dass alls Prüfsubstanzen mit Ausnahme des unwirksamen DHM3G vorwiegend u-selektive Agonisten waren und dass das prinzipielle Verhältnis der Affinitäten bzw. Aktivitäten der einzelnen aktiven Prüfsubstanzen zueinander in allen Untersuchungen annähernd gleich war. Auf Grundlage dieser Daten konnte folgender Grundsatz formuliert werden; Die Affinitäten/Aktivitäten von DHM und DHM6G waren etwa um den Faktor 100 größer als die von DHC, während die anderen Metaboliten (mit Ausnahme des unwirksamen DHM3G) vergleichbare Affinitäten/Aktivitäten besaßen. Die im Rahmen der Probandenstudie ermittelten pharmakokinetischen Werte bestätigten verfügbare Literaturdaten, insbesondere dass CYP2D6 wesentlich für die Bildung von DHM war. So konnten weder DHM, DHM3G noch DHM6G in Plasma und Urin von PM detektiert werden. Die pharmakodynamischep Untersuchungen mittels Pupillometrie zeigten einen signifikanten Unterschied im ursprünglichen Pupillendurchmesser an den Zeitpunkten 1 bis 6 Stunden zwischen Placebo einerseits und EM bzw. PM andererseits. Damit konnte zunächst eine eigene in vivo-Wirkung von DHC beim Menschen nachgewiesen werden. Jedoch ergab sich kein signifikanter Unterschied zwischen EM und PM. Im zweiten pharmakodynamischen Modell (Schmerzmodell) konnten bezüglich der Parameter R-III-Reflexschwelle und VAS-EC30 keine Unterschiede sowohl zwischen EM und PM als auch zwischen Placebo und EM bzw. PM festgestellt werden, so dass 60 mg DHC keine analgetische Wirkung hatte oder das Modell für die Ermittlung der analgetischen Potenz von 60 mg DHC ungeeignet war. Einschränkend muss jedoch hier erwähnt werden, dass die Studie aufgrund der kleinen Fallzahl nur Pilotcharakter aufwies. Die Ergebnisse der vorliegenden Arbeit in Zusammenhang mit den verfügbaren Literaturdaten lassen die Schlussfolgerung zu, dass die pharmakologisch wesentlich aktiveren Metaboliten DHM und DHM6G nicht oder nur geringfügig zur Wirkung von DHC nach oraler Einzelgabe von 60 mg DHC beitragen. Gründe hierfür könnten die geringe Bildung von DHM und seinen Metaboliten (ca. 9%) und/oder durch Verteilung und Ausscheidung bedingte niedrige Konzentrationen am Rezeptor in vivo sein. Somit scheint die Biotransformation keine Bedeutung für die Wirkung von DHC zu haben. Entsprechend sind keine Unterschiede in der Therapie von EM und PM mit niedrigen therapierelevanten DHC-Dosen zu erwarten.
Mikroentladungen bei hohem Druck und mit Gasfluss stellen eine vielseitig nutzbare Quelle für Ionen und kalte metastabile Atome dar. In dieser Arbeit werden grundlegende Untersuchungen an dieser neuen Hochdruckentladung zur Erzeugung von metastabilen Atomen und einfachgeladenen Ionen vorgestellt. Der innovative Ansatz ist die Nutzung mikrostrukturierter Elektroden (MSE) zur Erzeugung von nichtthermischen Entladungen mit Gleichspannung. Die spezielle porenförmige Geometrie erlaubt die Erzeugung von Entladungen bei einem Druck > 1000 hPa. Die Mikroentladung produziert metastabile Atome und Ionen in einem lokalisierten Volumen durch Stöße mit energiereichen Elektronen, wobei das Neutralgas in der Entladung im Vergleich zu den Elektronen kalt ist. Außerdem kann die Entladung mit erzwungenem Gasfluss durch die Pore betrieben werden, so dass die Plasmabestandteile (neutrale/angeregte Atome, Radikale, Ionen, etc.) extrahiert werden. Mit dieser neuen Methode kann bei der adiabatischen Expansion des Gases ins Vakuum ein gerichteter Gasstrahl, mit geringer interner Temperatur, im Bereich von einigen K erzeugt werden. Die Verweildauer des Gases in der Mikropore ist < 0,1 µs, so dass auch Zustände mit kurzer Lebensdauer extrahiert werden können. Die MSE lässt sich aufgrund der kleinen Abstände im µm Bereich als Mehrschichtsystem, aus zwei metallischen Elektroden, die durch einen Isolator getrennt sind, realisieren. Dieses Grundmaterial wird mit einzelnen oder einer Vielzahl von Poren mit typischerweise 100 µm Durchmesser versehen. Mit Hilfe dieser Mikrostrukturen lassen sich stabile, nicht filamentre, homogene Entladungen mit Gleichspannung in allen Gasen als auch Gasgemischen in einem weiten Druckbereich von 600 hPa bis 4000 hPa erzeugen. Die Druckverhältnisse in der Pore lassen sich durch den Gasfluss zwischen einigen ml/min bis l/min variieren. Die Verweildauer des Gases in der Pore kann durch den Gasfluss gesteuert werden. Zur Diagnose werden die Bestandteile des Plasmas mit dem Gasstrom extrahiert und expandieren adiabatisch ins Vakuum. Der Einfluss von Vordruck, Gasfluss, Entladestrom und Gaszusammensetzung auf die Eigenschaften des Plasma-Jets konnte auf diese Weise bestimmt werden. Durch die Kühlung der Mikroentladung konnte die interne Temperatur des Targets nochmals gesenkt und die Geschwindigkeit gezielt reduziert werden. Die Messung des Geschwindigkeitsprofils, die Zusammensetzung, etc. geben einen indirekten Einblick in die komplexen Prozesse der Mikroentladung, die mit konventionellen Analysemethoden nur schwer zugnglich sind. Die gemessenen Eigenschaften der MSE- unterstützten Hochdruckentladung sind vergleichbar mit klassischen Glimmentladungen, jedoch ist die Anregungs- und Ionisationswahrscheinlichkeit aufgrund der Geometrie größer. Unter definierten Rahmenbedingungen erlaubt diese neue Technik die Erzeugung eines gerichteten Plasma-Jets bestehend aus kalten metastabilen Atomen, Ionen, etc. Basierend auf diesem Prinzip wurde eine Quelle für metastabile Heliumatome aufgebaut und mit verschiedenen Methoden analysiert. Der 23S1- Zustand wird aufgrund seiner atomaren Struktur effektiv durch die energiereichen Elektronen in der Entladung angeregt. Die Gasströmung bestimmt den Druck und die Verweildauer im aktiven Volumen. Die Untersuchungen haben gezeigt, dass mit diesem Aufbau kalte, metastabile Atomstrahlen mit einer Intensität von 6 mal 10 hoch 13 (s mal sr) hoch minus 1 und Geschwindigkeiten von 900-1800 m/s erzeugt werden können. Bei den gemessenen Dichten in der Pore von 6 mal 10 hoch 12 (cm) hoch minus 3 ist die Ausbeute durch das Quenching der metastabilen Atome beschränkt. Die Eigenschaften dieses exotischen Atomstrahls sind hinsichtlich der absoluten Geschwindigkeit und der Geschwindigkeitsverteilung identisch mit einem konventionellen Überschall-Gasstrahl. Die Qualität des Strahls, aufgrund seiner geringen internen Temperatur von einigen K, erlaubt die Trennung und Fokussierung des gewünschten Zustandes. In Kombination mit der Separationseinheit wurde die Mikroplasmaquelle zur Erzeugung eines metastabilen 2 3 S 1-Heliumtargets mit polarisiertem Elektronenspin verwendet. Bei der Separation wird durch den außermittigen Einschuss in den permanentmagnetischen Hexapol eine hervorragende räumliche Trennung der verschiedenen Zustände erreicht und die Ausdehnung des Targets im Fokus auf 1 mm hoch 2 reduziert. Die erreichte Targetdichte für den spinpolarisierten 2 3 S 1-Zustand liegt im Fokus bei 10 hoch 6 cm hoch -2. Die Charakterisierung des Strahlverlaufs als auch die Time-of-Flight-Messungen zeigen, dass es sich bei der MSE unterstützten Hochdruckentladung um eine nichtthermische Entladung mit vergleichbaren Eigenschaften wie Niederdruckglimmentladung handelt, d.h. neutrale/angeregte Atome und Elektronen sind nicht im Temperaturgleichgewicht. Die Gastemperatur wird somit in der Mikroentladung nicht erhöht. Die Messungen mit Düsentemperatur von 80 K haben dies ausnahmslos bestätigt. Mit dieser Quelle lassen sich auch feine Ionenstrahlen bei hohem Druck erzeugen. Bei erzwungener Gasströmung durch die Entladung werden die Ionen aus dem Bereich der Entladung extrahiert und können zur Diagnose der Hochdruckentladung ins Vakuum überführt werden. Die Ionenausbeute wurde für verschiedene Gase und Gasgemische in Abhängigkeit von Gasfluss, Entladestrom, Extraktionsspannung untersucht. Die Elektronenenergie reicht ausschließlich zur Produktion von einfachgeladenen Ionen bzw. Molekülen aus. Der Anteil an Metallionen zeigt deutlich, dass die Geometrie die Erzeugung von Sekundärelektronen an der Kathode unterstützt. Die Wechselwirkung der Ionen mit dem Überschall-Gasstrahl im Bereich zwischen Düse und Skimmer führt zu einer starken Energieverbreiterung. Dies kann jedoch durch eine modifizierte Extraktionsgeometrie reduziert werden, hierbei ist insbesondere auf die Raumladung im Bereich zwischen Düse und Skimmer zu achten. Die vorgestellten Messungen haben exemplarisch für Helium gezeigt, dass gerichtete, kalte, metastabile Atomstrahlen mit ausreichender Intensität für atomphysikalische Experimente erzeugt werden können. Auf Basis der grundlegenden Erkenntnisse lässt sich das spinpolarisierte Target im nächsten Schritt hinsichtlich der erreichten Ausbeute optimieren. Dazu ist es notwendig, die Bedingungen in der Expansionskammer zu verbessern, so dass die Plasmaquelle mit höherem Vordruck betrieben werden kann. In diesem Zusammenhang sollte auch der Abstand Düse Skimmer verringert und die Separationseinheit auf diese modifizierten Rahmenbedingungen angepasst werden. Durch diese Modifikation kann die Targetdichte für spinpolarisiertes, metastabiles Helium nochmals gesteigert werden. Mit der erreichten Targetdichte sind die grundlegenden Voraussetzungen für atomphysikalische Messungen an einem spinpolarisierten Target geschaffen. Durch Anpassung der Separationseinheit ist es prinzipiell auch möglich, andere exotische metastabile Targets mit polarisiertem Elektronenspin zu erzeugen.
Okamoto (Crypto 1992) hat die RSA-Repräsentation als Basis eines gegen aktive Angreifer sicheren Identifikationsschemas eingeführt. Eine RSA- Repräsentation von X E Z * N ist ein Paar (x; r) E Z e x Z * N mit X = g x r e (mod N) für vorgegebenes g E ZN , RSA-Modul N und primen RSA- Exponenten e. Das zugehörige Repräsentationsproblem, also das Auffinden eines Wertes X samt zweier verschiedener Darstellungen, ist äquivalent zum RSA-Problem, der Berechnung einer e-ten Wurzel von g modulo N . Von Brassard, Chaum und Crépeau (Journal Computing System Science, 1988) sowie Damgard (Journal of Cryptology, 1995) stammt eine analoge Konstruktion der Form X = g x r 2 t (mod N) mit x E Z 2 t für den Spezialfall der Blum-Zahlen als Modul N und gegebenes t größer gleich 1, wo die Möglichkeit, zwei verschiedene Repräsentationen zu berechnen, gleichbedeutend zur Zerlegung des Moduls in die Primfaktoren ist. Im ersten Abschnitt der vorliegenden Arbeit verallgemeinern wir dieses Konzept systematisch auf beliebige (RSA-)Module durch die Einführung eines Anpassungsparameters r:= r (N ), so dass X = g x r 2 r t (mod N) mit x E Z 2 t. Basierend auf dieser als Faktorisierungsrepräsentation bezeichneten Darstellung leiten wir Identifikations-, Signatur- und Blinde-Unterschriften-Verfahren her. Im zweiten Teil verwenden wir sowohl RSA- als auch Faktorisierungsrepräsentation als Grundlage sogenannter non-malleable Commitment-Schemata zur Hinterlegung (Verbriefung) einer geheimen Nachricht. Bei dem von Dolev, Dwork und Naor (SIAM Journal on Computing, 2000) eingeführten Begriff der Non-Malleability soll ein Angreifer außer Stande sein, die Hinterlegung einer Nachricht m so abzuändern, dass er diese später dann mit einem in Relation zu m stehenden Wert, man denke zum Beispiel an m 1, aufdecken kann. Von Dolev, Dwork und Naor stammt ein allgemeiner Ansatz zur Konstruktion von non-malleable Commitment-Schemata aufbauend auf einem sogenannten Knowledge-Extraktor. Für die RSA-Darstellung verfügt das von Okamoto entworfene Protokoll als Proof-Of-Knowledge über einen solchen Extraktor, bei dem im Fall der Faktorisierungsrepräsentation von uns entwickelten Verfahren fehlt allerdings der Extraktor. Aus diesem Grund stellen wir mit Hilfe des Chinesischen Restsatzes ein neues, auf Commitments zugeschnittenes Protokoll mit Knowledge-Extraktor vor, das in Verbindung mit der Faktorisierungsrepräsentation ein effizientes Hinterlegungsschema ergibt. Zum Abschluß wird bei einem Commitment- Verfahren mit abgeschwächter Non-Malleability-Eigenschaft von Di Crescenzo, Katz, Ostrovsky und Smith (Eurocrypt 2001) die RSA- durch die Faktorisierungsrepräsentation ersetzt und das Schema vereinfacht.
Diese Zusammenfassung ist in zwei Abschnitte gegliedert. Im Abschnitt 6.1. wird die physiologische Bedeutung der Glutamatrezeptoren (GluR) und ihr biologischer Hintergrund kurz erklärt. Am Ende dieses Abschnitts wird der Stand der Strukturanalyse des GluR-B Ionenkanals zu Beginn des Projektes zusammengefasst. Im nachfolgenden Abschnitt 6.2. sind die wesentlichen Ergebnisse der hier vorgelegten Arbeit zusammengefasst. 6.1. Die Bedeutung von Glutamatrezeptoren - Stand der Strukturanalyse zum Beginn dieser Arbeit Die Kommunikation zwischen Nervenzellen erfolgt vorwiegend an hochspezialisierten Kontaktstellen den chemischen Synapsen. Der enge Raum zwischen sendender und empfangender Nervenzelle wird auch als synaptischer Spalt bezeichnet. Der Prozess der synaptischen Übertragung beruht auf der präsynaptischen Freisetzung von chemischen Botenstoffen, sogenannten Neurotransmittern in den synaptischen Spalt. Die Aminosäure L- Glutamat (Glu) ist der wichtigste erregende Neurotransmitter im menschlichen Gehirn und Rückenmark. Dementsprechend bedeutend ist die Rolle der ionotropen Glutamatrezeptoren (iGluRs), die sie bei der elektrochemischen Erregungsübertragung am synaptischen Spalt spielen (Seeburg, 1993), (Hollmann and Heinemann, 1994), (Dingledine et al., 1999). Die Freisetzung von Neurotransmittern wird durch ein elektrisches Signal (Aktionspotential) ausgelöst, das sich entlang der Nervenfaser, dem Axon, bis zur Nervenendigung, der Synapse, fortpflanzt. Nach der Freisetzung diffundieren die Neurotransmitter durch den synaptischen Spalt und binden an sogenannte Rezeptoren. Ionotrope Glutamatrezeptoren sind Ionenkanäle, die in die Membran der nachgeschalteten (postsynaptischen) Nervenzelle eingebaut sind. Sie zählen deshalb zu den Membranproteinen. Als ligandgesteuerte kationenselektive Ionenkanäle machen Glutamatrezeptoren (GluRs) die postsynaptische Membran nach Aktivierung durch Ligandbindung für bestimmte Kationen durchlässig. Der Einstrom von Ionen bewirkt eine Änderung des Membranpotentials. Die Stärke der synaptischen Übertragung ist lebenslang modulierbar; die sogennante synaptische Plastizität wird als eine entscheidende Grundlage für die Erklärung von Lernen und Gedächtnis angesehen. Drei synthetische Agonisten aktivieren die GluRs selektiv und wurden deshalb für die Klassifizierung der ionotropen Glutamatrezeptoren herangezogen. Bei den Agonisten handelt es sich um -Amino-3-hydroxy-5-methyl-4-isoxazol-4-propionat (AMPA), Kainat and N- Methyl-D-Aspartat (NMDA). Die ersten beiden Subtypen werden auch als non-NMDA- Rezeptoren zusammengefasst. Die Aktivierung und Desensitivierung der non-NMDA Rezeptoren ist schneller als die der NMDA-Rezeptoren. Aus molekularbiologischer Sicht (siehe Kapitel 1.3.2.) zeigen die drei Klassen der ionotropen Glutamatrezeptoren eine beträchliche Diversität. So gibt es vier verschiedene Unterheiten vom AMPA-Subtyp, nämlich GluR-A, GluR-B, GluR-C und GluR-B. In dieser Arbeit steht die Strukturanalyse eines aus GluR-B Untereinheiten bestehenden AMPA-Rezeptors im Vordergrund. (Die weitere Unterteilung der NMDA- und Kainatrezeptoren kann dem Kapitel 1.3.2. auf Seite 6 entnommen werden.) Bestimmte Abschnitte der Aminosäurensequenz von Glutamatrezeptoren sind durch hydrophobe Bereiche gekennzeichnet ((M1-M4) in Abbildung 6.1.A (A.)). Das durch verschiedene Untersuchungen etablierte Modell der Glutamatrezeptor-Topologie zeigt 3 Transmembrandomänen (M1, M3 und M4) und eine Membranschleife (M2) (Hollmann et al., 1994), (Kuner et al., 1996). Der Aminoterminus ist extrazellulär, der Carboxyterminus hingegen intrazellulär. Daraus ergibt sich die in Abbildung 6.1.A (B.) abgebildete Topologie (Paas, 1998). S1 und S2 kennzeichnen die Ligandbindungsdomäne. Glutamatrezeptoren (GluR) sind Oligomere, die sich mit grosser Wahrscheinlichkeit aus vier Untereinheiten (Rosenmund et al., 1998), (Ayalon and Stern-Bach, 2001) zusammensetzen (siehe Kapitel 1.3.3.). Die Zusammenlagerung verschiedener Untereinheiten zu einem funktionellen Kanal setzt voraus, dass die Untereinheiten zum gleichen Subtyp gehören, d.h. AMPA Untereinheiten können nur mit anderen AMPA Untereinheiten einen Ionenkanal bilden. Das gleiche gilt für die Zusammensetzung von NMDA und Kainat-Rezeptoren. Das Modell eines tetrameren Glutamatrezeptors ist im Bild C. der Abbildung 6.1.A zu sehen. Die Bestimmung der Quartärstruktur eines vollständigen Glutamatrezeptors ist bislang nicht veröffentlicht. Die strukturelle Analyse von Proteinen erfordert die Isolierung von reinem und funktionellem Protein. Im Vergleich zu den meisten löslichen Proteinen erfordert die Isolierung von Membranproteinen oft besonderer Optimierung. Falls das Vorkommen des Proteins in natürlichem Gewebe gering ist, so kann die strukturelle Analyse durch rekombinante Expression in einem geeigneten Wirtsorganismus zugänglich gemacht werden. Die Isolierung von Milligramm-Mengen eines rekombinanten homomeren GluR-B Rezeptors aus dem entsprechenden Baculovirusexpressionssystem (Keinänen et al., 1994) wurde in unserem Labor etabliert (Safferling et al., 2001) und wurde im ersten Jahr dieses Projektes fortgeführt. Durch zonale Ultrazentrifugation konnte gezeigt werden, dass die molekulare Masse des GluR-B Proteinkomplexes ca. 495 kD beträgt. Dieser Wert liegt in der Nähe des theoretischen Molekulargewichts eines tetrameren Ionenkanals, dessen Molmasse sich aus vier GluR-B Untereinheiten (104 kD) und einer Detergenzmizelle von ca. 63-97 kD zusammensetzt (Safferling et al., 2001). Die elektronenmikroskopische Analyse des Proteinkomplexes von W. Tichelaar aus unserer Gruppe erfolgte 1999 durch Negativfärbung. Für die Strukturanalyse mit Hilfe der Software IMAGIC wurden 10 000 Proteinteilchen selektiert. Das Ergebnis der Bildrekonstruktion ist in der folgenden Abbildung 6.1.B gezeigt. Die projezierten Dimensionen des Models entsprechen einem Molekül mit den Dimensionen 17 nm × 11 nm × 14 nm. Das Model zeigt keine ausgezeichnete Symmetrie, die auf die Stöchiometrie des GluR hinweisen könnte. Das Molekül zeigt mit Färbemittel gefüllte Vertiefungen und innere Strukturen, die vielleicht an der Ionenleitung beteiligt sind. 6.2. Funktionelle und strukturelle Charakterisierung des GluR-B Ionenkanals In der Fortsetzung des oben beschriebenen Projektes wurden für die rekombinante Expression desselben Rezeptors (GluR-B homomer) stabil transformierte Insektenzellen eingesetzt. Dazu wurde die für die GluR-B Untereinheit kodierende und in Plasmiden enthaltene DNA in Insektenzellen transformiert (siehe APPENDIX A.2.2.). Im Vergleich zu dieser auf Dauerhaftigkeit angelegten Integration der Rezeptor DNA wird die Proteinexpression beim Baculovirusexpressionssystem durch Infektion mit rekombinanten Baculoviren initiiert. Der Vergleich zeigte, dass die mit Baculoviren erzielten Ausbeuten bei GluR-B etwa doppelt so hoch waren als bei stabil transformierten Zellen. Allerdings fallen bei stabil transformierten Zellen die eventuellen Nachteile der viralen Belastung auf die zellulären Sekretionsprozesse weg. Im Verlauf der elektronenmikroskopischen Analyse von baculoviral erzeugtem GluR-B Protein hat sich gezeigt, dass Proteine viralen Ursprungs unter Umständen selbst doppelt aufgereinigte GluR-B Proben verunreinigen können (siehe APPENDIX A.2.1.). Dieser Punkt ist bei einer Einzelbildverarbeitung von grosser Relevanz, falls die virusspezifischen Proteinverunreinigungen eine ähnliche Grösse haben wie das eigentliche Zielprotein. Das Hauptziel dieser Arbeit war es, das Potenzial stabil transformierter Insektenzellen für die Expression von homomeren GluR-B Ionenkanälen zu bewerten und dabei die Stöchiometrie der Untereinheiten in diesem Ionenkanal aufzuklären. Zu diesem Zweck wurden biochemische und elektronenmikrosopische Techniken eingesetzt. Zur Isolierung des GluR-B Ionenkanals aus stabil transformierten Insektenzellen wurde das bestehende Aufreinigungsprotokoll für die Affinitätchromatographie an immobilisierten Metallionen (IMAC) (Safferling et al., 2001) optimiert, indem das Chargenverfahren durch das Durchflussverfahren ersetzt wurde (zur genaueren Erklärung der Optimierung siehe RESULTS 4.1.2.). Abbildung 6.C zeigt ein silbergefärbtes Gel mit den Eluaten der IMAC und Eluaten der abschliessenden Affinitätschromatographie mit immobilisiertem M1-Antikörper. Die auf den Bahnen 5-8 aufgetragen GluR-B Proben wurden auch für die Einzelteilchenanalyse mittels Elektronenmikroskopie verwendet. Die Ligandbindungsaktivität von GluR-B wurde durch Filterbindungsexperimente mit dem Radioliganden [3H]-AMPA vor und nach der Isolierung aus den Membranfragmenten bestimmt. Die KD-Werte sind für beide Proben ähnlich gross. Der Bmax-Werte ist für die aufgereinigte Probe wie erwartet sehr viel (mehr als 200×) höher. Die Ergebnisse der Ligandbindungsexperimente sind im Kapitel 4.2.1 tabellarisch zusammengefasst. Die oligomere Struktur des isolierten Ionenkanals wurde durch Quervernetzungsexperimente (Cross-linking) und Einzelteilchenanalyse von negativ gefärbten Proteinmolekülen bewertet. Die Quervernetzungsexerimente selbst erbrachten kein eindeutiges Ergebnis im Hinblick auf oligomere Struktur des komplett zusammengesetzten Rezeptors. Kontrollexperimente mit dem Lysat vom Rattenhippocampus zeigten, dass mit DTSSP ein geeigneter Cross-Linker verwendet wurde (siehe RESULTS 4.3.2.). Neben einem aus 4 Banden bestehenden Muster (siehe RESULTS 4.3.1.) lieferten die Quervernetzungsexperimente mit isoliertem GluR-B aber einen deutlichen Hinweis auf die Stabilität von dimeren GluR-B Strukturen, die im Einklang mit einer jüngst veröffentlichten Arbeit stehen (Ayalon and Stern-Bach, 2001). Diese Veröffentlichung liefert zusätzliche (Armstrong et al., 1998) Hinweise auf die Bedeutung von Dimeren in der Glutamatrezeptorstruktur und postuliert, dass sich ein kompletter Glutamaterezeptor aus einem Dimer-Paar zusmmensetzt, wobei die Dimere zuerst gebildet werden. Die nachfolgende Abbildung 6.2.B zeigt negativ gefärbte GluR-B Ionenkanäle bei einer 46000× Vergrösserung. Die Aufnahme stammt von einem Philips EM 400 Elektronenmikroskop. Für die 3D Rekonstruktion wurden 500 der in Abbildung 6.2.B gezeigten Rezeptormoleküle ausgewählt. Dieser relativ kleine Datensatz besteht aus GluR-B Ionenkanälen deren Präservierung in Uranylacetat als besonderes vielversprechend eingeschätzt wurde. Dieser positive Effekt wurde auf die Verwendung frisch von einer Wasseroberfläche aufgefischter Kohlefilme zurückgeführt (siehe RESULTS 4.4.3.3.). Während der Klassifizierung dieses Datensatzes fiel auf, dass die beim Band-Pass-Filtern für die niedrigen Frequenzen gesetzten Cut-offs einen deutlichen Einfluss auf die erste Klassifizierung der unterschiedlichen zweidimensionalen Ansichten des Proteinkomplexes haben (siehe RESULTS 4.4.3.4.). Aus diesem Grund wurde der gleiche Datensatz mit 5 verschiedenen low-frequency cut-offs (LFCO) gefiltert (siehe Table 4.4.3.4.) und getrennt klassifiziert. Von den 5 resultierenden Klassifikationen wurden 3 (LFCO 0,005, 0,03 und 0,05) für die weiterführende 3D Rekonstruktion ausgewählt. Die Evaluierung der resultiernden 3D Modelle ergab, dass der mit einem LFCO von 0,03 gefilterte Datensatz eine Klassifikationen erlaubte, die zu einem 3D Modell (Modell GluR-BII/a siehe RESULTS Figure 4.4.3.4.H) führte, das im Vergleich zu den beiden anderen Rekonstruktionen konsistenter war. Am stärksten spricht für dieses Modell die Übereinstimmung der Input-Projektionen mit den Reprojektionen der 3D Rekonstruktion (siehe siehe RESULTS Figure 4.4.3.4.H). Zur Verfeinerung des Modells GluR-BII/a wurden die beiden Projektionen mit der höchsten Standardabweichung vom Klassendurchschnitt (class average) eliminiert. Die verbleibenden 11 Projektionen bildeten die Input-Projektionen für die Berechung eines verfeinerten Modells, GluR-BII/b, das auf einer neuen Zuordnung der Euler-Winkel beruht. Das Ergebnis dieser Berechung ist in der nachfolgenden Abbildung gezeigt. Das Modell in Abbildung 6.2.C zeigt einen zentralen Kanal und hat die Dimensionen 18 nm × 14 nm × 11 nm. Die Stöchiometrie der Untereinheiten ist aus dem Modell, das mit grosser Wahrscheinlichkeit einen komplett zusammengesetzten GluR darstellt, nicht ablesbar. Ebensowenig zeigt das Modell eine eindeutig vierzählige oder fünfzählige Symmetrie. Allerdings ist die erkennbare zweizählige Symmetrie im Einklang mit dem vorgeschlagenen Pair-of-Dimer Modell (Ayalon and Stern-Bach, 2001), das auf eine teramere Struktur des oligomeren Ionenkanals schliessen lässt. Die Ergebnisse dieser Arbeit zeigen, dass stabil transifzierte Insektenzellen eine durchaus geeignete Quelle für GluR-B Ionenkanäle sind. Nachteilig sind die geringen Ausbeuten. Allerdings kann durch weitere Selektion der Zellen die GluR Expression noch gesteigert werden (siehe APPENDIX A.2.2.). Bei höheren GluR-B Ausbeuten könnte zukünftig auch die Detektion des Rezeptors in vitrifizierten Proben in Verbindung mit Kryo-Elektronen- mikroskopie und auch die 2D-Kristallisation gelingen. Die während dieses Projekts gemachten Kristallisationsexperimente (siehe APPENDIX A.3.) und Kryo-Experimente mit GluR-B Protein aus dem Baculovirusexpressionssystem (siehe RESULTS 4.4.1. und 4.4.2.) ergaben negative Ergebnisse. Das Potential der Kryo-Methode konnte allerdings in Kontrollexperimenten mit Tabak-Mosaik-Virus (TMV) gezeigt werden. Kryo-Daten von GluR-B würden die Berechnung eines genaueren Strukurmodells erlauben. Die Reprojektionen des hier besprochenen Strukturmodells GluR-BII/b aus der Abbildung 6.2.C könnten als Referenzen für das Alignment der vitrifizierten GluR Ionenkanäle dienen. Für das langfristige Ziel der Rekonstituition des Rezeptors in Liposomen sollte die Delipidierung des Membranproteins während der Aufreinigung möglichst reduziert werden. Hier erscheinen zwei Ansätze sinnvoll. Die Aufreinigung des Proteins in einem Schritt durch die Erweiterung des tags am Carboxyterminus von nur 6 auf 10 Histidin-Reste. Ausserdem gibt es Hinweise, dass die Anwesenheit von Lipiden während der Aufreinigung für seine Rekonstituierbarkeit förderlich ist (Huganir and Racker, 1982).
Seit langem gibt es ein großes Interesse daran, den zeitlichen Ablauf von chemischen Reaktionen zu untersuchen. Ein wichtiges Instrument hierfür ist die Kurzzeitspektroskopie, die in jüngerer Vergangenheit parallel zum rasanten technischen Fortschritt mit immer kürzeren Laserpulsen bis hinein in den Femtosekunden-Bereich einen neuen Boom erlebt hat. Durch die extrem hohe Zeitauflösung ist es heutzutage möglich geworden, die Reaktionsdynamik eines Moleküls quasi in Echtzeit zu verfolgen, weil man durch die Femtosekunden-Pulse die Bewegung der Atomkerne wie mit einer schnellen Kamera beobachten kann. Mit wachsender Anzahl der Experimente gibt es gleichzeitig einen steigenden Bedarf, die Vielzahl der gemessenen und in vielen Aspekten noch unverstandenen Signale auf mikroskopischer Ebene theoretisch zu beschreiben und zu erklären. Besonders interessant dabei ist, dass dies u.a. für komplexe Systeme möglich wird, weil auf den extrem kurzen Zeitskalen auch in sehr großen Molekülen nur einige wenige Freiheitsgrade eine Rolle spielen. Thema dieser Arbeit war die überwiegend klassische Modellierung von nicht-adiabatischer Kurzzeitdynamik in molekularen Quantensystemen, deren Beschreibung über die Born-Oppenheimer-Näherung hinausgeht. Dabei wurden im Rahmen der vorliegenden Arbeit neue Methoden und Rechenverfahren entwickelt, die einerseits eine verbesserte. physikalisch intuitive Anschauung vermitteln und andererseits aufgrund geeigneter Näherungen deutlich Rechenzeit einsparen und dadurch den Zugang zu Modellen größerer Moleküle ermöglichen können. Zunächst wurde die Simulation von zeitaufgelösten Pump-Probe-Spektren mit Hilfe der Franck-Condon-Approximation durchgeführt, bei der die nukleare. Dynamik während des Laserpulses vernachlässigt wird. Diese bekannte Näherung konnte im Rahmen der Arbeit erstmals auf nichtadiabatisch gekoppelte Potentialflächen angewandt werden. Anschließend wurde für das interessierende Quantensystem mit Hilfe des Mapping-Formalismus ein klassisches Analogon eingeführt und dessen Dynamik eingehend studiert. Dies ist deshalb bemerkenswert, weil dadurch erstmals eine Anwendung von klassischen Methoden aus dem Bereich der nichtlinearen Dvnamik auf nichtadiabatische Quantensvsteme möglich wurde. Schließlich konnten klassische periodische Bahnen des Systems identifiziert werden. Dabei handelte es sich im hier betrachteten Fall nichtadiabatisch gekoppelter Potentiale um eine völlig neue Art von vibronischen periodischen Orbits, die sowohl aus einem nuklearen als auch einem elektronischen Freiheitsgrad bestehen. Dadurch konnte in einem nächsten Schritt mit Hilfe einiger weniger Orbits die Kurzzeitdynamik des Systems modelliert werden. Den Schlusspunkt dieser Untersuchungen bildete die klassische Simulation von zeitaufgelösten Pump-Probe-Spektren. Nachdem diese neue Methode mit periodischen Orbits an einem einfachen, stark idealisierten Modell erfolgreich getestet werden konnte, stellte sich jedoch schnell heraus, dass es in mehrdimensionalen Modellen mit einer Torsionsmode zur Beschreibung von Photoisomerisierungs-Prozessen nicht mehr so leicht möglich ist, solche einfachen periodischen Bahnen zu finden, weil die Zeitskalen von nuklearer und elektronischer Bewegung in diesen Systemen sehr unterschiedlich sind. Es ist deshalb in diesem Fall sinnvoll, das Konzept periodischer Orbits dahingehend zu erweitern, die klassische Dynamik in unterschiedliche allgemeine Bewegungstypen einzuteilen, die dann zur Interpretation von quantenmechanischen Ergebnissen herangezogen werden können. Dies stellt eine neue Möglichkeit dar, die komplizierte Wellenpaketdynamik auf physikalisch intuitive Weise zu veranschaulichen. Zusammenfassend kann man sagen, dass diese Arbeit Beiträge für das Verständnis nichtadiabatischer Quantendynamik liefert: Zum einen werden Fragestellungen von prinzipiellem Interesse diskutiert, wie z.B. der klassische Limes von Quantensystemen insbesondere bei chaotischem Verhalten, zum anderen werden durch die Anwendung von Analyseverfahren der klassischen nichtlinearen Dynamik auf vibronisch gekoppelte Molekülmodelle neue Gebiete erschlossen, die ein verbessertes theoretisches Verständnis experimenteller Ergebnisse im Bereich der Kurzzeitspektroskopie ermöglichen.
Flußlandschaften galten lange Zeit als nur bedingt besiedelbar aufgrund unkalkulierbarer Hochwasser- und Gesundheitsgefahren. Überdies stellten sie Hemmnisse für Verkehr und Kommunikation dar. Es waren vornehmlich ingenieurtechnische Errungenschaften, die den Nutzwert der Flußlandschaften erschlossen (Hey 1997). Durch Hochwasserschutzkonzepte, Wasserkraftwerke und Flußregulierungen wurden u.a. eine geregelte Trinkwasserversor- gung gewährleistet, die Schiffbarkeit verbessert sowie die landwirtschaftliche und gewerbliche Nutzung der fruchtbaren und flachen Auenbereiche ermöglicht. Das fluviale System und dessen nutzbare Ressourcen stehen weiterhin unter einem steigenden ökonomischen Druck. Zusätzlich wird der erwartete Klimawandel der nächsten Jahrzehnte die Stoffflüsse der fluvialen Systeme einerseits direkt und andererseits, mittels veränderter Landnutzungsmuster, indirekt verändern. Die Beispiele aus der jüngeren Erdgeschichte belegen, wie empfindlich fluviale Systeme auf Änderungen der externen Steuergrößen reagieren (s. Kap. 2.2., 2.3.). Die ingenieurtechnischen Planungen berücksichtigen i.d.R. zeitliche Größenskalen von ±100 Jahren, jedoch werden die erwarteten Änderungen der Klimaelemente das Ausmaß der Klimafluktuationen der letzten beiden Jahrhunderte übertreffen (z.B. Houghton et al. 2001). Zudem sind die Reaktionen des fluvialen Systems auf Änderungen externer Steuergrößen als physiographisch spezifisch, nicht- deterministisch und nicht-linear einzustufen, was sich in der räumlich und zeitlich veränderten Reaktion fluvialer Stofftransporthaushalte widerspiegelt (Kap. 2.2.). Zum einen erschwert das die technische Planbarkeit der nutzbaren Ressourcen des fluvialen Systems, zum anderen wächst mit der intensiveren Nutzung das wirtschaftliche Gefähr- dungspotential durch natürliche oder quasi-natürliche fluvialmorphologische Prozesse. Der wohlüberlegte Umgang mit den Ressourcen des fluvialen Systems hängt somit zu einem gewissen Grad von der kurz- bis mittelfristigen Vorhersagbarkeit der Sensibilität ab, die dessen funktionale und räumliche Komponenten gegenüber externen Impulsen aufweisen. Beispiele für variable Reaktionen lassen sich aus der Untersuchung des fluvialen Wandels in der Vergangenheit gewinnen. So zeigen die Ergebnisse der fluvialmorphologischen Forschung in der Hessischen Senke eine räumlich und zeitlich differenzierte Veränderlichkeit der fluvialen Reaktion gegenüber Klimaänderungen. In der Fluvialmorphologie haben sich in jüngerer Zeit Forschungsansätze etabliert, die komplexe und räumlich disparate Rückkopplungsmechanismen zwischen Prozeß und Form in den Mittelpunkt der fluvialen Entwicklung rücken (z.B. Schumm 1977, Philipps 1992b, Lane
Ausgangspunkt dieser Doktorarbeit ist die dominant erbliche hypertrophische Kardiomyopathie, eine Herzkrankheit, die mit Funktionseinschränkungen des Myokards und einem relativ hohen Risiko für einen plötzliche Herztod assoziiert ist. Als Ursachen wurden ca. 160 Mutationen in bisher zehn verschiedenen Genen nachgewiesen, die - mit einer möglichen Ausnahme - für Proteine des kardialen Sarkomers kodieren. Am häufigsten betroffen sind das ventrikelspezifische -Myosin (schwere Kette) sowie das kardiale Myosin-Bindungsprotein C. Ein in Bad Nauheim initiiertes Projekt hat zum Ziel, die Wirkungen einer Mikrodeletion im - Myosingen (Deletion des Codons 927, E927) auf die Struktur und Arbeitsweise des Herzens in transgenen Mäusen zu untersuchen. Es ist bei diesem Projekt beabsichtigt, die Expression des mutierten Myosin-Transgens so zu steuern, dass es nicht unkontrolliert dauernd (konstitutiv), sondern zeitlich kontrolliert (induzierbar) im Herzen exprimiert wird. Als Induktionssystem der Wahl ist dabei das bakterielle Tetrazyklinrepressor-System vorgesehen. Dieses besteht aus dem Repressor tetR, einer DNA- Repressor-Bindungssequenz tetO und einem von außen zugeführten Induktor (Tetrazyklin, tet, oder Doxyzyklin, DOX, einem tet-Derivat). Da dieses Regulationssystem vor dem aufwändigen Einsatz an transgenen Mäusen zunächst in vitro an Zellkulturen zu testen war, wurden für die transiente Transfektion von Zellen in Kultur zwei Plasmide (mit jeweils zwei verschiedenen Promotoren, also insgesamt vier Plasmide) hergestellt. Ein Plasmid enthielt den Repressor und das zweite die tetO-Sequenz mit einem nachgeschalteten Reportergen (lacZ für -Galactosidase). Die beiden Promotoren waren der ubiquitäre virale CMV-Promotor (hCMV-Promotor) einerseits und der herz- und mäusespezifische -Myosin-Promotor (-MHC Promotor) andererseits. Getestet wurde die Regulierbarkeit des Reportergens in transient transfizierten COS1-Zellen, L6 Myoblasten sowie an neonatalen Kardiozyten von Ratten. Für die Kotransfektion von jeweils einem Paar der Plasmide (mit dem tetR-Gen, bzw. dem tetO/lacZ-Gen) wurde ein modifiziertes und in dieser Arbeit optimiertes ballistisches System (Gene Gun von BioRad) benutzt. Die Versuchsanordnung bestand aus Anzüchtung der Zellen, Transfektion, Induktion und Nachweis des Reporterenzyms. Mit dem hCMV-Promotor wurde in allen drei getesteten Zelltypen eine von DOX abhängige Expression der -Galaktosidase nachgewiesen. Mit dem -MHC Promotor, der wegen seiner Herzspezifität nur an kardialen Rattenmyozyten getestet werden konnte, waren in der Standardversuchsanordnung (nach DOX Induktion) nur sehr geringe Mengen an - Galaktosidase nachweisbar. Um die Regulierbarkeit des lacZ-Gens eindeutig zu demonstrieren, wurden als Stimulatoren des -MHC Promotors die Hormone Trijodthyronin, Insulin und Dexamethason einzeln und in Kombination verwendet. Die höchste Stimulierung (ca. 5-fach) wurde mit einer Kombination aller drei Hormone erreicht. In dieser Anordnung wurde damit gezeigt, dass das binäre tetR/tetO-System in vitro nach Induktion auch mit dem -MHC Promotor funktioniert. Mit diesem Resultat war - im Prinzip - der Weg für Experimente mit transgenen Mäusen vorgegeben. In Transgen-Linien mit Einzeltransgenen (entweder mit dem tetR-Gen oder dem lacZ-Gen, beide unter Kontrolle des -MHC Promotors, letzteres zusätzlich mit der tetO- Sequenz für den Repressor) wurde die herzspezifische Expression der -Galaktosidase eindeutig nachgewiesen, nicht jedoch die des tet-Repressors. Die Gründe dafür können gegenwärtig nur vermutet werden. Die Zahl der Genkopien könnte unzureichend gewesen sein. Da es sich um ein bakterielles Gen handelt, könnte auch eine ungünstige Codon-Verwendung einer effizienten Expression entgegenstehen. Zur Klärung dieser Umstände sind weitere Versuche (die nicht mehr Gegenstand dieser Doktorarbeit sind) inzwischen initiiert worden. Das hier in Zellkultur getestete Regelsystem wird als tetON-System charakterisiert, bei dem das Transgen, dessen Expression kontrolliert werden soll (jetzt das Gen für -Galktosidase, später ein mutiertes ventrikelspezifisches Myosingen), erst nach Zugabe des Induktors (Doxyzyklin, bei Mäusen im Trinkwasser) aktiviert wird. Damit unterscheidet sich dieses System von vielfach benutzten tetOFF-Systemen. Diese bestehen aus einem hybriden Protein, das aus zwei verschiedenen Struktur/Funktionsdomänen besteht: der tet-Bindungsdomäne des bakteriellen tet-Repressors und einem viralen ubiquitären Transkriptionsaktivator (das Hybridprotein hat die Bezeichnung tTA). Die zu regulierenden Zielgene enthalten die tetO- Sequenz. Bindung von tet an tTA führt zur Dissoziation des tTA/tetO-Komplexes und damit zur Deaktivierung des Zielgens. Entzug von tet erlaubt die Bindung von tTA an den Promotor des Zielgens und ermöglicht damit dessen Transkription. Dieses System, dessen Funktionalität an Modellversuchen nachgewiesen wurde, hat gleichwohl Nachteile. Diese sind erstens auf eine gewisse Toxizität des Transkriptionsaktivators tTA und zweitens auf negative Wirkungen in Verbindung mit der Dauerzufuhr von Tetrazyklin (zur Unterdrückung der Expression des Zielgens) zurückzuführen. Da ein in der Literatur auch beschriebenes tTA-basiertes tetON- System als nicht ausreichend berichtet wird, erscheint der Aufwand für die Herstellung eines einfachen (nicht-viralen) und ggf. genetisch modifizierten tetON-Systems für die Anwendung an Mäusen sinnvoll und notwendig.
Im Rahmen einer genomumfassenden Suche nach biologisch aktiven Proviren des Typs HERV-K konnten insgesamt zwei Genorte den humanen Chromosomen C7 bzw. C19 zugeordnet werden. Beide Proviren weisen ORF für die retroviralen Gene gag, pol und env auf. Während der Genort HERV-K(C19) infolge eine Punktmutation ein defektes Proteasegen trägt und durch eine Deletion der 5´LTR transkriptionell inaktiv ist, besitzt der Genort HERV- K(C7) zwei intakte LTRs, deren Homologiegrad auf ein phylogenetisch junges Alter hindeutet. Mit Ausnahme eines Aminosäureaustausches innerhalb eines hochkonservierten Sequenzmotivs der reversen Transkriptase, der den Verlust der enzymatischen Aktivität zur Folge hat, kann der Genort HERV-K(C7) als das derzeit intakteste Provirus der Familie HERV-K angesehen werden. Die Ergebnisse dieser Arbeit sprechen für eine HTDV- Partikelproduktion durch Komplementation unterschiedlicher Genorte und gegen die Existenz eines funktionellen und vermehrungsfähigen HERV-K Provirus mit allen retroviralen Charakteristika im menschlichen Genom. Desweiteren wurden mit HERV-K10 und HERV-K18 zwei bekannte Vertreter der Familie HERV-K eingehend untersucht. Zusätzlich zu der chromosomalen Zuordnung der Proviren gelang der experimentelle Nachweis eines intakten gag Genes für HERV-K10. Für HERV- K18 konnten ausgeprägte Homologien zu dem Superantigen-kodierenden Provirus IDDMK1,222 festgestellt werden. Bei den in dieser Arbeit vorgestellten Klonen pPERV-B(33), pPERV-A(42) und pPERV- B(43) handelt es sich um die ersten intakten Proviren der xenotropen Klassen PERV-A und PERV-B. Die vollständige Sequenzierung ermöglichte eine eingehende molekularbiologische Charakterisierung dieser C-Typ Viren. Computergestützt konnte eine PBS für eine tRNAGly4 sowie das Polyadenylierungssignal identifiziert werden. Der Sequenzvergleich offenbarte ein repetitives 39 bp Motiv, welches in unterschiedlicher Anzahl in den jeweiligen LTRs vorzufinden ist. Experimentell wurden der Transkriptionsstart und die verwendeten Spleißstellen identifiziert. Durch Rekombination konnten die molekularen Klone pPERV- B(33)/ATG und pPERV-B(43)/LTR generiert werden, die nach Transfektion in 293 Zellen zur Produktion infektiöser Partikel führten, welche sich seriell passagieren liessen. Mit Kenntnis der Genomorganisation und der RNA Expressionscharakteristika von PERV wurde eine RT PCR Virusdiagnostik etabliert mit deren Hilfe hochsensitiv differentiell PERV-A und PERV-B Transkripte detektiert werden können.
Der erste Teil dieser Promotionsarbeit umfasste die Etablierung und Validierung eines in vitro Testsystems zur Auffindung von Substanzen, die selektiv die Interaktion der mitogenen Signalmoleküle Ras und Raf inhibieren können. Die Deregulation der Ras-Signalkaskade spielt in einer Vielzahl maligner Transformationen eine bedeutende Rolle. Daher besteht in der pharmazeutischen Forschung großes Interesse an der Auffindung von Inhibitoren, die in der Lage sind, solche proliferativen Signale zu unterbinden und möglicherweise Ras- vermittelte Malignität einzudämmen. Das im Rahmen dieser Promotionsarbeit entwickelte Testsystem zur Detektion von Inhibitoren der Ras-Raf-Proteininteraktion basiert auf der intracistronischen ß-Galaktosidase Komplementation. Hierbei werden zwei sich nicht komplementierende Deletionsmutanten der ß-Galaktosidase, deren Affinität zueinander sehr niedrig ist, mit interagierenden Proteinpaaren fusioniert, wodurch es zur Ausbildung eines aktiven Enzymkomplexes kommen kann, dessen Aktivität sich über die Umwandlung eines fluorogenen Substrats nachweisen lässt. Bei Expression der interagierenden Fusionsproteine im E.coli Stamm ER2507 zeigte sich in intakten Zellen eine spezifische Komplementation der Interaktionspartner. Eine in vitro Komplementation der Fusionsproteine konnte trotz nativer Aufreinigung nicht beobachtet werden, da die Proteine im zellfreien System unter den gegebenen Versuchsbedingungen nur sehr schwach miteinander interagierten. Das zelluläre Testsystem ließe sich in dieser Form für die Wirkstoffsuche nach Inhibitoren der Ras-Raf-Proteininteraktion einsetzen. Die Evaluierung und Validierung muss aber für jedes interagierende Proteinpaar gesondert erfolgen. Der zweite Teil dieser Promotionsarbeit umfasste die Entwicklung und Charakterisierung zellulärer Systeme zur Validierung von PKB/Akt als Zielstruktur für die Entwicklung neuartiger anti-tumoraler Strategien. PKB/Akt wird in der Literatur als zentraler Mediator von zellulären Überlebenssignalen beschrieben. Zudem weisen verschiedene Tumore eine konstitutive Aktivierung und/oder eine Überexpression von PKB/Akt auf, was möglicherweise mit dem Auftreten von Chemoresistenz korreliert. Im Rahmen dieser Promotionsarbeit konnte durch die Etablierung eines geeigneten zellulären Modells die Bedeutung von PKB/Akt bei der Verhinderung des Auftretens von Anoikis herausgestellt werden. Darüber hinaus gelang es erstmals, einen kausalen Zusammenhang zwischen konstitutiver Aktivierung von PKB/Akt und der Vermittlung von Chemoresistenz in vitro als auch in vivo darzulegen. Bei der molekularen Untersuchung der PKB/Akt- vermittelten Desensitivierung von Lungenkarzinomzellen gegenüber Zytostatika zeigte sich, dass PKB/Akt Chemoresistenz durch breit gefächerte Eingriffe in die apoptotischen Hauptsignalwege über eine Vielzahl von Mechanismen wie beispielsweise die verstärkte Phosphorylierung der Initiator-Caspase 9, die erhöhte Expression des anti-apoptotischen Proteins Bcl-xL oder die verlangsamte Induktion von p53 vermittelt. Die selektive Inhibition der Kinaseaktivität von PKB/Akt stellt somit einen interessanten Ansatz für neuartige therapeutische Strategien dar, die darauf abzielen, Tumorzellen, die Chemoresistenz aufgrund einer hohen intrinsischen Aktivität von PKB/Akt aufweisen, durch Applikation eines PKB/Akt-Inhibitors gegenüber Standard-Chemotherapeutika zu resensitivieren und auf diese Weise eine Vielzahl von chemoresistenten Tumoren einer Therapie zugänglich zu machen.
Termiten (Insecta: Isoptera) sind soziale Insekten und ein wichtiger Bestandteil der Fauna terrestrischer Ökosysteme der Tropen. Dort stellen sie bis zu 25 Prozent der Bodenfauna und sind als Ökosystem-Ingenieure eine sogenannte Keystone-Gruppe (Abe & Higashi, 1997). Untersuchungen zur Rolle in Stoffkreisläufen wurden bisher hauptsächlich in den Savannen Afrikas oder Asiens durchgeführt. Bis heute sind auffallend wenig Daten aus tropischen Wälden vorhanden. Die vorliegende Arbeit beschäftigte sich mit mehreren Teilaspekten der Termitenökologie in einem amazonischen Festlandregenwald. Die Atmungsaktivität von 24 Termitenarten wurde mittels Infra-Rot-Gas-Absorptions-Messungen (IRGA-Messungen) bestimmt. Hierbei wurde nach Kasten (Arbeiter und Soldaten) differenziert. Das Verhältnis von Körpermasse und CO2-Produktion folgt einem ubiquitären biologischen Gesetz, nach dem die Metabolismusrate mit zunehmender Köpergröße abnimmt. Die untersuchten Termiten konnten in vier verschiedene Nahrungsgilden eingeteilt werden: Holzfresser, OM-Fresser (OM=organisches Material), Interfacefresser und Spezialisten. In Übereinstimmung mit der taxonomischen und funktionellen Einteilung konnte gezeigt werden, dass Holzfresser mit 0,87 g [CO2 g Biomasse -1] signifikant mehr CO2 als OM-Fresser (0,47 g [CO2 g Biomasse -1]) und Spezialisten (0,42 g [CO2 g Biomasse -1]) produzieren. In einem weiteren Teil der Arbeit wurden verschiedene Einflüsse unterschiedlicher Waldsysteme auf die Termitenaktivität untersucht. Die Präsenz von Termiten an Köderfallen wurde dazu in drei verschiedenen Waldsystemen (Primärwald, Sekundärwald und verschiedene agroforstwirtschaftliche Anbausysteme) für den Zeitraum eines Jahres beobachtet. Es konnte gezeigt werden, dass die Termitenaktivität mit dem Komplexitätsgrad der untersuchten Systeme und der Bodenfeuchte korreliert. Die meisten mit Termiten besetzten Fallen fanden sich im Primärwald. Es war außerdem möglich den Nachweis zu liefern, dass der Vegetationstyp forstwirtschaftlich genutzter Flächen die Termitenaktivität beeinflusst. In vier verschiedenen agroforstwirtschaftlichen Polykulturen wurden sowohl in der Trocken- als auch in der Regenzeit mehr besetzte Köderfallen gezählt als in Monokulturen der untersuchten amazonischen Nutz-Baumarten (Citrus sinensis, Theobroma grandiflorum, Hevea brasilensis, Bactris gasipaes und Cocos nucifera). Darüber hinaus konnte gezeigt werden, dass Termiten auf Feuchtigkeitsunterschiede im Boden reagieren indem sie zu feuchte (> 28% volum. Wassergehalt) oder zu trockene Standorte (< 23% volum. Wassergehalt) meiden. Auf der Basis der ermittelten Atmungsdaten wurde die Rolle der Termiten im lokalen und globalen Kohlenstoffkreislauf mit Hilfe von Modellen spezifiziert. Erstmalig konnten hierbei die Daten der neotropischen Termiten in ökologische Modelle integriert werden. Zum einen ergab die Modellierung der CO2-Produktion der untersuchten Arten aus Teil A mit dem Makrofaunamodell NEOMITES, dass Termiten in einem tropischem Regenwald in der Lage sind, bis zu 28 Prozent des Bodenkohlenstoffes zu mobilisieren. Zum anderen wurde mit einem im Rahmen dieser Arbeit entwickelten Modell die Nettomenge der Treibhausgase Kohlendioxid und Methan die durch Termiten produziert wird, berechnet. Demnach tragen Termiten tropischer Regenwälder zwischen 0,52 und 2,75 Prozent zur globalen jährlichen Nettoproduktion des Kohlendioxids bei und liegen damit über dem bisher vermuteten Anteil von 0,22-1,56 Prozent. In bezug auf Methan liegen die Ergebnisse der globalen jährlichen Nettoproduktion im Bereich bisheriger Schätzungen (zwischen drei und 19 Prozent). Die durchgeführten Untersuchungen konnten zeigen, dass Termiten auf Bodenqualitätsmerkmale wie Feuchtigkeit reagieren und somit als Monitororganismus bei der nachhaltigen Nutzung tropischer Böden eingesetzt werden können. Durch die Ermittlung der Atmungswerte und der darauf basierenden Modellierung konnte ihre zentralen Rolle im Kohlenstoffkreislauf der Böden tropischer Regenwälder demonstriert werden. Die Modellvorhersagen ihres Beitrags zur Nettoproduktion von Kohlendioxid und Methan zeigen, dass Termiten tropischer Regenwälder keine primäre Quelle des atmosphärischem Kohlendioxids und Methans darstellen. Allerdings liegt ihr Beitrag - insbesondere im Fall von Kohlendioxid - über den bisherigen Annahmen.
Für verschiedene gentherapeutische Ansätze zur Behandlung der HIV-Infektion oder anderer erworbener oder angeborener Krankheiten wie z. B. der angeborenen Immunschwäche SCID ist ein hocheffizienter Gentransfer in CD4-positive T- Lymphozyten erforderlich. In der vorliegenden Arbeit wurden daher geeignete retrovirale Pseudotypvektoren weiterentwickelt. Unter Einsatz von Markergenen wurden Methoden der Transduktion primärer humaner Lymphozyten optimiert. Schließlich wurden verschiedene potentielle therapeutische anti-HIV-Gene durch retroviralen Gentransfer in humane T-Zelllinien übertragen und hinsichtlich der Hemmung der in-vitro Replikation verschiedener HIV-Stämme verglichen. Zunächst wurden stabile Verpackungszelllinien zur Herstellung von [MLV(HIV-1)]- und [MLV(GaLV)]-Pseudotypvektoren entwickelt, die ein für die Analyse der Transduktionseffizienz geeignetes Markergen übertragen. [MLV(HIV-1)]-Vektoren konnten mit Titern bis zu 2 x 10 hoch 5 i.E. / ml hergestellt werden. Die Optimierung der Kultivierung primärer humaner T-Lymphozyten vor dem ex- vivo Gentransfer ergab, dass eine 24-stündige PHA/IL-2 Stimulation mit anschließender 48-stündiger Kultivierung in IL-2 Medium optimal für die Transduktion primärer CD4-positiver T-Lymphozyten unter weitgehender Erhaltung des Expressionsmusters der Chemokinrezeptoren CXCR4 und CCR5 ist. Bei längerer Stimulation mit PHA und IL-2 verändert sich sowohl das CD4/CD8-Verhältnis als auch die CCR5-Expression gegenüber nativem Blut signifikant. Die Analyse der Expression des übertragenen Markergens und anderen Oberflächenmarkern der Zellen nach der Transduktion zeigte eine strikte Abhängigkeit der Transduktion der [MLV(HIV-1)]-Vektoren vom HIV-Rezeptor CD4, während herkömmliche [MLV(GaLV)]-Vektoren sowohl CD4-positive als auch CD4-negative Zellen transduzierten. Die Effizienz von [MLV(HIV-1CXCR4)]- Vektoren für CD4-positive Zellen war signifikant höher als die der [MLV(GaLV)]-Vektoren, während die Transduktionseffizienz der [MLV(HIV-1CCR5)]-Vektoren aufgrund der geringen Anzahl CCR5-positiver CD4-T-Zellen am niedrigsten war. Zwei Tage nach der Transduktion wurde eine reduzierte Korezeptorexpression in den Zellen nachgewiesen. Gründe hierfür könnten die Internalisierung der Korezeptoren nach der Transduktion oder eine durch die Kultivierung der Zellen bedingte Änderung der Expression sein. Nach weiterer Optimierung des retroviralen Gentransferprotokolls, u.a. durch Verwendung autologen Plasmas, konnten schließlich bei einmaliger Transduktion mit einer m.o.i. von 5 mit den [MLV(HIV-1CXCR4)]-Vektoren Transduktionsraten von bis zu 80 % erreicht werden. Zum Vergleich der Wirkung potentieller anti-HIV-Gene, die mit den neuen Vektoren in der Gentherapie des Immunschwächesyndroms AIDS eingesetzt werden könnten, wurden fünf verschiedene HIV-Inhibitoren (zwei intrazellulär exprimierte Antikörperfragmente (scFv) gegen HIV-1 Integrase und Reverse Transkriptase, zwei Ribozyme, die die HIV-1 RNA in der 5´-LTR oder im Pol- Leserahmen spezifisch spalten, sowie Interleukin-16) in den gleichen Transfervektor kloniert und durch retroviralen Gentransfer in die T-Zelllinie SupT1 übertragen. In Infektionsversuchen mit zwei unterschiedlichen HIV-1 Stämmen vermittelte jedoch keiner der potentiellen Inhibitoren eine signifikante Resistenz gegenüber HIV-1. Erst nach Sortierung der Kulturen auf starke Expression der übertragenen Gene konnte in den sortierten Zellen eine geringe Hemmwirkung des 5´-LTR-spezifischen Ribozyms auf die in-vitro Replikation des Stammes HIV-1IIIB, nicht jedoch auf die des Stammes HIV-1NL4-3 gezeigt werden. Die Signifikanz dieser Beobachtung muß über den Vergleich der Hemmwirkung weiterer Inhibitorgene geklärt werden.
In bestimmten methanogenen Archaea wurde vor einigen Jahren eine metallfreie Hydrogenase gefunden, die den reversiblen und stereoselektiven Transfer eines Hydridions von Wasserstoff auf die an den C1-Carrier Tetrahydroniethanopterin (H4MPT) gebundene Methenyl-Gruppe katalysiert. Damit stellt dieses Enzym den ersten und einzigen rein organischen Hydrogenierungskatalysator dar, den man in der Natur kennt. Ziel der vorgelegten Arbeit war die kristallographische Bestimmung der Enzymstruktur. Versuche zur Strukturlösung des in aktiver Form aus M. marburgensis isolierten Enzyms durch mehrfachen isomorphen Ersatz, über die anomale Dispersion an nicht-isomorphen Quecksilberderivaten und die des Selens an mit Selenomethionin markiertem Enzym verliefen nicht erfolgreich. Ursächlich hierfür war die perfekte meroedrische Zwillingsbildung der Kristalle. Für die beiden heterolog produzierten, inaktiven Apoenzyme aus den Hyperthermophilen M. jannaschii und M. kandleri wurden in dieser Arbeit effektive Expressions- und Reinigungsprotokolle entwickelt. Für das Enzym aus M. jannaschii wurden Mikrokristalle erhalten, die lediglich ein Proteolysefragment von etwa der halben Masse des Vollängenproteins enthalten. Kristalle des Enzyms aus M. kandleri konnten durch serielles Microseeding so weit verbessert werden, daß die Durchführung eines MAD-Experiment möglich wurde. Erst unter Verwendung vor kurzem entwickelter direkter Methoden (Shake-and-Bake) gelang die Strukturlösung bei einer Auflösung von 2.8 Å. Die Monomere bilden ein sehr eng assoziiertes Homodimer; zwei dieser Dimere sind zu einem locker assoziierten Tetramer verbunden. Jedes Monomer besitzt zwei Domänen. Die N-terminale Domäne von etwa 255 Resten besitzt eine Faltung, wie sie für Dinukleotid-bindende Enzyme typisch ist, mit einem zentralen, verdrehten achtsträngigen beta-Faltblatt. Die C-terminale Domäne von etwa 100 Resten besitzt dagegen weitgehend alpha-helikale Struktur und ist für die außerordentlich enge Assoziation des Homodimers verantwortlich. Beide Domänen sind durch eine gestreckte, flexible Verbindung verknüpft. Im Dimer entstehen dadurch zwei tiefe Spalten, die von Anteilen der N-terminalen Domäne eines und der C-terminalen Domäne des jeweils anderen Monomers begrenzt werden. Das aktive Zentrum liegt wahrscheinlich in dieser Spalte, wobei postuliert wird, daß der fest gebundene Cofaktor eher mit der größeren N-terminalen Domäne assoziiert ist und das Substrat zwischen den Domänen bindet. An der Bindung dürfte die C-terminale Domäne und möglicherweise auch direkt der Cofaktor beteiligt sein. Die Struktur zeichnet sich durch außergewöhnlich hohe Tenmperaturfaktoren ans. Für das Enzym aus M. marburgensis konnte eine Lösung durch molekularen Ersatz erhalten werden. Da der für die Katalyse benötigte, noch unbekannte Cofaktor nicht in der Struktur enthalten ist, ist eine weitergehende Diskussion des enzymatischen Mechanismus noch nicht möglich. Die Verfügbarkeit eines ersten Strukturmodells der metallfreien Hydrogenase stallt aber bereits einen entscheidenden Schritt auf dem Weg zum Verständnis dieses ungewöhnlichen Hydrogenierungskatalysators dar.
Eintrag organischer Umweltchemikalien aus der Oder in den anaeroben Grundwasserleiter des Oderbruchs
(2002)
In der vorliegenden Arbeit wurde im Rahmen des DFG-Schwerpunktprogrammes 546 ,,Geochemische Prozesse mit Langzeitfolgen im anthropogen beeinflussten Sickerwasser und Grundwasser" der Eintrag organischer Umweltchemikalien aus der Oder in den anaeroben Grundwasserleiter des Oderbruchs untersucht. Ausgewählt wurden verschiedene Vertreter der Stoffklassen Antioxidantien und Phosphorsäureester sowie die beiden Xenoöstrogene Bisphenol A und 4-Nonylphenol, denen eine endokrine (hormonähnliche) Wirkung auf Organismen zugeschrieben wird. Solche Umweltchemikalien werden seit ca. 40 Jahren in großen Mengen für verschiedene Zwecke in Industrie und Privathaushalten eingesetzt oder sie entstehen durch photochemischen oder mikrobiologischen Abbau unter Umweltbedingungen. Die Chemikalien gelangen durch Produktion und Verwendung in die Abwässer und werden durch Direkteinleitungen geklärter Abwässer in die Oberflächengewässer eingetragen. Durch den Prozess der Uferfiltration werden im Oderbruch organische Verbindungen von der Oder ins Grundwasser des angrenzenden Aquifers transportiert. Viele Umweltkontaminanten sind unter aeroben Bedingungen gut biologisch abbaubar. Wie sie sich aber in einer sauerstofffreien Umgebung verhalten, ist bis heute relativ unerforscht. Es ist notwendig, die Prozesse bei der Uferfiltration zu kennen, da heute zunehmend mehr Trinkwasser aus Uferfiltrat gewonnen wird und Umweltchemikalien somit eine potentielle Gefahr für die Trinkwasserversorgung darstellen. Eine zweite Eintragsquelle stellen die Niederschläge dar. Viele organische Verbindungen besitzen die Fähigkeit, aufgrund ihrer physikalischen Paramter von freien Wasser- und Bodenoberflächen oder aus den Produkten, in denen sie enthalten sind, in die Atmosphäre zu verdampfen. Über den Regen gelangen sie schließlich zurück auf die Erde und können so mit dem Sickerwasser bis in tiefere Zonen des Aquifers transportiert werden. Für Vergleichszwecke wurden auch andere Fließgewässer in Deutschland bezüglich der Belastung durch die ausgewählten Umweltchemikalien untersucht. In Ergänzung und Fortsetzung bisheriger Publikationen wurde mit der vorliegenden Arbeit die Konzentrationsentwicklung dieser Stoffe in den Flüssen Rhein, Main, Elbe, Nidda und Schwarzbach dokumentiert. Ein weiterer Schwerpunkt dieser Arbeit lag darin, die Frage nach dem Eintrag dieser Umweltchemikalien in die Flüsse zu beantworten. Dazu wurde Abwasser und Regenwasser auf die Anwesenheit der entsprechenden Verbindungen untersucht. Das Hauptuntersuchungsgebiet stellte die Oder im Grenzbereich Deutschland-Polen sowie der anaerobe Grundwasserleiter des Oderbruchs dar. Dieses Gebiet westlich der Oder im Bundesland Brandenburg wurde ausgewählt, da hier die besondere hydrologische Situation gegeben ist, dass das Flusswasser der Oder mit Geschwindigkeiten von 0,2-5 m/d in den angrenzenden Aquifer infiltriert. Da im Aquifer des Oderbruchs durchweg reduzierende Verhältnisse herrschen, eignet sich dieser in besonderer Weise, das Verhalten organischer Substanzen unter anaeroben Bedingungen zu untersuchen. Hydrogeologisch betrachtet sind im quartären Untergrund des Oderbruchs zwei Hauptgrundwasserleiter ausgebildet. Beide Horizonte werden durch eine undurchlässige Schicht aus Geschiebemergel voneinander getrennt. Gegenstand der vorliegenden Untersuchungen war ausschließlich der obere Hauptgrundwasserleiter, in dem durchweg anaerobe Bedingungen herrschen. Bei einer durchschnittlichen Mächtigkeit von 20-30 m wird der Aquifer im wesentlichen aus holozänen und pleistozänen Sanden und Kiesen aufgebaut. Charakteristisch für das Oderbruch ist der sogenannte ,,Auelehm". Es handelt sich hierbei um flächenhaft verbreitete bindige Deckschichten mit unterschiedlichen Mächtigkeiten. In einigen Bereichen des Oderbruchs fehlen diese undurchlässigen Deckschichten völlig, weshalb das Niederschlagswasser ungehindert in den Aquifer eindringen kann. In anderen Bereichen variiert die Mächtigkeit des Auelehms lokal. Mit zunehmender Entfernung von der Oder nimmt sie stark ab. In Bereichen ab ca. 3000 m Entfernung vom Fluss sind die Auelehmdeckschichten nicht mehr vorhanden, weshalb hier der Eintrag organischer Stoffe mit den Niederschlägen in einen Aquifer begünstigt wird. Im Vorfeld dieser Arbeit hat die Auswertung der zur Schadstoffbelastung der Oder vorliegenden Literatur gezeigt, dass sich die wenigen Untersuchungen vor allem mit dem Auftreten sogenannter persistenter organischer Schadstoffe wie polychlorierte Biphenyle (PCB), Dioxine, Furane und Chlorpestizide beschäftigten. Umweltchemikalien wie Antioxidantien, Phosphorsäureester und Xenoöstrogene, die unter aeroben Bedingungen gut biologisch abgebaut werden, treten oft in den Hintergrund der Betrachtung, da von einer vollständigen Eliminierung dieser Substanzen ausgegangen wird. Diese Industriechemikalien, die Gegenstand dieser Arbeit sind, werden in so hohen Mengen produziert und eingesetzt, dass die Abbaukapazität in Böden und Gewässern häufig überschritten wird. In der vorliegenden Arbeit wurde zunächst eine empfindliche Messmethode zur Bestimmung von mittelpolaren organischen Umweltkontaminanten aus matrixreichen Wasser- und Abwasserproben im unteren Nanogramm/Liter-Bereich entwickelt. Die Analysenmethode basierte auf der Extraktion der Wasserproben mittels Festphasenextraktion (SPE) sowie dem hochempfindlichen Nachweis der Analyten mittels Kapillargaschromatographie/ Massenspektrometrie (GC/MS). Damit konnten zahlreiche Verbindungen mit einem relativ geringen Arbeitsaufwand im Routinebetrieb mit Wiederfindungsraten von 68 bis 95 % in den Wasserproben identifiziert und quantifiziert werden. Die Bestimmungsgrenzen für die einzelnen Verbindungen lagen zwischen 3-53 ng/l. Insgesamt sind in diesem Projekt von März 1999 bis Juli 2001 sechs Beprobungskampagnen im halbjährlichen Rhythmus durchgeführt worden. Zur Beprobung standen die im Rahmen dieses Schwerpunktprogrammes von Mitarbeitern der FU Berlin sowie des ZALF in Müncheberg im Oderbruch installierten Grundwassermessstellen der Transsekten Bahnbrücke und Nieschen zu Verfügung. Im Bereich der Transsekte Bahnbrücke ist der ,,Auelehm" weit verbreitet, allerdings mit lokal variierenden Mächtigkeiten. Mit zunehmender Entfernung von der Oder nimmt die Mächtigkeit dieser Deckschicht ab, bis sie in einer Entfernung von ca. 5000 m überhaupt nicht mehr vorhanden ist. Vereinzelt sind den überwiegend sandig bis kiesigen Sedimentfolgen, die den Aquifer im Bereich der Transsekte Bahnbrücke überwiegend aufbauen, in unmittelbarer Nähe der Oder geringmächtige Tonlagen zwischengeschaltet. Dadurch wird der Aquifer in flussnähe in zwei Teilbereiche gegliedert. Der untere Teilbereich steht im direkten hydraulischen Kontakt zur Oder und wird so maßgeblich durch das Uferfiltrat beeinflusst. Im Hangenden dieses grundwasserleitenden Horizontes folgt ein zweiter Teilbereich, der durch eine stauende Tonschicht an der Basis hydraulisch von der Oder getrennt ist und so überwiegend von infiltrierendem Niederschlagswasser sowie vom Oderwasser bei Überschwemmungen geprägt wird. Im Bereich der Transsekte Nieschen besteht der Grundwasserleiter ausschließlich aus sandig-kiesigen Sedimentfolgen. Außerdem fehlt hier der Auelehm und damit eine den Aquifer schützende Deckschicht. Daher ist im Bereich der Transsekte Nieschen der Einfluss von infiltrierendem Niederschlagswasser auf den Grundwasserchemismus besonders stark ausgeprägt, da dieses ungehindert in den Aquifer eindringen kann. Parallel zu jeder Grundwasserprobennahme wurde an ausgewählten Standorten in Deutschland eine Beprobung verschiedener Oberflächengewässer durchgeführt sowie Dachablaufproben gesammelt. Bei der letzten Beprobungskampagne wurden im Oderbruch eine Niederschlagsprobe sowie zwei Dachablaufproben genommen. Zum gleichen Zeitpunkt wurden Zu- und Abläufe der Kläranlage einer Stahlverarbeitungsfirma sowie dreier kommunaler Kläranlagen in der Umgebung des Oderbruchs beprobt. Sämtliche beprobten Kläranlagen leiten ihre geklärten Abwässer in die Oder. Folgende organische Verbindungen wurden in den Proben identifiziert und in drei Gruppen eingeteilt: Die Gruppe der Antioxidantien mit den Vertretern 3,5-Di-tert.-butyl-4-hydroxytoluol (BHT), 3,5-Di-tert.-butyl-4-hydroxybenzaldehyd (BHT-CHO) und 1,2-Bis(3,5-di-tert.- butyl-4-hydroxy-phenyl)ethan (2-BHT), die Gruppe der Phosphorsäureester mit den Vertretern Tributylphosphat (TBP), Tris(2-chloroethyl)phosphat (TCEP) und Tris(2- butoxyethyl)phosphat (TBEP) sowie die Gruppe der Xenoöstrogene mit den Vertretern 2,2- Bis-(4-hydroxyphenyl)propan (BPA) und 4-Nonylphenol (4-NP). Die organischen Verbindungen BHT, TBP, TCEP, TBEP und BPA sind weltweit eingesetzte, industriell hergestellte Chemikalien. 4-NP ist ein Abbauprodukt nichtionischer Tenside (Nonylphenolpolyethoxylate = NPnEO), die als Detergentien in Waschmitteln eingesetzt werden. Bei der Verbindung BHT-CHO handelt es sich um ein Abbauprodukt des Antioxidationsmittels BHT und bei 2-BHT um ein Dimeres von BHT. Sämtliche organische Umweltchemikalien und Metabolite konnten in kommunalen und industriellen geklärten und ungeklärten Abwässern, im Niederschlag und im Dachablauf, in Oberflächengewässern sowie im Grundwasser nachgewiesen werden. Abwasser: In den kommunalen Zuläufen betrug die mittlere BHT-Konzentration 392 ng/l und in den Abläufen 132 ng/l. Für BHT-CHO lag die mittlere Konzentration in den kommunalen Zuläufen bei 113 ng/l und in den Abläufen bei 70 ng/l. Auch die drei Phosphorsäureester wurden in allen untersuchten kommunalen Zuläufen mit mittleren Konzentrationen von 15404 ng/l für TBP, 986 ng/l für TCEP und 12835 ng/l für TBEP nachgewiesen. Die Durchschnittskonzentration in den Abläufen der drei kommunalen Kläranlagen lag bei 622 ng/l für TBP, 352 ng/l für TCEP und 2955 ng/l für TBEP. Das Xenoöstrogen BPA wurde in den Zuläufen mit durchschnittlich 6579 ng/l und in den Abläufen mit 1656 ng/l bestimmt. Die Verbindung 4-NP trat hingegen nur in den Abläufen der kommunalen Kläranlagen mit durchschnittlich 385 ng/l auf. Die Konzentrationen von BHT, TBP, TCEP und TBEP im Zulauf der betriebseigenen Kläranlage einer Stahlverarbeitungsfirma bei Eisenhüttenstadt waren durchweg geringer als die mittleren Konzentrationen dieser Stoffe in den Zulaufproben der kommunalen Kläranlagen. Diese Industriechemikalien finden vor allem in Haushaltsprodukten Verwendung und werden so hauptsächlich durch die Abwassereinleitungen kommunaler Kläranlagen in die Oberflächengewässer eingetragen. Im Gegensatz dazu wurden im Abwasser der industriellen Kläranlage die höchsten Konzentrationen für die beiden Xenoöstrogene BPA und 4-NP festgestellt, da diese Stoffe bei der Metallverarbeitung als Zusatzstoff bzw. als Reinigungsmittel eingesetzt werden. Sämtliche hier zur Diskussion stehenden Verbindungen, mit Ausnahme von 4-NP, wurden durch den Klärprozess mit Raten von 29,1-96,0 % eliminiert. Die Substanzen TBP und TBEP, die in höheren Konzentrationen von mehreren Mikrogramm/l im ungeklärten Abwasser enthalten waren, wurden effektiver durch den Klärprozess eliminiert, als dies bei Substanzen mit geringeren Konzentrationen wie BHT und TCEP der Fall war. Eine besondere Stellung im Eliminierungsprozess in den Kläranlagen nimmt 4-NP ein. Diese endokrin wirksame Substanz konnte ausschließlich in den Ablaufproben der kommunalen Kläranlagen nachgewiesen werden, was darauf hindeutet, dass sie erst während des Klärprozesses durch biologischen Abbau von NPnEO gebildet wird. Da allerdings kommunale Kläranlagen neben Abwasser auch einen großen Anteil an Oberflächenabfluss und damit Niederschlagswasser aufnehmen, stellt sich an dieser Stelle die Frage, warum 4-NP in den Zulaufproben nicht oberhalb der Nachweisgrenze nachgewiesen werden konnte. Niederschlag- und Dachablauf enthielten immerhin durchschnittlich 942 ng/l 4-NP. Hier besteht weiterhin Klärungsbedarf. Das Auftreten aller Substanzen in sämtlichen Ablaufproben zeigt, dass die Direkteinleitungen geklärter Abwässer in die Flüsse eindeutig eine Eintragsquelle für das gesamte untersuchte Stoffspektrum in die aquatische Umwelt darstellen. Ein weiterer Schadstoffeintrag ist durch die Aufbringung von Klärschlamm auf landwirtschaftliche Nutzflächen gegeben. Aufgrund der hohen Werte der Octanol/Wasserverteilungskoeffizienten (logPOW) der hier untersuchten Verbindungen muss eine Adsorption der Substanzen an Klärschlamm und ein damit verbundener Eintrag ins Grundwasser durch Remobilisierungserscheinungen ebenfalls als Eintragsquelle in Betracht gezogen werden. Generell gingen in den letzten Jahren die Mengen an BHT, die über die Einleitungen geklärter Abwässer in die Oberflächengewässer gelangen, zurück. Vor fast 30 Jahren gelangte in den USA vereinzelt noch ungefähr die 100fache Menge der Substanz über Abwassereinleitungen in die Vorfluter. Für TBP, TCEP und TBEP war im geklärten Abwasser deutscher Kläranlagen in den letzten 20 Jahren ebenfalls eine Konzentrationsabnahme zu beobachten. Der Grund hierfür liegt in der Ausweitung des Kläranlagennetzes sowie in der Verbesserung vorhandener Abwasserreinigungsanlagen (vor allem in den neuen Bundesländern). Dagegen ist die BPA-Konzentration im geklärten Abwasser in der Bundesrepublik Deutschland in den letzten drei Jahren geringfügig gestiegen, was auf die steigenden Produktionszahlen dieser Massenchemikalie zurückgeführt werden kann. Für 4-NP wurde in der BRD in den letzten fünf Jahren ein leichter Konzentrationsrückgang im geklärten Abwasser beobachtet. Dies kann damit in Zusammenhang gebracht werden, dass die deutsche Wasch- und Reinigungsmittelindustrie im Jahr 1986 eine freiwillige Verzichterklärung bezüglich des Einsatzes von NPnEO abgegeben hat. Durch den geringeren Einsatz dieser nichtionischen Tenside in den Produkten gelangen weniger NPnEO mit dem Abwasser in die Kläranlagen. Folglich wird im Verlauf der Abwasserbehandlung auch weniger 4-NP durch biologischen Abbau gebildet. Trotz dieser Verzichterklärung kann 4-NP dennoch bis heute in deutschen Kläranlagenabläufen nachgewiesen werden. Im internationalen Vergleich mit Österreich, Italien, England, Schottland, Schweiz, Kanada und den USA sind die 4-NP-Konzentrationen im geklärten Abwasser in Deutschland allerdings relativ gering. Niederschlag und Dachablauf Alle ausgewählten Verbindungen konnten sowohl in der Niederschlagsprobe aus dem Oderbruch als auch in den Dachablaufproben nachgewiesen werden. Aufgrund ihrer physikalischen Eigenschaften wie Dampfdruck und Henry-Konstante ist die Voraussetzung für einen Eintrag in die Atmosphäre für alle im Rahmen dieser Arbeit untersuchten Substanzen generell gegeben. BHT und BHT-CHO konnten mit durchschnittlich 510 ng/l bzw. 171 ng/l in Niederschlag- und Dachablauf nachgewiesen werden (n=5). Der Maximalwert für BHT lag dabei bei 1797 ng/l in einer Dachablaufprobe und für BHT-CHO bei 474 ng/l in der Niederschlagsprobe. Die mittlere Konzentration der Phosphorsäureester in den untersuchten Niederschlags- und Dachablaufproben lag bei 951 ng/l für TBP, bei 151 ng/l für TCEP und bei 338 ng/l für TBEP. Dabei erreichte TBP ein Maximum von 1344 ng/l, TCEP von 327 ng/l und TBEP von 448 ng/l (die Maximalwerte der Phosphorsäureester wurden jeweils in einer Dachablaufprobe bestimmt). 4-NP wurde mit einer mittleren Konzentration von 942 ng/l im Niederschlag- und Dachablauf gemessen. Das 4-NP- Maximum lag bei 1231 ng/l (Dachablauf). BPA konnte mit durchschnittlich 1251 ng/l in Niederschlag- und Dachablauf nachgewiesen werden. Die maximale BPA-Konzentration lag dabei bei 4085 ng/l in der Niederschlagsprobe aus dem Oderbruch. Die hohen Konzentrationen von BPA im Regen konnten im Rahmen dieser Arbeit nicht erklärt werden. Die Verbindung besitzt einen sehr niedrigen Dampfdruck (0,000005 Pa bei 25°C), der nicht ausreicht, um solch hohe Konzentrationen in der Atmosphäre hervorzurufen. Eine Verunreinigung der Regenwasserproben bei der Probennahme ist hier als Grund für die hohen BPA-Konzentrationen in Betracht zu ziehen und durch die Analyse weiterer Niederschlags- und Dachablaufproben zu überprüfen. Die Substanzen BHT, BHT-CHO, TBP und 4-NP waren im Vergleich zum geklärten Abwasser in höheren Konzentrationen in Niederschlag und Dachablauf enthalten. Diese Stoffe werden somit verstärkt über die Atmosphäre mit den Niederschlägen in die Umwelt eingetragen. Hier besteht Klärungsbedarf bezüglich dessen, dass 4-NP zwar im Regenwasser nicht aber in den Zuläufen der kommunalen Kläranlagen nachgewiesen werden konnte. Die mittleren Regenwasserkonzentrationen von BHT, BHT-CHO, TBP und 4-NP lagen ebenfalls über den mittleren Konzentrationen in Oberflächen- und Grundwasser. Zwei der Dachablaufproben stammten aus dem Rhein-Main Gebiet. In solchen Ballungszentren sind häufig höhere Gehalte an organischen Umweltchemikalien im Regenwasser enthalten als in ländlichen Gebieten, was einen Anstieg der Durchschnittskonzentration in sämtlichen Regenwasserproben zur Folge hat. Hinzu kommt, dass sich Verbindungen wie 4-NP, die einen hohen Dampfdruck aufweisen, relativ gleichmäßig in der Atmosphäre verteilen und so auch in Gebiete gelangen, die nicht durch hohe Schadstoffemissionen gekennzeichnet sind. Dies hat ebenfalls relativ hohe Konzentrationen im Regenwasser zur Folge. Ein dritter Grund für die höheren Konzentrationen im Regenwasser im Vergleich zum Oberflächen- und Grundwasser könnte die Adsorption organischer Umweltchemikalien mit hohen Octanol/ Wasserverteilungskoeffizienten an Sedimentpartikel, Schwebstoffe und/oder organische Substanz in Fluss und Aquifer sein. Die mittleren Konzentrationen der beiden Phosphorsäureester TCEP, TBEP und BPA waren im Vergleich zum geklärten Abwasser der kommunalen Kläranlagen im Regenwasser deutlich niedriger. Der Eintrag über die Atmosphäre ist folglich für diese Verbindungen von geringerer Bedeutung. Am Beispiel des Phosphorsäureester TBEP konnte dennoch demonstriert werden, dass der atmosphärische Eintrag organischer Verbindungen mit relativ geringen Dampfdrücken nicht zu vernachlässigen ist, da solche Substanzen die Tendenz zeigen, an Aerosolpartikel zu adsorbieren und mit dem Aerosol transportiert zu werden. Oberflächenwasser Die untersuchten Umweltchemikalien konnten in fast allen Wasserproben aus den untersuchten Oberflächengewässern mit zum Teil erheblichen Konzentrationsschwankungen nachgewiesen werden. Für BHT lagen die Konzentrationen in den Oberflächengewässern zwischen Werten unterhalb der Nachweisgrenze (<1 ng/l) und 1594 ng/l. Der Metabolit BHT- CHO wies dagegen mit einem Konzentrationsbereich von Werten unterhalb der Nachweisgrenze (<5 ng/l) bis 236 ng/l durchweg geringere Konzentrationen in den Oberflächenwasserproben auf. Der Mittelwert lag für BHT bei 233 ng/l und für BHT-CHO bei 89 ng/l (n = 47). Die Konzentrationen der Phosphorsäureester TBP, TCEP und TBEP in den untersuchten Oberflächenwasserproben schwankten zwischen Gehalten unterhalb der Nachweisgrenzen (<7 ng/l für TBP, <5 ng/l für TCEP und <6 ng/l für TBEP) und 1510 ng/l für TBP. Dabei wiesen TBP und TBEP mit Mittelwerten von 481 bzw. 465 ng/l die höchsten Konzentrationen in den untersuchten Oberflächengewässern auf. Der Mittelwert der Substanz TCEP in allen untersuchten Oberflächenwasserproben lag dagegen nur bei 165 ng/l. Die Konzentrationen der Xenoöstrogene BPA und 4-NP reichten bis maximal 1672 bzw. 1220 ng/l. Die Nachweisgrenze für BPA lag bei 10 ng/l und für 4-NP bei 6 ng/l. 4-NP trug mit einem Mittelwert von 464 ng/l am meisten von allen untersuchten Verbindungen zur Gewässerverunreinigung bei. Der Mittelwert für BPA in den Oberflächengewässern lag bei 351 ng/l. In den hier untersuchten Flüssen in der BRD war die maximale BHT-Konzentration (1594 ng/l) um das 10fache geringer als die maximale BHT-Konzentration, die noch vor 30 Jahren in deutschen Oberflächengewässern gemessen wurde (14000 ng/l). Im Vergleich zu BHT- Gehalten in japanischen (1980) und amerikanischen (1975) Oberflächengewässern lagen die aktuellen BHT-Gehalte in deutschen Flüssen deutlich darunter. Die Konzentrationen für TBP und TCEP in deutschen Oberflächengewässern sind in der Vergangenheit ebenfalls deutlich zurückgegangen. Im internationalen Vergleich liegt die BRD in Bezug auf TBP-Gehalte in Oberflächengewässern mit an der Spitze. In der Elbe konnte für die Substanz TBEP in den letzten 15 Jahren ein leichter Konzentrationsanstieg beobachtet werden. Die TBEP- Konzentration in deutschen Oberflächengewässern ist im Vergleich zu Gehalten in japanischen und amerikanischen Flüssen sowie im Trinkwasser aus Kanada gering. Der BPA- Gehalt im Rhein ist in den letzten 10 Jahren geringfügig angestiegen. Im Vergleich mit Japan und Tschechien liegen die BPA-Konzentrationen in deutschen Flüssen innerhalb von Ballungsgebieten auf einem ähnlich hohen Niveau. Die Konzentrationsentwicklung des Xenoöstrogens 4-NP war seit 1986 in deutschen Oberflächengewässern stark rückläufig, was mit der freiwilligen Verzichterklärung in diesem Jahr zusammenhängt. Trotzdem tritt 4-NP auch heute noch in Konzentrationen im Nanogramm/Liter-Bereich in deutschen Flüssen auf. Die deutschen Werte lagen allerdings deutlich unterhalb der 4-NP-Konzentrationen in Oberflächengewässern der Schweiz, England, den USA und Taiwan.. Grundwasser Das Antioxidans BHT sowie sein Abbauprodukt BHT-CHO konnten in den meisten Grundwasserproben aus dem Oderbruch mit Gehalten bis zu 2156 bzw. 541 ng/l nachge- wiesen werden. Der Mittelwert für BHT im Grundwasser lag bei 353 ng/l und für BHT-CHO bei 105 ng/l (n=76). Die Verbindung 2-BHT wurde ausschließlich im Grundwasser nachgewiesen. Dies zeigt, dass die anaeroben Bedingungen im Aquifer des Oderbruchs zur Bildung des Dimeren von BHT geführt haben. Ob diese Vermutung stimmt, dass 2-BHT tatsächlich aus dem Antioxidans BHT gebildet wird, soll in naher Zukunft anhand mikrobiologischer Abbauversuche von BHT unter anaeroben Bedingungen geklärt werden. Die Gehalte der Phosphorsäureester im Grundwasser bewegten sich in Konzentrationsbereichen bis zu 1605 ng/l (TBP), bis zu 754 ng/l (TCEP) und bis zu 2010 ng/l (TBEP) mit einem Mittelwert für TBP von 276 ng/l, für TCEP von nur 80 ng/l und für TBEP von 289 ng/l. Der Maximalwert für BPA in den Grundwasserproben betrug 4557 ng/l. Der Mittelwert für diese Verbindung im Grundwasser lag bei 630 ng/l. Betrachtet man die BPA- Konzentration in den Grundwasserproben, fällt auf, dass diese sehr starken Schwankung unterliegt, die an dieser Stelle nicht erklärt werden können. Es besteht der Verdacht einer BPA-Kontamination der Grundwasserproben bei der Probennahme, da die beprobten Messstellen im Oderbruch zur Förderung des Grundwassers mit Kunststofflinern ausgestattet wurden, die eventuell BPA als Antioxidans enthalten. In Zukunft sind daher weitere Grundwasseranalysen mit einer verbesserten Probennahmetechnik notwendig, um eine Kontamination mit BPA auszuschließen. In den Grundwasserproben war das Isomerengemisch 4-NP, ebenso wie in den Oberflächenwasserproben, im Mittel mit der höchsten Konzentration vertreten (724 ng/l). Das 4-NP-Maximum lag dabei bei 2542 ng/l. Alle ausgewählten organischen Industriechemikalien konnten in den odernahen Bereichen innerhalb der Transsekte Bahnbrücke sowohl im Grundwasser aus dem Teilbereich des Aquifers, der nur durch infiltrierendes Oderwasser gespeist wird, als auch im Grundwasser aus dem Teilbereich des Aquifers, der überwiegend von infiltrierendem Niederschlagswasser beeinflusst wird, nachgewiesen werden. Die anthropogenen Stoffe gelangen also im Bereich der Transsekte Bahnbrücke sowohl über das Uferfiltrat als auch durch Niederschlagsinfiltration ins Grundwasser. Durch die Uferfiltration spiegelten sich die Konzentrationen der vor wenigen Tagen infiltrierten organischen Verbindungen aus dem Oderwasser direkt im Grundwasser aus odernahen Bereichen wieder. Auch weiter vom Fluss entfernt liegende Aquiferbereiche innerhalb der Transsekte Bahnbrücke wurden noch von infiltriertem Oderwasser beeinflusst. Die jahreszeitlichen Konzentrationsschwankungen demonstrieren hier jedoch die Flusskonzentrationen vor einigen Jahren, da das Oderwasser mehrere Jahre braucht, um in diese Bereiche zu gelangen. Weiterhin ist auch ein Stoffeintrag ins Grundwasser mit dem Oderwasser bei Hochwasserereignissen zu berücksichtigen. Generell nahmen die Konzentrationen der organischen Umweltchemikalien mit zunehmender Entfernung von der Oder ab, was den fehlenden Niederschlagseinfluss im Aquiferbereich der Transsekte Bahnbrücke bedingt durch die schützenden undurchlässigen Deckschichten demonstriert. Im Grundwasser, das aus dem Aquiferbereich in unmittelbarer Nähe der Entwässerungsgräben stammte, war häufig eine Konzentrationsabnahme der organischen Umweltchemikalien zu beobachten. Dies beweist den hydraulischen Zusammenhang zwischen Fluss und Entwässerungsgräben. Das infiltrierte Flusswasser steigt nach der Aquiferpassage in Grabennähe auf, was zu Verdünnungseffekten im Grundwasser verbunden mit einer Konzentrationsabnahme führt. Weiterhin wurden die ausgewählten Stoffe auch in den Grundwasserproben aus dem Aquiferbereich der Transsekte Nieschen nachgewiesen, der durch das Fehlen undurchlässiger Deckschichten gekennzeichnet ist. Da hier aufgrund der Entfernung dieser Transsekte von der Oder der hydraulische Kontakt zum Fluss stark eingeschränkt ist, sind die im Grundwasser auftretenden organischen Umweltchemikalien auf einen Eintrag mit dem infiltrierenden Niederschlagswasser zurückzuführen. Für einen Eintrag der Substanzen mit dem Niederschlagswasser spricht auch die Tatsache, dass die mittleren Konzentrationen der organischen Verbindungen in den Grundwasserproben aus der Transsekte Nieschen im Gegensatz zu denen aus der Transsekte Bahnbrücke trotz eines fehlenden hydraulischen Kontakts zur Oder erhöht waren. Die starken Konzentrationsschwankungen der organischen Umweltchemikalien im Aquiferbereich der Transsekte Nieschen können zum einen auf einen Eintrag dieser Substanzen mit dem Niederschlag zurückgeführt werden. Der Aquifer im Oderbruch ist heterogen ausgebildet, was den Eintrag organischer Stoffe mit den Niederschlägen ins Grundwasser lokal fördert oder hemmt und es dadurch zu unterschiedlichen Konzentrationen kommt. Zum anderen kann angenommen werden, dass die Konzentrationsschwankungen in diesem Aquiferbereich Folge einer Aufkonzentrierung der gelösten organischen Stoffe durch Verdunstung des oberflächennahen Grundwassers waren. Diese Annahme bestätigen die erhöhten Konzentrationen der Stoffe im Grundwasser im November 2000 und im März 2001 im Vergleich zum März 2000. Zu beiden Zeitpunkten waren die Niederschläge gering, was sich im Niedrigwasserstand der Oder wiederspiegelte. Vor allem in niederschlagsarmen Gebieten wie das Oderbruch, kann dieser Prozess der Aufkonzentrierung organischer Stoffe im Grundwasser durch Evaporation von Bedeutung sein. Die Frage, ob letztendlich der Niederschlagseintrag oder der umgekehrte Prozess, die Evaporation des Grundwassers, zu den starken Konzentrationsschwankungen der organischen Umweltchemikalien im Aquiferbereich der Transsekte Nieschen geführt hat, kann an dieser Stelle nicht beantwortet werden. Sicher ist, dass bei fehlenden undurchlässigen Deckschichten ein atmosphärische Eintrag organischer Umweltchemikalien in den Aquifer stattfindet. Auch in den Messstellen, die außerhalb der beiden Transsekten Nieschen und Bahnbrücke ca. 3000 bzw. 5000 m entfernt von der Oder liegen, konnten die organischen Verbindungen zum Teil in erheblichen Konzentrationen nachgewiesen werden. Dies ist zum einen wiederum mit einem Eintrag durch Niederschlagswasser und dem Transport der organischen Umweltchemikalien in größere Tiefen des Aquifers mit dem Sickerwasser zu erklären. Die undurchlässige Auelehmschicht ist in diesem Bereich nicht mehr vorhanden, so dass das Niederschlagswasser ungehindert in den Aquifer infiltrieren kann. Ein Einfluss des Oderfiltrats in dieser Entfernung vom Fluss kann ausgeschlossen werden, da in den mittleren Bereichen des Oderbruchs 50-100 Jahre für einen vollständigen Grundwasseraustausch realistisch sind und die Produktion sämtlicher Industriechemikalien, die Gegenstand dieser Arbeit sind, zu diesen Zeiten ohne Bedeutung war. Eine Remobilisierung der organischen Umweltchemikalien aus Klärschlamm, der im Land Brandenburg noch häufig auf Agrarflächen aufgebracht wird, muss als Eintragsquelle hier ebenfalls in Betracht gezogen werden, da Stoffe mit einem hohen Octanol/ Wasserverteilungskoeffizienten häufig die Tendenz zeigen, an Klärschlamm zu akkumulieren. Der photochemische Abbau des Antioxidationsmittels BHT zu seinem Metabolit BHT-CHO in der Atmosphäre war im Sommer höher als im Herbst und im Frühjahr, wobei der Metabolit selbst ebenfalls Abbauprozessen unterlag. Im Gegensatz dazu spielte der photochemische Abbau von TBP, TCEP, TBEP und 4-NP zu keinen Zeitpunkt eine große Rolle. Solange keine nennenswerten Direkteinleitungen in die Oder zu verzeichnen waren, konnte flussabwärts eine Konzentrationsabnahme für alle organischen Verbindungen festgestellt werden, welche auf aeroben Abbau der Substanzen zurückgeführt werden kann. Im Frühjahr war der Sauerstoffgehalt im Fluss mit 12,05 mg/l aufgrund der geringen Wassertemperatur (6,9 °C) und des Hochwasserereignisses am höchsten. Dies hatte höhere aerobe Abbauraten von BHT zu BHT-CHO zu diesem Zeitpunkt zur Folge. Ob es sich tatsächlich um einen biologischen Abbau der organischen Substanzen handelt oder ob Adsorptionseffekte an Schwebstoffe und Sedimente bei der Eliminierung dieser Stoffe ebenfalls eine Rolle spielen, muss anhand zukünftiger Analysen von Odersedimenten- und Schwebstoffen auf solche Substanzen geklärt werden. Der Abbau unter anaeroben Bedingungen, wie sie im Grundwasserleiter des Oderbruchs durchweg herrschen, spielte dagegen im Bezug auf alle untersuchten Verbindungen keine große Rolle, da diese in allen Tiefen des Aquifers (bis 21 m) noch nachgewiesen werden konnten. Sind sie einmal in das Grundwasser gelangt, werden sie aufgrund ihrer relativ guten Wasserlöslichkeit also leicht mit diesem in tiefere Bereiche transportiert. Sie sind damit relativ mobil. Die organischen Umweltchemikalien werden auch nicht wesentlich durch Adsorption an Sediment und/oder organischer Substanz zurückgehalten und dadurch aus dem Grundwasser eliminiert. Solche Faktoren wie ein schlechter anaerober Abbau, eine gute Wasserlöslichkeit und eine geringe Adsorption an Boden und Sediment einiger Schadstoffe müssen bei der Trinkwasserförderung aus tieferen Aquiferbereichen berücksichtigt werden. Chemikalien mit guten Wasserlöslichkeiten, wie beispielsweise die beiden Phosphorsäureester TCEP und TBEP, zeigten sogar die Tendenz sich besonders in den tieferen Aquiferbereichen anzureichern. Die Ergebnisse dieser Arbeit zeigen auch, dass es selbst in Gebieten wie dem Oderbruch, in denen die Grundwasserneubildung durch Niederschlag eine eher geringe Rolle spielt, durchaus zu einen nicht zu vernachlässigenden Eintrag von Stoffen durch Niederschlagswasser kommt und eine hohe Verdunstungsrate zu einer Aufkonzentrierung führt. Dies bedeutet, dass bei einer Betrachtung von hydrochemischen Prozessen in einem Grundwasserleiter, der hauptsächlich durch Uferfiltrat gespeist wird, keine einfache räumliche Struktur zugrunde gelegt werden kann. Zum lateralem Zustrom des infiltrierenden Flusswassers kommt der vertikale Einfluss des Sickerwassers. Dies muss neben Faktoren wie anaerober Abbau, Adsorption und Verdünnungseffekte bei der Interpretation des Schadstoffeintrags- und Transports im Grundwasser berücksichtigt werden.
Der lentivirale Gentransfer in humane blutbildende Stammzellen ist in Hinblick auf eine kurative Gentherapie von angeborenen und erworbenen Erkrankungen des hämatopoetischen Systems und er Krebstherapie von Bedeutung. Die Fähigkeit, sowohl zu proliferieren als auch in alle hämatopoetische Linien zu differenzieren, macht die pluripotenten CD34 - Stammzellen zu einem idealen Ziel für die dauerhafte Präsenz von Transgenen. Der Erfolg einer Gentherapie ist nicht nur abhängig von der Effizienz des Transfers des therapeutischen Gens in hämatopoetischen Stammzellen, sondern auch von der dauerhafte Expression des Transgens. Ein Modell zur Entwicklung einer somatischen ex vivo Gentherapie in hämatopoetischen Stammzellen ist die chronische Granulomatose (CGD). Die Krankheit beruht auf der genetisch bedingten Fehlfunktion der NADPH-Oxidase und ist mit wiederkehrenden, schweren und lebenslang auftretenden Infektionen verbunden. Eindringende Mikroorganismen wie Pilze und Bakterien werden aufgenommen, können jedoch in den phagozytierenden Vakuolen nicht abgetötet werden, da keine Sauerstoffradikale, Wasserstoffperoxid oder Folgeprodukte gebildet werden. Eine somatische Gentherapie, die eine autologe Knochenmarktransplantation mit genetisch modifizierten Zellen vorsieht, könnte CGD-Patienten die Möglichkeit einer kurativen Therapie eröffnen. Als Grundlage für die Entwicklung einer lentiviralen Gentherapie wurden zunächst lentivirale Vektoren konstruiert und mit diesen die Bedingungen der transienten Transfektion im Hinblick auf einen hohen Virustiter optimiert. Diese Vektoren wurden auf Basis des humanen Immundefizienzvirus (HIV) konstruiert und waren alle aufgrund von Deletionen in 3´ LTR selbst-inaktivierend. Das bedeutet, daß nach der reversen Transkription kein viraler Promotor mehr enthalten war, und damit die Transgen-Expression über einen internen Promotor initiiert wurde. Der pSIN-GFP Vektor enthielt grünes Fluoreszenzprotein (GFP) als Markergen und einen internen Cytomegalievirus(CMV)-Promotor. Durch Austausch der Promotor- /"Enhancer"-Sequenzen in der 5´LTR entstand der pCGWS Vektor, der unabhängig vom Tat- Transaktivator war. Die Expressionsrate konnte durch Insertion des posttranskriptionell regulatorisch wirkende Element (WPRE), das hinter das Transgene kloniert wurde, erhöht werden. Der pCIGWS Vektor wurde durch Einfügen einer multiple Klonierungsstelle und eine interne ribosomale Eintrittsstelle (IRES) zwischen dem internen Promotor und dem Transgen generiert. Dieser Vektor erlaubte jedoch nicht, wie gewünscht, die gleichzeitige Detektion der Expression eines Transgens und des Markerproteins. Die im Rahmen der Optimierung der Transfektionsbedingungen wurden unterschiedliche Verhältnisse der zur Virusproduktion notwendigen drei Plasmide zueinander ausgetestet. Die beobachteten Schwankungen des Virustiters waren bei den gewählten Verhältnissen nicht signifikant. Mit der Erhöhung der DNA-Menge an Hüllprotein Plasmid konnte auch in diesem Versuch eine vermehrte Bildung von Synzytien beobachtet werden, die sich negativ auf den Titer auswirkte. Die Behandlung der Transfektionsansätze mit Natriumbutyrat (NaBut) ergab eine deutliche Steigerung des Virustiters, wobei die Steigerung nicht mit dem Titer, der ohne NaBut erreicht wurde, korrelierte. Im Experiment zur Untersuchung des Einflusses von verschiedenen Kulturmedien auf den Titer, wurden für die verwendeten Medien keine großen Unterschiede festgestellt. Bei den Experimenten zur Konzentrierung von infektiösen Viruspartikeln haben sich Ultrazentrifugation, "Low Speed"-Zentrifugation und Anionenaustauschchromatographie als Methoden bewährt. Mit diesen Verfahren konnten konzentrierte Viruslösungen generiert werden, die sehr hohe Transduktionseffizienzen auf Zellinien zeigten. Mit den angereicherten Viruspartikellösungen konnten auch CD34 -Stammzellen erfolgreich transduziert werden. Im Hinblick auf Angaben aus der Literatur konnten vergleichbare Transduktionseffizienzen erzielt werden, wobei hier fast ausschließlich ultrazentrifugierter Virusüberstand verwendet wurde. Mit der Etablierung des chromatographischen Verfahrens zur Anreicherung von Viren konnte ein alternatives System aufgezeigt werden. Am Modell der X-chromosomal gebundenen chronischen Granulomatose (X-CGD) konnte durch lentiviralen Transfer eines therapeutischen Gens (gp91phox) die funktionelle Rekonstitution der NADPH-Oxidase nachgewiesen werden. Dazu wurden lentivirale Vektoren konstruiert, die gp91phox als therapeutisches Gen enthielten. In molekularbiologischen Untersuchungen konnte zum einen die Integration des Transgens und zum anderen eine hohen Expression des gp91phox-Proteins gezeigt werden. In der durchflußzytometrische Untersuchung konnte für weniger als die Hälfte Zellen einer Modellzellinie (X-CGD PLB-985-Zellen) eine Transduktion nachgewiesen werden. In den funktionellen Untersuchungen wurde eine Rekonstitution der NADPH-Oxidase Aktivität von 80% und mehr im Vergleich zu PLB-985-Wildtypzellen detektiert. Die hohe funktionelle Rekonstitution bei geringer Transduktionseffizienz war auf eine hohe Expression aufgrund von Mehrfachintegration des Transgens zurückzuführen. Die Untersuchungen mit den lentiviralen gp91phox-Vektoren haben gezeigt, daß diese gute Voraussetzungen für die Entwicklung einer somatischen Gentherapie für CGD-Patienten mitbringen. Studien mit CD34 -Zellen und Stammzellen von X-CGD Patienten sind im weiteren notwendig, um die therapeutische Relevanz zu belegen. Neben der Fortentwicklung des Vektors muß auch die Methodik zur Generierung und Anreicherung der viralen Partikel, sowie das Transduktionsprotokoll der Stammzellen weiter optimiert werden.
Es konnte mit der vorliegenden Arbeit erstmals gezeigt werden, dass die 2- dimensionale Fusion von kompletten EBT- und PET- Bilddatensätzen möglich ist. Die Bildüberlagerung kann wichtige Hinweise zur Lage und zum Ausmaß des veränderten kardialen Glukosestoffwechsels liefern. Es konnten direkte Lage-beziehungen des Metabolismus zu morphologischen Strukturen wie den Papillar-muskeln, den Insertionen sowie zu den den Insertionen anliegenden Segmenten und dem annulären Myokard aufgezeigt werden, die in der Entstehung der postischämischen Mitralinsuffizienz von entscheidender Bedeutung sind. Die bisherig eingesetzten diagnostischen Methoden analysieren überwiegend einzelne Komponenten der ablaufenden pathogenetischen Mechanismen der postischämischen Mitralinsuffizienz, wobei die Komplexität pathologischer Veränderungen noch nicht komplett bildlich erfasst werden kann. Mit der Bildüberlagerung können entscheidende Zusatzinformationen im Vergleich zu den Aussagen der einzelnen Modalitäten gewonnen werden, wie dies in der vorliegenden Untersuchung bei 12 von 25 Patienten nachweisbar war. Dies gilt nicht nur für die Bildfusion, sondern auch für die Datenfusion mit Einbringen semiquantitativer und quantitativer Daten in ein einheitlich klassifiziertes System wie die Polar maps. Hier ist mittels Datenfusion die exakte segmentbezogene Zuordnung verschiedenster Parameter von Echokardiographie, EBT und PET möglich. Die Kombination morphologischer und funktioneller Daten erlaubt die kongruente Erfassung pathologischer Veränderungen der heute in der präoperativen Diagnostik überwiegend eingesetzten Echokardiographie und der Vitalitätsdiagnostik mittels FDG- PET, wodurch die Ausdehnung narbiger Veränderungen oder hibernierenden Myokards bei sonographischen Wandbewegungsstörungen bzw. Akinesien und der Nachweis revaskularisationswürdigen Myokards verbessert werden kann. Der endgültige Stellenwert der semiquantitativen EBT-Diagnostik bleibt anhand der erhobenen Daten noch offen. Abzuwarten ist, ob neue technologische Konzepte wie z.B. die Multidetektor- CT- Generation durch die Kombination von morphologischen und funktionellen Daten, möglich durch retrospektive EKG-Triggerung, weitere diagnostische Verbesserungen ermöglichen. Für den Routineeinsatz von Datenfusionsmodellen ist eine softwaregestützte automatische Kodierung semiquantitativer und quantitativer Daten erforderlich (z.B. als Farbkodierung in polar maps für die im Echo bzw. EBT erfassten Daten). Weitere Analysen zu uni- bzw. multifaktoriellen Zusammenhängen der Genese der postischämischen Mitralinsuffizienz sind erforderlich, um die auslösenden Determinanten in der Entstehung der Regurgitation exakt definieren zu können, was wiederum die Grundlage für neue Therapiekonzepte darstellt. Eine weitere interessante Anwendungsmöglichkeit ergibt sich, in dem aus Datensätzen in jeweils unterschiedlichen Ebenen eine 3D-Präsentation erzeugt wird, auf der es in Zukunft möglich sein wird, additive und komplementäre Informationen räumlich abzubilden. Bereits heute ist die 3-dimensionale Darstellung, sei es z.B. als Oberflächendarstellung (SSD- shaded surface display) oder Volumen- Rendering- Methode (VRT) bei tomographischen Modalitäten technisch realisierbar (siehe die folgende SSD-Rekonstruktion des kardialen Glukosemetabolismus anhand von FDG- PET- Daten). Diese 3D- Darstellungen sind derzeit noch Mittel zur Präsentation und dienen nur in wenigen Fällen der primären Befunderhebung und - erstellung. Mit zunehmender "Bildflut" in den Schnittbildverfahren wird eine Beurteilung der angefertigten Bilddatenvolumina in den kommenden Jahren nicht in der bisherigen Form effektiv durchführbar sein. 3-dimensionale Abbildungsverfahren einschliesslich der multimodalen Bildintegration werden mit hoher Wahrscheinlichkeit künftig ihren angemessenen Stellenwert finden.
In dieser Arbeit wurde versucht, das Phänomen des Metamagnetismus, wie es in den elektronisch hochkorrelierten Systemen auftritt und im Besonderen in CeRu2Si2, eingehender zu untersuchen. Hauptanliegen war die Rolle der Elektron-Gitter-Wechselwirkung zu analysieren. Hierzu wurde eine Messzelle konstruiert, die es ermöglichen sollte das Volumen während der Magnetfeldläufe durch das Ausüben von "passivem" uniaxialen Druck konstant zu halten. Die Experimente konnten an verschiedenen CeRu2Si2-Proben durchgeführt werden, mit stark unterschiedlichen Länge-zu-Breite-Verhältnissen. Die Messergebnisse an den zur Verfügung stehenden Chargen, den Lejay-Proben und der Onuki-Probe, sind in sich nicht schlüssig, führten doch die Magnetostriktions- und die Suszeptibilitätsmessungen unter Druck an den Lejay-Proben vermittels einer Beschreibung über die Skalierungsthese zu unterschiedlichen -Parametern. So ist über die Magnetostriktion ein Wert von =280Mbar-1 gewonnen worden und über die Suszeptibilität unter Druck resultierte letzten Endes unter Grundlage einer Kompressibilität von =0.64Mbar-1 ein Wert von =160Mbar-1. Die Onuki-Probe zeigte unterdessen eine stärkere Feldverschiebung unter Druck in den Suszeptibilitäts- sowie den realisierten Ultraschallmessungen einer longitudinalen Mode, die entlang der [110]-Richtung propagierte. Beide Messmethoden wiesen zwar ein eindeutiges Verhalten unter Druck auf, doch ist auch hier ebenfalls eine Abweichung des -Parameters gegenüber den aus der Literatur bekannten Werten von171-200Mbar-1, als auch gegenüber den ,,Lejay-Werten" festgestellt worden. So zeigte die Onuki-Probe im Rahmen einer Auswertung mit einer Kompressibilität von =0.64Mbar-1 kein schlüssiges Verhalten bei einer Zusammenschau der Suszeptibilitätsmessungen unter Druck sowie der Transformation der Magnetostriktions- auf die Magnetisierungsdaten, basierend auf Messungen der Lejay-Proben. Der erhaltene - Parameter von 250Mbar-1 steht hierbei dem Wert von 280Mbar-1 gegenüber. Diese Differenz entspricht einer Feldverschiebung von 0.7T. Kalkuliert man aus der Striktionsmessung entlang der [110]-Richtung die relative Volumenänderung, findet sich hingegen ein - Parameter von 170Mbar-1, der sich seinerseits wieder mit den Resultaten von Mignot deckt. Festzuhalten ist jedoch, dass für beide Proben ein erhöhter Grüneisenparameter aus den Experimenten mit ,,passivem Druck" gefunden wurde. Kann man das über die unterschiedlichen -Parameter deduzierte Verhalten beider Proben unter Druck noch auf eine eventuelle Probenqualität zurückführen, so bleibt immer noch die Tatsache kritisch, dass die experimentell bestimmten -Werte hier größer als die in der Literatur veröffentlichten und nicht alleine aus einem abweichenden Kompressibilitätswert zu erklären sind. Trotzdem ist ein wichtiges Ergebnis erzielt worden. An der Probe mit dem für uniaxialen Druck günstigen geometrischen Abmessungen wurde die Zwangsbedingung des konstanten Volumens verifiziert. Dies geschah durch ein von G.Bruls neu entwickeltes Dilatationsmessverfahren auf Ultraschallbasis. Es wurde durch eine Unterdrückung des Gitterfreiheitsgrades gezeigt, dass der Metamagnetismus intrinsischer Natur ist, wie es theoretische Überlegungen mit Hilfe des Skalierungsansatzes prognostizierten. Das kritische Feld ist jedoch im Gegensatz zum frei expandierenden System zu höheren Feldern verschoben und der Metamagnetismus wesentlich schwächer ausgebildet. Wodurch sich in der Diskussion um die Rolle des Gitters bei der Prägnanz des metamagnetischen Überganges deutlich dessen Relevanz abzeichnet. Ist aus der Skalierungsthese eine Beschreibung der physikalischen Vorgänge mit einem Parameter hinreichend, so bedingte, wie zuvor erwähnt, eine Adaption der Skalierungsthese auf die durchgeführten ,,passiven Druckexperimente" die Einführung eines gegenüber dem thermischen Grüneisenparameter erhöhten, renormalisierten Grüneisenparameters. Diese eventuelle druckbedingte Renormierung kann aber auch ursächlich als Erhöhung des magnetischen Grüneisenparameters gewertet werden, die als Indiz eines im Magnetfeld anwachsenden Sommerfeld-Wilson-Verhältnisses gedeuted wird. Abschließend wurde ein theoretisches Modell vorgestellt, das den metamagnetischen Übergang auf das Feldverhalten der hybridisierten Quasiteilchenbänder mit erhöhter Zustandsdichte zurückführt. Das Maximum in der Suszeptibilität ist dabei die Folge eines levelcrossings des spinup-Bandes mit der Fermikante, das von einem Abwandern der itineranten Elektronen in das obere spinup-Band begleitet wird. Als wichtig für die naturgemäße Beschreibung des Metamagnetismus in CeRu2Si2 hat sich hierbei die Berücksichtigung der Anisotropie der Hybridisierungswechselwirkung, sowie die durch das Kristallfeld bedingte korrekte Grundzustandswellenfunktion erwiesen. Mit diesem Modell gelingt auch eine Reproduktion des phänomenologisch gefundenen Skalierungsverhaltens mit dem die Magnetostriktionsdaten auf die Magnetisierungsdaten transformiert werden.
In der vorliegenden Arbeit wurden drei experimentelle Ansätze gewählt, um kardiale Ionenkanäle zu charakterisieren, die möglicherweise einen Einfluss auf das atriale Aktionspotential haben könnten und die somit potentielle neue Ziel-Gene für die Entwicklung neuer Antiarrhythmika darstellen könnten. Ein Schwerpunkt dieser Arbeit war die pharmakologische Untersuchung der Rolle des Schwellungsaktivierten Chloridkanals I Cl,swell für das atriale Aktionspotential. In einer weiteren Studie wurde eine neue regulatorische Untereinheit des hKv4.3-Kanals identifiziert sowie deren physiologische Bedeutung für die Aktivität des transienten Kalium-Auswärtsstroms I to1 charakterisiert. Schließlich wurde ein neuer Kaliumkanal, TASK-4, kloniert, der im humanen Herzen ausschließlich im Atrium vorkommt und deshalb einen Einfluss auf die Erregbarkeit des Herzvorhofs ausüben könnte. Unter mehreren Ethacrynsäure-Derivaten konnte mit DCPIB ein neuer potenter Blocker des I Cl,swell identifiziert werden. Nachfolgende Patch-Clamp und Zwei-Mikroelektroden Spannungsklemmen-Analysen verschiedener nativer und heterolog exprimierter Anionen und Kationenkanäle zeigten, dass DCPIB spezifisch den I Cl,swell Strom hemmt. Dies war eine Voraussetzung, um die Funktion des I Cl,swell beim atrialen Aktionspotential während osmotischer Zellschwellung zu untersuchen. Die Schwellung atrialer Kardiomyozyten führte zur Aktivierung des I Cl,swell und als Folge davon zu einer starken Verkürzung der Aktionspotentialdauer. Diese war durch DCPIB vollständig hemmbar. Unter basalen Bedingungen hatte DCPIB keinen Effekt auf das Aktionspotential. Diese Ergebnisse lassen den Schluss zu, dass die Aktivierung des I Cl,swell unter pathologischen Bedingungen, die mit einer kardialen Zellschwellung einhergehen, eine ursächliche Rolle beim Auftreten von Arrhythmien spielen kann. Viele frühere Untersuchungen über die Rolle des I Cl,swell bei Arrhythmien erfolgten am Rattenherzen. Unter Verwendung von DCPIB konnten wir aber zeigen, dass die in atrialen und ventrikulären Myozyten von normalen und von hypertrophierten Rattenherzen beschriebenen Chloridströme nicht durch den I Cl,swell hervorgerufen werden. Das Fehlen des I Cl,swell im Rattenherzen stellt damit diese früheren Ergebnisse in Frage. Eine weitere Leitfähigkeit, die im menschlichen Herzen zur Repolarisation der kardialen Membranen während dem Aktionspotential beiträgt, ist der 'Plateau-Strom" I Kp , der in seinen kinetischen Eigenschaften TWIK oder TASK-artigen Kaliumkanälen ähnelt. Als erster Schritt bei der Identifizierung der molekularen Identität dieses Kaliumkanals wurde in dieser Arbeit mit TASK-4 ein neues Mitglied der Säuresensitiven Tandem-von-zwei-Poren-Kaliumkanälen kloniert. Die heterologe Expression des TASK-4 in Xenopus-Oozyten erzeugte Kaliumströme, die eine starke Auswärts-Rektifizierung zeigten, die jedoch bei Erhöhung der extrazellulären Kaliumkonzentration verloren ging. Die TASK-4-Ströme waren abhängig vom extrazellulären pH-Wert, wobei die pH-Sensitivität im Vergleich zu den anderen TASK-Kanälen zu mehr alkalischen Werten verschoben war. Außerdem zeigten die TASK-4-Ströme die für TASK- Kanäle typischen pharmakologischen Eigenschaften. Aufgrund des Vorkommens von TASK-4 im Atrium und dem Atrioventrikular-Knoten des menschlichen Herzens stellt dieser Kaliumkanal einen neuen potentiellen Angriffspunkt für die Entwicklung eines Vorhof spezifischen Antiarrhythmikums dar. Im Gegensatz zu dem I Kp Strom ist der Ca 2 unabhängige transiente Kalium-Auswärtsstrom I to1 des Herzens für die initiale Phase der Repolarisation während des Aktionspotentials verantwortlich. In vielen Regionen des Herzens trägt die Untereinheit des hKv4.3 Kaliumkanals zum I to1 Strom bei. In dieser Arbeit wurde mit hKChIP2 erstmals eine regulatorische Untereinheit des I to1 identifiziert. Northern-Blot-Analysen haben gezeigt, dass das hKChIP2-Gen ausschließlich im humanen Herzen exprimiert ist, wobei es im Atrium und Ventrikel des adulten humanen Herzens, aber nicht im fötalen Herzen, vorkommt. Weiterhin konnten wir eine neue kurze Spleiß-Variante des hKChIP2-Gens (hKCNIP2) isolieren und durch PCR-Analyse nachweisen, dass diese im menschlichen Herzen die Hauptform des hKChIP2 darstellt. Die Koexpression des hKv4.3 mit beiden hKChIP2-Isoformen in Xenopus - Oozyten bewirkte eine Zunahme der Stromamplitude, eine Verschiebung der Spannung der halbmaximalen Inaktivierung und eine stark beschleunigte Erholung von der Inaktivierung der hKv4.3-Kanäle, die in Anwesenheit von hKChIP2 deutlich mehr dem nativen I to1 Kanal des humanen Epikards ähnelten. Unsere Ergebnisse sprechen sehr stark dafür, dass hKChIP2 eine physiologisch wichtige regulatorische Untereinheit des hKv4.3 ist, die auch zur Heterogenität der I to1 Ströme im humanen Herzen beiträgt. Da der I to1 Kanal an der Entstehung und dem Fortschreiten verschiedener Herzkrankheiten wie den Arrhythmien und der Herzinsuffizienz beteiligt ist, stellt hKChIP2 ein neues Ziel-Gen für die Entwicklung neuer zukünftiger Klasse III-Antiarrhythmika dar. Die in Kooperation mit der Universität Istanbul durchgeführte Aufklärung der Exon-Intron-Organisation des hKCNIP2-Gens liefert zudem die Grundlage für ein zukünftiges systematisches Screening nach Mutationen im hKChIP2-Gen in Familien mit vererbbaren Arrhythmien.
In dieser Arbeit erfolgt eine Untersuchung der intrazellulären Transporteigenschaften des Na /Glucose Cotransporters SGLT1 aus dem Kaninchen. Der Transporter wird dazu heterolog in Xenopus laevis Oozyten exprimiert. Die hohe Expressionsdichte erlaubt die Anwendung der "giant excised patch clamp"-Technik in der inside-out Konfiguration. Die Patches mit Durchmessern von 20-30 µm enthalten ca. 2,5 - 5·10 hoch 6 Transportern bei einem durchschnittlichen Strom von 20-40 pA. Der Transport des Substrats Glucose bzw. des hier verwendeten alpha MDG wird angetrieben durch den elektrochemischen Gradienten für das Cosubstrat Na . Bei 0 mV Haltepotential wird zuerst die reine Konzentrationsabhängigkeit des Auswärtstransports durch die Bestimmung der apparenten intrazellulären Affinität für alpha MDG bei verschiedenen festen Na -Konzentrationen untersucht. Es kann eine deutliche Abhängigkeit des KM alpha MDG von der Na -Konzentration festgestellt werden. Eine Erhöhung der intrazellulären Na -Konzentration von 10 mM auf 400 mM führt zu einer ca. 12fachen Abnahme des KM alpha MDG. Experimente mit symmetrischer Na -Verteilung zeigen, dass auch ohne Na -Konzentrations-Gradient Transport stattfinden kann, allerdings mit einer deutlich geringeren Affinität für alpha MDG. Verglichen mit Literaturwerten für die extrazelluläre alpha MDG-Affinität ist die intrazelluläre Affinität 10-15mal geringer ist als die extrazelluläre. Die Untersuchung der Abhängigkeit von der Na -Konzentration bei verschiedenen festen MDG-Konzentrationen zeigt, dass KM Na eine geringe Abhängigkeit von der alpha MDG- Konzentration besitzt. Die 10fache Erhöhung der alpha MDG-Konzentration von 25 mM auf 250 mM führt nur zu einer leichten Erniedrigung des KM Na. Die intrazelluläre Na - Affinität liegt in der gleichen Größenordnung wie die extrazelluläre. Zur Untersuchung der intrazellulären Bindungsreihenfolge werden die gemessenen Abhängigkeiten des KM alpha MDG und des I Max von der Na -Konzentration mit Simulationen für die 3 möglichen Bindungsreihenfolgen (2Na :G), (Na :G:Na ) und (G:2Na ) verglichen. Mit den hier gemachten Annahmen für die intrazellulären Bindungskonstanten für MDG und Na wird die beste Übereinstimmung für die intrazelluläre Bindungsreihenfolge (2Na :G) gefunden. Zur Untersuchung des spannungsabhängigen Verhaltens der Affintitäten für alpha MDG und Na werden Spannungssprünge unter denselben Konzentrationsbedingungen wie vorher durchgeführt. Die Strom-Spannungs-Kennlinien zeigen eine Zunahme der zuckerinduzierten Stromamplituden zu positiven Potentialen hin. Dabei wird weder bei hyperpolarisierenden noch bei depolarisierenden Potentialen eine Sättigung erreicht. Dies läßt den Rückschluss, dass im betrachteten Spannungsbereich ein spannungsabhängiger Schritt im Transportzyklus geschwindigkeitsbestimmend ist. Die apparenten Affinitäten für alpha MDG und Na besitzen eine geringe Spannungsabhängigkeit. Der KM alpha MDG bei annähernd sättigender Na -Konzentration fällt zwischen 40 mV und 40 mV um einen Faktor 4,4. Bei verringerter Na -Konzentration beeinflusst das Membranpotential die MDG-Affinität stärker. Der KM Na fällt unter sättigenden Zuckerbedingungen im gleichen Spannungsbereich auf die Hälfte ab, wobei der Hill-Koeffizient konstant bleibt. Die Erniedrigung der alpha MDG-Konzentration verursacht keine Veränderung des spannungsabhängigen Verlaufs. Die Ergebnisse zeigen, dass SGLT1 ein reversibler Transporter ist, der sowohl Einwärts-, aber auch Auswärtstransport von Glucose generieren kann. Er zeigt dabei eine starke Abhängigkeit von der Na -Konzentration und eine geringe Abhängigkeit vom Membranpotential. Die hier bestimmten Eigenschaften zeigen aber auch, dass unter physiologischen Bedingungen ein Auswärtstransport von Glucose sehr unwahrscheinlich ist. Das Zusammenwirken der Faktoren Richtung des Na -Gradient, geringe Zuckeraffinität, negatives Membranpotential und geringe intrazelluläre Na - Konzentration verhindern den Auswärtstransport. Der physiologische Na -Gradient ist dem Auswärtstransport entgegengerichtet. Die geringe intrazelluläre Na -Konzentration und das negative Membranpotential verursachen eine sehr geringe intrazelluläre Zuckeraffinität von ca. 75 mM alpha MDG, so dass ein merklicher Auswärtstransport nur bei einer hohen Zuckerkonzentration innerhalb der Epithelzellen stattfinden kann. Dies wird jedoch durch basolaterale Glucose-Transporter verhindert. Das negative Membran- potential führt zu einer geringen Aktivität des Auswärtstransports. Die geringe intrazelluläre Na -Konzentration liegt weit unterhalb es KM Na , so dass auch hier die Transporteraktivität gering ist. Die asymmetrische Funktionsweise des SGLT1 gewährleistet, dass der Glucose- Transport nur in eine physiologisch sinnvolle Richtung, nämlich der Aufnahme von Glucose in die Epitheltzellen, stattfindet.
Diese Arbeit beschreibt Entwürfe zur Anwendung einer nicht-interpolierenden Advektionsmethode in numerischen Wettervorhersagemodellen. Es wird an verschiedenen Beispielen dargestellt, in welcher Weise eine solche nicht-interpolierende Methode anstelle von herkömmlichen Differenzen- oder interpolierenden Lagrangeschen Verfahren einsetzbar ist. Die in der meteorologischen Modellierung neuartige nicht-interpolierende Advektionsmethode verwendet das Partikel-Lagrangesche Konzept von Steppeler (1990a), das die Verlagerung von atmosphärischen Größen mittels Partikeln berechnet, wobei die Partikeln als Luftpakete zu verstehen sind, die sich entlang der Trajektorien bewegen und dabei den Wert der prognostischen Größen erhalten. Diese Eigenschaft der Methode kommt vor allem dann zum Tragen, wenn die Verteilung der prognostischen Größen durch Sprungfunktionen beschrieben wird, da Näherungsfehler der bislang verwendeten Methoden, wie Oszillation und Glättung, an solchen Gradienten verstärkt auftreten. Die Untersuchung der Genauigkeit und Anwendbarkeit der nicht-interpolierenden Partikel-Lagrangeschen Methode findet durch Modellstudien statt. Die Methode selbst wird am Beispiel verschiedener Anfangswert-Aufgaben für ein dichtekonstantes barotropes Flachwasser-System beschrieben, gefolgt von der Nachbildung von zwei Ausbreitungsszenarien für chemisch träge Stoffe in einer hydrostatischen Modellatmosphäre, sowie des trocken- und feuchtadiabatischen Aufstiegs einer warmen Luftblase unter nicht- hydrostatischen Bedingungen. Im Hinblick auf numerische Fehler wird gefordert, daß die numerische Lösung monoton bleibt, wobei unter Monotonität ein oszillationsfreier Verlauf der Lösung verstanden wird. Mittels Vergleich zwischen den numerischen Lösungen wird festgestellt, daß die Genauigkeit der nicht-interpolierenden numerischen Lösung mit Ausnahme einer Anfangswert-Aufgabe gleich oder höher ist als bei den mit herkömmlichen Methoden erzielten Resultaten. Eine herausragende Steigerung der Genauigkeit ist dann zu beobachten, wenn die Advektion im Vergleich zu anderen Prozessen eine viel stärkere Rolle spielt, wie z.B. im Falle der Konvektion in trockener Atmosphäre.
Bei einer HIV-1-Infektion ist die Krankheitsprogression zum Vollbild AIDS mit dem Auftreten von Virusvarianten assoziiert, die den Chemokinrezeptor CXCR4 zum Zelleintritt verwenden. Dagegen nutzen SIV ein breites Korezeptorspektrum, vor allem CCR5. Im Verlauf einer SIV-Infektion findet kein Korezeptorwechsel von CCR5 zu CXCR4 statt. In dieser Arbeit wurde der Einfluß einer solchen Änderung der Korezeptornutzung auf die SIVagm-Infektion in-vitro und auf den Verlauf der apathogenen SIV-Infektion in-vivo nach Infektion von Schweinsaffen untersucht. Um die Korezeptorspezifität eines SIV zu CXCR4 zu verändern, wurde das in AGM und Schweinsaffen apathogene SIVagm3mc verwendet, das als Korezeptoren zum Zelleintritt CCR5, BOB und BONZO nutzt. Die potentielle Korezeptorbindungsstelle, der zu HIV-1 homologe V3-Loop des Oberflächen-Hüllproteins gp130-SU des SIVagm3mc wurde durch den V3-Loop des CD4 / CXCR4-tropen HIV-1-Klons BH10 ersetzt. Das resultierende SIVagm3-X4mc erwies sich als replikationskompetent und verwendete zum Zelleintritt ausschließlich CD4 / CXCR4. Die Replikation wurde durch den natürlichen Liganden des CXCR4, SDF-1a, dosisabhängig gehemmt. Überraschenderweise besaß SIVagm3-X4mc die Eigenschaft, in-vitro nicht nur in IL2 / PHA-stimulierten sondern auch in unstimulierten PBMC von Schweinsaffen und AGM replizieren. Nach Infektion von je zwei Schweinsaffen (Macaca nemestrina) mit SIVagm3mc bzw. SIVagm3-X4mc konnte bis zu 14 Monate nach Inokulation keine Krankheitsentwicklung und kein Abfall der absoluten Anzahl der CD4 -T-Lymphozyten beobachtet werden. Die Virusbelastung der Tiere war vergleichbar und die Korezeptornutzung blieb auch nach in-vivo Replikation erhalten. Interessanterweise konnte SIVagm3-X4mc, nicht aber das Wildtypvirus SIVagm3mc, durch Sera von SIVagm3mc und SIVagm3-X4mc infizierten Schweinsaffen neutralisiert werden. HIV-1-spezifische Antikörper konnten in Sera eines mit SIVagm3-X4mc infizierten Tieren nachgewiesen werden. Diese Studie beschreibt zum ersten Mal den erfolgreichen Austausch eines V3-Loops bei SIV. Das resultierende SIVagm3-X4mc, das wie beabsichtigt CD4 / CXCR4-positive Zellen infizierte, war im Gegensatz zum Ausgangsvirus in der Lage, in nicht-stimulierten PBMC zu replizieren und zeigte Sensitivität gegenüber neutralisierenden Antikörpern, die in SIVagm3mc- und SIVagm3-X4mc-infizierten Schweinsaffen induziert wurden.
More than 70 years ago, the effects of extracellular adenosine 5'-triphosphate (ATP), a newly identified and purified biomolecule at that time (Fiske and Subbarow, 1925; Lohmann, 1929) were observed by Drury and Szent-Györgyi (1929). Since then, many pharmacological studies were carried out with extracellular adenine nucleotides in various intact organ systems, isolated tissues, and purified cell preparations. Yet it was not until 1972 that Burnstock introduced the concept of "purinergic nerves" and suggested that ATP might fulfil the criteria generally regarded as necessary for establishing a substance as a neurotransmitter, summarised by Eccles (1964):
• synthesis and storage of transmitter in nerve terminals
Strips of guinea-pig taenia coli (GPTC) were shown to take up large amounts of tritium-labelled adenosine when incubated with tritium-labelled adenosine, adenosine 5'-monophosphate (AMP), adenosine 5'-diphosphate (ADP) and ATP. The nucleoside was rapidly converted into and retained largely as [ 3 H]-ATP (Su et al., 1971).
• release of transmitter during nerve stimulation
Spontaneous relaxation of GPTC as well as relaxations induced by nerve stimulation or nicotine, respectively, in the presence of compounds which block adrenergic and cholinergic responses were accompanied by a remarkable increase in release of tritium-labelled material from taenia coli incubated in [ 3 H]-adenosine (Su et al., 1971).
• postjunctional responses to exogenous transmitters that mimic responses to nerve stimulation
Burnstock et al. (1966) characterised ATP and ADP as the most potent inhibitory purine compounds in the gut and observed that the effects of ATP mimic more closely the inhibitory response of the taenia to non-adrenergic nerve-stimulation than to adrenergic nerve stimulation (Burnstock et al., 1970).
enzymes that inactivate the transmitter and/or uptake systems for the transmitter or its breakdown products
When ATP was added to a perfusion fluid recycled through the vasculature of the stomach, very little ATP remained, but the perfusate contained substantially increased amounts of adenosine and inosine, as well as some ADP and AMP (Burnstock et al., 1970).
• drugs that can produce parallel blocking of potentiating effects on the responses of both exogenous transmitter and nerve stimulation
Tachyphylaxis to ATP produced in the rabbit ileum resulted in a consistent depression of responses to non-adrenergic inhibitory nerve stimulation, whereas responses to adrenergic nerve stimulation remained unaffected (Burnstock et al., 1970). Lower concentrations of quinidine reduced and finally abolished relaxation of GPTC induced by noradrenaline (NA) and by adrenergic nerve stimulation. Using higher concentrations of the compound, relaxant responses of GPTC to ATP as well as to non-adrenergic inhibitory nerve stimulation were abolished (Burnstock et al., 1970). ...
Ziel dieser Arbeit ist die Herstellung und Charakterisierung von Zn-Mg-SE-Legierungen (SE = Y, Ho, Er, Dy, Tb, Gd), um Informationen über Struktur, Stabilisierung und physikalische Eigenschaften der quasikristallinen Phasen dieses Systems zu erhalten. Die Quasikristalle dieses Systems unterscheiden sich von Quasikristallen anderer Legierungen, die meist Al als Hauptkomponente enthalten. Es konnten bis zu 275 mm3 große Einkristalle der flächenzentriert ikosaedrischen Phase in den Systemen Zn-Mg-Y und Zn-Mg-Ho gezüchtet werden. Außerdem wurden MgZn2- und hexagonale A-Zn70Mg14Y16-Einkristalle hergestellt, deren Existenzbereiche im Phasendiagramm benachbart zu dem der ikosaedrischen Phase liegen. Um polykristalline Proben herzustellen, die unterschiedliche quasikristalline oder verwandte Strukturen als Hauptphase enthalten, wurden verschiedene Herstellungsverfahren getestet und verwendet. So konnte zum Beispiel erstmalig eine Probe hergestellt werden, die dekagonales ZnMgY als Hauptphase enthält. Zudem wurde eine neue kubische (R-Phase) bzw. hexagonale (M-Phase) und eine neue hochgeordnete primitiv ikosaedrische Phase im System Zn-Mg-Er entdeckt, synthetisiert und charakterisiert. Bei Untersuchungen dieser selbst gefertigten Proben konnten Erkenntnisse über magnetische Eigenschaften, elastische Konstanten, optische Leitfähigkeit, Leerstellenverteilung, Oberflächenbeschaffenheit, Diffusionsmechanismen und die Erstarrungsgeschichte der flächenzentriert ikosaedrischen Zn-Mg-SE-Quasikristalle gewonnen werden. Durch vergleichende Messungen an kristallinen Zn-Mg-SE-Legierungen lassen sich die für Quasikristalle spezifischen Effekte identifizieren. Die im Rahmen dieser Arbeit hergestellten und charakterisierten Proben sind aktuell Gegenstand weiterer Untersuchungen. Mit Hilfe von Beugungsexperimenten konnte gezeigt werden, dass die kubische R-Phase strukturell nahe mit der ikosaedrischen Phase im System Zn-Mg-SE verwandt ist. Die R- Phase ist bei Raumtemperatur nicht stabil und bildet die rhomboedrische M-Phase. Es konnte ein Strukturmodell für die R-Phase entwickelt werden, in dem keine ikosaedrischen Cluster als Strukturelement verwirklicht sind. Auch in der hexagonalen A-Phase konnten solche Strukturelemente nicht gefunden werden. Die Resultate dieser Arbeit legen nahe, dass die Struktur der Zn-Mg-SE-Quasikristalle, im Gegensatz zu Quasikristallen anderer Systeme, nicht auf großen ikosaedrischen Clustern basiert. Damit ist gezeigt, dass große ikosaedrische Cluster zur Bildung von Quasikristallen nicht notwendig sind. Messungen an den Proben zeigen, dass sich dadurch auch einige der physikalischen Eigenschaften, zum Beispiel die optische Leitfähigkeit, von Quasikristallen mit Clustern unterscheiden. Keine Unterschiede konnten beim Diffusionsverhalten und bei mechanischen Eigenschaften festgestellt werden. Hier gleichen die Zn-Mg-SE-Quasikristalle anderen strukturell komplexen Legierungen oder Quasikristallen anderer Legierungssysteme.
In der vorliegenden Arbeit wurde die mögliche Regulation verschiedener Ionenkanalgene bei Herz-Kreislauf-Erkrankungen mit Hilfe von Northern Blots, der semiquantitativen RT-PCR- Technik und zum Teil durch elektrophysiologische Untersuchungen analysiert. Ziel war es, solche Gene zu identifizieren, deren mRNA-Spiegel hochreguliert oder herunterreguliert waren, da diese möglicherweise eine wichtige Rolle bei den kardiovaskulären Erkrankungen spielen könnten. Diese Untersuchungen sollten zu einem besseren Verständnis der renalen und kardialen Funktion dieser Ionenkanäle und der Pathogenese der untersuchten Krankheiten beitragen, aber auch helfen, neue Kandidatengene für diese Krankheiten zu identifizieren. Es wurden insgesamt fünf Tiermodelle mit Hypertonie, kardialer Hypertrophie, Herzinsuffizienz, Niereninsuffizienz und Vorhofflimmern untersucht. Ein Schwerpunkt dieser Untersuchungen waren die CLC-Chloridkanäle, deren kardiovaskuläre Funktionen noch wenig untersucht sind. Die Genprofile der Chloridkanäle CLC-2, CLC-3, CLC-4, CLC-5, CLC-6 und CLC-7 sowie CLC-K1 und CLC-K2 wurden in den Herzen und Nieren der folgenden Tiermodelle analysiert: (1) In spontan hypertensiven Ratten (SHR) und (2) in SH-stroke-prone-Ratten, die eine genetisch bedingte Hypertonie und Herzhypertrophie entwickeln. (3) In salz-sensitiven Dahl-Ratten, die Hypertonie und Herzhypertrophie erst nach einer salzhaltigen Diät, und (4) in Aortic-Banding-Ratten, die nach einem operativen Eingriff Bluthochdruck und kardiale Hypertrophie entwickeln. (5) Schließlich wurde noch ein Rattenmodell untersucht, in dem durch die Ligatur der Koronararterie ein Herzinfarkt induziert wurde, der letztlich zur Herzinsuffizienz führte. In keinem dieser Tiermodelle wurde jedoch eine auffällige Veränderung in der mRNA-Expression der acht untersuchten CLC-Chloridkanäle in den erkrankten Tieren im Vergleich zu den Kontrolltieren beobachtet. Die CLC-Chloridkanäle wurden ferner in einem Niereninsuffizienz-Modell untersucht, bei dem in Ratten durch Abklemmen der renalen Arterien und Venen ein akutes Nierenversagen und letztlich eine Niereninsuffizienz hervorgerufen wurde. In diesem Tiermodell war bereits eine Herunterregulation vieler anderer Ionenkanäle und Transporter beschrieben worden. In zwei unabhängigen Tierstudien wurde eine unterschiedlich starke Abnahme der mRNA-Expression für die einzelnen CLC-Chloridkanäle beobachtet. In einer weiteren Studie konnte die Behandlung von niereninsuffizienten Ratten mit einem bei Niereninsuffizienz wirksamen Inhibitor des NHE-3-Transports das Ausmaß der Reduktion einzelner CLC-Gene abschwächen. Weitere Studien mit höheren Dosen oder potenteren Substanzen sind notwendig, um diese vorläufigen Befunde zu bestätigen. Ein weiterer Schwerpunkt der vorliegenden Arbeit war die Charakterisierung der kardialen Ionenkanaldichten bei einem neuen Kaninchenmodell für Vorhofflimmern, die in Zusammenarbeit mit der Universitätsklinik Tübingen durchgeführt wurde. Das Vorhofflimmern ist eine sehr häufige Herzerkrankung bei älteren Menschen, und anhand dieses Tiermodells sollten vor allem frühe Prozesse des elektrischen Remodelings, das für das Auftreten und die Aufrechterhaltung des Vorhofflimmerns von Bedeutung ist, untersucht werden. Mit Hilfe der semiquantitativen RT-PCR-Analyse konnte in diesem Tiermodell erstmals eine Reduktion der mRNA für die Kaliumkanalgene Kv1.4, Kv4.3 und Kv1.5 sowie für die Kalziumkanalgene alpha1, CaB2a, CaB2b und CaB3 im frühem Stadium des Vorhofflimmerns nachgewiesen werden. Diese Befunde konnten die Resultate von Patch-Clamp-Messungen erklären, die gleichzeitig an der Universität Tübingen an isolierten Vorhofzellen durchgeführt wurden. In diesen Studien wurde in Übereinstimmung mit den erzielten mRNA-Daten eine Abnahme des Ito-Kaliumstromes und des ICa,L-Kalziumstromes nachgewiesen. Mit diesen Untersuchungen konnten frühere Resultate, die auch an Patienten mit chronischem Vorhofflimmern erhoben wurden, bestätigt werden. Die gefundene Regulation zeigt, dass diese Ionenkanalgene eine wichtige Rolle bei dem frühen elektrischen Remodeling spielen und dass das Rapid-Pacing- Kaninchenmodell ein geeignetes Tiermodell für das Vorhofflimmern beim Menschen ist.
Ziel der Arbeit war es, neue Techniken zur Erschließung und Selektion von Web- basierten Suchservern zu entwickeln und zu evaluieren, um hieraus eine integrierte Architektur für nicht-kooperative Suchserver im WWW abzuleiten. Dabei konnte gezeigt werden, daß die im Sichtbaren Web vorhandene Informationsmenge dazu geeignet ist, um eine effektive Erschließung des Unsichtbaren Webs zu unterstützen. Existierende Strategien für verteiltes Information Retrieval setzen eine explizite Kooperation von Seiten der Suchserver voraus. Insbesondere Verfahren zur Selektion von Suchservern basieren auf der Auswertung von umfangreichen Termlisten bzw. Termhäufigkeiten, um eine Auswahl der potentiell relevantesten Suchserver zu einer gegebenen Suchanfrage vornehmen zu können (z. B. CORI [26] und GlOSS [54]). Allerdings werden derartige Informationen von realen Suchservern des WWW in der Regel nicht zu Verfügung gestellt. Die meisten Web-basierten Suchserver verhalten sich nicht kooperativ gegenüber hierauf aufsetzenden Metasuchsystemen, was die Übertragbarkeit der Selektionsverfahren auf das WWW erheblich erschwert. Außerdem erfolgt die Evaluierung der Selektionsstrategien in der Regel in Experimentumgebungen, die sich aus mehr oder weniger homogenen, künstlich partitionierten Dokumentkollektionen zusammensetzen und somit das Unsichtbare Web und dessen inhärente Heterogenität nur unzureichend simulieren. Dabei bleiben Daten unberücksichtigt, die sich aus der Einbettung von Suchservern in die Hyperlinkstruktur des WWW ergeben. So bietet z. B. die systematische Auswertung von Backlink-Seiten also jener Seiten die einen Hyperlink auf die Start- oder Suchseite eines Suchservers enthalten die Möglichkeit, die im WWW kollektiv geleistete Indexierungsarbeit zu nutzen, um die Erschließung von Suchservern effektiv zu unterstützen. Eine einheitliche Systematik zur Beschreibung von Suchservern Zunächst ist es notwendig alle Informationen, die über einen Suchserver erreichbar sind, in ein allgemeingültiges Beschreibungsmodell zu integrieren. Dies stellt eine Grundvorraussetzung dar, um die einheitliche Intepretierbarkeit der Daten zu gewährleisten, und somit die Vergleichbarkeit von heterogenen Suchservern und den Aufbau komplexer Metasuchsysteme zu erlauben. Ein solche Beschreibung soll auch qualitative Merkmale enthalten, aus denen sich Aussagen über die Reputation einer Ressource ableiten lassen. Existierende Beschreibungen von Suchservern bzw. Dokumentkollektionen wie STARTS-CS [53] oder RSLP-CD [93] realisieren wenn überhaupt nur Teilaspekte hiervon. Ein wichtiger Beitrag dieser Arbeit besteht somit in der Identifizierung und Klassifizierung von suchserverbeschreibenden Metadaten und hierauf aufbauend der Spezifikation eines als Frankfurt Core bezeichneten Metadatensatzes für web-basierte Suchserver, der die genannten Forderungen erfüllt. Der Frankfurt Core berücksichtigt Metadaten, deren Erzeugung eine explizite Kooperation von Seiten der Suchserver voraussetzt, als auch Metadaten, die sich automatisiert z. B. durch linkbasierte Analyseverfahren aus dem sichtbaren Teil des WWW generieren lassen. Integration von Wissensdarstellungen in Suchserver-Beschreibungen Ein wichtige Forderung an Suchserver-Beschreibungen besteht in der zusätzlichen Integration von wissens- bzw. ontologiebasierten Darstellungen. Anhand einer in Description Logic spezifizierten Taxonomie von Suchkonzepten wurde in der Arbeit exemplarisch eine Vorgehensweise aufgezeigt, wie die Integration von Wissensdarstellungen in eine Frankfurt Core Beschreibung praktisch umgesetzt werden kann. Dabei wurde eine Methode entwickelt, um unter Auswertung einer Suchkonzept-Taxonomie Anfragen an heterogene Suchschnittstellen verschiedener Suchserver zu generieren, ohne die Aussagekraft von kollektionsspezifischen Suchfeldern einzuschränken. Durch die Taxonomie wird die einheitliche Verwendung von syntaktisch und semantisch divergierenden Suchfeldern verschiedener Suchserver sowie deren einheitliche Verwendung auf der integrierten Suchschnittstelle eines Metasuchsystems sichergestellt. Damit kann diese Arbeit auch in Zusammenhang mit den Aktivitäten des Semantischen Webs betrachtet werden. Die Abstützung auf Description Logic zur Wissensrepräsentation sowie die Verwendung von RDF zur Spezifikation des Frankfurt Core verhält sich konform zu aktuellen Aktivitäten im Bereich Semantisches Web, wie beispielsweise der Ontology Inference Layer (OIL) [24]. Darüber hinaus konnte durch die Integration der Suchkonzept-Taxonomie in den Arbeitsablauf einer Metasuchmaschine, bereits eine konkrete Anwendung demonstriert werden. Entwicklung neuartiger Verfahren zur Erschließung von Suchservern Für einzelne Felder des Frankfurt Core wurden im Rahmen dieser Arbeit Strategien entwickelt, die aufzeigen, wie sich durch die systematische Auswertung von Backlink- Seiten Suchserver-beschreibende Metadaten automatisiert generieren lassen. Dabei konnte gezeigt werden, daß der Prozeß der automatisierten Erschließung von Suchservern durch die strukturelle und inhaltliche Analyse von Hyperlinks sinnvoll unterstützt werden kann. Zwar hat sich ein HITS-basiertes Clustering-Verfahren als wenig praktikabel erwiesen, um eine effiziente Erschließung von Suchservern zu unterstützen, dafür aber ein hyperlinkbasiertes Kategorisierungsverfahren. Das Verfahren erlaubt eine Zuordnung von Kategorien zu Suchservern und kommt ohne zusätzliche Volltextinformationen aus. Dabei wird das WWW als globale Wissenbasis verwendet: die Zuordnung von Kategorienbezeichnern zu Web-Ressourcen basiert ausschließlich auf der Auswertung von globalen Term- und Linkhäufigkeiten wie sie unter Verwendung einer generellen Suchmaschine ermittelt werden können. Der Grad der Ähnlichkeit zwischen einer Kategorie und einer Ressource wird durch die Häufigkeit bestimmt, mit der ein Kategoriebezeichner und ein Backlink auf die Ressource im WWW kozitiert werden. Durch eine Reihe von Experimenten konnte gezeigt werden, daß der Anteil korrekt kategorisierter Dokumente an Verfahren heranreicht, die auf Lerntechniken basieren. Das dargestellte Verfahren läßt sich leicht implementieren und ist nicht auf eine aufwendige Lernphase angewiesen, da die zu kategorisierenden Ressourcen nur durch ihren URL repräsentiert werden. Somit erscheint das Verfahren geeignet, um existierende Kategorisierungsverfahren für Web-Ressourcen zu ergänzen. Ein Verfahren zur Selektion von Suchservern Ein gewichtiges Problem, durch welches sich die Selektion von Suchservern im WWW erheblich erschwert, besteht in der Diskrepanz zwischen der freien Anfrageformulierung auf Benutzerseite und nur spärlich ausgezeichneten Suchserver-Beschreibungen auf Seiten des Metasuchsystems. Da auf der Basis der geringen Datenmenge eine Zuordnung der potentiell relevantesten Suchserver zu einer Suchanfrage kaum vorgenommen werden kann, wird oft auf zusätzliches Kontextwissen zurückgegriffen, um z. B. ein Anfragerweiterung durch verwandte Begriffe vornehmen zu können (siehe z. B. QPilot [110]). Eine solche Vorgehensweise erhöht allerdings nur die Wahrscheinlichkeit für Treffer von Anfragetermen in den Suchserver-Beschreibungen und liefert noch keine ausreichende Sicherheit. Deshalb wurde in der Arbeit ein Selektionsverfahren entwickelt, das sich auf die Auswertung von Ko-Zitierungs- und Dokumenthäufigkeiten von Termen in großen Dokumentsammlungen abstützt. Das Verfahren berechnet ein Gewicht zwischen einem Anfrageterm und einem Suchserver auf der Basis von einigen wenigen Deskriptortermen, wie sie z. B. aus der FC-Beschreibung eines Suchservers extrahiert werden können. Dies hat den Vorteil, daß die Suchbegriffe nicht explizit in den einzelnen Suchserver-Beschreibungen vorkommen müssen, um eine geeignete Selektion vornehmen zu können. Um die Anwendbarkeit des Verfahrens in einer realistischen Web-Umgebung zu demonstrieren, wurde eine geeignete Experimentumgebung von spezialisierten Suchservern aus dem WWW zusammengestellt. Durch anschließende Experimente konnte die Tauglichkeit des entwickelten Verfahrens aufgezeigt werden, indem es mit einem Verfahren verglichen wurde, das auf Probe-Anfragen basiert. Das heißt, daß eine erfolgreiche Selektion durchgeführt werden kann, ohne daß man explizit auf das Vorhandensein von lokalen Informationen angewiesen ist, die erst aufwendig durch das Versenden von Probe-Anfragen ¨uber die Web-Schnittstelle des Suchservers extrahiert werden müssten. Herleitung einer integrierten Architektur Um das Zusammenspiel der erarbeiteten Strategien und Techniken zur Erschließung, Beschreibung und Selektion in einer integrierten Architektur umzusetzen, wurde die Metasuchmaschine QUEST entwickelt und prototypisch implementiert. QUEST erweitert die Architektur einer traditionellen Metasuchmaschinenarchitektur, um Komponenten, die eine praktische Umsetzung der Konzepte und Techniken darstellen, die im Rahmen dieser Arbeit entwickelt wurden. QUEST bildet einen tragfähigen Ansatz zur Kombination von wissensbasierten Darstellungen auf der einen und eher heuristisch orientierten Methoden zur automatischen Metadatengenerierung auf der anderen Seite. Dabei stellt der Frankfurt Core das zentrale Bindeglied dar, um die einheitliche Behandlung der verfügbaren Daten zu gewährleisten.
In einer Verlaufsbeobachtung wurden fünfundzwanzig Patienten der hämatologischen Ambulanz der J. W. v. Goethe-Universität, welche an Hämophilie oder an einer anderen hämatologischen Erkrankung leiden, über einen Zeitraum von November 1992 bis Februar 1995 untersucht. Diese Patienten erhielten nach Aufklärung eine Hirn-SPECT- Untersuchung mit HMPAO oder EDT. Jeweils 3/25 Patienten wurden wegen eines pathologischen Hirn-SPECT Ergebnisses nach 3 Monaten bzw. bei einem auffälligem Befund nach einem halben Jahr nachuntersucht. Bei unauffälligem Ergebnis erhielten die Patienten (13/25) nach einem Jahr eine Kontrolluntersuchung. Insgesamt bekamen achtzehn Patienten eine technisch einwandfreie Zweituntersuchung; eine Patientin erhielt wegen initial deutlicher Befundverbesserung zur Beobachtung fünf Hirn-SPECT Untersuchungen. Vor jeder nuklearmedizinischen Untersuchung wurde ein psychometrischer Test zur Erfassung der Aufmerksamkeit und Vigilanz, der feinmotorischen Fähigkeiten, depressiver Verstimmung und leichter cerebraler Insuffizienzen durchgeführt. Wichtige klinische Daten und immunologische Parameter zur Einteilung in ein CDC-Stadium lagen ebenfalls vor. Die Perfusionsergebnisse wurden visuell nach Filterung und Reorientierung der Daten anhand der orbito-meatalen Linie und der stereotaktischen Transformation und semiquantitativ nach der Methode nach Podreka ausgewertet. In die visuellen Beurteilung flossen die Perfusion des Gehirnes als gesamtes, die Thalamusperfusion und die Defekte in Größe und Lokalisation ein. Die semiquantitative Auswertung bestand aus einer manuellen Einteilung des Gehirns in 18 Regions of Intrest mit anschließender Quantifizierung der Aktivitätsverteilung. Betrachtet wurden hier zum einen ein Abweichen der mean-cts (%) im rechts/links Vergleich >15%, da dies einen cerebralen Defekt anzeigt, zum anderen Gebiete <90% bzw. >110% der mittleren Gesamt-Counts, welche hypo- bzw. hyperperfundierte Regionen darstellten. * Die Daten zeigten im Langzeitverlauf eine Verschlechterung der cerebralen kortikalen Perfusion mit Progredienz der Defekte. Tendenziell bestanden zu Beginn der HIVE vorwiegend fokale cerebrale Minderperfusion mit Betonung der frontalen, im Thalamus gelegenen und der occipitalen Regionen und erst mit Progredienz der Erkrankung diffuse Veränderungen. Bei dem vorliegenden Patientengut lag die stärkste Perfusion occipital gefolgt von temporal und parietal, mit jeweiliger Betonung des Uptake der dominanten Hemisphäre vor. Im Auswertungsverfahren sollten sich Semiquantitative und visuelle Beurteilungen der Ergebnisse ergänzen, um die jeweilige Fehlermöglichkeiten zu minimieren. Die Methode der stereotaktischen Transformation erwies sich hierbei als die zeitaufwendigere aber genauere Methode. Die verwandten Methoden sind jedoch noch nicht robust genug, um sie für Routineuntersuchungen zu benutzen. * Im Vergleich der neuropsychometrischen Test fand sich eine gute Korrelation der kognitiven Leistungstests (ZVT) mit den SPECT-Daten der Thalamusperfusion. Diese Ergebnisse sollten jedoch nur im Zusammenhang mit anderen Studien betrachtet werden, da die Patientenzahl gering war. * Klinische und immunologische Parameter spiegelten eine cerebrale Infektion mit HIV nicht wider. Zusammenfassend ist die Untersuchung der Perfusion des Hirnkortex mit SPECT eine sensitive Methode cerebrale Veränderungen einer HIVE zu diagnostizieren und den Erfolg einer medikamentösen Therapie zu dokumentieren. Gerade aber in der Frühphase der HIVE ist ein solches diagnostisches Verfahren wichtig, da die meisten Patienten asymptomatisch sind und klinische und immunologische Parameter die cerebrale Infektion nicht widerspiegeln. Zudem handelt es sich um ein nicht invasives Verfahren, welches im Bedarfsfall mehrfach angewendet werden kann. Zur Routineanwendung müssten jedoch robustere semiquantitative Auswertverfahren entwickelt werden.
Die Tatsache der Entwicklung des Staates in der Frühen Neuzeit in einem langsamen Übergang vom mittelalterlichen Personenverbandsstaat zum institutionellen Flächenstaat, ist von mehreren Wissenschaftlern zum Gegenstand ihrer Forschungen gewählt und es sind von ihnen allgemeine Essentials herausgearbeitet worden. ...
Kathetertherapie interatrialer Defekte unter besonderer Berücksichtigung der Septum-Morphologie
(2002)
Zwischen 1/98 und 9/99 wurde bei 50 Patienten mit einem Vorhofseptumdefekt vom Sekundum-Typ (ASD II) und bei 75 Patienten mit persistierendem Foramen ovale und gekreuzten Embolien ein transfemoraler Verschluss durchgeführt. Zum Einsatz kamen der Cardio-Seal-Okkluder, der Cardio-Seal-Starflex-Okkluder, der Amplatzer-ASD-Okkluder, der Amplatzer-PFO-Okkluder und der PFO-Star- Okkluder. Ziel der vorliegenden Arbeit war es, zu überprüfen, ob bestimmte morphologisch- anatomische Besonderheiten wie insbesondere das Vorliegen eines Vorhof- septumanuerysmas das Behandlungsergebnis und den Verlauf beeinflussen. Das Alter der 18 männlichen und 32 weiblichen ASD-Patienten betrug 44 ± 17 (13- 77) Jahre, das der 35 männlichen und 40 weiblichen PFO-Patienten 47 ± 13 (21- 73) Jahre. Die Größe des Vorhofseptumdefektes betrug, in der kurzen Achse des transösophagealen Echokardiogramms gemessen, im Mittel 13,2 ± 4,5 mm (6,4 29,4 mm; n = 50). Die mit Hilfe eines Ballonkatheters ermittelte Defektgröße betrug für die Ballonpassage 20 ± 4 mm (6 30 mm; n = 49) und für den Stretched- diameter 19 ± 4 mm (11 29 mm; n = 47). Der PFO-Durchmesser betrug 4 22 mm, im Mittel 12 ± 4 mm (Ballonpassage; n = 73) bzw. 3 16 mm, im Mittel 9 ± 3 mm (Stretched-diameter; n = 71). Die Messwerte von Passage und Stretched-diameter waren bei den PFO-Patienten mit Vorhofseptumaneurysma signifikant größer als bei den Patienten ohne Vorhofseptumaneurysma (p < 0,001). Insgesamt konnte bei den ASD- und PFO- Patienten eine lineare Korrelation zwischen Stretched-diameter und Ballonpassage ermittelt werden. Bei allen 50 ASD- und allen 75 PFO-Patienten war die Schirmimplantation primär erfolgreich. Der Nachuntersuchungszeitraums betrug im Mittel 9 ± 5 Monate (1 28 Monate). Direkt nach Verschluss bestand bei 17,6%, nach 2-4 Wochen bei 1,6% und nach 6 Monaten bei 1,6% der Patienten ein Restshunt. Bei den ASD-Patienten, bei denen vor und nach Verschluss Messungen durchgeführt werden konnten (n = 40), sank das Verhältnis Qp/Qs von 2,0 ± 0,5 signifikant auf 1,1 ± 0,3 (p < 0,0001). Während und nach der Implantation traten bei der Gesamtgruppe der Patienten (n = 125) folgende Komplikationen auf: Koronare und cerebrale Luftembolie mit kurzzeitiger klinischer Symptomatik (0,8%), therapierbare Herzrhythmusstörungen (2,4%), passagere thrombotische Auflagerungen auf den Schirmen (1,6%), geringer Perikarderguss (1,6%) und Schirmarmfrakturen (8%). In der Gruppe der PFO-Patienten erlitten 2 von 75 Patienten ein rezidivierendes cerebrovaskuläres Ereignis. Die Rezidivrate fiel von 54% vor Verschluss auf 3,5% nach Verschluss ab. Morphologische Besonderheiten beeinträchtigten das Ergebnis des Katheter- verschlusses nicht, können aber Indikatoren für bestimmte Risikofaktoren sein. Bei den PFO-Patienten zog eine kürzere Tunnellänge ( 7,8 mm) eine signifikant höhere Ereignisrate vor Verschluss (4,5%) gegenüber den Patienten mit längerer Tunnellänge (> 7,8 mm) (2,9%) nach sich (p < 0,05). Auch die Rezidivrate vor Verschluss war bei den Patienten mit kürzerer Tunnelstrecke (75%) signifikant höher als bei den Patienten mit längerer Tunnelstrecke (31%) (p<0,01). PFO- Patienten mit Vorhofseptumaneurysma (vor Verschluss) wiesen nach Katheterverschluss eine höhere Rezidivrate cerebraler Ereignisse (10,5%) auf als die PFO-Patienten ohne Vorhofseptumaneurysma (0%). Bei den ASD-Patienten mit Vorhofseptumaneurysma (n = 12) ergab sich eine signifikant höhere Eingriffs- und Durchleuchtungszeit gegenüber den ASD- Patienten ohne Vorhofseptumaneurysma (50 ± 21,1 min. / 10,5 ± 6,4 min.) versus (39,1 ± 12,8 min. / 6,5 ± 3,6 min.) (p < 0,01). Bei der gleichen Patientengruppe nahm die Septumauslenkung signifikant von 15 ± 3,5 mm vor Verschluss auf 4,6 ± 2,4 mm 6 Monate danach ab (p < 0,001). Bei den PFO-Patienten mit Vorhofseptumaneurysma (n = 17) verringerte sich die Septumauslenkung von 15,9 ± 2,8 mm vor Verschluss auf 3,8 ± 2,0 mm 6 Monaten später (p < 0,001). Ohne Einfluss auf den postinterventionellen Verlauf war die Zunahme der Septumdicke, die in den ventralen und zentralen Abschnitten nach 6 Monaten beim Amplatzer-ASD-Okkluder am stärksten und beim PFO-Star-Okkluder am geringsten ausgeprägt war. Alle angewendeten Okkludersysteme sind für den Verschluss von Vorhofseptumdefekten (ASD II) und persistierenden Foramina ovalia auch bei Vorliegen von Vorhofseptumaneurysmen geeignet.
Die Messung des T-Wellen-Alternans ist eine neue, vielversprechende Methode zur Erfassung von Patienten mit einem erhöhten Risiko für arrhythmische Ereignisse. Die gute Testeffizienz ist für unterschiedliche kardiale Krankheiten belegt; ebenfalls wurde die Überlegenheit des TWA gegenüber anderen gängigen Parameter zur Risikostratifizierung erwiesen. Schwachpunkte dieses Verfahrens sind der relativ hohe Anteil an falsch positiv Getesteten und die häufig scheiternden Messungen. Nach unserem Wissen haben wir mit dieser Studie anhand eines Patienten- kollektivs mit Myokardinfarkt erstmalig erwiesen, dass das Ergebnis einer TWA- Untersuchung unabhängig ist von dem Alter und dem Geschlecht des Patienten, sowie von verschiedenen Parameter des erlittenen Herzinfarktes, wie der Höhe der CK, der Lokalisation, der Art der Erstintervention und dem Perfusionsstatus. Im Gegensatz zu anderen Studien konnten wir keinen Einfluss der Medikation, insbesondere der antiarrhythmischen, auf den Ausgang des Alternans-Testes feststellen. Schließlich zeigt die vorliegende Untersuchung erstmalig, dass das Wiederholen der Messung zu einem späteren Zeitpunkt, nämlich nach sechs Wochen und nach einem Jahr, zu 80 % das gleiche Ergebnis liefert, und zwar unabhängig von Änderungen in der Medikation, weiteren Maßnahmen zur Reperfusion und erneuten kardialen Ereignissen. Das Ergebnis positiv zeigt sich dabei etwas weniger stabil als das Ergebnis negativ. Insgesamt kann gefolgert werden, dass die Methode eine gute Reproduzierbarkeit aufweist und bei der Mehrzahl der Patienten auch im Langzeitverlauf stabile Ergebnisse liefert.
Unsere Kultur beinhaltet zahlreiche Vorstellungen darüber, welche Probleme in Liebesbeziehungen auftreten können, welche Ursachen diese Probleme haben und wie mit ihnen umzugehen sei. Dominiert wurden diese Vorstellungen in der Literatur zwischen Empfindsamkeit und Romantik bekanntermaßen durch einige wenige epochenübergreifende Motive: Untreue, der Gegensatz von gesellschaftlicher oder moralischer Pflicht und Neigung, der Tod des anderen, einseitige und verhinderte Liebe bildeten die immer wiederkehrenden Konfliktursachen der meisten Liebesgeschichten. Dabei floss die Geschlechterdifferenz in die Darstellungen zwar stets mit ein, wurde aber in der Regel als solche nicht reflektiert. Die in der Arbeit untersuchten Texte zeigen nun, dass neben diesen typischen Liebesgeschichten auch eine bisher kaum beachtete Ideentradition besteht, die Liebeskonflikte explizit unter dem Aspekt der Geschlechterdifferenz beschreibt und dieser Differenz eine grundlegende Bedeutung beimisst. Dabei konnte für die fünf in dieser Arbeit ausgewählten Konfliktfelder Folgendes festgestellt werden: Egalitäre Liebe versus männliche Eheherrschaft Ein breit diskutiertes Konfliktfeld betrifft das Verhältnis von egalitärer Liebe und männlicher Eheherrschaft. Seit der Mitte des 18. Jahrhunderts setzt sich in Deutschland die Idee der Liebesehe durch, wobei Liebe oftmals ausdrücklich im Gegensatz zu jeglicher Form von traditioneller Herrschaft zwischen den Geschlechtern begriffen wird. Sozial gedeckt muss sie in die Ehe führen. Dort wird aber nicht nur praktisch, sondern auch theoretisch bis ins 20. Jahrhundert hinein an der Herrschaft des Mannes über die Frau festgehalten. Wie reflektiert sich dieser Gegensatz um 1800? Ich habe in meiner Arbeit unter dieser Perspektive eine Reihe von literarischen, philosophischen und populärpädagogischen Texten untersucht, die einen ersten Eindruck der eher theoretisch-normativen Diskurse dieser Zeit geben. Die Autoren sind Gellert, Kant, Fichte, Hegel und Campe. Dem stelle ich ein populäres Lustspiel von August von Kotzebue und einen autobiographischen Text die Jugenderinnerungen von Elisa von der Recke gegenüber. Diese Texte ermöglichen es, der theoretischen eine eher alltagsorientierte Sichtweise des Problems zur Seite zu stellen. Für die philosophisch-pädagogischen Schriften lässt sich Folgendes erkennen: Erstens wird der Widerspruch zwischen egalitärer Liebe und männlicher Eheherrschaft, entsprechend einer Grundkategorie der Zeit, vorwiegend entlang der Differenz Vernunft Natur bearbeitet. Aufgeboten werden unterschiedliche Varianten einer geschlechterdifferenzierten Anthropologie, die sich teilweise direkt widersprechen (zum Beispiel bei Kant und Fichte). Zweitens wird an die Vernunft und Klugheit appelliert. Dies geschieht ebenfalls widersprüchlich, nämlich entweder in konsensorientierter (Gellert) oder aber manipulativer Ausrichtung (Kant und Campe). Eine allgemein getragene argumentative Problemlösung ist nicht zu erkennen, verbindendes Element ist jedoch die vermittelnde Funktion: Liebe und Herrschaft werden für kompatibel erklärt. Demgegenüber beinhalten die Texte von Kotzebue und Elisa von der Recke auch eine andere Diskursform. Bei Kotzebue zeichnet sich momenthaft das Bild einer durchaus emanzipierten Frau ab, deren Verhalten zu den vorherrschenden weiblichen Normen des literaturwissenschaftlichen Kanons nicht recht passen will. Hier könnten sich - dem wäre aber erst genauer nachzugehen - Tendenzunterschiede zwischen der sogenannten hohen und der Unterhaltungsliteratur der Zeit abzeichnen. Während bei Kotzebue die Eheherrschaft aber letztlich affirmiert wird, zeichnet Elisa von der Recke in ihren Jugenderinnerungen anhand dreier Frauengenerationen das Bild einer Lebenswelt, für die das Spannungsverhältnis von Liebe und Patriarchat sowohl identitätsstiftend als auch kaum überbrückbar erscheint. Die zahlreichen Klugheitsratschläge der Zeit bedeuten letztendlich für die Frau, nicht aber für den Mann, einen Verzicht auf die "wahre" gegenseitige Liebe. Gemeinsame Weltsicht versus Zunahme der Individualität Zu diesem Konfliktfeld untersuchte ich exemplarisch die Erzählung Der Sandmann von E.T.A. Hoffmann. Hoffmanns Text erweist sich in dieser Perspektive als eine differenzierte Satire genau dieser Problematik und verschiedener Strategien, unter patriarchalen Bedingungen mit ihr umzugehen. Der Autor illustriert an der Figur Nathanaels ein Extrem an mangelnder Anpassungsleistung und der Neigung zur Projektion gewünschter Eigenschaften auf die Geliebte zur Vermeidung eigener Veränderung. Er weist dies deutlich als ein geschlechtsspezifisches Verhaltensschema aus. Dem korrespondieren auf je unterschiedliche Weise die weiblichen Figuren der Erzählung. Dabei wird an der Figur Olimpias vorgeführt, wie absurd sich eine patriarchal verordnete Bestätigung darstellt. Hoffmann erkennt damit das soziale Bestätigungsproblem gesteigerter Individualität als ein allgemein bürgerliches, führt das Scheitern der Lösung dieses Problems in der patriarchalen Liebesbeziehung vor und verweist so bereits auf eine wesentliche Ursache der heutigen Krise traditioneller Beziehungsmuster. Geschlechterstereotypen versus Wahrnehmung von Individualität Der Liebesdiskurs des 18. Jahrhunderts fordert seit der Empfindsamkeit die genaue Kenntnis der Individualität des Geliebten als Voraussetzung wahrer Liebe. Zugleich jedoch bewegen sich Liebende in einem Umfeld, das den sozialen Umgang über stereotype Geschlechterbilder strukturiert, die eine Wahrnehmung des anderen als Individuum gerade verstellen können. Inwieweit wird dies im 18. Jahrundert als Problem wahrgenommen und verarbeitet? Hier zeigt meine Arbeit, unter anderem anhand des frühempfindsamen Briefwechsels zwischen Meta Moller und Friedrich Gottlieb Klopstock, exemplarisch Folgendes: Klopstock, der als Inbegriff des empfindsamen Dichters gilt, zeigt zumindest in den Briefen an seine spätere Frau kein Bewusstsein dieser Problematik. Er bleibt in seiner Kommunikation bei einer vorempfindsamen Konfliktwahrnehmung stehen. Moller hingegen bringt die Bilderproduktion der Geschlechterdifferenz als störenden Faktor der Annäherung deutlich zur Sprache. Sie befürchtet, Klopstock könne sich ein durch Weiblichkeitsentwürfe entstelltes Bild von ihr machen, er könne sie als Muse funktionalisieren und/oder sei an ihren ernsthaften Seiten "sie ist ja nur eine Frau" nicht interessiert. Darüber hinaus konfrontiert sie Klopstock in sarkastisch-ironischem Ton mit seinem Fehlverhalten. Insofern ist die These Ulrike Prokops, Meta Moller setze typisch für Frauen ihrer Generation Selbstverleugnung und narzisstische Identifikation an die Stelle aktiver Auseinandersetzung, kritisch zu ergänzen. "Schale Alltäglichkeit" versus "Die große Liebe" Ehen werden, um es mit Luhmann zu pointieren, im Himmel geschlossen und im Auto geschieden. Das Ideal der Liebesehe stellt an die Gatten Anforderungen an Aufmerksamkeit und Zuwendung, die in einem durch Geschlechterrollen differenzierten gemeinsamen Alltag schwer zu erfüllen sind. Viele der untersuchten Texte dieser Arbeit verweisen auf dieses Problem. Eine der dichtesten Auseinandersetzungen damit findet sich jedoch in der Erzählung Das mißlungene Opfer von Therese Huber: Huber legt hier eine vielschichtige Reflexion über Liebes- und Eheprobleme vor, die durch Bezüge zu Goethes Werther stereotype Leseerwartungen des Publikums (Pflicht versus Neigung) herausfordert. Diese Leseerwartungen konfrontiert sie dann mit der Darstellung der geschlechterdifferenzierten Arbeitsteilung in der bürgerlichen Ehe. Zugleich dokumentiert sie verschiedene weibliche Attributionsmuster, die den Alltag männlicher Lieblosigkeit entschuldigen. Der Text changiert dabei zwischen Alltagsdarstellung und bis ins surreal-komische getriebenen Situationen kommunikativer Entfremdung, überlässt es aber der Leserin, eigene Erfahrungen und Sehnsüchte im Text bestätigt oder hinterfragt zu finden. Weibliche Pflichterfüllung versus Bedürfnis nach individuellem Glück Die Idee der Liebesehe ist an die Freiwilligkeit der Partnerwahl und eines glücklichen Zusammenlebens gebunden. Sozialgeschichtlich betrachtet wurden Ehen aber um 1800 bekanntermaßen häufig gegen den Willen der Frau geschlossen; und sie verliefen für diese häufig nicht glücklich. Eine bislang kaum zur Kenntnis genommene umfangreiche Darstellung der Lage und Emanzipation einer Frau in einer solchen unglücklichen Zwangsehe sind die Eheerinnerungen Elisa von der Reckes. Der Text ist, wie sich zeigen lässt, entgegen der Überzeugung seines Herausgebers, keine Sammlung von Briefen, sondern eine literarische Bearbeitung und Ergänzung der Tagebücher der Autorin. Die Autorin legt hier eine ungewöhnlich realitätsnahe und die Grenzen des intimschicklichen überschreitende Milieustudie vor, in deren Zentrum der bedrückende Ehealltag einer jungen Frau steht. Sozialisiert ist sie in einer Umwelt, in der ländlich- patriarchale, galante und empfindsame Ehe- und Liebesdiskurse aufeinander prallen. Ihre Ehegeschichte erweist sich so als eine psychologische Dokumentation kognitiver Dissonanzen, verdrängter Bedürfnisse, psychosomatischer Symptome, Rationalisierungen und der Instrumentalisierungen von Sexualität im Ehealltag. Interessant ist dieser Text auch hinsichtlich der Frage nach der Freiheit von Subjekten gegenüber den sie formenden Diskursen. Er zeigt beispielhaft, wie eine Frau mit Bruchstücken des empfindsamen Liebesdiskurses und des autoritären Ehe- und Pflichtdiskurses für sich selbst eine individuelle Ehe- und Liebeskonzeption entwickelt und auf dieser Grundlage ihre Vorstellung eines richtigen Lebens gegen die Überzeugungen ihres gesamten sozialen Umfeldes durchsetzt. Weiterführende Fragestellungen Ich möchte nun abschließend einige weiterführende Fragestellungen andeuten, die durch die Ergebnisse meiner Arbeit nahegelegt werden. Erstens: Die Interpretation von Hoffmanns Sandmann zeigt, dass auch klassische Texte unter der hier dargestellten Perspektive neue Facetten erkennen lassen. An dieser Stelle bietet sich etwa eine Betrachtung der Frühromantik an, zum Beispiel unter der Perspektive, ob die Unterscheidung männlich/weiblich in Bezug auf Liebeskonflikte dort eine wesentlich andere ist, als in der Zeit ansonsten üblich. Zudem legen die Werke von Therese Huber und Elisa von der Recke nahe, weitere bisher weitgehend unbekannte Texte zur Analyse historischer Liebeskonfliktdiskurse heranzuziehen. Ähnliches ergibt sich aus Kotzebues Lustspiel für den Bereich der sogenannten populären Literatur. Zweitens: Die Texte von Huber und Elisa von der Recke werfen die Frage auf, wie Liebeskonflikte aus der Perspektive von Müttern und Vätern wahrgenommen werden. Die Untersuchung beider Texte legt hier erste Spuren, deren Weiterverfolgung fruchtbar sein könnte. Drittens: Es ist auffällig, dass keiner der untersuchten Texte eine wirkliche Alternative zum modernen Liebesdiskurs andeutet, außer in Form eines Rückzugs auf vorempfindsame Liebesideen oder Freundschaften. Hier schließt sich die auf die Zukunft gerichtete Frage an: Wo im modernen Liebesdiskurs ist um es mit Foucault zu formulieren die Gegenmacht zu finden? Oder verschwindet dieser Diskurs allmählich und einer liebenden Annäherung wird in einigen Generationen so begegnet, wie dies die emanzipierte Elisa von der Recke gegenüber den linkischen Annäherungen ihres Gatten getan hat: mit kaltem Ernste, aber ohne Zeichen des Unwillens: "Unter uns, mein Theurer, sind solche Tändeleien überflüssig."
In der vorliegenden Untersuchung wurden Populationen der Gattung Corbicula im Rhein mit Individuen aus der Mosel, der Weser sowie aus Frankreich, Spanien, Nordamerika und dem Nahen und Fernen Osten sowohl mit genetischen als auch morphologischen Methoden untersucht. Aus diesen Daten sollte ermittelt werden, wie viele Taxa bei der rezenten Besiedelung Europas auftraten und welche Migrationsrouten hierbei nachgewiesen werden konnten. Es konnte gezeigt werden, dass im Rhein zwei hybridisierende genetische Linien auftraten, wobei keine Rückkreuzung mit den Eltern nachgewiesen werden konnte. Die Hybride waren morphologisch nicht zu unterscheiden. Hinweise auf einen unterschiedlichen Chromosomensatz dieser Linien bzw. eine Polyploidie konnte nicht gefunden werden. In der Rhone wurde eine weitere Linie entdeckt. Eine der genetischen Linien im Rhein konnte im Vergleich zu Individuen aus Fernost als C. fluminea identifiziert werden. Die Herkunft der beiden Linien aus Rhein und Rhone blieb unklar, da sie nicht Individuen aus Israel oder Nordamerika zugeordnet werden konnten. Eine Polytomie der MP- und ML-Analysen war nicht auf einen zu geringen Datensatz zurückzuführen, vielmehr konnte gezeigt werden, dass Corbicula im Pleistozän eine Radiation durchief. Schalenmorphologisch konnten die genetischen Linien aus dem Rhein nicht durchgehend den zwei auftretenden Morphen zugeordnet werden. Gleichzeitig schienen diese Individuen die Extreme einer weltweiten Variabilität der Schalenform darzustellen. Ein morphologischer Vergleich von Schalen aus der Sammlung Senckenberg zeigte keine Unterschiede zwischen Individuen, die als C. fluminalis und C. fluminea bezeichnet waren. Vielmehr scheint die Schalenform nicht genügend conchologischen Merkmale zu besitzen, um die genetischen Linien zu unterscheiden. Die Besiedelung Europas durch die Körbchenmuschel erfolgte mehrfach unabhängig in verschiedenen Flusssystemen Südwest- und Mitteleuropas Anfang der 1980er Jahre. Auf- grund der hier nachgewiesenen Isolationswirkung von Stauwehren der Bundeswasserstrassen auf Makroinvertebraten und der Ergebnisse der DAF-Fingerprints von Corbicula- Populationen wurde die Mosel vermutlich von Frankreich aus besiedelt.
Für eine zukünftige Gentherapie der Immunschwächekrankheit AIDS ist ein effizienter, spezifischer und sicherer Gentransfer in CD4-positive Zellen des peripheren Blutes erforderlich. Hierzu bieten sich vom murinen Leukämievirus (MLV) abgeleitete retrovirale Pseudotypvektoren an, die das Hüllprotein (Env) des HIV-1 oder des simianen Immundefizienzvirus der Afrikanischen Grünen Meerkatze (SIVagm) tragen und daher einen selektiven Gentransfer in CD4-positive Zielzellen bewirken (Transduktion). [MLV(SIVagm)]-Vektoren haben gegenüber [MLV(HIV-1)]-Vektoren den Vorteil, daß sie von Seren HIV-1-positiver Patienten nicht neutralisiert werden und daher auch in HIV-1-infizierten Patienten angewendet werden könnten. Jedoch kann aufgrund des Tropismus von SIVagm mit [MLV(SIVagm-wt)]-Vektoren nur die kleine Subpopulation der CCR5-positiven Zellen innerhalb der humanen CD4-positiven Lymphozyten (3 bis 15%) transduziert werden. Das Ziel dieser Arbeit war es daher, den Tropismus des SIVagm Env so zu modifizieren, daß auch die Mehrzahl der CD4-positiven Lymphozyten, die den CXCR4-Korezeptor exprimieren (70 bis 95%), transduziert werden kann. Hierzu wurde die putativ für die Korezeptorbindung verantwortliche V3- Loop-Region im Env des SIVagm durch die homologe Region eines CXCR4-tropen HIV-1-Stammes ersetzt. Mit diesem modifizierten Env gelang es, [MLV(SIVagm-X4)]- Pseudotypvektoren herzustellen, die spezifisch CD4/CXCR4-positive Zellen transduzieren können. Neben der Bedeutung für die Generation neuer Vektoren für die Gentherapie beweist dieses Ergebnis die bisher nicht gezeigte Äquivalenz der V3- Loops der Hüllproteine von HIV-1 und SIVagm für die Korezeptornutzung. Um die neuen [MLV(SIVagm)]-Vektoren charakterisieren zu können und für eine spätere Anwendung weiterzuentwickeln, wurden stabile Zellinien etabliert, die große Vektormengen mit Titern zwischen 6x103 und 7,6x105 i.E./ml produzierten. Mittels Ultrazentifugation konnten Vektorpräparationen mit Titern bis zu 108 i.E./ml hergestellt werden. Die neu generierten [MLV(SIVagm-X4)]-Vektoren erwiesen sich wie die [MLV(SIVagm-wt)]-Vektoren als resistent gegenüber der Neutralisierung durch Seren HIV-1-infizierter Spender und könnten damit in vivo angewendet werden. In Experimenten zur Bestimmung der Transduktionseffizienz in primären peripheren Blutlymphozyten humaner Spender konnte der selektive Gentransfer mittels [MLV(SIVagm)]-Vektoren in CD4-positive Zellen gezeigt werden, während herkömmliche, amphotrope Vektoren CD4-positive und -negative Lymphozyten gleichermaßen transduzierten. Beide [MLV(SIVagm)]-Vektoren erlaubten im Vergleich zu den eingesetzten amphotropen MLV-Vektoren eine höhere Transduktionseffizienz in CD4-positiven Zellen. Neben Zielzell-Spezifität und Effizienz ist die Sicherheit neuer Vektorsysteme entscheidend für die Anwendbarkeit in der humanen Gentherapie. Eine Übertragung replikationskompetenter Retroviren (RCR) gilt hierbei als das Hauptrisiko bei der Nutzung retroviraler Vektoren. Auch bei der Herstellung von [MLV(HIV-1)]- oder [MLV(SIVagm)]-Pseudotypvektoren könnten durch Rekombinationsereignisse in den Verpackungszellen replikationsfähige Hybridviren entstehen. Bei der Untersuchung dieser Vektorsysteme wurde allerdings bisher keine spontane Bildung von RCR nachgewiesen. In der vorliegenden Arbeit wurde versucht, durch molekulare Klonierung gezielt derartige Hybridviren zu generieren, um zu klären, ob solche Onko/Lenti-Hybridviren replikationsfähig sein können, zudem sollte gegebenenfalls das pathogene Potential dieser Viren untersucht werden. Dazu wurden die vollständigen Leserahmen des rev- und des env-Gens des HIV-1 bzw. SIVagm anstelle des MLV env-Gens in das Genom eines infektiösen molekularen Klon des MLV inseriert. Die Klonierungsstrategie wurde dabei so gewählt, daß alle notwendigen mRNAs gebildet werden konnten. Die Hybridvirusklone waren nach Transfektion in 293T-Zellen tatsächlich in der Lage, neben den MLV-Genen auch HIV-1 bzw. SIVagm env und rev funktionell zu exprimieren. Es konnten infektiöse Partikel nachgewiesen werden, die das Hybridvirusgenom auf Zielzellen übertragen konnten. In den infizierten Zielzellen wurde jedoch nur die Expression von MLV/SIVagm nachgewiesen werden. Keines der beiden Hybridviren erwies sich als replikationskompetent. Dies deutet darauf hin, daß die Bildung replikationskompetenter Onko/Lenti-Hybridviren unwahrscheinlich ist. Mit den [MLV(SIVagm)]-Vektoren steht somit ein Vektorsystem zur Verfügung, das sich für In-vivo-Anwendungen im HIV-infizierten Patienten eignet. Es konnte gezeigt werden, daß humane CD4-positive Lymphozyten mittels [MLV(SIVagm)]-Vektoren spezifisch, aber auch effizienter und sicherer transduziert werden als unter Verwendung bisher beschriebener amphotroper MLV-Vektoren.
Im Rahmen der Aufgabenstellung, Propenoxid durch eine heterogen initiierte homogene Autoxidation herzustellen, wurde ein neuer Reaktortyp konzipiert. Die wesentliche Anforderungen an die Reaktionsführung war dabei nach dem Katalysator einen steilen Temperaturgradienten im Abgasstrom zu verwirklichen. Die komplexen Wechselwirkungen der Autoxidation und deren Mechanismus sind nicht zweifelsfrei aufgeklärt. Insbesondere das Ausmaß der Radikalbildung ist nur unter NichtReaktionsbedingungen quantitativ bekannt. Anhand der verfügbaren Daten konnten daher keine quantitativen Rückschlüsse hinsichtlich Reaktorauslegung und erforderlichen Katalysatormengen bzw. Katalysatoraktivitäten gezogen werden. Basierend auf der postulierten Initiierung der Autoxidation durch Allylradikale wurde das Konzept des Reaktors entwickelt und dieser modular ausgelegt, um eine Nachoptimierung zu ermöglichen. Wegen der Unsicherheiten über das Ausmaß von Radikalbildung und Radikalreaktionsgeschwindigkeiten wurde der Reaktor modular ausgelegt und weite Bereiche an Reaktionsbedingungen (Temperatur und Verweilzeiten am Katalysator und im postkatalytischen Volumen) für verschiedene Katalysatorpräparationen ausgetestet. Aktivität wurde außer im Falle von Strontiumnitrat als Katalysator nur unter Reaktionsbedingungen gefunden, die bereits eine Leeraktivität bedingen. Die These, daß die von Keulks et al. [21,22] beobachtete Aktivität von Bismutoxid in der heterogen initiierten Autoxidation auf die von verschiedenen Autoren [26,27,29] beobachtete Allylradikalbildung über Bismutoxid zurückzuführen ist, ließ sich im Rahmen dieser Arbeit nicht bestätigen. Die Erkenntnis aus Arbeiten von Maier et al. [17], daß die Reaktion bei hohen Drücken (größer 10 bar) schneller und selektiver verläuft, stellt das Konzept einer heterogenen Initiierung bzw. Katalyse grundsätzlich in Frage. Durch die Druckerhöhung wurden sehr respektable RaumZeitAusbeuten erreicht und die Selektivität zu Propenoxid gesteigert, wobei letzteres auf die Umsetzung bei niedrigeren Temperaturen zurückzuführen sein dürfte, die durch die erhöhten Reaktionsraten ermöglicht wird. Im Rahmen von in dieser Arbeit durchgeführten Leertests unter Druck im mikrostrukturierten Reaktor konnte diese Reaktionsbeschleunigung bereits bei Drücken von 3 bar nachgewiesen werden. Beim Übergang auf 4,5 bar verdoppelte sich die Selektivität zu Propenoxid auf 15% bei fünffach erhöhtem (1,6%) Propenumsatz. Dieser Druckbereich war in den Arbeiten von Maier et al. nicht untersucht worden. Eine weitere Drucksteigerung bedingte aufgrund des hohen Sauerstoffpartialdrucks eine Explosion. Angesichts der Tatsache, daß bereits ohne Katalyse bei höheren Drücken hohe RaumZeitAusbeuten erreichbar sind, wurde das Vorhaben nicht weiter verfolgt und eine homogene Katalyse der Autoxidation durch das Abgas der Propandehydrierung getestet, die über Propylradikale verläuft. Diese hätte aufgrund der Verwendung von Propan anstelle eines Teils des Propens den Vorteil geringerer Rohstoffkosten. Auch hier konnte keine Übertragung der Reaktion auf die postkatalytische Zone, deren Temperatur auf unter 250°C begrenzt war, belegt werden. Lediglich die bekannte thermische Oxidation von Propen und Propan unter Nettoumsatz von Propan zu Propenoxid konnte in der Katalysatoraufnahme durchgeführt werden, wobei die Katalysatoraufnahme hier die Funktion eines Rohrreaktors erfüllte. Mit allen drei entwickelten Reaktortypen konnte ein steiler Temperaturgradient im Abgasstrom des Katalysators durch Zumischen kalter Gasströme bedingt verwirklicht werden, wobei die Limitierungen hinsichtlich der Höhe des Gradienten durch Wärmeleitungseffekte des Gehäuses hervorgerufen wurden. Dieses Reaktorschema erwies sich zwar als untauglich in der angestrebten Reaktion könnte aber für andere Reaktionen, die entsprechende Anforderungen an Temperaturgradienten haben, sinnvoll eingesetzt werden. Beispielsweise stellt die selektive Methanoxidation diese Anforderung, findet aber bei wesentlich höheren Temperaturen statt (>1000°C). Die Propenoxidation mit Wasserstoff/Sauerstoffgemischen, die zuvor nur über auf Titanoxid geträgerten Goldkatalysatoren beschrieben wurde, konnte erfolgreich an auf Titanoxid gefällten Silberkatalysatoren durchgeführt werden. Parallel zu dieser Arbeit wurden allerdings Patente der BAYER AG offengelegt, die die Aktivität von mit SilbernitratAmmoniaklösungen imprägnierten Titanoxid und TS1Katalysatoren beschreiben. Erstmalig wurde jedoch ein Titanoxid geträgerter Silberkatalysator in dieser Reaktion hinsichtlich verschiedener Beladungsgraden mit Silber, Calcinierungstemperaturen und den Reaktionsparametern Temperatur, Verweilzeit und Gaspartialdrücken untersucht. In allen Aspekten war eine erstaunliche Ähnlichkeit des Silber/TitanoxidSystems mit dem Gold/TitanoxidSystem festzustellen, welches in den letzten Jahren von verschiedenen Arbeitsgruppen gründlich untersucht wurde. So findet sich eine optimale Aktivität für die Silberkatalysatoren bei 2% Beladung mit Silber und einer Calcinierungstemperatur von 400°C. Diese betrug mit 4,14 g kg(Kat.) 1 h 1 nahezu die Hälfte der von Goldkatalysatoren (10,4 g kg(Kat.) 1 h 1 ) und die im TEM beobachteten Partikelgrößen des Silbers entsprechen mit 2 bis 4 nm denen der Goldpartikel [46]. Mit XRD konnte eine mit zunehmender Calcinierungstemperatur zunehmende Primärpartikelgröße bzw. Kristallisation des Titanoxids nachgewiesen werden. Mit zunehmender Temperatur findet eine schnellere Desaktivierung der Katalysatoren statt. Auch bei der üblichen Reaktionstemperatur von 50°C findet eine Desaktivierung über mehrere Tage statt. Mit zunehmender Verweilzeit am Katalysator sinkt die Reaktionsrate trotz differentieller Umsätze aufgrund der Produktinhibierung der Reaktion. Diese Produktinhibierung bewirkt durch Folgereaktionen die Belegung der Silberkatalysatoren mit verschiedenen Oligomeren des Propenoxids, die in TGMSExperimenten erst oberhalb 400°C vollständig desorbieren und auch die Desaktivierung bewirken. Die Reaktionsrate ist ungefähr proportional sowohl dem Propen, als auch dem Wasserstoffpartialdruck und unabhängig vom Sauerstoffpartialdruck. Auch die von Goldkatalysatoren berichtete Aktivität in der Tieftemperaturoxidation von CO und Propan konnte bei den Silberkatalysatoren gefunden werden. Eine Verbesserung hinsichtlich Standzeit des Katalysators könnte durch den Einsatz von TS1 als Trägermaterial erzielt werden, welches im Falle der Goldkatalysatoren keiner Desaktivierung unterlag. Dieses wurde mit der hohen Verdünnung der Titanzentren erklärt [47]. Auch durch den Zusatz von Gold bzw. anderen Dotierungsmetallen könnte eine weitere Verbesserung der Katalysatoren möglich sein. Ein Ansatz dazu wäre die chloridfreie Coimprägnierung mit Cyano Komplexen des Silbers und Goldes. Die bisher erzielten Ergebnisse sind jedoch noch sehr weit von technisch relevanten Umsätzen und Standzeiten entfernt. Die Erkenntnis, daß Silberkatalysatoren ähnliche Eigenschaften wie die von Haruta beschriebenen Goldkatalysatoren haben, eröffnet jedoch neue Perspektiven für die Untersuchung dieser Katalysatorklasse.
Die Protoonkogene Ras und Raf spielen eine wichtige Rolle bei der Übertragung eines extrazellulären Signals in den Zellkern. Die direkte Interaktion zwischen GTP-gebundenem, aktiviertem Ras und der Proteinkinase Raf führt zur Aktivierung der Ras/Raf/MEK/ERK-Kaskade, die eine entscheidende, regulatorische Rolle bei onkogenen, mitogenen und entwicklungsabhängigen Signalwegen besitzt. Die Beeinflussung der Kaskade stellt daher einen interessanten Ansatz für die Arzneistoffentwicklung dar. Trotz der bekannten Proteinstrukturen von Ras und Raf sind bisher nur wenige Stoffe gefunden worden, die die Interaktion direkt beeinflussen. In der vorliegenden Arbeit wurde daher ein Testsystem auf der Basis des Hefe-Zwei-Hybrid-System etabliert, mit dessen Hilfe Effektoren der Ras/Raf-Wechselwirkung schnell und einfach identifiziert werden können. Das erste Ziel der Arbeit war die Etablierung einer Testmethode in 96-well-Microtiterplatten, die einen schnellen Durchsatz verschiedener Proben erlaubt. Insgesamt wurden in der vorliegenden Arbeit 469 Reinsubstanzen und Pflanzenextrakte in verschiedenen Konzentrationen getestet. Durch die Verwendung geeigneter Kontroll-Hefestämme konnte außerdem eine Aussage über die Spezifität der Substanzinteraktion getroffen werden. Bei einigen Ras/Raf-aktivierenden Substanzen konnten über die Testung systematischer Substanzreihen Struktur-Wirkungsbeziehungen aufgestellt werden. Cycloalkylidencarbonsäuren wurden als erste potente Ras/Raf-Aktivatoren identifiziert, deren wahrscheinlicher Interaktionsbereich durch die Expression verkürzter Raf-Mutanten auf den Bereich von AS 131-194 von Raf eingeschränkt werden konnte. Sie stabilisieren nicht nur die Bindung von mutiertem, sondern auch von Wildtyp-Ras an Raf. In einem zweiten, unabhängigen Säugerzell-Testsystem, das auf der Aktivierung der Ras/Raf/MEK/ERK-Kaskade und dem anschließendem Nachweis des phosphorylierten MEK-Proteins beruht, lieferten die aktiven Verbindungen erste Hinweise auf eine Aktivierung der Signalkaskade. Mögliche Optimierungen der beiden verwendeten Testsystem, sowie Alternativen, weitergehende Experimente und Einsatzgebiete von Ras/Raf-Effektoren werden abschließend diskutiert.
Im Rahmen dieser Promotionsarbeit wurden fünf verschiedene Experimente mit der Schwerionen-Mikrosonde der GSI durchgeführt. Vier dieser Experimente waren erfolgreich, bei einem Experiment wurden nicht die erhofften Ergebnisse erzielt. Alle Experimente haben Ziele und Fragestellungen verfolgt, die vornehmlich mit einer Ionen-Mikrosonde bearbeitet werden können. Es wurde gezeigt, dass durch die Anwendung fein fokussierter Ionenstrahlen physikalische und technische Probleme im Mikrometerbereich sehr effizient und erfolgreich aufgeklärt werden können. Die hohe örtliche Auflösung der Mikrosonde in Verbindung mit den bekannten auf Ionenstrahlen basierenden Analysemethoden ermöglicht den Zugriff auf Informationen, die auf anderem Wege gar nicht oder nur schwer zugänglich sind. Das erste der fünf Experimente an der Mikrosonde untersuchte die Eigenschaften von polykristallinem CVD Diamant, bei der Verwendung dieses Materials als Detektor für Schwerionen. Der große Nachteil dieses Detektormaterials ist die geringe Fähigkeit, im Detektor erzeugte Ladungsträger verlustfrei zu den Elektroden zu transportieren, um sie dort zu sammeln. Häufig werden bei diesem Transportprozess vom Entstehungsor t der Ladungsträger zu den Elektroden über 90 % der ursprünglich vorhandenen Ladungsträger von Ladungsträgerfallen im Diamantmaterial eingefangen. Es bestand der starke Verdacht, dass diese Fallen vorwiegend in den Korngrenzen zwischen den Diamanteinkrista llen lokalisiert sind. Aus diesem Verdacht begründete sich die Hoffnung, dass die Einkristalle im CVD Diamant ein wesentlich besseres Ladungssammlungsverhalten zeigen würden. Da die Ionenmikrosonde einen Ionenmikrostrahl mit einem lateralen Fokusdurchmesser von ca. 0,5 µm über eine Targetfläche von 1 x 1 mm² rastern kann und dabei Punkt für Punkt die Reaktion des Targetmaterials nachweisen kann, ist sie das geeignete Werkzeug zur Untersuchung von Ladungssammlungsprozessen im Bereich der Einkristalle und der Korngrenzen. Bei der Auswertung der Ergebnisse des Experiments ist aufgefallen, dass man für das CVD Diamantmaterial innerhalb der Ionenbestrahlung zwei verschiedene Zustände unterscheiden muss. Ein unbestrahlter CVD Diamant verhält sich in Bezug auf die Ladungssammlungs- eigenschaften wesentlich anders als ein bestrahlter CVD Diamant, der schon eine gewisse Ionendosis akkumuliert hat. Beim unbestrahlten Diamant ist zu beobachten, dass sowohl in den Einkristallen als auch in den Korngrenzen sehr effektive Ladungsträge rfallen existieren. Die generelle Aussage, dass Diamanteinkristalle eine bessere Ladungssammlung zeigen, kann hier nicht bestätigt werden. Es konnte aber gezeigt werden, dass es, im etwa 300 x 350 µm großen Scannfeld, Bereiche mit sehr guten Ladungssammlungseigenschaften (Effizienz über 90 % im Maximum der Verteilung) gibt und in unmittelbarer Nähe Bereiche mit geringster Ladungssammlungs- effizienz (etwa 8 % im Maximum der Verteilung) existieren. Es konnte nicht geklärt werden, ob diese Bereiche aus Einkristallen bestehen oder sich über Korngrenzen ausdehnen. Die beobachtete 90%ige Ladungssammlungseffizienz ist jedoch ein eindeutiger Nachweis der Möglichkeit, die Detektoreigenschaften dieses Materials wesentlich verbessern zu können, wenn es gelingt, die Besonderheiten dieses hocheffizienten Bereichs aufzuklären. CVD Diamantdetektoren, die schon eine gewisse Ionendosis akkumuliert haben, werden auch als gepumpte Detektoren bezeichnet. Das Pumpen des Detektors kann dabei auch durch andere Formen der Energiezufuhr, beispielsweise mit Hilfe eines Lasers erfolgen, wichtig ist nur, dass eine große Zahl der Ladungsträgerfallen mit Ladungsträgern gefüllt sind. Da diese Fallen im CDV Diamant relativ tief sind, werden gefüllte Fallen nicht schnell entleert und sie stören, so lange sie gefüllt sind, die Ladungssammlung nicht mehr. Die Ladungs- sammlungseffizienz gepumpter Diamantdetektoren verbessert sich sehr stark im Vergleich zum ungepumpten Material. Das Maximum der Verteilung des Ladungssammlungsspektrums verschob sich von etwa 15 % Effizienz beim ungepumpten Detektor zu mehr als 50 % Effizienz beim gepumpten Detektor gemittelt über das gesamte Scannfeld. Bei der Betrachtung des Einflusses der Korngrenzen im gepumpten Material konnte festgestellt werden, dass die Einkristalle nun tatsächlich wesentlich weniger zum Verlust der Ladungsträger beitragen als die Korngrenzen. Die Korngrenzen zeichneten sich beim gepumpten CVD Diamant deutlich als dominante Bereiche des Ladungsträgerverlustes ab. Somit haben wir die bestehende Vermutung über den dominierenden Ladungsträgereinfang in den Korngrenzen für den gepumpten CVD Diamanten bestätigen können, beim ungepumpten Material hingegen verwerfen müssen. Eine weitere Aufklärung der Unterschiede zwischen den beiden Zuständen wür de hier zu einem besseren Verständnis der Vorgänge führen. Zudem wurde am CVD Diamant eine Hochdosisbestrahlung vorgenommen, bei der bestimmt werden sollte ab, welcher Ionendosis das Material soweit geschädigt ist, dass eine Trennung der Detektorsignale von den Rauschsignalen nicht mehr möglich ist. Für einen 8,3 MeV/u 12C-Strahl war diese Trennung ab einer Dosis von 8,0 x 1013 Ionen/cm² nicht mehr möglich, was bedeutet, dass der Detektor hier seine Verwendbarkeit verliert. Eine weitere Gruppe von drei Experimenten befasste sich mit der Wirkung von schnellen, schweren Ionen auf Halbleiterbauelemente. Diese anwendungsorientierten Experimente sollten Ursachen für das Fehlverhalten mikroelektronischer Bauelemente bei Ionentreffern an bestimmten Orten und zu bestimmten Zeitpunkten untersuchen, beziehungsweise Grundlagen für die theoretische Betrachtung der Vorgänge liefern. Beim ersten der drei Experimente wurde das Auftreten von Single Event Upsets in Verbindung mit Single Event Latchups in SRAM Bausteinen untersucht. Die Latchups werden bei den üblichen Testverfahren durch einen Spannungsabfall an einem externen Widerstand in der Versorgungsleitung erkannt. Mit Hilfe der Mikrosonde wurde nachgewiesen, dass diese Methode der Latchupdetektion unzureichend sein kann. Da die internen Versorgungsleitungen in der Halbleiterstruktur selber Widerstände bilden, kann der Latchup am äußeren Widerstand unter bestimmten Bedingungen nicht erkannt werden. Hier spielt die Länge der integrierten Versorgungsleitung eine wesentliche Rolle. Die bild- gebenden Verfahren der Mikrosonde bei der simultanen Messung von Latchups und Upsets können hier Latchups entdecken, die im üblichen Testverfahren nicht erkennbar waren. Das zweite dieser drei Experimente hatte das Ziel, die Upsetempfindlichkeit einer getakteten CMOS- Struktur im Bereich der Schaltflanken zu bestimmen. Hierzu wurden die Schaltzeit- punkte des ICs mit dem vom UNILAC gelieferten Ionenstrahl synchronisiert. Einzelne Ionen trafen den Schaltkreis nur innerhalb eines Zeitfensters von 2 nsec um die Schaltflanke. Da der getaktete integrierte Schaltkreis im Bereich der Schaltflanken besonders empfindlich auf die vom Ion erzeugten zusätzlichen Ladungsträger reagiert, sollten die Upsetwahrscheinlichkeiten innerhalb des Schaltprozesses mit möglichst hoher zeitlicher Auflösung vermessen werden. Die Bestimmung der Trefferzeitpunkte mit einer zeitlichen Genauigkeit von 1 ns oder besser brachte jedoch eine Vielzahl von Problemen mit sich, die letztlich dazu führten, dass dieses Experiment nicht erfolgreich abgeschlossen werden konnte. Auf Grund seiner hohen technischen Bedeutung wurde es in dieser Arbeit aber beschrieben und sollte nach der Verbesserung der Treffererkennung erneut durchgeführt werden. Es wäre das erste Experiment, in dem die Empfindlichkeit einer CMOS- Struktur gegen Ionenstrahlen mit hoher örtlicher und zeitlicher Auflösung gemessen wird. Das dritte Experiment dieser Serie befasste sich mit der für theoretische Vorhersagen wichtigen Größe des elektronischen Durchmessers der Ionenspur. Aus der vom Schwerion erzeugten Spur breitet sich eine elektronische Stoßkaskade aus. Diese freien Ladungsträger können ungewollte Schaltvorgänge in integrierten Schalkreisen auslösen. Da die Integrationsdichte in modernen Baugruppen immer höher wird, kann die vom Ion erzeugte Spur aus freien Ladungsträgern mehrere Transistoren beeinflussen. Die Ausdehnung dieser Spur kann nicht mehr als vernachlässigbare Größe eingestuft werden. Um den Durchmesser der Spur zu bestimmen, wurde ein fein fokussierter 5,9 MeV/u Nickel-Strahl über eine Probe aus Mikrostreifen gerastert, und die in den Streifen gesammelten Ladungssignale wurden gemessen. Trotz einiger Probleme mit der kapazitiven Kopplung von Signalen zwischen den Streifen und dem Substrat und de n Streifen untereinander konnte der Durchmesser der elektronischen Spur bei diesem Test zu etwa 1,2 µm bestimmt werden. Es sollte der Versuch unternommen werden, diesen ersten experimentellen Wert durch weitere verfeinerte Messungen zu bestätigen und vor allem sollte versucht werden, das Dichteprofil der Elektronen in der Ionenspur mit dieser Technik zu bestimmen. Diese Informationen wären von großem Wert für theoretische Modelle zur Empfindlichkeit von integrierten Elektroniken gegen die Effekte einzelner Ionen. Im fünften und letzten Experiment dieser Arbeit wurde die Ionen-Mikrosonde als Werkzeug zur Strukturierung eines Hochtemperatur Dünnfilm Supraleiters eingesetzt. In der sogenannten Shubnikov-Phase können magnetische Flussquanten in den Supraleiter eindringen, obwohl der Zustand der Supraleitung noch vorhanden ist. Diese Flussquanten können durch säulenartige korrelierte Defekte im Supraleiter gebunden werden. Die Spuren schwerer Ionen bilden solche kolumnaren Defekte, die mit Hilfe der Mikrosonde aufgeprägt werden können. Da bei dieser Strukturierung eine hohe Defektdichte erforderlich war, konnte aus Zeitgründen eine Strukturierung mit dem schreibenden Ionenstrahl nicht realisiert werden. Stattdessen wurde eine Schlitzmaske verwendet, die mit Hilfe der Mikrosonde verkleinert auf der Oberfläche des Supraleiters abgebildet wurde. Auf diese Weise wur de dem Supraleiter eine Defektstruktur aus Stegen, die in einem bestimmten Winkel orientiert waren, aufgeprägt. An dem so erzeugten Supraleiter wurden dann an der Universität Mainz die elektrischen Transporteigenschaften des Materials unter dem Einfluss eines gepinnten magnetischen Feldes gemessen. Da die erwarteten Effekte aus dem Pinning der magnetischen Flussquanten erst dann eine messbare Größe annehmen, wenn dem Supraleiter Defektstrukturen in der Größenordnung von einigen µm aufgeprägt werden, ist auch hier die Ionen-Mirkrosonde das einzige verfügbare Instrument für diese Aufgabe. Mit dieser Arbeit wurde deutlich gemacht, dass eine Ionen-Mikrosonde ein vielseitig einsetzbares Instrument ist, das vor allem aufgrund der hohen Bedeutung von miniaturisierten Systemen in der modernen Forschung und Technik ein hohes Verwendungspotential besitzt. Alle hier vorgestellten Experimente wären ohne den Einsatz der Mikrosonde nicht durchführbar gewesen. Neben diesen Experimenten werden an der GSI noch eine Reihe weiterer Experimenten zum Beispiel im Bereich der Biophysik bearbeitet, die ihrerseits von der einzigartigen Möglichkeit der µm-genauen Platzierung schwerer Ionen profitieren.
Natürliche Enantioselektivität und Isotopendiskriminierung - Schlüssel zur Echtheit ätherischer Öle
(2002)
Als Grundlage für die Beurteilung der Echtheit ätherischer Öle können zwei biochemische Prinzipien Enantioselektivität und Isotopendiskriminierung während der Biosynthese herangezogen werden. In der vorliegenden Arbeit wurde die enantioselektive Kapillargaschromatographie sowie die online-Kopplung der Gaschromatographie mit der Isotopenmas- senspektrometrie zur Authentizitätsbewertung verschiedener ätherischer Öle eingesetzt. Die Bestimmung von Enantiomerenverhältnissen mittels Multidimensionaler Gaschromatographie-Massenspektrometrie (MDGC-MS) sowie von 13C/12C-Isotopenverhältnissen mittels GC-C-IRMS (Gaschromatographie-Combustion- Isotopenmassenspektrometrie) sind etablierte Methoden, die in der Authentizitätsbewertung von Aroma- und Duftstoffen eingesetzt werden. Dagegen ist die Bestimmung von 2H/1H-Isotopenverhältnissen mittels GC-P-IRMS (Gaschromatographie-Pyrolyse-Isotopenmassenspektrometrie) eine relativ neue Methode. In der vorliegenden Arbeit wurden Strategien zur Bestimmung von zuverlässigen 2H/1H-Isotopenverhältnissen mittels GC-P-IRMS entwickelt. Die Kalibrierung des Referenzgases mit Hilfe von internationalen Standards kann nur mittels eines Elemental Analyzers (EA-IRMS) erfolgen, da für die Gaschromatographie geeignete Standards nicht zur Verfügung stehen. Daher ist insbesondere der Vergleich von Isotopenverhältnissen von Standardsubstanzen, die mittels TC/EA-IRMS und GC- P-IRMS bestimmt wurden, von Bedeutung. Es konnte gezeigt werden, dass eine Konditionierung (Einbringen einer Kohlenstoffschicht) des Pyrolysereaktors im GC- P-IRMS-System notwendig ist, um für die untersuchten Aromastoffe mittels GC-P- IRMS zum Elemental Analyzer vergleichbare Ergebnisse zu erzielen. Von zwei verschiedenen getesteten Methoden zur Konditionierung des Pyrolysereaktors war die Konditionierung durch Einleiten von Methan in den Pyrolysereaktor die geeignetere und effektivere Methode. Weiterhin wurden der Einfluss des Trägergasflusses des Gaschromatographen auf die bestimmten Isotopenwerte sowie der lineare Bereich der Methode untersucht. Es konnte erstmalig gezeigt werden, dass die mittels GC-P-IRMS bestimmten Isotopenverhältnisse von verschiedenen Parametern abhängig sind. Richtige Ergebnisse zu erzielen setzt folgende Konditionen voraus: Konditionierung des Pyrolysereaktors, optimaler Trägergasfluss sowie Mindestmenge des Analyten (> 0,3 µg on column). Die neuen Möglichkeiten, die die online-Bestimmung von 2H/1H-Isotopenverhältnissen in der Authentizitätsbewertung von Lavendelölen, Anis- und Fenchelölen sowie Kümmelölen bietet, wurden erstmalig untersucht. Darüber hinaus wurden die enantioselektive Kapillargaschromatographie und die Bestimmung von 13C/12C-Isotopenverhältnissen mittels GC-C-IRMS eingesetzt. Es konnte gezeigt werden, dass sich die Bereiche der 2HV-SMOW-Werte von Linalool und Linalylacetat aus authentischen Lavendelölen deutlich vom Bereich der Isotopenverhältnisse kommerziell erhältlicher, synthetischer Analoga unterscheiden und somit eine Verfälschung von Lavendelölen mit synthetischem Linalool und/oder Linalylacetat nachweisbar ist. Mit dieser Methode konnten diverse Handelsöle eindeutig als verfälscht beurteilt werden. Über die Bestimmung der Enantiomerenverhältnisse von Linalool und Linalylacetat dieser Öle konnte die Aussage bestätigt werden (hohe Reinheit zugunsten des (R)-Enantiomeren in genuinen Lavendelölen). Anhand der unterschiedlichen 13C/12C-Isotopenverhältnisse ist eine Unterscheidung zwischen synthetischem und Linalylacetat aus Lavendel möglich. Die 13CV-PDB-Werte von synthetischem und natürlichem Linalool aus Lavendelölen liegen im gleichen Bereich und sind somit zur analytischen Differenzierung natürlich/naturidentisch nicht geeignet. Mittels GC-C(P)-IRMS Analyse von trans-Anethol aus Fenchel- und Anisölen wurden die authentischen Bereiche der 13C/12C- und 2H/1H-Isotopenverhältnisse ermittelt. Es konnte gezeigt werden, dass sich einige der synthetischen trans-Anethol- Muster nur aufgrund eines der beiden bestimmten Isotopenverhältnisse von dem authentischen Bereich abgrenzen lassen. Somit konnte gezeigt werden, dass die integrale Betrachtungsweise der 13CV-PDB-Werte und der 2HV-SMOW-Werte biogener Stoffe für die Authentizitätsbewertung von großer Bedeutung ist. Zur Authentizitätsbewertung von Kümmelölen wurden die Enantiomerenverhältnisse, die 13C/12C- und die 2H/1H-Isotopenverhältnisse der Hauptkomponenten Limonen und Carvon bestimmt. Aufgrund der 2HV-SMOW-Werte von Limonen lassen sich keine Unterscheidungen zwischen kommerziell erhältlichen Limonen und Limonen aus Kümmelölen treffen. Dagegen können die 13CV-PDB-Werte von Limonen zur Authentizitätsbewertung von Kümmelölen herangezogen werden. Die dargestellten Ergebnisse zeigen, dass die Bestimmung von 2H/1H- Isotopenverhältnissen mittels GC-P-IRMS neue Möglichkeiten in der Echtheitsbewertung ätherischer Öle bietet. Insbesondere die integrale Betrachtung von 2HV- SMOW- und 13CV-PDB-Werten ( 2H/ 13C-Korrelation) wird eine Authentizitätsbewertung künftig noch wesentlich differenzierter möglich machen. Weitere Perspektiven wird die Bestimmung von 18O/16O-Isotopenverhältnissen bieten. Die Authentizitätsbewertung anhand der Multielement-Analyse mittels GC- IRMS eröffnet gerade für achirale Aromastoffe Perspektiven, stellt aber auch eine Ergänzung zur enantioselektiven Analytik dar.
In dieser Arbeit wurde ein relativistisches Punktkopplungsmodell und seine Anwendbarkeit auf Probleme in der Kernstrukturphysik untersucht. Der Ansatz ist in der Kernstrukturphysik recht neu. Aus diesem Grund war es ein wichtiges Ziel festzustellen, wie gut sich das Modell zur Beschreibung von Grundzuständen von Kernen eignet. Während sich Modelle wie das Relativistic-Mean-Field-Modell mit Mesonenaustausch und Hartree-Fock-Rechnungen mit Skyrme-Kräften in vielen detaillierten Untersuchungen bewährt haben, musste dies für das relativistische Punktkopplungsmodell erst gezeigt werden. Als erster Schritt war eine sorgfältige Anpassung der Kopplungskonstanten des Modells erforderlich. Um möglichst einen optimalen Satz an Parametern zu erhalten, wurden verschiedene Optimierungsverfahren getestet und angewandt. Die Parameter der effektiven Mean-Field-Modelle sind untereinander stark korreliert. Zusammen mit der Nichtlinearität der Modelle führt diese Tatsache auf die Existenz vieler lokaler Minima der zu minimierenden x2-Funktion, was eine flexible Anpassungsmethode erfordert. Als besonders fruchtbar erwies sich eine Kombination aus der Methode Bevington-Curved-Step mit dem Monte-Carlo-Algorithmus simulated annea/ing. Durch die Anpassung der Kraft PC-F1 an experimentelle Daten in einem x2-Fit ist es gelungen, mit dem Punktkopplungsmodell eine Vorhersagekraft zu erreichen, die der etablierter RMF-FR- und SHF-Modelle gleicht. Dies ist nicht selbstverständlich, da die Modelle eine deutlich unterschiedliche Dichteabhängigkeit der Potenziale besitzen. Weiterhin haben wir gesehen, dass die Anpassungsprozedur der Parameter eine komplizierte Aufgabe darstellt und noch in mancher Hinsicht ausgearbeitet und verbessert werden kann. Das Punktkopplungsmodell mit der Kraft PC-F1 verhält sich für viele Observablen sehr ähnlich wie das RMF-FR-Modell. Dies betrifft die Beschreibung der bulk properties von symmetrischer Kernmaterie, Neutronenmaterie, Bindungsenergien, Spin-Bahn-Aufspaltungen, Observablen des nuklearen Formfaktors, Deformationseigenschaften von Magnesium-Isotopen, die Spaltbarriere von 240Pu sowie die Vorhersage der Schalenstruktur von überschweren Elementen. Dabei werden aber insbesondere Radien besser beschrieben als mit den RMF-FR-Kräften. Oberflächendicken werden, im Einklang mit dem RMF-FR-Modell, als zu klein vorhergesagt. Deutliche Unterschiede treten bei Deformationsenergien einiger Kerne auf (sie sind größer als beim RMF-FR-Modell und oft kleiner als die von dem SHF-Modell vorhergesagten) sowie bei Dichtefluktuationen in Kernen. Die vektoriellen Dichten der Nukleonen oszillieren nicht so stark wie die des RMF-Modells mit Mesonenaustausch, was auf die fehlende Faltung der nukleonischen Dichten zurückgeführt werden kann. Im Vergleich zum Skyrme-Hartree-Fock-Modell ergeben sich deutliche Unterschiede in der Beschreibung von symmetrischer Kernmaterie und Neutronenmaterie. Relativistische Modelle sagen eine höhere Sättigungsdichte und Bindungsenergie vorher. Die vorhergesagte Asymmetrieenergie ist deutlich größer als die Werte des SHF- bzw. Liquid-Drop-Modells. Die Beschreibung von Neutronenmaterie weicht stark von modernen Rechnungen [Fri8 1] und den Vorhersagen von Hartree-Fock-Rechnungen mit der Skyrme-Kraft SLy6 ab. Die Vorhersagen zu überschweren Kernen stimmen in Bezug auf magische Zahlen mit anderen relativistischen Modellen überein: Der doppelt-magische, überschwere Kern besitzt Z = 120 Protonen und N = 172 Neutronen. Im Einklang mit anderen selbstkonsistenten Vorhersagen zeigt seine Baryonendichte eine Semi-Blasenstruktur. Die Spaltbarrieren der Kerne 292 120 und 298 114 sind von ähnlicher Größenordnung wie die von anderen untersuchten RMF-Kräften. Die Lage des isomeren Zustandes im symmetrischen Spaltpfad liegt beim RMF-PC-Modell sehr tief, was auf eine geringe Oberflächenenergie schließen lässt. Die deutlichen Unterschiede zu den Vorhersagen von Hartree-Fock-Rechnungen mit Skyrme-Kräften zeigen, dass sich gewisse Eigenschaften der Modelle besonders stark bei überschweren Elementen auswirken. Überschwere Elemente sind ein sensitives Testfeld für die Modelle. Hier bedarf es dringender Untersuchungen, um längerfristig zuverlässige Vorhersagen machen zu können. Besonders in den Rechnungen von Bindungsenergien in Isotopen- und Isotonenketten sowie für Neutronenmaterie zeigt das Punktkopplungsmodell Schwächen im isovektoriellen Kanal der effektiven Wechselwirkung, die denen des RMF-FR-Modells ähneln. Dies bestätigt den Verdacht, dass dieser Kanal modifiziert werden muss. Deshalb wurden mehrere Varianten des RMF-PC-Modells mit Erweiterungen im isovektoriellen Kanal getestet. Ein interessantes Ergebnis der Untersuchungen zu den erweiterten Parametersätzen des Punktkopplungsmodells ist, dass sich eine Anpassung zusätzlicher Terme im isovektoriellen Kanal der Wechselwirkung mit den in dieser Arbeit verwendeten Fitstrategien nicht bewerkstelligen lässt. Andererseits zeigen die Modelle gerade in dieser Hinsicht noch unverstandene Schwächen. Dies zeigt, dass in der Zukunft eine Erweiterung der Fitstrategie wichtig wird. Kerne mit großem Isospin und z.B. Neutronenmaterie könnten hier Verwendung finden. Neue experimentelle Daten zu exotischen Kernen werden hierbei von großem Nutzen sein. Untersuchungen zur Natürlichkeit der angepassten Kopplungskonstanten mit Hilfe der naiven dimensionalen Analyse haben gezeigt, dass die Kraft PC-F1 dieses Kriterium erfüllt. Dies ist besonders interessant, da bei dieser Kraft alle Kopplungskonstanten frei im Fit variierbar waren. Die Kopplungskonstanten des Modells bzw. die korrespondierenden Terme absorbieren auch Vielkörpereffekte, weshalb es interessant ist, dass dieses Kriterium anwendbar ist. Parametersätze für erweiterte Punktkopplungsmodelle erfüllen bisher nicht das Kriterium der Natürlichkeit, was noch einmal ihre ungenügende Fixierungsmöglichkeit in den verwendeten Fitstrategien unterstreicht. Die Struktur des relativistischen Punktkopplungsmodells ermöglicht es, die Austauschterme der 4-, 6- und 8-Fermionen-Terme als direkte Terme umzuschreiben. Diese Möglichkeit ebnet den Weg für relativistische Hartree-Fock-Rechnungen für endliche Kerne, die numerisch kaum aufwendiger sind als die Rechnungen mit der Hartree-Version des Modells. Dabei bedürfen die Ableitungsterme gesonderter Behandlung. Allerdings muss dazu auch der Modellansatz erneut überdacht werden: das Pion bzw. die dazu korrespondierenden Terme sollten Bestandteil dieser Formulierung sein und durch die Austauschterme Beiträge zu den mittleren Potenzialen liefern. Relativistische Hartree-Fock-Rechnungen mit dem Punktkopplungsmodell werden es ermöglichen, den Zusammenhang zwischen relativistischen und nichtrelativistischen Hartree-Fock-Modellen systematisch und im Detail zu studieren. Längerfristig können diese Studien zu einer quantitativen Verbesserung der Modelle und damit einhergehend zu ihrem klaren Verständnis führen. Die mikroskopische und selbstkonsistente Beschreibung von Atomkernen ist eine faszinierende und spannende Herausforderung, sie anzunehmen war Ziel und Aufgabe dieser Arbeit.
Vanille ein tropisches Orchideengewächs liefert eines der bedeutendsten Aromen weltweit. Die stetig wachsende Nachfrage und das hohe Preisniveau sind allerdings häufig die Ursache für Verfälschung von Vanilleextrakten und -aromen. Ziel der Arbeit war es daher, die Methoden zur Echtheitsbewertung von Vanille weiter zu entwickeln. Daneben sollten Untersuchungen im Hinblick auf aromaaktive Minorkomponenten durchgeführt werden. Als Basisdaten für die Authentizität von Vanille dienen häufig Verhältniszahlen, die aus den Gehalten der Hauptinhaltsstoffe Vanillin, 4-Hydroxybenzaldehyd, Vanillinsäure und 4-Hydroxybenzoesäure gebildet werden. Um diese Verhältniszahlen zuverlässig bestimmen zu können, wurden eine hochdruckflüssigkeits-chromatographische (HPLC) und zum ersten Mal eine gas-chromatographische (GC) Methode entwickelt. Unter Verwendung von internen Standards konnte mit beiden Methoden eine zuverlässige Quantifizierung erzielt werden. Die ermittelten Werte erwiesen sich als unabhängig von der Analysenmethode, von Erntejahrgang und Herkunft der Schoten. Weiterhin konnte gezeigt werden, dass die bisher zur Bewertung herangezogenen Richtwerte im Vergleich mit den im Rahmen dieser Arbeit ermittelten Werte durchweg zu enge Spannbreiten aufweisen. Die neu bestimmten Daten zur quantitativen Zusammensetzung von Vanilleschoten stellen daher wertvolle Basiskriterien für eine Echtheitsbewertung von Vanille dar. Für eine weitergehende, noch zuverlässigere Authentizitätsbewertung wurden die 13C/12C-Verhältnisse von Vanillin und der zweiten Hauptkomponente 4- Hydroxybenzaldehyd ermittelt. Als grundlegende Voraussetzung für die Bestimmung korrekter Isotopenwerte wurde zum einen die Gerätekonfiguration optimiert, um eine vollständige Verbrennung zu gewährleisten, zum anderen wurde der Einfluss der Schotenaufarbeitung untersucht. Durch Korrelation der Delta13CV-PDB-Werte der beiden Komponenten konnten klare Authentizitätbereiche festgelegt werden. Insbesondere durch die integrale Betrachtungsweise beider Kriterien Verhältniszahlen und Isotopenwerte konnte die Authentizitätsbewertung von Vanille erheblich verbessert werden. Neben den Hauptkomponenten kommen in der Vanille aber auch eine große Zahl von aromaaktiven Minorkomponenten vor. Im Rahmen dieser Arbeit sollten daher auch Untersuchungen zu einigen dieser Minorkomponenten durchgeführt werden. Dabei ermöglichte es der Einsatz der neuen, hochempfindlichen Methode der Stir Bar Sorptive Extraction, eine enantioselektive Analyse von - Nonalacton und verschiedenen Monoterpenen durchzuführen. -Nonalacton konnte dabei in allen untersuchten Proben mit einem nahezu racemischen Enantiomerenverhältnis nachgewiesen werden. Die Enantiomerenreinheit und die Schwankungen der Enantiomerenverhältnisse für die untersuchten Monoterpene waren stark variierend. Es konnte dabei aber weder eine Herkunfts- noch eine Jahrgangsabhängigkeit festgestellt werden. Die sehr geruchsaktive Substanz Guajacol wurde in Schoten der Gattungen V. planifolia und V. tahitensis semiquantitativ untersucht. Es konnte aber auch hier keine Abhängigkeit von der Herkunft der Schoten festgestellt werden. Um weitere geruchsaktive Minorkomponenten zu identifizieren, wurde ein Headspace- Extrakt von Vanilleschoten mittels Gaschromatographie-Olfaktometrie untersucht. Es konnten dabei die beiden Substanzen Kreosol und 4- Hydroxybenzylamin identifiziert werden. Letztgenanntes war bisher als natürlicher Aromastoff nicht bekannt. Obwohl beide Komponenten nur im ppb- Bereich vorkommen, leisten sie dennoch eine Beitrag zum Gesamtaroma von Vanille. Insgesamt konnten im Rahmen dieser Arbeit neue Wege im Hinblick auf die Analytik und Authentizitätsbewertung von Vanille aufgezeigt werden.
Der Cytochrom-bc1-Komplex katalysiert die Elektronenübertragung von Ubihydrochinon auf Cytochrom c in der Atmungskette und in der bakteriellen Photosynthese. Das Enzym stellt somit das Bindeglied zwischen den Ubihydrochinon bildenden Dehydrogenasen und der Cytochrom c oxidierenden Cytochrom-c-Oxidase dar. Im Rahmen der vorliegenden Arbeit wurden die Wechselwirkungen des Cytochrom-bc1-Komplexes aus Saccharomyces cerevisiae mit seinen Substraten Ubichinon und Cytochrom c sowie mit Phospholipiden der inneren Mitochondrienmembran untersucht. Durch Analyse von Gesamtlipidextrakten aus Proben des Cytochrom-bc1-Komplexes konnte gezeigt werden, daß das Enzym in Anwesenheit von vier verschiedenen Phospholipiden gereinigt und kristallisiert werden kann. In der Kristallstruktur des Enzyms bei 2,3 Å Auflösung wurden fünf Bindungsstellen für Phospholipide und eine Bindungsstelle für ein Detergensmolekül identifiziert. Die Bindungsstelle für eines der Phospholipide, ein Cardiolipin-Molekül, liegt am Eingang eines von zwei Protonierungspfaden für die Ubichinon-Reduktionsstelle (Qi-Bindungsstelle). Ein Phosphatidylinosit-Molekül befindet sich in einer außergewöhnlichen Position unweit der flexiblen "Linker"-Region des Rieske Eisen-Schwefel-Proteins und trägt vermutlich zur Stabilisierung dieser katalytischen Untereinheit bei. Durch Röntgenbeugung an Kokristallen bestehend aus Cytochrom-bc1-Komplex und gebundenem Cytochrom c konnte die dreidimensionale Struktur dieses transienten Enzym-Substrat-Komplexes bei 2,97 Å ermittelt werden. Die Kristallstruktur ist die erste Struktur des Cytochrom c im Komplex mit einem seiner beiden Redoxpartner aus der Atmungskette. Sie zeigt, daß das Cytochrom c hauptsächlich durch hydrophobe Wechselwirkungen an das Cytochrom c1 bindet und daß die Nähe der beiden c-Typ Hämgruppen eine schnelle Reduktion des Cytochrom c erlaubt. Im homodimeren Cytochrom-bc1-Komplex ist nur eine der beiden Bindungsstellen für Cytochrom c besetzt. Diese hälftige Substratbindung zeigte sich auch für das Ubichinon in der Qi- Bindungsstelle und weist darauf hin, daß die beiden Monomere des Enzyms unabhängig voneinander oder sequentiell arbeiten können. Möglicherweise dient dies der Regulation der Enzymaktivität des Cytochrom-bc1-Komplexes. Durch partielle Reduktion des Cytochrom-bc1-Komplexes in Anwesenheit von Ubichinon konnte ein proteingebundenes Ubisemichinonradikal erzeugt und durch Schockgefrieren stabilisiert werden. Die spektralen Eigenschaften dieses Radikals sind typisch für ein Ubisemichinon an der Qi-Bindungsstelle. Durch Spektroskopie an einer Probe, die einem Wasserstoff/Deuterium-Austausch unterzogen wurde, konnte gezeigt werden, daß dieses Radikal von Protonen koordiniert wird, die mit dem Solvens im Austausch stehen. Dies steht in Übereinstimmung mit der Theorie des Q-Zyklus und wurde durch die hochauflösenden Kristallstruktur des Enzyms bei 2,3 Å vorhergesagt. Die erzielten Ergebnisse zeigen neue Informationen zum Wechselspiel des Cytochrom- bc1-Komplexes mit Phospholipiden aus der inneren Mitochondrienmembran. Die Bestimmung der Struktur des transienten Komplexes bestehend aus Enzym und Cytochrom c erweitert das Bild über den Elektronentransfer durch Cytochrom c zwischen dem Cytochrom-bc1-Komplex und der Cytochrom-c-Oxidase. Das mögliche Zusammenwirken der Bindungstellen für Cytochrom c und Ubichinon ist ein neuer mechanistischer Aspekt, der auf eine Regulation der Enzymaktivität schließen läßt.
Nichtmethan-Kohlenwasserstoffe sind in Gegenwart von Stickstoffoxiden (NO, NO2) wichtige Vorläufersubstanzen von troposphärischen Photooxidantien (z. B. Ozon), die beim photochemischen Metabolismus gasförmiger organischer Verbindungen durch Hydroxylradikale (OH) unter Einwirkung von Sonnenlicht gebildet werden. Experimenteller Beitrag dieser Arbeit ist die Charakterisierung, Modifizierung, Optimierung und Qualitätssicherung des zur Messung von leichtflüchtigen atmosphärischen C2-C10 Kohlenwasserstoffen verwendeten mobilen Gaschromatographen (GC) mit Flammenionisationsdetektor (AirmoVOC HC2010). Im Rahmen des vom BIvIBF geförderten Berlin Ozonexperiments BERLIOZ, das im Sommer 1998 im Großraum Berlin/Brandenburg stattfand, wurden an einer ländlichen Bodenstation in Blossin, 40 km südöstlich Berlins, in situ Messungen von 69 Nichtmethan-Kohlenwasserstoffen durchgeführt. im Vorfeld der Feldkampagne wurde der GC einer umfangreichen Qualitätssicherung unterzogen. Bei einer Immissionsvergleichsmessung, die unter Beteiligung aller Arbeitsgruppen stattfand, ergab sich eine mittlere konzentrationsabhängige Abweichung des HC-2010 von ± 16% und ein konstanter Offset (Bias) von 0,71 nmol/m3 (16 pptv) vom Referenzmeßverfahren des Forschungszentrums Jülich. Die Geräteblindwerte waren für die meisten Analyten kleiner 0,3 nmol/m3 (6 pptv). Aus der dreifachen Standardabweichung der Blindwerte ergaben sich die für Außenluftuntersuchungen geforderten Nachweisgrenzen um 0,4 nmol/m3 (10 pptv). Im zweiten Teil dieser Arbeit wurde der BERLIOZ-Datensatz hinsichtlich einer Bestandsaufnahme ausgewertet. Die beobachteten Konzentrationen der einzelnen Kohlenwasserstoffe wiesen jeweils eine logarithmische Normalverteilung auf, die Charakterisierung des Datensatzes erfolgte deshalb nicht anhand von arithmetischem Mittelwert und Standardabweichung, sondern mit geometrischem Mittelwert und multiplikativer Standardabweichung. Anhand der OH-Verlustrate wurde der Einfluß der verschiedenen Kohlenwasserstoffe auf die lokale Bildung von Photooxidantien untersucht. Der natürliche Kohlenwasserstoff Isopren lieferte mit 70% den weitaus größten mittleren Beitrag zur Photooxidantienproduktion am Boden. In der Grenzschicht verlor isopren allerdings seine dominante Rolle. Sein Beitrag schrumpfte mit zunehmender Höhe auf 20-40%. in der in 200 m Höhe beobachteten Abluftfahne Berlins verursachten anthropogene Kohlenwasserstoffe rund 2/3 der OH-Verlustrate, wobei die reaktiven C3/C4-Alkene alleine bereits 50% beitrugen.
Regulation des CFTR
(2002)
In der vorliegenden Arbeit wurde die Regulation des humanen CFTR an isolierten Makropatches von Xenopus-Oozyten untersucht. Die inside-out-Konfiguration ermöglicht den einfachen Zugang zu den zytosolischen Domänen, welche die CFTR- Aktivität steuern. Daher ist es mit dieser bewährten Methode möglich, die Interaktion des CFTR mit Nukleotiden, insbesondere unter dem Einfluss der Phosphorylierung, weitergehend zu charakterisieren. Die Strom-Spannungskennlinie des ATP-induzierten CFTR-Chloridstroms weicht bei zunehmendem Haltepotenzial von dem Verlauf ab, der aufgrund der Goldmann- Hodgkin-Katz-Gleichung zu erwarten ist. Dies weist auf einen hemmenden Einfluss des in der Badlösung vorhandenen Aspartats hin. Die transienten Ströme bei schnellen Chloridkonzentrationswechseln bestätigen diese Hemmung und legen einen inhibitorischen Einfluss auf das CFTR-Gating nahe. Die Koexpression des CFTR mit dem Fusionsprotein Bakteriorhodopsin-PKA katalytische Untereinheit (BR-PKA) erm glicht die Kanalaktivierung durch einfache ATP-Zugabe. Es wurde gezeigt, dass diese Koexpression die apparente Affinität für MgATP erhöhte. Eine naheliegende Vermutung ist, dass diese Affinitätszunahme durch einen erhöhten Phosphorylierungsgrad hervorgerufen wird, was durch die Messungen mit dem Proteinkinaseinhibitor PKI unterstützt wird. Durch die Aktivierung der koexprimierten membrangebundenen cGMP-abhängigen Proteinkinase II (cGKII) kann der CFTR sowohl in Ganzzellmessungen, als auch in Makropatches phosphoryliert werden. Der Vergleich der ATP-Konzentrationsabhängigkeiten des CFTR unter permanenter (KM = 29 µM) und vorübergehender cGKII-Stimulierung (KM = 64 µM) belegt eine Abnahme des apparenten KM bei kontinuierlicher Kinaseaktivität und somit vermutlich erhöhter Phosphorylierung. Die Öffnungs- und Schlieflkinetik des Kanals wird durch diese permanente Kinaseaktivität nicht beeinflusst. Die zeitabhängige Abnahme des CFTR-Chloridstroms, der Rundown, kann nicht durch eine permanente Proteinkinaseaktivität von BR-PKA oder cGKII aufgehoben werden. Die Signalabnahme tritt auch unter Bedingungen auf, bei denen mögliche vorhandene Phosphatasen (v.a. PP2C) inaktiv sind. Daraus folgt, dass der Rundown des CFTR nicht nur durch Dephosphorylierung verursacht wird. Für Einzelkanalmessungen wird eine Verringerung der Offenwahrscheinlichkeit des epithelialen Natriumkanals ENaC durch den aktivierten CFTR beschrieben. Die im Rahmen dieser Arbeit durchgeführten Makropatchmessungen bestätigen diese Inhibition nicht. Die CFTR- und Natriumkanal-vermittelten Ströme sind, unabhängig von dem Verhältnis der Einzelströme und dem anliegenden Haltepotenzial, generell additiv. Der präphosphorylierte CFTR kann auch durch ATP-Zugabe geöffnet werden, wenn die Badlösung kein Magnesium enthält. Da unter diesen Bedingungen keine ATP- Hydrolyse erfolgen kann, muss eine Kanalaktivierung durch einfache ATP-Bindung möglich sein. Es tritt eine Verringerung der apparenten ATP-Affinität, nicht aber des maximalen Chloridstroms auf, wenn das Magnesium aus der Badlösung entfernt wird (KM[MgATP] 70 µM; KM[ATP]> 1 mM). Die Möglichkeit der nichthydrolytischen Aktivierung wird dadurch bestätigt, dass auch mit dem nicht-hydrolysierbaren ATP- Analog AMP-PNP eine Kanalöffnung erfolgt. Magnesium ist nicht nur an der ATP-Hydrolyse beteiligt, sondern beeinflusst darüber hinaus die Kanalaktivität. Aus den Messungen bei unterschiedlichen freien Mg2 - Konzentrationen in der Badlösung geht ein inhibitorischer Einfluss dieses Kations auf den stationären Maximalstrom und ein komplexer Einfluss auf die Öffnungskinetik hervor. Die Walker-A und die Walker-B-Dom nen von Nukleotidbindestellen sind an der Bindung und Hydrolyse von MgATP in ATPasen beteiligt. Mit CFTR- Mutanten, in denen die Walker-A (K1250A), bzw. die Walker-B (D1370N)-Domäne der zweiten Nukleotidbindestelle (NBD2) mutiert sind, kann die Beteiligung der NBD2 an der Kanalöffnung belegt werden. Die langsame K1250A-Mutante öffnet in Abwesenheit von Magnesium nicht. Dagegen ist sowohl die Öffnungs- und Schließkinetik, als auch die ATP-Affinität der D1370N-Mutante mit der des Wildtyps vergleichbar, weist aber im Gegensatz zu diesem keinerlei Magnesiumabhängigkeit auf. Auf Grundlage dieser Daten wird ein Modell vorgeschlagen, in dem alternativ zu dem hydrolytischen Öffnungszyklus, in dem zunächst eine ATP-Hydrolyse an der NBD1 erfolgt, auch die nichthydrolytische Öffnung über die NBD2 möglich ist.
Ziel dieser Arbeit ist es, Wege darzustellen, wie die Thematik Ökobilanzen im Chemieunterricht allgemeinbildender Schulen behandelt werden kann. Ökobilanzen sind definiert als ein Verfahren zur Ermittlung der potentiellen Umweltbelastungen eines Produktes über dessen gesamten Lebensweg. Ein solcher Lebensweg besteht aus mehreren Abschnitten. Am Anfang steht die Rohstoffgewinnung, dann folgt die Herstellung des Produktes, darauf der Gebrauch/Verbrauch und schließlich die Entsorgung oder das Recycling. Die grundlegende Vorgehensweise, wie eine (klassische) Ökobilanz aufzustellen ist, ist ausführlich in den DIN EN ISO-Normen 14040 bis 14043 beschrieben. Für den Chemieunterricht ist aber ein solche, den gesamten Lebensweg umfassende und DIN-gerechte Betrachtung zu zeitaufwendig und schwierig. Daher wurde nach Lösungsmöglichkeiten gesucht, dieses aufgrund seines Umweltbezuges interessante Thema dennoch für den Unterricht erschließen zu können. Es wurde ein kombinierter experimenteller und computerunterstützter Zugang entwickelt. Schwerpunkt ist der Chemieunterricht der Sekundarstufe II, jedoch kann die Thematik Ökobilanzen aufgrund umfassender didaktischer Reduktion bereits in der Sekundarstufe I oder ganz vereinfacht sogar im Sachunterricht der Grundschule behandelt werden. Methodische Möglichkeiten werden auch für diese Schulstufen vorgestellt. Für die Sekundarstufe II wurden Experimente erarbeitet, deren Daten zu den Stoff- und Energieströmen dazu dienen, eine vereinfachte Ökobilanz im Unterricht aufstellen zu können. Gegenstand der Experimente ist zum einen die Herstellung von entionisiertem Wasser über Destillation und Ionenaustausch, zum anderen die Herstellung und das Recycling von Kunststoffen. Die Experimente sind so konzipiert, daß sie von Schülern selbst durchgeführt werden können. Um die Auswertung und die Aufstellung der Ökobilanz zu vereinfachen und somit zu beschleunigen, wurde das Programm ÖKO-BILLY unter Microsoft Excel 97 entwickelt, welches hier ebenfalls vorgestellt werden soll. Es dient nicht nur Datenerfassung, sondern ist darüber hinaus auch ein Lernprogramm, welches den Aufbau und die Durchführung einer Ökobilanz demonstriert. Durch die Kombination von Experiment und Computerprogramm kann die Thematik Ökobilanzen erfolgreich im Chemieunterricht der gymnasialen Oberstufe vermittelt werden.
Weltweit stellen die tropischen Tieflandregenwälder die Zentren der Artenvielfalt und Biodiversität dar. Sie sind das komplexeste aller terrestrischen Ökosysteme. Zu der Frage nach den Ursachen ihrer Artenvielfalt und deren Aufrechterhaltung gibt es neben theoretischen Erklärungsansätzen bisher kaum Studien, die versuchen, die Artenvielfalt eines Taxons bedingende ökologischen Faktoren kausal zu untersuchen. Die vorliegende Arbeit hatte zum Ziel, diese Thematik mit Hilfe eines neuen Forschungsansatzes aufzugreifen. Die Artenabnahme eines Taxons und die sie potentiell verursachenden Faktoren sollten entlang eines Höhengradienten aufgenommen werden, um im Umkehrschluß Hinweise zu finden, welche Bedingungen für die Aufrechterhaltung der Artenvielfalt entscheidend sind. Ameisen boten sich aufgrund ihrer starken Artenabnahme mit zunehmender Höhe besonders als Untersuchungsobjekt an. Sie nehmen zudem eine Schlüsselrolle im Ökosystem Tieflandregenwald ein, stellen unter den Invertebraten eine der taxonomisch mit am besten bearbeiteten Gruppen dar, und selbst einzelne Individuen können aufgrund ihrer eusozialen und seßhaften Lebensweise definitiv dem Fundort bzw. der Fundhöhe zugeordnet werden. Der grundlegende Versuchsansatz bestand darin, alle Untersuchungen vergleichend in Boden- und Vegetationsstratum durchzuführen. Dementsprechend wurden entlang des Höhengradienten in beiden Straten die Artenabnahme der Ameisen sowie abiotische und biotische Parameter aufgenommen. Weiterhin wurde eine Art (Diacamma sp.) exemplarisch herausgegriffen, um eventuelle Veränderungen ihrer Ökologie zu erfassen. Die Abnahme der Artenvielfalt von Ameisen am Boden und in der niederen Vegetation verläuft unterschiedlich. Dieser Unterschied ist jedoch nicht auf grundlegend unterschiedliche Faktoren zurückzuführen, sondern auf deren unterschiedliche Ausprägung entlang des Höhengradienten. Es handelt sich hier in beiden Straten zusammenfassend vor allem um vier Faktoren: Temperatur, Feuchtigkeit (umfaßt relative Luftfeuchtigkeit, Nebel, Regen und Staunässe), Nistraumverknappung und Nahrungsverknappung. Die in dieser Studie festgestellte signifikant positive Korrelation von Arten- und Temperaturabnahme betont die besondere Bedeutung des Parameters Temperatur. Diese wirkt einerseits durch eine Beeinträchtigung des Stoffwechsels direkt auf adulte Tiere und Brut und andererseits indirekt über die Veränderung abiotischer (Feuchtigkeit und Nistraum) und biotischer (Nahrung) Parameter. Die jeweiligen relativen Anteile von direktem und indirektem Temperatureinfluß, die mit zunehmender Höhe zur Artenabnahme führen, sind mit den vorliegenden Daten nicht quantifizierbar. Zudem verändern sich die Relationen entlang des Höhengradienten. Anhand ökologischer Überlegungen kann dennoch eine Einschätzung der jeweiligen Bedeutung der Einzelfaktoren vorgenommen werden. Der direkte Einfluß von Temperatur wird in der vorliegenden Studie mehrfach verdeutlicht. Diacamma sp. zeigt beispielsweise eine verminderte Leistungsfähigkeit durch eine signifikant geringere Bauaktivität mit steigender Höhe. Zudem scheint Diacamma sp. in der Lage zu sein, die Architektur ihrer Nester so zu verändern, daß sie thermoregulatorisch der Temperaturabnahme entgegenwirkt. Diese ethologische Flexibilität ermöglicht Diacamma sp., ihr Vorkommen über ihre physiologische Toleranz hinaus auszudehnen. Ein weiterer Hinweis auf einen direkten Temperatureinfluß ergibt sich aus der generellen Reduktion der Koloniegrößen mit zunehmender Höhe. Sie könnte unter anderem durch eine verringerte Fouragieraktivität begründet sein. Weiterhin nimmt die Nestdichte in beiden Straten in dem Höhenbereich signifikant ab, in dem die Durchschnittstemperaturen unter den ökologisch für Ameisen kritischen Schwellenwert von 20°C sinken. Der überwiegende Teil der Ameisen beider Straten nistet in thermoregulatorisch ungünstigem Nistraum (z.B. kleines Totholz, Laub, Humusschicht, Karton). Daher kann die Temperaturabnahme direkt zu einer Nistraumverknappung führen. Am Boden hat die temperaturinduzierte Zunahme von Staunässe mit steigender Höhe einen zusätzlichen negativen Effekt auf die Ressource Nistraum. Insbesondere die Schicht, in der die meisten Nester gefunden wurden (Humus-Wurzel-Schicht), ist davon betroffen. Zudem führt die signifikant an Höhe zunehmende Humus-Wurzel-Schicht dazu, daß der Oberboden im Übergang zwischen Tiefland- und unterem Bergregenwald immer weniger als Nistraum zur Verfügung steht. Im Bergregenwald hingegen treten durch vermehrten Epiphytenbewuchs für Bodenameisen neue Nistmöglichkeiten in der niederen Vegetation auf. In der Vegetation werden durch zunehmende Feuchtigkeit die Kartonnester instabil und damit in größeren Höhen unbrauchbar. Zudem trägt die temperaturabhängige Veränderung der Wuchsform des unteren Bergregenwaldes durch eine räumliche Verkleinerung des Gesamtlebensraumes zu einer Reduzierung der Nist- und Nahrungsressourcen bei. Die Nahrungsverfügbarkeit für Ameisen wird am Boden und in der niederen Vegetation ebenfalls negativ von Temperatur und Feuchtigkeit beeinflußt. Am Boden wird die Nahrungsverknappung z.B. durch den signifikant zunehmenden Nistabstand und den signifikant abnehmenden Beuteeintrag / Zeit von Diacamma sp. Kolonien deutlich. Es ist anzunehmen, daß Nahrungsmangel bei ihrer Verbreitungsgrenze von 1050 m eine wichtige Rolle spielt. Die Nahrungsverknappung für die räuberisch lebenden Bodenameisen wird vermutlich vor allem durch die Abnahme wichtiger Beutegruppen (z.B. Termiten) verursacht. Weiterhin hindert (Stau)Nässe kleine Ameisenarten (die große Mehrheit der hier gesammelten Arten) an der Nahrungssuche. In der niederen Vegetation verursacht der Wechsel des Florentyps auf Familienniveau zwischen Tieflandregenwald und Bergregenwald mit großer Wahrscheinlichkeit eine entscheidende Verknappung der Nahrungsressourcen über die Abnahme von Pflanzen mit extrafloralen Nektarien und der mit Ameisen assoziierten Trophobionten. Die Arten- und Abundanzabnahme der Ameisen verstärkt diese Tendenz wiederum durch negative Rückkopplung, da eine geringere Nachfrage das Angebot bzw. die Produktion der Nahrungssubstrate reduziert. Die vorliegenden Ergebnisse geben weiterhin Hinweise, welche Faktoren bei der Faunenverarmung in anthropogen veränderten Habitaten eine wichtige Rolle spielen können. Der größte Teil der Artenvielfalt des untersuchten primären Regenwaldes wird von kleinen Arten gestellt. Diese wiederum weisen in besonderem Maße eine Sensibilität gegenüber mikroklimatischen Veränderungen auf. Insbesondere abiotische Extreme wie Nässe und niedrige Temperaturen oder Trockenheit in Kombination mit hohen Temperaturen sind Faktoren, die sie am Fouragieren und Nisten hindern können. Daher trägt eine gut ausgebildete Laubstreu- bzw. Humusschicht grundsätzlich zur Artenvielfalt der Bodenameisen bei. Die Laubstreuschicht dient als Fouragierstratum, die Humusschicht als Hauptniststratum, und beide zusammen wiederum sind ein Schutz gegen die Austrocknung des Oberbodens. Ihre Bewahrung sowie die eines möglichst ausgewogenen Mikroklimas sind Grundvoraussetzung für die Vermeidung einer Artenverarmung. Für die niedrige Ausbreitungsgrenze von Ameisen an feucht-tropischen Höhengradienten (ca. 2300 m) scheinen spezielle Charakteristika ihrer eusozialen Lebensweise entscheidend zu sein. Hier sind insbesondere die ökologische Notwendigkeit geschützten Nistraums, energieaufwendiger Fouragierleistung und hoher Brut-Entwicklungstemperatur sowie die Unfähigkeit zur aktiven Nest- Temperaturerhöhung zu nennen. Historisch tiergeografische Gründe scheinen für die starke Abnahme der Ameisenvielfalt mit zunehmender Höhe bzw. für ihre Ausbreitungsgrenzen eine eher untergeordnete Rolle zu spielen. Temperaturabnahme allein bedingt jedoch nicht zwingend eine Artenabnahme, wie im unteren Bergregenwald an der gleichbleibenden Artenzahl des Bodenstratums deutlich wird. Die Bodenameisen müssen hier Lösungswege gefunden haben, dauerhaft mit weit unter 20°C liegenden Temperaturen, starker Nässe und geringer Sonneneinstrahlung zurecht zu kommen. Insofern können in den submontanen und montanen Bereichen der Regenwälder Höhenspezialisten vermutet werden, die jedoch nicht die subalpinen Regionen erreichen. Zusammenfassend ist festzuhalten, daß für eine hohe Artenvielfalt von Ameisen eine relativ hohe Temperatur, ausgewogen hohe Feuchtigkeit, Nistraumvielfalt und Nahrungsmenge sowie -qualität von entscheidender Bedeutung sind. Eine nähere experimentelle Analyse ihres jeweiligen relativen Gewichtes und ihrer konkreten Wirkweise auf einzelne Arten bzw. Artengruppen wäre für die Zukunft wünschenswert.
Die Kichererbse (C. arietinum L.) ist eine der ältesten kultivierten Leguminosen und stellt eine Nahrungsgrundlage in vielen Ländern mit semiaridem Klima dar. Seit einigen Jahren unterstützen molekulare Marker sowohl die Züchtungsforschung als auch die Genomanalyse dieser Pflanze, so daß bereits eine genetische Karte des Kichererbsengenoms erstellt werden konnte. Da repetitive Komponenten einen Großteil des Genoms ausmachen können, ist ihre Charakterisierung zum Verständnis der Organisation des Kichererbsengenoms unerläßlich. Insgesamt konnten sieben repetitive Sequenzfamilien aus C. arietinum isoliert und identifiziert werden, von denen einige direkt in der Genomanalyse bzw. für taxonomische Fragen Anwendung fanden. Außerdem wurde ein universelles Primerpaar zur schnellen Detektion von DNA-Transposons entwickelt und verwendet. 1. Die beiden Satellitenelemente CaSat1 und CaSat2 sowie das Ty3-gypsy-ähnliche Retrotransposon CaRep stellen vermutlich die abundantesten Familien repetitiver Sequenz dar. Die beiden AT-reichen Satelliten bestehen aus 162-167 bzw. 100 Bp langen, hintereinander (,,head-to-tail") angeordneten Monomeren. CaSat2 ist ein dominanter Bestandteil des pericentrischen Heterochromatins, während CaSat1 hauptsächlich in der Nachbarschaft der 18S-5.8S-25S rDNA-Loci lokalisiert ist. Eine Verwandtschaft von CaSat1 zu IGS-Sequenzen ist nicht auszuschließen. Eine vollständige Kopie des dispersen Retroelements CaRep, das im pericentrischen Heterochromatin konzentriert ist, jedoch den zentralen Bereich von CaSat2 ausspart, konnte rekonstruiert werden. Das Element ist 11.4 Kbp lang und hat relativ lange, flankierende LTRs von je 3.3 Kbp. Alle drei hochrepetitiven Elemente sind spezifisch für die Gattung Cicer. Die genomische Organisation von CaRep wurde offenbar während der Evolution der annuellen Cicer-Spezies mehrfach rearrangiert. 2. Da die beiden Satelliten CaSat1 und CaSat2 in allen untersuchten Spezies der Gattung Cicer (außer C. cuneatum) vorhanden sind, lassen sich ihre Abundanz und Organisation zur Klärung taxonomischer Fragen verwenden. Die Ergebnisse unterstützen die Außenseiterrolle von C. cuneatum innerhalb der annuellen Cicer- Spezies und damit Thesen zu einem separaten Ursprung dieser Annuellen sowie die Forderung nach der taxonomischen Trennung von der Sektion Monocicer. Auch unterstützen und ergänzen die Ergebnisse über die Satellitenelemente bereits vorliegende molekulare Daten, Karyotypisierungen sowie Kreuzbarkeitsdaten und bestätigen die Gruppierung von C. chorassanicum sowie der ersten Kreuzungsgruppe. 3. Das hochabundante Retrotransposon CaRep kann für eine S-SAP (,,sequence-specific amplified polymorphisms")-ähnliche Markertechnik verwendet werden und liefert polymorphe molekulare Marker, die sich in die genetische Karte integrieren lassen. Die damit detektierten Polymorphismen werden vermutlich durch Variabilität innerhalb der LTR-Sequenzen erzeugt. Ein Teil der so generierten Marker ist mit den Resistenzgenloci gegen Fusarium oxysporum f.sp. ciceri gekoppelt. Die Hybridisierung bestätigt, daß durch die Marker tatsächlich Loci des Retrotransposons auf der genetischen Karte lokalisiert werden. 4. Unabhängig davon konnten durch PCR-Ansätze die drei mittelrepetitiven, dispersen Retrotransposonfamilien CaDis, CaTy und CaLin identifiziert werden. Von den beiden LTR-Retrotransposons CaDis und CaTy gehört letztere Familie zur Ty1-copia- Untergruppe, CaLin repräsentiert ein non-LTR-Element der LINE-Klasse. Alle drei Familien sind weniger abundant als CaRep und in den distalen Bereichen einiger oder aller Heterochromatinblöcke bzw. in den angrenzenden euchromatischen Regionen zu finden. Im Gegensatz zu den hochabundanten Familien kommen homologe Sequenzen der drei Familien auch außerhalb der Gattung Cicer vor und deuten auf eine evolutiv frühe Anwesenheit innerhalb der Fabaceen hin. Die sehr heterogenen Sequenzen von CaLin sind vermutlich sehr ursprünglich und haben während der Evolution der Annuellen keine großen Rearrangements erfahren. CaDis-Sequenzen werden in vielen Geweben transkribiert, jedoch ist unklar, ob dies auf eine Aktivität des Elements hinweist oder auf das Durchlesen benachbarter Gene zurückzuführen ist. 5. Um auch transposable Elemente der Klasse II (DNA-Transposons) nachweisen zu können, wurde ein degeneriertes Primerpaar aus dem Bereich der Transposase abgeleitet, mit dessen Hilfe pflanzliche En/Spm-Elemente in über 30 Pflanzenarten aus 20 Gattungen, darunter auch wichtigen Kulturpflanzen wie Zuckerrübe, Weizen und Erbse nachgewiesen werden können. Dieser Ansatz stellt einen Ausgangspunkt für die Charakterisierung solcher Elemente in beliebigen Pflanzengenomen und ihre Verwendung bei der Genomanalyse sowie zur Genidentifikation und -isolation dar. 6. Die niedrig- bis mittelrepetitive, disperse En/Spm-Familie aus C. arietinum (CaEn/Spm) umfaßt drei Subfamilien und ist auf mindestens sechs Chromosomen im distalen Teil der Heterochromatinblöcke angrenzend an euchromatische Bereiche lokalisiert. Die hier vorgelegten Befunde umfassen die erste chromosomale Lokalisation eines DNA-Transposons in Pflanzen durch FISH. Die genomische Organisation homologer Sequenzen in anderen Cicer-Spezies deutet möglicherweise auf transposable Aktivität während der Evolution der Annuellen hin. CaEn/Spm- ähnliche Elemente scheinen bereits in einem Vorgänger von C. arietinum und nahe verwandten Leguminosen vorhanden gewesen zu sein. Durch die vorliegenden Daten war es möglich, ein vorläufiges Modell der Verteilung repetitiver Sequenzen auf den acht Kichererbsenchromosomen zu entwerfen, das für die weitere Genomanalyse von C. arietinum genutzt werden kann. Obwohl vermutlich nur ein Teil aller repetitiven Komponenten dieses Genoms charakterisiert wurde, deutet sich - im Gegensatz zu Pflanzen mit vergleichbarer Genomgröße - durch die Konzentration repetitiver Sequenzen im pericentrischen Heterochromatin eine Ähnlichkeit zur Chromosomen- organisation in Arabidopsis thaliana an.
Die vorliegende Arbeit befasst sich im Wesentlichen mit zwei Zielen. Zum einen sollte durch den selektiven Einbau von modifizierten Nukleosiden der UUCG-Tetraloop untersucht werden, um seine ungewöhnlich hohe Stabilität besser zu verstehen. In einem zweiten Projekt stand die Entwicklung einer neuen Methode für das Spin-Labeling von Oligonukleotiden für die ESR-Spektroskopie im Mittelpunkt. Die einzigartige hohe Stabilität des UUCG-Tetraloops beruht auf der Ausnutzung der drei stabilisierenden Faktoren: Wasserstoffbrücken, Basenstapelung und Solvatation. Für die Untersuchung des UUCG-Tetraloops wurden 2´-Fluorpyrimidine 22a/b, 23a/b und 27a/b, 2´- Desoxyuridin 26a/b sowie ein dem Uridin isosterer Baustein 28a/b eingesetzt (Abb. 10.1). Während die Bausteine 27a/b und 28a/b vorlagen, sind die Bausteine 22a/b, 23a/b und 26a/b synthetisiert worden. 2´-Fluorpyrimidine können durch die fehlende 2´-OH-Funktion nicht als Wasserstoffbrückendonor dienen. Weiterhin verschiebt die Fluorierung in ribo- bzw. arabino- Stellung das C3´-endo/C2´-endo Gleichgewicht. Im Vergleich mit dem Einbau von 2´- Desoxyuridin lassen sich Aussagen über Vorzugskonformation und Beteiligung an Wasserstoffbrücken einzelner Nukleotide im Loop machen. Ein Schlüsselmolekül für die Synthese der 2´-Fluor modifizierten Bausteine 22a/b und 23a/b ist 2,2´-Anhydro-1-( -D-arabinofuranosyl)uracil 19 welches durch die Umsetzung von Uridin 18 mit Diphenylcarbonat und Natriumhydrogencarbonat in HMPT erhalten werden kann. Dieses ermöglicht die selektive Einführung eines Fluor-Atoms. Die 2´-Fluornukleoside wurden nach Standardbedingungen in Phosphoramidite überführt. Die Darstellung des Cytidinbausteins 23a/b gelang durch direkte Umsetzung der Verbindung 22a/b mit 1,2,4-Triazol und POCl3. Diese Reaktion erspart einen gesonderten mehrstufigen Syntheseweg für die Verbindung 23a/b ausgehend vom Cytidin. Die Bausteine wurden selektiv an verschiedenen Positionen im Loop- und Stembereich der UUCG-Haarnadelschlaufe mittels der Phosphoramiditmethode an einem Syntheseautomaten eingebaut. Die Aufreinigung der erhaltenen RNA-Stränge erfolgte durch Anionenaustausch-HPLC. Nach der Charakterisierung durch MALDI-TOF Massenspektrometrie wurden die Stränge mittels UV- und CD-Spektroskopie untersucht. Neben den Tm-Werten wurden auch die thermodynamischen Parameter bestimmt. Aus den gemessenen Daten konnten im Wesentlichen folgende Ergebnisse erzielt werden: * Der Einbau aller Bausteine im Loopbereich führte zu einer Destabilisierung im Vergleich zum nativen Loop. Die Inkorporation von UF im Stembereich hatte eine beachtliche Stabilisierung der Struktur zur Folge, im Fall des Stranges HP19 von 8°C (siehe Tab. 7.1, Seite 79) * Der Einbau von UF an der Position U4 führte erwartungsgemäß zu einer Destabilisierung, da die durch NMR-Daten belegte Wasserstoffbrücke zu G7 nicht ausgebildet wird. * An der Position U4 liegt bevorzugt eine C2´-endo Konformation vor. * Von besonderer Bedeutung für die Stabilität des Loops ist die Position C6. Die Inkorporation von CF hat eine besonders deutliche Destabilisierung zur Folge, woraus auf eine bevorzugte C2´-endo Konformation geschlossen werden kann. Zum anderen spielen hier Solvatationseffekte eine Rolle, da die 2´-OH-Funktion des nativen Loops Kontakt zum Lösungsmittel hat. * Der Einbau des isosteren Bausteins 28a/b führte an keiner Position zu einer Stabilisierung, obwohl durch das ausgeprägte -System eine bessere Basenstapelung zu erwarten wäre. Im Gegenteil wir durch die modifizierte Base der Tetraloop nachhaltig destabilisiert (12°C). * Auffällig ist eine Abflachung der erhaltenen Schmelzkurven, die auf eine Abnahme der Kooperativität oder das Vorhandensein verschiedener Zwischenstufen schließen lässt. Auch NMR-Ergebnisse belegen, dass der Tetraloop ein hohes Maß an Flexibilität zeigt. Die erhaltenen Daten sind in Übereinstimmung mit einer auf NMR-Daten beruhenden simulierten Struktur, die Williams et al, 2001 vorgeschlagen haben. * Die Mehrfacheinbauten zeigen, dass die stabilisierenden Kräfte dieses Tetraloops synergetisch scheinbar optimal zusammenwirken und nur schwer getrennt voneinander betrachtet werden können. Im zweiten Projekt sollten Oligonukleotide durch das Anbringen von Spin-Labeln für die ESR-Spektroskopie zugänglich gemacht werden. Zunächst ist der durch seine Starrheit geeignete Label 29 in einer 8-stufigen Synthese ausgehend von 2,2,6,6-Tetramethylpiperidin-4-on 41 synthetisiert worden. Nach der Bromierung in und ´-Position wird durch eine Favorskii-Umlagerung der Fünfring aufgebaut. Die Oxidation des Amins wurde mit H2O2/Natriumwolframat durchgeführt. Nach der basischen Hydrolyse wird die Seitenkette über ein Weinrebamid zum Aldehyd reduziert. Eine direkte Reduktion war nicht möglich. Das terminale Alkin des Labels 29 wir durch Seitenkettenverlängerung durch eine Wittig- Reaktion mit anschließender Dehydrochlorierung erhalten. Ein alternativer Syntheseweg, der die Oxidation des Amins zum Nitroxid auf einer späteren Stufe vorsieht, war nicht erfolgreich. Da die Ankupplung des Labels an die 5-Position eines Uridin- oder Desoxyuridin- Bausteins während der Festphasensynthese am Syntheseautomaten erfolgen soll, ist der entsprechende 5-Ioduridinphosphoramidit- bzw. 2´-Desoxy-5-Ioduridinphosphoramidit- baustein synthetisiert worden. Nach der Schützung der freien Hydroxylgruppen mit der Acetylschutzgruppe ist die Iodierung der 5-Position mit Iod und Cerammoniumnitrat durchgeführt worden. Nach der Entschützung der Hydroxylgruppen wurden die Phosphoramidite nach Standardmethoden synthetisiert. Im Gegensatz zu bisherigen Arbeiten, die ein gelabletes Phosphoramidit am Synthesizer eingebaut haben, wurde die Kupplung des Labels in dieser Arbeit während der Festphasensynthese durchgeführt. Dies hat den Vorteil, dass im Gegensatz zu dem gelabelten Amidit pro Kupplung nur geringe Mengen des Spin-Labels verbraucht werden. An der zu markierenden Position wird ein 5-Ioduridin oder 2´-Desoxy-5-ioduridinbaustein eingebaut und danach die Säule vom Synthesizer entfernt. Nun wird mit Hilfe von Spritzen eine Mischung des Labels, des Palladium(0)-Katalysators und CuI in DMF/Triethylamin auf die Säule aufgegeben. Nach der erfolgten Kupplung wird die Säule wieder am Synthesizer installiert und die Synthese fortgesetzt. Es hat sich aus Gründen der einfacheren Handhabbarkeit als günstiger erwiesen, als Katalysator nicht Tetrakis-(triphenylophosphin)-palladium(0) 66 sondern Bis- (triphenylphospin)-palladium(II)-dichlorid 68 einzusetzen. Die Kupplungsausbeuten des Labels lagen nach HPLC-Daten bei über 90% für die Stränge SG1 bis SG4 (siehe Tab. 9.2, Seite 132). Die Ausbeuten lagen damit genauso hoch wie die Kupplung des als Vergleichsverbindung eingesetzten Hexins. Während die HPLC-Aufreinigung bei den kurzen Strängen erfolgreich war, waren bei den längeren Strängen SG7 bis SG9 die Unterschiede in den Retentionszeiten geringer, sodass es bei noch längeren Strängen nötig werden könnte, die Stränge mittels Gelelektrophorese aufzureinigen. Die Analytik erfolgte durch ESR-Spektroskopie, enzymatischen Verdau und Massenspektrometrie. Jedoch habe sich sowohl die MALDI-TOF als auch die ESI- Massenspektrometrie als problematisch erwiesen. Die Spektren waren oft nicht aussagekräftig und wenig reproduzierbar. Als Ausblick für zukünftige Arbeiten ausgehend von dieser Arbeit werden folgende Untersuchungen angeregt: * Die Untersuchung, ob FPLC oder Gelelektrophorese geeignete Methoden darstellen, um längere gelabelte Stränge aufzureinigen. * Darstellung von iodierten Purinnukleosiden, um beliebige Positionen innerhalb eines Oligonukleotids mit einem Spin-Label markieren zu können. * Den Mehrfacheinbau von Spin-Labeln um Abstände in kleinen RNA-Strukturen, z.B. Ribozymen zu bestimmen. Hier können auch Wechselwirkungen mit anderen paramagnetischen Sonden wie Manganionen ausgenutzt werden.