Refine
Year of publication
Document Type
- Doctoral Thesis (5728) (remove)
Language
- German (3634)
- English (2065)
- French (9)
- Latin (5)
- Spanish (5)
- Portuguese (4)
- Italian (3)
- Multiple languages (2)
- mis (1)
Is part of the Bibliography
- no (5728) (remove)
Keywords
- Deutschland (15)
- Gentherapie (14)
- HIV (13)
- Apoptosis (12)
- Membranproteine (12)
- NMR-Spektroskopie (11)
- RNA (11)
- RNS (10)
- Schmerz (10)
- ALICE (9)
Institute
- Medizin (1525)
- Biowissenschaften (833)
- Biochemie und Chemie (729)
- Physik (596)
- Pharmazie (329)
- Biochemie, Chemie und Pharmazie (310)
- Geowissenschaften (139)
- Neuere Philologien (115)
- Gesellschaftswissenschaften (110)
- Psychologie (97)
Bei einer HIV-1-Infektion ist die Krankheitsprogression zum Vollbild AIDS mit dem Auftreten von Virusvarianten assoziiert, die den Chemokinrezeptor CXCR4 zum Zelleintritt verwenden. Dagegen nutzen SIV ein breites Korezeptorspektrum, vor allem CCR5. Im Verlauf einer SIV-Infektion findet kein Korezeptorwechsel von CCR5 zu CXCR4 statt. In dieser Arbeit wurde der Einfluß einer solchen Änderung der Korezeptornutzung auf die SIVagm-Infektion in-vitro und auf den Verlauf der apathogenen SIV-Infektion in-vivo nach Infektion von Schweinsaffen untersucht. Um die Korezeptorspezifität eines SIV zu CXCR4 zu verändern, wurde das in AGM und Schweinsaffen apathogene SIVagm3mc verwendet, das als Korezeptoren zum Zelleintritt CCR5, BOB und BONZO nutzt. Die potentielle Korezeptorbindungsstelle, der zu HIV-1 homologe V3-Loop des Oberflächen-Hüllproteins gp130-SU des SIVagm3mc wurde durch den V3-Loop des CD4 / CXCR4-tropen HIV-1-Klons BH10 ersetzt. Das resultierende SIVagm3-X4mc erwies sich als replikationskompetent und verwendete zum Zelleintritt ausschließlich CD4 / CXCR4. Die Replikation wurde durch den natürlichen Liganden des CXCR4, SDF-1a, dosisabhängig gehemmt. Überraschenderweise besaß SIVagm3-X4mc die Eigenschaft, in-vitro nicht nur in IL2 / PHA-stimulierten sondern auch in unstimulierten PBMC von Schweinsaffen und AGM replizieren. Nach Infektion von je zwei Schweinsaffen (Macaca nemestrina) mit SIVagm3mc bzw. SIVagm3-X4mc konnte bis zu 14 Monate nach Inokulation keine Krankheitsentwicklung und kein Abfall der absoluten Anzahl der CD4 -T-Lymphozyten beobachtet werden. Die Virusbelastung der Tiere war vergleichbar und die Korezeptornutzung blieb auch nach in-vivo Replikation erhalten. Interessanterweise konnte SIVagm3-X4mc, nicht aber das Wildtypvirus SIVagm3mc, durch Sera von SIVagm3mc und SIVagm3-X4mc infizierten Schweinsaffen neutralisiert werden. HIV-1-spezifische Antikörper konnten in Sera eines mit SIVagm3-X4mc infizierten Tieren nachgewiesen werden. Diese Studie beschreibt zum ersten Mal den erfolgreichen Austausch eines V3-Loops bei SIV. Das resultierende SIVagm3-X4mc, das wie beabsichtigt CD4 / CXCR4-positive Zellen infizierte, war im Gegensatz zum Ausgangsvirus in der Lage, in nicht-stimulierten PBMC zu replizieren und zeigte Sensitivität gegenüber neutralisierenden Antikörpern, die in SIVagm3mc- und SIVagm3-X4mc-infizierten Schweinsaffen induziert wurden.
More than 70 years ago, the effects of extracellular adenosine 5'-triphosphate (ATP), a newly identified and purified biomolecule at that time (Fiske and Subbarow, 1925; Lohmann, 1929) were observed by Drury and Szent-Györgyi (1929). Since then, many pharmacological studies were carried out with extracellular adenine nucleotides in various intact organ systems, isolated tissues, and purified cell preparations. Yet it was not until 1972 that Burnstock introduced the concept of "purinergic nerves" and suggested that ATP might fulfil the criteria generally regarded as necessary for establishing a substance as a neurotransmitter, summarised by Eccles (1964):
• synthesis and storage of transmitter in nerve terminals
Strips of guinea-pig taenia coli (GPTC) were shown to take up large amounts of tritium-labelled adenosine when incubated with tritium-labelled adenosine, adenosine 5'-monophosphate (AMP), adenosine 5'-diphosphate (ADP) and ATP. The nucleoside was rapidly converted into and retained largely as [ 3 H]-ATP (Su et al., 1971).
• release of transmitter during nerve stimulation
Spontaneous relaxation of GPTC as well as relaxations induced by nerve stimulation or nicotine, respectively, in the presence of compounds which block adrenergic and cholinergic responses were accompanied by a remarkable increase in release of tritium-labelled material from taenia coli incubated in [ 3 H]-adenosine (Su et al., 1971).
• postjunctional responses to exogenous transmitters that mimic responses to nerve stimulation
Burnstock et al. (1966) characterised ATP and ADP as the most potent inhibitory purine compounds in the gut and observed that the effects of ATP mimic more closely the inhibitory response of the taenia to non-adrenergic nerve-stimulation than to adrenergic nerve stimulation (Burnstock et al., 1970).
enzymes that inactivate the transmitter and/or uptake systems for the transmitter or its breakdown products
When ATP was added to a perfusion fluid recycled through the vasculature of the stomach, very little ATP remained, but the perfusate contained substantially increased amounts of adenosine and inosine, as well as some ADP and AMP (Burnstock et al., 1970).
• drugs that can produce parallel blocking of potentiating effects on the responses of both exogenous transmitter and nerve stimulation
Tachyphylaxis to ATP produced in the rabbit ileum resulted in a consistent depression of responses to non-adrenergic inhibitory nerve stimulation, whereas responses to adrenergic nerve stimulation remained unaffected (Burnstock et al., 1970). Lower concentrations of quinidine reduced and finally abolished relaxation of GPTC induced by noradrenaline (NA) and by adrenergic nerve stimulation. Using higher concentrations of the compound, relaxant responses of GPTC to ATP as well as to non-adrenergic inhibitory nerve stimulation were abolished (Burnstock et al., 1970). ...
Ziel dieser Arbeit ist die Herstellung und Charakterisierung von Zn-Mg-SE-Legierungen (SE = Y, Ho, Er, Dy, Tb, Gd), um Informationen über Struktur, Stabilisierung und physikalische Eigenschaften der quasikristallinen Phasen dieses Systems zu erhalten. Die Quasikristalle dieses Systems unterscheiden sich von Quasikristallen anderer Legierungen, die meist Al als Hauptkomponente enthalten. Es konnten bis zu 275 mm3 große Einkristalle der flächenzentriert ikosaedrischen Phase in den Systemen Zn-Mg-Y und Zn-Mg-Ho gezüchtet werden. Außerdem wurden MgZn2- und hexagonale A-Zn70Mg14Y16-Einkristalle hergestellt, deren Existenzbereiche im Phasendiagramm benachbart zu dem der ikosaedrischen Phase liegen. Um polykristalline Proben herzustellen, die unterschiedliche quasikristalline oder verwandte Strukturen als Hauptphase enthalten, wurden verschiedene Herstellungsverfahren getestet und verwendet. So konnte zum Beispiel erstmalig eine Probe hergestellt werden, die dekagonales ZnMgY als Hauptphase enthält. Zudem wurde eine neue kubische (R-Phase) bzw. hexagonale (M-Phase) und eine neue hochgeordnete primitiv ikosaedrische Phase im System Zn-Mg-Er entdeckt, synthetisiert und charakterisiert. Bei Untersuchungen dieser selbst gefertigten Proben konnten Erkenntnisse über magnetische Eigenschaften, elastische Konstanten, optische Leitfähigkeit, Leerstellenverteilung, Oberflächenbeschaffenheit, Diffusionsmechanismen und die Erstarrungsgeschichte der flächenzentriert ikosaedrischen Zn-Mg-SE-Quasikristalle gewonnen werden. Durch vergleichende Messungen an kristallinen Zn-Mg-SE-Legierungen lassen sich die für Quasikristalle spezifischen Effekte identifizieren. Die im Rahmen dieser Arbeit hergestellten und charakterisierten Proben sind aktuell Gegenstand weiterer Untersuchungen. Mit Hilfe von Beugungsexperimenten konnte gezeigt werden, dass die kubische R-Phase strukturell nahe mit der ikosaedrischen Phase im System Zn-Mg-SE verwandt ist. Die R- Phase ist bei Raumtemperatur nicht stabil und bildet die rhomboedrische M-Phase. Es konnte ein Strukturmodell für die R-Phase entwickelt werden, in dem keine ikosaedrischen Cluster als Strukturelement verwirklicht sind. Auch in der hexagonalen A-Phase konnten solche Strukturelemente nicht gefunden werden. Die Resultate dieser Arbeit legen nahe, dass die Struktur der Zn-Mg-SE-Quasikristalle, im Gegensatz zu Quasikristallen anderer Systeme, nicht auf großen ikosaedrischen Clustern basiert. Damit ist gezeigt, dass große ikosaedrische Cluster zur Bildung von Quasikristallen nicht notwendig sind. Messungen an den Proben zeigen, dass sich dadurch auch einige der physikalischen Eigenschaften, zum Beispiel die optische Leitfähigkeit, von Quasikristallen mit Clustern unterscheiden. Keine Unterschiede konnten beim Diffusionsverhalten und bei mechanischen Eigenschaften festgestellt werden. Hier gleichen die Zn-Mg-SE-Quasikristalle anderen strukturell komplexen Legierungen oder Quasikristallen anderer Legierungssysteme.
In der vorliegenden Arbeit wurde die mögliche Regulation verschiedener Ionenkanalgene bei Herz-Kreislauf-Erkrankungen mit Hilfe von Northern Blots, der semiquantitativen RT-PCR- Technik und zum Teil durch elektrophysiologische Untersuchungen analysiert. Ziel war es, solche Gene zu identifizieren, deren mRNA-Spiegel hochreguliert oder herunterreguliert waren, da diese möglicherweise eine wichtige Rolle bei den kardiovaskulären Erkrankungen spielen könnten. Diese Untersuchungen sollten zu einem besseren Verständnis der renalen und kardialen Funktion dieser Ionenkanäle und der Pathogenese der untersuchten Krankheiten beitragen, aber auch helfen, neue Kandidatengene für diese Krankheiten zu identifizieren. Es wurden insgesamt fünf Tiermodelle mit Hypertonie, kardialer Hypertrophie, Herzinsuffizienz, Niereninsuffizienz und Vorhofflimmern untersucht. Ein Schwerpunkt dieser Untersuchungen waren die CLC-Chloridkanäle, deren kardiovaskuläre Funktionen noch wenig untersucht sind. Die Genprofile der Chloridkanäle CLC-2, CLC-3, CLC-4, CLC-5, CLC-6 und CLC-7 sowie CLC-K1 und CLC-K2 wurden in den Herzen und Nieren der folgenden Tiermodelle analysiert: (1) In spontan hypertensiven Ratten (SHR) und (2) in SH-stroke-prone-Ratten, die eine genetisch bedingte Hypertonie und Herzhypertrophie entwickeln. (3) In salz-sensitiven Dahl-Ratten, die Hypertonie und Herzhypertrophie erst nach einer salzhaltigen Diät, und (4) in Aortic-Banding-Ratten, die nach einem operativen Eingriff Bluthochdruck und kardiale Hypertrophie entwickeln. (5) Schließlich wurde noch ein Rattenmodell untersucht, in dem durch die Ligatur der Koronararterie ein Herzinfarkt induziert wurde, der letztlich zur Herzinsuffizienz führte. In keinem dieser Tiermodelle wurde jedoch eine auffällige Veränderung in der mRNA-Expression der acht untersuchten CLC-Chloridkanäle in den erkrankten Tieren im Vergleich zu den Kontrolltieren beobachtet. Die CLC-Chloridkanäle wurden ferner in einem Niereninsuffizienz-Modell untersucht, bei dem in Ratten durch Abklemmen der renalen Arterien und Venen ein akutes Nierenversagen und letztlich eine Niereninsuffizienz hervorgerufen wurde. In diesem Tiermodell war bereits eine Herunterregulation vieler anderer Ionenkanäle und Transporter beschrieben worden. In zwei unabhängigen Tierstudien wurde eine unterschiedlich starke Abnahme der mRNA-Expression für die einzelnen CLC-Chloridkanäle beobachtet. In einer weiteren Studie konnte die Behandlung von niereninsuffizienten Ratten mit einem bei Niereninsuffizienz wirksamen Inhibitor des NHE-3-Transports das Ausmaß der Reduktion einzelner CLC-Gene abschwächen. Weitere Studien mit höheren Dosen oder potenteren Substanzen sind notwendig, um diese vorläufigen Befunde zu bestätigen. Ein weiterer Schwerpunkt der vorliegenden Arbeit war die Charakterisierung der kardialen Ionenkanaldichten bei einem neuen Kaninchenmodell für Vorhofflimmern, die in Zusammenarbeit mit der Universitätsklinik Tübingen durchgeführt wurde. Das Vorhofflimmern ist eine sehr häufige Herzerkrankung bei älteren Menschen, und anhand dieses Tiermodells sollten vor allem frühe Prozesse des elektrischen Remodelings, das für das Auftreten und die Aufrechterhaltung des Vorhofflimmerns von Bedeutung ist, untersucht werden. Mit Hilfe der semiquantitativen RT-PCR-Analyse konnte in diesem Tiermodell erstmals eine Reduktion der mRNA für die Kaliumkanalgene Kv1.4, Kv4.3 und Kv1.5 sowie für die Kalziumkanalgene alpha1, CaB2a, CaB2b und CaB3 im frühem Stadium des Vorhofflimmerns nachgewiesen werden. Diese Befunde konnten die Resultate von Patch-Clamp-Messungen erklären, die gleichzeitig an der Universität Tübingen an isolierten Vorhofzellen durchgeführt wurden. In diesen Studien wurde in Übereinstimmung mit den erzielten mRNA-Daten eine Abnahme des Ito-Kaliumstromes und des ICa,L-Kalziumstromes nachgewiesen. Mit diesen Untersuchungen konnten frühere Resultate, die auch an Patienten mit chronischem Vorhofflimmern erhoben wurden, bestätigt werden. Die gefundene Regulation zeigt, dass diese Ionenkanalgene eine wichtige Rolle bei dem frühen elektrischen Remodeling spielen und dass das Rapid-Pacing- Kaninchenmodell ein geeignetes Tiermodell für das Vorhofflimmern beim Menschen ist.
Ziel der Arbeit war es, neue Techniken zur Erschließung und Selektion von Web- basierten Suchservern zu entwickeln und zu evaluieren, um hieraus eine integrierte Architektur für nicht-kooperative Suchserver im WWW abzuleiten. Dabei konnte gezeigt werden, daß die im Sichtbaren Web vorhandene Informationsmenge dazu geeignet ist, um eine effektive Erschließung des Unsichtbaren Webs zu unterstützen. Existierende Strategien für verteiltes Information Retrieval setzen eine explizite Kooperation von Seiten der Suchserver voraus. Insbesondere Verfahren zur Selektion von Suchservern basieren auf der Auswertung von umfangreichen Termlisten bzw. Termhäufigkeiten, um eine Auswahl der potentiell relevantesten Suchserver zu einer gegebenen Suchanfrage vornehmen zu können (z. B. CORI [26] und GlOSS [54]). Allerdings werden derartige Informationen von realen Suchservern des WWW in der Regel nicht zu Verfügung gestellt. Die meisten Web-basierten Suchserver verhalten sich nicht kooperativ gegenüber hierauf aufsetzenden Metasuchsystemen, was die Übertragbarkeit der Selektionsverfahren auf das WWW erheblich erschwert. Außerdem erfolgt die Evaluierung der Selektionsstrategien in der Regel in Experimentumgebungen, die sich aus mehr oder weniger homogenen, künstlich partitionierten Dokumentkollektionen zusammensetzen und somit das Unsichtbare Web und dessen inhärente Heterogenität nur unzureichend simulieren. Dabei bleiben Daten unberücksichtigt, die sich aus der Einbettung von Suchservern in die Hyperlinkstruktur des WWW ergeben. So bietet z. B. die systematische Auswertung von Backlink-Seiten also jener Seiten die einen Hyperlink auf die Start- oder Suchseite eines Suchservers enthalten die Möglichkeit, die im WWW kollektiv geleistete Indexierungsarbeit zu nutzen, um die Erschließung von Suchservern effektiv zu unterstützen. Eine einheitliche Systematik zur Beschreibung von Suchservern Zunächst ist es notwendig alle Informationen, die über einen Suchserver erreichbar sind, in ein allgemeingültiges Beschreibungsmodell zu integrieren. Dies stellt eine Grundvorraussetzung dar, um die einheitliche Intepretierbarkeit der Daten zu gewährleisten, und somit die Vergleichbarkeit von heterogenen Suchservern und den Aufbau komplexer Metasuchsysteme zu erlauben. Ein solche Beschreibung soll auch qualitative Merkmale enthalten, aus denen sich Aussagen über die Reputation einer Ressource ableiten lassen. Existierende Beschreibungen von Suchservern bzw. Dokumentkollektionen wie STARTS-CS [53] oder RSLP-CD [93] realisieren wenn überhaupt nur Teilaspekte hiervon. Ein wichtiger Beitrag dieser Arbeit besteht somit in der Identifizierung und Klassifizierung von suchserverbeschreibenden Metadaten und hierauf aufbauend der Spezifikation eines als Frankfurt Core bezeichneten Metadatensatzes für web-basierte Suchserver, der die genannten Forderungen erfüllt. Der Frankfurt Core berücksichtigt Metadaten, deren Erzeugung eine explizite Kooperation von Seiten der Suchserver voraussetzt, als auch Metadaten, die sich automatisiert z. B. durch linkbasierte Analyseverfahren aus dem sichtbaren Teil des WWW generieren lassen. Integration von Wissensdarstellungen in Suchserver-Beschreibungen Ein wichtige Forderung an Suchserver-Beschreibungen besteht in der zusätzlichen Integration von wissens- bzw. ontologiebasierten Darstellungen. Anhand einer in Description Logic spezifizierten Taxonomie von Suchkonzepten wurde in der Arbeit exemplarisch eine Vorgehensweise aufgezeigt, wie die Integration von Wissensdarstellungen in eine Frankfurt Core Beschreibung praktisch umgesetzt werden kann. Dabei wurde eine Methode entwickelt, um unter Auswertung einer Suchkonzept-Taxonomie Anfragen an heterogene Suchschnittstellen verschiedener Suchserver zu generieren, ohne die Aussagekraft von kollektionsspezifischen Suchfeldern einzuschränken. Durch die Taxonomie wird die einheitliche Verwendung von syntaktisch und semantisch divergierenden Suchfeldern verschiedener Suchserver sowie deren einheitliche Verwendung auf der integrierten Suchschnittstelle eines Metasuchsystems sichergestellt. Damit kann diese Arbeit auch in Zusammenhang mit den Aktivitäten des Semantischen Webs betrachtet werden. Die Abstützung auf Description Logic zur Wissensrepräsentation sowie die Verwendung von RDF zur Spezifikation des Frankfurt Core verhält sich konform zu aktuellen Aktivitäten im Bereich Semantisches Web, wie beispielsweise der Ontology Inference Layer (OIL) [24]. Darüber hinaus konnte durch die Integration der Suchkonzept-Taxonomie in den Arbeitsablauf einer Metasuchmaschine, bereits eine konkrete Anwendung demonstriert werden. Entwicklung neuartiger Verfahren zur Erschließung von Suchservern Für einzelne Felder des Frankfurt Core wurden im Rahmen dieser Arbeit Strategien entwickelt, die aufzeigen, wie sich durch die systematische Auswertung von Backlink- Seiten Suchserver-beschreibende Metadaten automatisiert generieren lassen. Dabei konnte gezeigt werden, daß der Prozeß der automatisierten Erschließung von Suchservern durch die strukturelle und inhaltliche Analyse von Hyperlinks sinnvoll unterstützt werden kann. Zwar hat sich ein HITS-basiertes Clustering-Verfahren als wenig praktikabel erwiesen, um eine effiziente Erschließung von Suchservern zu unterstützen, dafür aber ein hyperlinkbasiertes Kategorisierungsverfahren. Das Verfahren erlaubt eine Zuordnung von Kategorien zu Suchservern und kommt ohne zusätzliche Volltextinformationen aus. Dabei wird das WWW als globale Wissenbasis verwendet: die Zuordnung von Kategorienbezeichnern zu Web-Ressourcen basiert ausschließlich auf der Auswertung von globalen Term- und Linkhäufigkeiten wie sie unter Verwendung einer generellen Suchmaschine ermittelt werden können. Der Grad der Ähnlichkeit zwischen einer Kategorie und einer Ressource wird durch die Häufigkeit bestimmt, mit der ein Kategoriebezeichner und ein Backlink auf die Ressource im WWW kozitiert werden. Durch eine Reihe von Experimenten konnte gezeigt werden, daß der Anteil korrekt kategorisierter Dokumente an Verfahren heranreicht, die auf Lerntechniken basieren. Das dargestellte Verfahren läßt sich leicht implementieren und ist nicht auf eine aufwendige Lernphase angewiesen, da die zu kategorisierenden Ressourcen nur durch ihren URL repräsentiert werden. Somit erscheint das Verfahren geeignet, um existierende Kategorisierungsverfahren für Web-Ressourcen zu ergänzen. Ein Verfahren zur Selektion von Suchservern Ein gewichtiges Problem, durch welches sich die Selektion von Suchservern im WWW erheblich erschwert, besteht in der Diskrepanz zwischen der freien Anfrageformulierung auf Benutzerseite und nur spärlich ausgezeichneten Suchserver-Beschreibungen auf Seiten des Metasuchsystems. Da auf der Basis der geringen Datenmenge eine Zuordnung der potentiell relevantesten Suchserver zu einer Suchanfrage kaum vorgenommen werden kann, wird oft auf zusätzliches Kontextwissen zurückgegriffen, um z. B. ein Anfragerweiterung durch verwandte Begriffe vornehmen zu können (siehe z. B. QPilot [110]). Eine solche Vorgehensweise erhöht allerdings nur die Wahrscheinlichkeit für Treffer von Anfragetermen in den Suchserver-Beschreibungen und liefert noch keine ausreichende Sicherheit. Deshalb wurde in der Arbeit ein Selektionsverfahren entwickelt, das sich auf die Auswertung von Ko-Zitierungs- und Dokumenthäufigkeiten von Termen in großen Dokumentsammlungen abstützt. Das Verfahren berechnet ein Gewicht zwischen einem Anfrageterm und einem Suchserver auf der Basis von einigen wenigen Deskriptortermen, wie sie z. B. aus der FC-Beschreibung eines Suchservers extrahiert werden können. Dies hat den Vorteil, daß die Suchbegriffe nicht explizit in den einzelnen Suchserver-Beschreibungen vorkommen müssen, um eine geeignete Selektion vornehmen zu können. Um die Anwendbarkeit des Verfahrens in einer realistischen Web-Umgebung zu demonstrieren, wurde eine geeignete Experimentumgebung von spezialisierten Suchservern aus dem WWW zusammengestellt. Durch anschließende Experimente konnte die Tauglichkeit des entwickelten Verfahrens aufgezeigt werden, indem es mit einem Verfahren verglichen wurde, das auf Probe-Anfragen basiert. Das heißt, daß eine erfolgreiche Selektion durchgeführt werden kann, ohne daß man explizit auf das Vorhandensein von lokalen Informationen angewiesen ist, die erst aufwendig durch das Versenden von Probe-Anfragen ¨uber die Web-Schnittstelle des Suchservers extrahiert werden müssten. Herleitung einer integrierten Architektur Um das Zusammenspiel der erarbeiteten Strategien und Techniken zur Erschließung, Beschreibung und Selektion in einer integrierten Architektur umzusetzen, wurde die Metasuchmaschine QUEST entwickelt und prototypisch implementiert. QUEST erweitert die Architektur einer traditionellen Metasuchmaschinenarchitektur, um Komponenten, die eine praktische Umsetzung der Konzepte und Techniken darstellen, die im Rahmen dieser Arbeit entwickelt wurden. QUEST bildet einen tragfähigen Ansatz zur Kombination von wissensbasierten Darstellungen auf der einen und eher heuristisch orientierten Methoden zur automatischen Metadatengenerierung auf der anderen Seite. Dabei stellt der Frankfurt Core das zentrale Bindeglied dar, um die einheitliche Behandlung der verfügbaren Daten zu gewährleisten.
In einer Verlaufsbeobachtung wurden fünfundzwanzig Patienten der hämatologischen Ambulanz der J. W. v. Goethe-Universität, welche an Hämophilie oder an einer anderen hämatologischen Erkrankung leiden, über einen Zeitraum von November 1992 bis Februar 1995 untersucht. Diese Patienten erhielten nach Aufklärung eine Hirn-SPECT- Untersuchung mit HMPAO oder EDT. Jeweils 3/25 Patienten wurden wegen eines pathologischen Hirn-SPECT Ergebnisses nach 3 Monaten bzw. bei einem auffälligem Befund nach einem halben Jahr nachuntersucht. Bei unauffälligem Ergebnis erhielten die Patienten (13/25) nach einem Jahr eine Kontrolluntersuchung. Insgesamt bekamen achtzehn Patienten eine technisch einwandfreie Zweituntersuchung; eine Patientin erhielt wegen initial deutlicher Befundverbesserung zur Beobachtung fünf Hirn-SPECT Untersuchungen. Vor jeder nuklearmedizinischen Untersuchung wurde ein psychometrischer Test zur Erfassung der Aufmerksamkeit und Vigilanz, der feinmotorischen Fähigkeiten, depressiver Verstimmung und leichter cerebraler Insuffizienzen durchgeführt. Wichtige klinische Daten und immunologische Parameter zur Einteilung in ein CDC-Stadium lagen ebenfalls vor. Die Perfusionsergebnisse wurden visuell nach Filterung und Reorientierung der Daten anhand der orbito-meatalen Linie und der stereotaktischen Transformation und semiquantitativ nach der Methode nach Podreka ausgewertet. In die visuellen Beurteilung flossen die Perfusion des Gehirnes als gesamtes, die Thalamusperfusion und die Defekte in Größe und Lokalisation ein. Die semiquantitative Auswertung bestand aus einer manuellen Einteilung des Gehirns in 18 Regions of Intrest mit anschließender Quantifizierung der Aktivitätsverteilung. Betrachtet wurden hier zum einen ein Abweichen der mean-cts (%) im rechts/links Vergleich >15%, da dies einen cerebralen Defekt anzeigt, zum anderen Gebiete <90% bzw. >110% der mittleren Gesamt-Counts, welche hypo- bzw. hyperperfundierte Regionen darstellten. * Die Daten zeigten im Langzeitverlauf eine Verschlechterung der cerebralen kortikalen Perfusion mit Progredienz der Defekte. Tendenziell bestanden zu Beginn der HIVE vorwiegend fokale cerebrale Minderperfusion mit Betonung der frontalen, im Thalamus gelegenen und der occipitalen Regionen und erst mit Progredienz der Erkrankung diffuse Veränderungen. Bei dem vorliegenden Patientengut lag die stärkste Perfusion occipital gefolgt von temporal und parietal, mit jeweiliger Betonung des Uptake der dominanten Hemisphäre vor. Im Auswertungsverfahren sollten sich Semiquantitative und visuelle Beurteilungen der Ergebnisse ergänzen, um die jeweilige Fehlermöglichkeiten zu minimieren. Die Methode der stereotaktischen Transformation erwies sich hierbei als die zeitaufwendigere aber genauere Methode. Die verwandten Methoden sind jedoch noch nicht robust genug, um sie für Routineuntersuchungen zu benutzen. * Im Vergleich der neuropsychometrischen Test fand sich eine gute Korrelation der kognitiven Leistungstests (ZVT) mit den SPECT-Daten der Thalamusperfusion. Diese Ergebnisse sollten jedoch nur im Zusammenhang mit anderen Studien betrachtet werden, da die Patientenzahl gering war. * Klinische und immunologische Parameter spiegelten eine cerebrale Infektion mit HIV nicht wider. Zusammenfassend ist die Untersuchung der Perfusion des Hirnkortex mit SPECT eine sensitive Methode cerebrale Veränderungen einer HIVE zu diagnostizieren und den Erfolg einer medikamentösen Therapie zu dokumentieren. Gerade aber in der Frühphase der HIVE ist ein solches diagnostisches Verfahren wichtig, da die meisten Patienten asymptomatisch sind und klinische und immunologische Parameter die cerebrale Infektion nicht widerspiegeln. Zudem handelt es sich um ein nicht invasives Verfahren, welches im Bedarfsfall mehrfach angewendet werden kann. Zur Routineanwendung müssten jedoch robustere semiquantitative Auswertverfahren entwickelt werden.
Die Tatsache der Entwicklung des Staates in der Frühen Neuzeit in einem langsamen Übergang vom mittelalterlichen Personenverbandsstaat zum institutionellen Flächenstaat, ist von mehreren Wissenschaftlern zum Gegenstand ihrer Forschungen gewählt und es sind von ihnen allgemeine Essentials herausgearbeitet worden. ...
Kathetertherapie interatrialer Defekte unter besonderer Berücksichtigung der Septum-Morphologie
(2002)
Zwischen 1/98 und 9/99 wurde bei 50 Patienten mit einem Vorhofseptumdefekt vom Sekundum-Typ (ASD II) und bei 75 Patienten mit persistierendem Foramen ovale und gekreuzten Embolien ein transfemoraler Verschluss durchgeführt. Zum Einsatz kamen der Cardio-Seal-Okkluder, der Cardio-Seal-Starflex-Okkluder, der Amplatzer-ASD-Okkluder, der Amplatzer-PFO-Okkluder und der PFO-Star- Okkluder. Ziel der vorliegenden Arbeit war es, zu überprüfen, ob bestimmte morphologisch- anatomische Besonderheiten wie insbesondere das Vorliegen eines Vorhof- septumanuerysmas das Behandlungsergebnis und den Verlauf beeinflussen. Das Alter der 18 männlichen und 32 weiblichen ASD-Patienten betrug 44 ± 17 (13- 77) Jahre, das der 35 männlichen und 40 weiblichen PFO-Patienten 47 ± 13 (21- 73) Jahre. Die Größe des Vorhofseptumdefektes betrug, in der kurzen Achse des transösophagealen Echokardiogramms gemessen, im Mittel 13,2 ± 4,5 mm (6,4 29,4 mm; n = 50). Die mit Hilfe eines Ballonkatheters ermittelte Defektgröße betrug für die Ballonpassage 20 ± 4 mm (6 30 mm; n = 49) und für den Stretched- diameter 19 ± 4 mm (11 29 mm; n = 47). Der PFO-Durchmesser betrug 4 22 mm, im Mittel 12 ± 4 mm (Ballonpassage; n = 73) bzw. 3 16 mm, im Mittel 9 ± 3 mm (Stretched-diameter; n = 71). Die Messwerte von Passage und Stretched-diameter waren bei den PFO-Patienten mit Vorhofseptumaneurysma signifikant größer als bei den Patienten ohne Vorhofseptumaneurysma (p < 0,001). Insgesamt konnte bei den ASD- und PFO- Patienten eine lineare Korrelation zwischen Stretched-diameter und Ballonpassage ermittelt werden. Bei allen 50 ASD- und allen 75 PFO-Patienten war die Schirmimplantation primär erfolgreich. Der Nachuntersuchungszeitraums betrug im Mittel 9 ± 5 Monate (1 28 Monate). Direkt nach Verschluss bestand bei 17,6%, nach 2-4 Wochen bei 1,6% und nach 6 Monaten bei 1,6% der Patienten ein Restshunt. Bei den ASD-Patienten, bei denen vor und nach Verschluss Messungen durchgeführt werden konnten (n = 40), sank das Verhältnis Qp/Qs von 2,0 ± 0,5 signifikant auf 1,1 ± 0,3 (p < 0,0001). Während und nach der Implantation traten bei der Gesamtgruppe der Patienten (n = 125) folgende Komplikationen auf: Koronare und cerebrale Luftembolie mit kurzzeitiger klinischer Symptomatik (0,8%), therapierbare Herzrhythmusstörungen (2,4%), passagere thrombotische Auflagerungen auf den Schirmen (1,6%), geringer Perikarderguss (1,6%) und Schirmarmfrakturen (8%). In der Gruppe der PFO-Patienten erlitten 2 von 75 Patienten ein rezidivierendes cerebrovaskuläres Ereignis. Die Rezidivrate fiel von 54% vor Verschluss auf 3,5% nach Verschluss ab. Morphologische Besonderheiten beeinträchtigten das Ergebnis des Katheter- verschlusses nicht, können aber Indikatoren für bestimmte Risikofaktoren sein. Bei den PFO-Patienten zog eine kürzere Tunnellänge ( 7,8 mm) eine signifikant höhere Ereignisrate vor Verschluss (4,5%) gegenüber den Patienten mit längerer Tunnellänge (> 7,8 mm) (2,9%) nach sich (p < 0,05). Auch die Rezidivrate vor Verschluss war bei den Patienten mit kürzerer Tunnelstrecke (75%) signifikant höher als bei den Patienten mit längerer Tunnelstrecke (31%) (p<0,01). PFO- Patienten mit Vorhofseptumaneurysma (vor Verschluss) wiesen nach Katheterverschluss eine höhere Rezidivrate cerebraler Ereignisse (10,5%) auf als die PFO-Patienten ohne Vorhofseptumaneurysma (0%). Bei den ASD-Patienten mit Vorhofseptumaneurysma (n = 12) ergab sich eine signifikant höhere Eingriffs- und Durchleuchtungszeit gegenüber den ASD- Patienten ohne Vorhofseptumaneurysma (50 ± 21,1 min. / 10,5 ± 6,4 min.) versus (39,1 ± 12,8 min. / 6,5 ± 3,6 min.) (p < 0,01). Bei der gleichen Patientengruppe nahm die Septumauslenkung signifikant von 15 ± 3,5 mm vor Verschluss auf 4,6 ± 2,4 mm 6 Monate danach ab (p < 0,001). Bei den PFO-Patienten mit Vorhofseptumaneurysma (n = 17) verringerte sich die Septumauslenkung von 15,9 ± 2,8 mm vor Verschluss auf 3,8 ± 2,0 mm 6 Monaten später (p < 0,001). Ohne Einfluss auf den postinterventionellen Verlauf war die Zunahme der Septumdicke, die in den ventralen und zentralen Abschnitten nach 6 Monaten beim Amplatzer-ASD-Okkluder am stärksten und beim PFO-Star-Okkluder am geringsten ausgeprägt war. Alle angewendeten Okkludersysteme sind für den Verschluss von Vorhofseptumdefekten (ASD II) und persistierenden Foramina ovalia auch bei Vorliegen von Vorhofseptumaneurysmen geeignet.
Die Messung des T-Wellen-Alternans ist eine neue, vielversprechende Methode zur Erfassung von Patienten mit einem erhöhten Risiko für arrhythmische Ereignisse. Die gute Testeffizienz ist für unterschiedliche kardiale Krankheiten belegt; ebenfalls wurde die Überlegenheit des TWA gegenüber anderen gängigen Parameter zur Risikostratifizierung erwiesen. Schwachpunkte dieses Verfahrens sind der relativ hohe Anteil an falsch positiv Getesteten und die häufig scheiternden Messungen. Nach unserem Wissen haben wir mit dieser Studie anhand eines Patienten- kollektivs mit Myokardinfarkt erstmalig erwiesen, dass das Ergebnis einer TWA- Untersuchung unabhängig ist von dem Alter und dem Geschlecht des Patienten, sowie von verschiedenen Parameter des erlittenen Herzinfarktes, wie der Höhe der CK, der Lokalisation, der Art der Erstintervention und dem Perfusionsstatus. Im Gegensatz zu anderen Studien konnten wir keinen Einfluss der Medikation, insbesondere der antiarrhythmischen, auf den Ausgang des Alternans-Testes feststellen. Schließlich zeigt die vorliegende Untersuchung erstmalig, dass das Wiederholen der Messung zu einem späteren Zeitpunkt, nämlich nach sechs Wochen und nach einem Jahr, zu 80 % das gleiche Ergebnis liefert, und zwar unabhängig von Änderungen in der Medikation, weiteren Maßnahmen zur Reperfusion und erneuten kardialen Ereignissen. Das Ergebnis positiv zeigt sich dabei etwas weniger stabil als das Ergebnis negativ. Insgesamt kann gefolgert werden, dass die Methode eine gute Reproduzierbarkeit aufweist und bei der Mehrzahl der Patienten auch im Langzeitverlauf stabile Ergebnisse liefert.
Unsere Kultur beinhaltet zahlreiche Vorstellungen darüber, welche Probleme in Liebesbeziehungen auftreten können, welche Ursachen diese Probleme haben und wie mit ihnen umzugehen sei. Dominiert wurden diese Vorstellungen in der Literatur zwischen Empfindsamkeit und Romantik bekanntermaßen durch einige wenige epochenübergreifende Motive: Untreue, der Gegensatz von gesellschaftlicher oder moralischer Pflicht und Neigung, der Tod des anderen, einseitige und verhinderte Liebe bildeten die immer wiederkehrenden Konfliktursachen der meisten Liebesgeschichten. Dabei floss die Geschlechterdifferenz in die Darstellungen zwar stets mit ein, wurde aber in der Regel als solche nicht reflektiert. Die in der Arbeit untersuchten Texte zeigen nun, dass neben diesen typischen Liebesgeschichten auch eine bisher kaum beachtete Ideentradition besteht, die Liebeskonflikte explizit unter dem Aspekt der Geschlechterdifferenz beschreibt und dieser Differenz eine grundlegende Bedeutung beimisst. Dabei konnte für die fünf in dieser Arbeit ausgewählten Konfliktfelder Folgendes festgestellt werden: Egalitäre Liebe versus männliche Eheherrschaft Ein breit diskutiertes Konfliktfeld betrifft das Verhältnis von egalitärer Liebe und männlicher Eheherrschaft. Seit der Mitte des 18. Jahrhunderts setzt sich in Deutschland die Idee der Liebesehe durch, wobei Liebe oftmals ausdrücklich im Gegensatz zu jeglicher Form von traditioneller Herrschaft zwischen den Geschlechtern begriffen wird. Sozial gedeckt muss sie in die Ehe führen. Dort wird aber nicht nur praktisch, sondern auch theoretisch bis ins 20. Jahrhundert hinein an der Herrschaft des Mannes über die Frau festgehalten. Wie reflektiert sich dieser Gegensatz um 1800? Ich habe in meiner Arbeit unter dieser Perspektive eine Reihe von literarischen, philosophischen und populärpädagogischen Texten untersucht, die einen ersten Eindruck der eher theoretisch-normativen Diskurse dieser Zeit geben. Die Autoren sind Gellert, Kant, Fichte, Hegel und Campe. Dem stelle ich ein populäres Lustspiel von August von Kotzebue und einen autobiographischen Text die Jugenderinnerungen von Elisa von der Recke gegenüber. Diese Texte ermöglichen es, der theoretischen eine eher alltagsorientierte Sichtweise des Problems zur Seite zu stellen. Für die philosophisch-pädagogischen Schriften lässt sich Folgendes erkennen: Erstens wird der Widerspruch zwischen egalitärer Liebe und männlicher Eheherrschaft, entsprechend einer Grundkategorie der Zeit, vorwiegend entlang der Differenz Vernunft Natur bearbeitet. Aufgeboten werden unterschiedliche Varianten einer geschlechterdifferenzierten Anthropologie, die sich teilweise direkt widersprechen (zum Beispiel bei Kant und Fichte). Zweitens wird an die Vernunft und Klugheit appelliert. Dies geschieht ebenfalls widersprüchlich, nämlich entweder in konsensorientierter (Gellert) oder aber manipulativer Ausrichtung (Kant und Campe). Eine allgemein getragene argumentative Problemlösung ist nicht zu erkennen, verbindendes Element ist jedoch die vermittelnde Funktion: Liebe und Herrschaft werden für kompatibel erklärt. Demgegenüber beinhalten die Texte von Kotzebue und Elisa von der Recke auch eine andere Diskursform. Bei Kotzebue zeichnet sich momenthaft das Bild einer durchaus emanzipierten Frau ab, deren Verhalten zu den vorherrschenden weiblichen Normen des literaturwissenschaftlichen Kanons nicht recht passen will. Hier könnten sich - dem wäre aber erst genauer nachzugehen - Tendenzunterschiede zwischen der sogenannten hohen und der Unterhaltungsliteratur der Zeit abzeichnen. Während bei Kotzebue die Eheherrschaft aber letztlich affirmiert wird, zeichnet Elisa von der Recke in ihren Jugenderinnerungen anhand dreier Frauengenerationen das Bild einer Lebenswelt, für die das Spannungsverhältnis von Liebe und Patriarchat sowohl identitätsstiftend als auch kaum überbrückbar erscheint. Die zahlreichen Klugheitsratschläge der Zeit bedeuten letztendlich für die Frau, nicht aber für den Mann, einen Verzicht auf die "wahre" gegenseitige Liebe. Gemeinsame Weltsicht versus Zunahme der Individualität Zu diesem Konfliktfeld untersuchte ich exemplarisch die Erzählung Der Sandmann von E.T.A. Hoffmann. Hoffmanns Text erweist sich in dieser Perspektive als eine differenzierte Satire genau dieser Problematik und verschiedener Strategien, unter patriarchalen Bedingungen mit ihr umzugehen. Der Autor illustriert an der Figur Nathanaels ein Extrem an mangelnder Anpassungsleistung und der Neigung zur Projektion gewünschter Eigenschaften auf die Geliebte zur Vermeidung eigener Veränderung. Er weist dies deutlich als ein geschlechtsspezifisches Verhaltensschema aus. Dem korrespondieren auf je unterschiedliche Weise die weiblichen Figuren der Erzählung. Dabei wird an der Figur Olimpias vorgeführt, wie absurd sich eine patriarchal verordnete Bestätigung darstellt. Hoffmann erkennt damit das soziale Bestätigungsproblem gesteigerter Individualität als ein allgemein bürgerliches, führt das Scheitern der Lösung dieses Problems in der patriarchalen Liebesbeziehung vor und verweist so bereits auf eine wesentliche Ursache der heutigen Krise traditioneller Beziehungsmuster. Geschlechterstereotypen versus Wahrnehmung von Individualität Der Liebesdiskurs des 18. Jahrhunderts fordert seit der Empfindsamkeit die genaue Kenntnis der Individualität des Geliebten als Voraussetzung wahrer Liebe. Zugleich jedoch bewegen sich Liebende in einem Umfeld, das den sozialen Umgang über stereotype Geschlechterbilder strukturiert, die eine Wahrnehmung des anderen als Individuum gerade verstellen können. Inwieweit wird dies im 18. Jahrundert als Problem wahrgenommen und verarbeitet? Hier zeigt meine Arbeit, unter anderem anhand des frühempfindsamen Briefwechsels zwischen Meta Moller und Friedrich Gottlieb Klopstock, exemplarisch Folgendes: Klopstock, der als Inbegriff des empfindsamen Dichters gilt, zeigt zumindest in den Briefen an seine spätere Frau kein Bewusstsein dieser Problematik. Er bleibt in seiner Kommunikation bei einer vorempfindsamen Konfliktwahrnehmung stehen. Moller hingegen bringt die Bilderproduktion der Geschlechterdifferenz als störenden Faktor der Annäherung deutlich zur Sprache. Sie befürchtet, Klopstock könne sich ein durch Weiblichkeitsentwürfe entstelltes Bild von ihr machen, er könne sie als Muse funktionalisieren und/oder sei an ihren ernsthaften Seiten "sie ist ja nur eine Frau" nicht interessiert. Darüber hinaus konfrontiert sie Klopstock in sarkastisch-ironischem Ton mit seinem Fehlverhalten. Insofern ist die These Ulrike Prokops, Meta Moller setze typisch für Frauen ihrer Generation Selbstverleugnung und narzisstische Identifikation an die Stelle aktiver Auseinandersetzung, kritisch zu ergänzen. "Schale Alltäglichkeit" versus "Die große Liebe" Ehen werden, um es mit Luhmann zu pointieren, im Himmel geschlossen und im Auto geschieden. Das Ideal der Liebesehe stellt an die Gatten Anforderungen an Aufmerksamkeit und Zuwendung, die in einem durch Geschlechterrollen differenzierten gemeinsamen Alltag schwer zu erfüllen sind. Viele der untersuchten Texte dieser Arbeit verweisen auf dieses Problem. Eine der dichtesten Auseinandersetzungen damit findet sich jedoch in der Erzählung Das mißlungene Opfer von Therese Huber: Huber legt hier eine vielschichtige Reflexion über Liebes- und Eheprobleme vor, die durch Bezüge zu Goethes Werther stereotype Leseerwartungen des Publikums (Pflicht versus Neigung) herausfordert. Diese Leseerwartungen konfrontiert sie dann mit der Darstellung der geschlechterdifferenzierten Arbeitsteilung in der bürgerlichen Ehe. Zugleich dokumentiert sie verschiedene weibliche Attributionsmuster, die den Alltag männlicher Lieblosigkeit entschuldigen. Der Text changiert dabei zwischen Alltagsdarstellung und bis ins surreal-komische getriebenen Situationen kommunikativer Entfremdung, überlässt es aber der Leserin, eigene Erfahrungen und Sehnsüchte im Text bestätigt oder hinterfragt zu finden. Weibliche Pflichterfüllung versus Bedürfnis nach individuellem Glück Die Idee der Liebesehe ist an die Freiwilligkeit der Partnerwahl und eines glücklichen Zusammenlebens gebunden. Sozialgeschichtlich betrachtet wurden Ehen aber um 1800 bekanntermaßen häufig gegen den Willen der Frau geschlossen; und sie verliefen für diese häufig nicht glücklich. Eine bislang kaum zur Kenntnis genommene umfangreiche Darstellung der Lage und Emanzipation einer Frau in einer solchen unglücklichen Zwangsehe sind die Eheerinnerungen Elisa von der Reckes. Der Text ist, wie sich zeigen lässt, entgegen der Überzeugung seines Herausgebers, keine Sammlung von Briefen, sondern eine literarische Bearbeitung und Ergänzung der Tagebücher der Autorin. Die Autorin legt hier eine ungewöhnlich realitätsnahe und die Grenzen des intimschicklichen überschreitende Milieustudie vor, in deren Zentrum der bedrückende Ehealltag einer jungen Frau steht. Sozialisiert ist sie in einer Umwelt, in der ländlich- patriarchale, galante und empfindsame Ehe- und Liebesdiskurse aufeinander prallen. Ihre Ehegeschichte erweist sich so als eine psychologische Dokumentation kognitiver Dissonanzen, verdrängter Bedürfnisse, psychosomatischer Symptome, Rationalisierungen und der Instrumentalisierungen von Sexualität im Ehealltag. Interessant ist dieser Text auch hinsichtlich der Frage nach der Freiheit von Subjekten gegenüber den sie formenden Diskursen. Er zeigt beispielhaft, wie eine Frau mit Bruchstücken des empfindsamen Liebesdiskurses und des autoritären Ehe- und Pflichtdiskurses für sich selbst eine individuelle Ehe- und Liebeskonzeption entwickelt und auf dieser Grundlage ihre Vorstellung eines richtigen Lebens gegen die Überzeugungen ihres gesamten sozialen Umfeldes durchsetzt. Weiterführende Fragestellungen Ich möchte nun abschließend einige weiterführende Fragestellungen andeuten, die durch die Ergebnisse meiner Arbeit nahegelegt werden. Erstens: Die Interpretation von Hoffmanns Sandmann zeigt, dass auch klassische Texte unter der hier dargestellten Perspektive neue Facetten erkennen lassen. An dieser Stelle bietet sich etwa eine Betrachtung der Frühromantik an, zum Beispiel unter der Perspektive, ob die Unterscheidung männlich/weiblich in Bezug auf Liebeskonflikte dort eine wesentlich andere ist, als in der Zeit ansonsten üblich. Zudem legen die Werke von Therese Huber und Elisa von der Recke nahe, weitere bisher weitgehend unbekannte Texte zur Analyse historischer Liebeskonfliktdiskurse heranzuziehen. Ähnliches ergibt sich aus Kotzebues Lustspiel für den Bereich der sogenannten populären Literatur. Zweitens: Die Texte von Huber und Elisa von der Recke werfen die Frage auf, wie Liebeskonflikte aus der Perspektive von Müttern und Vätern wahrgenommen werden. Die Untersuchung beider Texte legt hier erste Spuren, deren Weiterverfolgung fruchtbar sein könnte. Drittens: Es ist auffällig, dass keiner der untersuchten Texte eine wirkliche Alternative zum modernen Liebesdiskurs andeutet, außer in Form eines Rückzugs auf vorempfindsame Liebesideen oder Freundschaften. Hier schließt sich die auf die Zukunft gerichtete Frage an: Wo im modernen Liebesdiskurs ist um es mit Foucault zu formulieren die Gegenmacht zu finden? Oder verschwindet dieser Diskurs allmählich und einer liebenden Annäherung wird in einigen Generationen so begegnet, wie dies die emanzipierte Elisa von der Recke gegenüber den linkischen Annäherungen ihres Gatten getan hat: mit kaltem Ernste, aber ohne Zeichen des Unwillens: "Unter uns, mein Theurer, sind solche Tändeleien überflüssig."
In der vorliegenden Untersuchung wurden Populationen der Gattung Corbicula im Rhein mit Individuen aus der Mosel, der Weser sowie aus Frankreich, Spanien, Nordamerika und dem Nahen und Fernen Osten sowohl mit genetischen als auch morphologischen Methoden untersucht. Aus diesen Daten sollte ermittelt werden, wie viele Taxa bei der rezenten Besiedelung Europas auftraten und welche Migrationsrouten hierbei nachgewiesen werden konnten. Es konnte gezeigt werden, dass im Rhein zwei hybridisierende genetische Linien auftraten, wobei keine Rückkreuzung mit den Eltern nachgewiesen werden konnte. Die Hybride waren morphologisch nicht zu unterscheiden. Hinweise auf einen unterschiedlichen Chromosomensatz dieser Linien bzw. eine Polyploidie konnte nicht gefunden werden. In der Rhone wurde eine weitere Linie entdeckt. Eine der genetischen Linien im Rhein konnte im Vergleich zu Individuen aus Fernost als C. fluminea identifiziert werden. Die Herkunft der beiden Linien aus Rhein und Rhone blieb unklar, da sie nicht Individuen aus Israel oder Nordamerika zugeordnet werden konnten. Eine Polytomie der MP- und ML-Analysen war nicht auf einen zu geringen Datensatz zurückzuführen, vielmehr konnte gezeigt werden, dass Corbicula im Pleistozän eine Radiation durchief. Schalenmorphologisch konnten die genetischen Linien aus dem Rhein nicht durchgehend den zwei auftretenden Morphen zugeordnet werden. Gleichzeitig schienen diese Individuen die Extreme einer weltweiten Variabilität der Schalenform darzustellen. Ein morphologischer Vergleich von Schalen aus der Sammlung Senckenberg zeigte keine Unterschiede zwischen Individuen, die als C. fluminalis und C. fluminea bezeichnet waren. Vielmehr scheint die Schalenform nicht genügend conchologischen Merkmale zu besitzen, um die genetischen Linien zu unterscheiden. Die Besiedelung Europas durch die Körbchenmuschel erfolgte mehrfach unabhängig in verschiedenen Flusssystemen Südwest- und Mitteleuropas Anfang der 1980er Jahre. Auf- grund der hier nachgewiesenen Isolationswirkung von Stauwehren der Bundeswasserstrassen auf Makroinvertebraten und der Ergebnisse der DAF-Fingerprints von Corbicula- Populationen wurde die Mosel vermutlich von Frankreich aus besiedelt.
Für eine zukünftige Gentherapie der Immunschwächekrankheit AIDS ist ein effizienter, spezifischer und sicherer Gentransfer in CD4-positive Zellen des peripheren Blutes erforderlich. Hierzu bieten sich vom murinen Leukämievirus (MLV) abgeleitete retrovirale Pseudotypvektoren an, die das Hüllprotein (Env) des HIV-1 oder des simianen Immundefizienzvirus der Afrikanischen Grünen Meerkatze (SIVagm) tragen und daher einen selektiven Gentransfer in CD4-positive Zielzellen bewirken (Transduktion). [MLV(SIVagm)]-Vektoren haben gegenüber [MLV(HIV-1)]-Vektoren den Vorteil, daß sie von Seren HIV-1-positiver Patienten nicht neutralisiert werden und daher auch in HIV-1-infizierten Patienten angewendet werden könnten. Jedoch kann aufgrund des Tropismus von SIVagm mit [MLV(SIVagm-wt)]-Vektoren nur die kleine Subpopulation der CCR5-positiven Zellen innerhalb der humanen CD4-positiven Lymphozyten (3 bis 15%) transduziert werden. Das Ziel dieser Arbeit war es daher, den Tropismus des SIVagm Env so zu modifizieren, daß auch die Mehrzahl der CD4-positiven Lymphozyten, die den CXCR4-Korezeptor exprimieren (70 bis 95%), transduziert werden kann. Hierzu wurde die putativ für die Korezeptorbindung verantwortliche V3- Loop-Region im Env des SIVagm durch die homologe Region eines CXCR4-tropen HIV-1-Stammes ersetzt. Mit diesem modifizierten Env gelang es, [MLV(SIVagm-X4)]- Pseudotypvektoren herzustellen, die spezifisch CD4/CXCR4-positive Zellen transduzieren können. Neben der Bedeutung für die Generation neuer Vektoren für die Gentherapie beweist dieses Ergebnis die bisher nicht gezeigte Äquivalenz der V3- Loops der Hüllproteine von HIV-1 und SIVagm für die Korezeptornutzung. Um die neuen [MLV(SIVagm)]-Vektoren charakterisieren zu können und für eine spätere Anwendung weiterzuentwickeln, wurden stabile Zellinien etabliert, die große Vektormengen mit Titern zwischen 6x103 und 7,6x105 i.E./ml produzierten. Mittels Ultrazentifugation konnten Vektorpräparationen mit Titern bis zu 108 i.E./ml hergestellt werden. Die neu generierten [MLV(SIVagm-X4)]-Vektoren erwiesen sich wie die [MLV(SIVagm-wt)]-Vektoren als resistent gegenüber der Neutralisierung durch Seren HIV-1-infizierter Spender und könnten damit in vivo angewendet werden. In Experimenten zur Bestimmung der Transduktionseffizienz in primären peripheren Blutlymphozyten humaner Spender konnte der selektive Gentransfer mittels [MLV(SIVagm)]-Vektoren in CD4-positive Zellen gezeigt werden, während herkömmliche, amphotrope Vektoren CD4-positive und -negative Lymphozyten gleichermaßen transduzierten. Beide [MLV(SIVagm)]-Vektoren erlaubten im Vergleich zu den eingesetzten amphotropen MLV-Vektoren eine höhere Transduktionseffizienz in CD4-positiven Zellen. Neben Zielzell-Spezifität und Effizienz ist die Sicherheit neuer Vektorsysteme entscheidend für die Anwendbarkeit in der humanen Gentherapie. Eine Übertragung replikationskompetenter Retroviren (RCR) gilt hierbei als das Hauptrisiko bei der Nutzung retroviraler Vektoren. Auch bei der Herstellung von [MLV(HIV-1)]- oder [MLV(SIVagm)]-Pseudotypvektoren könnten durch Rekombinationsereignisse in den Verpackungszellen replikationsfähige Hybridviren entstehen. Bei der Untersuchung dieser Vektorsysteme wurde allerdings bisher keine spontane Bildung von RCR nachgewiesen. In der vorliegenden Arbeit wurde versucht, durch molekulare Klonierung gezielt derartige Hybridviren zu generieren, um zu klären, ob solche Onko/Lenti-Hybridviren replikationsfähig sein können, zudem sollte gegebenenfalls das pathogene Potential dieser Viren untersucht werden. Dazu wurden die vollständigen Leserahmen des rev- und des env-Gens des HIV-1 bzw. SIVagm anstelle des MLV env-Gens in das Genom eines infektiösen molekularen Klon des MLV inseriert. Die Klonierungsstrategie wurde dabei so gewählt, daß alle notwendigen mRNAs gebildet werden konnten. Die Hybridvirusklone waren nach Transfektion in 293T-Zellen tatsächlich in der Lage, neben den MLV-Genen auch HIV-1 bzw. SIVagm env und rev funktionell zu exprimieren. Es konnten infektiöse Partikel nachgewiesen werden, die das Hybridvirusgenom auf Zielzellen übertragen konnten. In den infizierten Zielzellen wurde jedoch nur die Expression von MLV/SIVagm nachgewiesen werden. Keines der beiden Hybridviren erwies sich als replikationskompetent. Dies deutet darauf hin, daß die Bildung replikationskompetenter Onko/Lenti-Hybridviren unwahrscheinlich ist. Mit den [MLV(SIVagm)]-Vektoren steht somit ein Vektorsystem zur Verfügung, das sich für In-vivo-Anwendungen im HIV-infizierten Patienten eignet. Es konnte gezeigt werden, daß humane CD4-positive Lymphozyten mittels [MLV(SIVagm)]-Vektoren spezifisch, aber auch effizienter und sicherer transduziert werden als unter Verwendung bisher beschriebener amphotroper MLV-Vektoren.
Im Rahmen der Aufgabenstellung, Propenoxid durch eine heterogen initiierte homogene Autoxidation herzustellen, wurde ein neuer Reaktortyp konzipiert. Die wesentliche Anforderungen an die Reaktionsführung war dabei nach dem Katalysator einen steilen Temperaturgradienten im Abgasstrom zu verwirklichen. Die komplexen Wechselwirkungen der Autoxidation und deren Mechanismus sind nicht zweifelsfrei aufgeklärt. Insbesondere das Ausmaß der Radikalbildung ist nur unter NichtReaktionsbedingungen quantitativ bekannt. Anhand der verfügbaren Daten konnten daher keine quantitativen Rückschlüsse hinsichtlich Reaktorauslegung und erforderlichen Katalysatormengen bzw. Katalysatoraktivitäten gezogen werden. Basierend auf der postulierten Initiierung der Autoxidation durch Allylradikale wurde das Konzept des Reaktors entwickelt und dieser modular ausgelegt, um eine Nachoptimierung zu ermöglichen. Wegen der Unsicherheiten über das Ausmaß von Radikalbildung und Radikalreaktionsgeschwindigkeiten wurde der Reaktor modular ausgelegt und weite Bereiche an Reaktionsbedingungen (Temperatur und Verweilzeiten am Katalysator und im postkatalytischen Volumen) für verschiedene Katalysatorpräparationen ausgetestet. Aktivität wurde außer im Falle von Strontiumnitrat als Katalysator nur unter Reaktionsbedingungen gefunden, die bereits eine Leeraktivität bedingen. Die These, daß die von Keulks et al. [21,22] beobachtete Aktivität von Bismutoxid in der heterogen initiierten Autoxidation auf die von verschiedenen Autoren [26,27,29] beobachtete Allylradikalbildung über Bismutoxid zurückzuführen ist, ließ sich im Rahmen dieser Arbeit nicht bestätigen. Die Erkenntnis aus Arbeiten von Maier et al. [17], daß die Reaktion bei hohen Drücken (größer 10 bar) schneller und selektiver verläuft, stellt das Konzept einer heterogenen Initiierung bzw. Katalyse grundsätzlich in Frage. Durch die Druckerhöhung wurden sehr respektable RaumZeitAusbeuten erreicht und die Selektivität zu Propenoxid gesteigert, wobei letzteres auf die Umsetzung bei niedrigeren Temperaturen zurückzuführen sein dürfte, die durch die erhöhten Reaktionsraten ermöglicht wird. Im Rahmen von in dieser Arbeit durchgeführten Leertests unter Druck im mikrostrukturierten Reaktor konnte diese Reaktionsbeschleunigung bereits bei Drücken von 3 bar nachgewiesen werden. Beim Übergang auf 4,5 bar verdoppelte sich die Selektivität zu Propenoxid auf 15% bei fünffach erhöhtem (1,6%) Propenumsatz. Dieser Druckbereich war in den Arbeiten von Maier et al. nicht untersucht worden. Eine weitere Drucksteigerung bedingte aufgrund des hohen Sauerstoffpartialdrucks eine Explosion. Angesichts der Tatsache, daß bereits ohne Katalyse bei höheren Drücken hohe RaumZeitAusbeuten erreichbar sind, wurde das Vorhaben nicht weiter verfolgt und eine homogene Katalyse der Autoxidation durch das Abgas der Propandehydrierung getestet, die über Propylradikale verläuft. Diese hätte aufgrund der Verwendung von Propan anstelle eines Teils des Propens den Vorteil geringerer Rohstoffkosten. Auch hier konnte keine Übertragung der Reaktion auf die postkatalytische Zone, deren Temperatur auf unter 250°C begrenzt war, belegt werden. Lediglich die bekannte thermische Oxidation von Propen und Propan unter Nettoumsatz von Propan zu Propenoxid konnte in der Katalysatoraufnahme durchgeführt werden, wobei die Katalysatoraufnahme hier die Funktion eines Rohrreaktors erfüllte. Mit allen drei entwickelten Reaktortypen konnte ein steiler Temperaturgradient im Abgasstrom des Katalysators durch Zumischen kalter Gasströme bedingt verwirklicht werden, wobei die Limitierungen hinsichtlich der Höhe des Gradienten durch Wärmeleitungseffekte des Gehäuses hervorgerufen wurden. Dieses Reaktorschema erwies sich zwar als untauglich in der angestrebten Reaktion könnte aber für andere Reaktionen, die entsprechende Anforderungen an Temperaturgradienten haben, sinnvoll eingesetzt werden. Beispielsweise stellt die selektive Methanoxidation diese Anforderung, findet aber bei wesentlich höheren Temperaturen statt (>1000°C). Die Propenoxidation mit Wasserstoff/Sauerstoffgemischen, die zuvor nur über auf Titanoxid geträgerten Goldkatalysatoren beschrieben wurde, konnte erfolgreich an auf Titanoxid gefällten Silberkatalysatoren durchgeführt werden. Parallel zu dieser Arbeit wurden allerdings Patente der BAYER AG offengelegt, die die Aktivität von mit SilbernitratAmmoniaklösungen imprägnierten Titanoxid und TS1Katalysatoren beschreiben. Erstmalig wurde jedoch ein Titanoxid geträgerter Silberkatalysator in dieser Reaktion hinsichtlich verschiedener Beladungsgraden mit Silber, Calcinierungstemperaturen und den Reaktionsparametern Temperatur, Verweilzeit und Gaspartialdrücken untersucht. In allen Aspekten war eine erstaunliche Ähnlichkeit des Silber/TitanoxidSystems mit dem Gold/TitanoxidSystem festzustellen, welches in den letzten Jahren von verschiedenen Arbeitsgruppen gründlich untersucht wurde. So findet sich eine optimale Aktivität für die Silberkatalysatoren bei 2% Beladung mit Silber und einer Calcinierungstemperatur von 400°C. Diese betrug mit 4,14 g kg(Kat.) 1 h 1 nahezu die Hälfte der von Goldkatalysatoren (10,4 g kg(Kat.) 1 h 1 ) und die im TEM beobachteten Partikelgrößen des Silbers entsprechen mit 2 bis 4 nm denen der Goldpartikel [46]. Mit XRD konnte eine mit zunehmender Calcinierungstemperatur zunehmende Primärpartikelgröße bzw. Kristallisation des Titanoxids nachgewiesen werden. Mit zunehmender Temperatur findet eine schnellere Desaktivierung der Katalysatoren statt. Auch bei der üblichen Reaktionstemperatur von 50°C findet eine Desaktivierung über mehrere Tage statt. Mit zunehmender Verweilzeit am Katalysator sinkt die Reaktionsrate trotz differentieller Umsätze aufgrund der Produktinhibierung der Reaktion. Diese Produktinhibierung bewirkt durch Folgereaktionen die Belegung der Silberkatalysatoren mit verschiedenen Oligomeren des Propenoxids, die in TGMSExperimenten erst oberhalb 400°C vollständig desorbieren und auch die Desaktivierung bewirken. Die Reaktionsrate ist ungefähr proportional sowohl dem Propen, als auch dem Wasserstoffpartialdruck und unabhängig vom Sauerstoffpartialdruck. Auch die von Goldkatalysatoren berichtete Aktivität in der Tieftemperaturoxidation von CO und Propan konnte bei den Silberkatalysatoren gefunden werden. Eine Verbesserung hinsichtlich Standzeit des Katalysators könnte durch den Einsatz von TS1 als Trägermaterial erzielt werden, welches im Falle der Goldkatalysatoren keiner Desaktivierung unterlag. Dieses wurde mit der hohen Verdünnung der Titanzentren erklärt [47]. Auch durch den Zusatz von Gold bzw. anderen Dotierungsmetallen könnte eine weitere Verbesserung der Katalysatoren möglich sein. Ein Ansatz dazu wäre die chloridfreie Coimprägnierung mit Cyano Komplexen des Silbers und Goldes. Die bisher erzielten Ergebnisse sind jedoch noch sehr weit von technisch relevanten Umsätzen und Standzeiten entfernt. Die Erkenntnis, daß Silberkatalysatoren ähnliche Eigenschaften wie die von Haruta beschriebenen Goldkatalysatoren haben, eröffnet jedoch neue Perspektiven für die Untersuchung dieser Katalysatorklasse.
Die Protoonkogene Ras und Raf spielen eine wichtige Rolle bei der Übertragung eines extrazellulären Signals in den Zellkern. Die direkte Interaktion zwischen GTP-gebundenem, aktiviertem Ras und der Proteinkinase Raf führt zur Aktivierung der Ras/Raf/MEK/ERK-Kaskade, die eine entscheidende, regulatorische Rolle bei onkogenen, mitogenen und entwicklungsabhängigen Signalwegen besitzt. Die Beeinflussung der Kaskade stellt daher einen interessanten Ansatz für die Arzneistoffentwicklung dar. Trotz der bekannten Proteinstrukturen von Ras und Raf sind bisher nur wenige Stoffe gefunden worden, die die Interaktion direkt beeinflussen. In der vorliegenden Arbeit wurde daher ein Testsystem auf der Basis des Hefe-Zwei-Hybrid-System etabliert, mit dessen Hilfe Effektoren der Ras/Raf-Wechselwirkung schnell und einfach identifiziert werden können. Das erste Ziel der Arbeit war die Etablierung einer Testmethode in 96-well-Microtiterplatten, die einen schnellen Durchsatz verschiedener Proben erlaubt. Insgesamt wurden in der vorliegenden Arbeit 469 Reinsubstanzen und Pflanzenextrakte in verschiedenen Konzentrationen getestet. Durch die Verwendung geeigneter Kontroll-Hefestämme konnte außerdem eine Aussage über die Spezifität der Substanzinteraktion getroffen werden. Bei einigen Ras/Raf-aktivierenden Substanzen konnten über die Testung systematischer Substanzreihen Struktur-Wirkungsbeziehungen aufgestellt werden. Cycloalkylidencarbonsäuren wurden als erste potente Ras/Raf-Aktivatoren identifiziert, deren wahrscheinlicher Interaktionsbereich durch die Expression verkürzter Raf-Mutanten auf den Bereich von AS 131-194 von Raf eingeschränkt werden konnte. Sie stabilisieren nicht nur die Bindung von mutiertem, sondern auch von Wildtyp-Ras an Raf. In einem zweiten, unabhängigen Säugerzell-Testsystem, das auf der Aktivierung der Ras/Raf/MEK/ERK-Kaskade und dem anschließendem Nachweis des phosphorylierten MEK-Proteins beruht, lieferten die aktiven Verbindungen erste Hinweise auf eine Aktivierung der Signalkaskade. Mögliche Optimierungen der beiden verwendeten Testsystem, sowie Alternativen, weitergehende Experimente und Einsatzgebiete von Ras/Raf-Effektoren werden abschließend diskutiert.
Im Rahmen dieser Promotionsarbeit wurden fünf verschiedene Experimente mit der Schwerionen-Mikrosonde der GSI durchgeführt. Vier dieser Experimente waren erfolgreich, bei einem Experiment wurden nicht die erhofften Ergebnisse erzielt. Alle Experimente haben Ziele und Fragestellungen verfolgt, die vornehmlich mit einer Ionen-Mikrosonde bearbeitet werden können. Es wurde gezeigt, dass durch die Anwendung fein fokussierter Ionenstrahlen physikalische und technische Probleme im Mikrometerbereich sehr effizient und erfolgreich aufgeklärt werden können. Die hohe örtliche Auflösung der Mikrosonde in Verbindung mit den bekannten auf Ionenstrahlen basierenden Analysemethoden ermöglicht den Zugriff auf Informationen, die auf anderem Wege gar nicht oder nur schwer zugänglich sind. Das erste der fünf Experimente an der Mikrosonde untersuchte die Eigenschaften von polykristallinem CVD Diamant, bei der Verwendung dieses Materials als Detektor für Schwerionen. Der große Nachteil dieses Detektormaterials ist die geringe Fähigkeit, im Detektor erzeugte Ladungsträger verlustfrei zu den Elektroden zu transportieren, um sie dort zu sammeln. Häufig werden bei diesem Transportprozess vom Entstehungsor t der Ladungsträger zu den Elektroden über 90 % der ursprünglich vorhandenen Ladungsträger von Ladungsträgerfallen im Diamantmaterial eingefangen. Es bestand der starke Verdacht, dass diese Fallen vorwiegend in den Korngrenzen zwischen den Diamanteinkrista llen lokalisiert sind. Aus diesem Verdacht begründete sich die Hoffnung, dass die Einkristalle im CVD Diamant ein wesentlich besseres Ladungssammlungsverhalten zeigen würden. Da die Ionenmikrosonde einen Ionenmikrostrahl mit einem lateralen Fokusdurchmesser von ca. 0,5 µm über eine Targetfläche von 1 x 1 mm² rastern kann und dabei Punkt für Punkt die Reaktion des Targetmaterials nachweisen kann, ist sie das geeignete Werkzeug zur Untersuchung von Ladungssammlungsprozessen im Bereich der Einkristalle und der Korngrenzen. Bei der Auswertung der Ergebnisse des Experiments ist aufgefallen, dass man für das CVD Diamantmaterial innerhalb der Ionenbestrahlung zwei verschiedene Zustände unterscheiden muss. Ein unbestrahlter CVD Diamant verhält sich in Bezug auf die Ladungssammlungs- eigenschaften wesentlich anders als ein bestrahlter CVD Diamant, der schon eine gewisse Ionendosis akkumuliert hat. Beim unbestrahlten Diamant ist zu beobachten, dass sowohl in den Einkristallen als auch in den Korngrenzen sehr effektive Ladungsträge rfallen existieren. Die generelle Aussage, dass Diamanteinkristalle eine bessere Ladungssammlung zeigen, kann hier nicht bestätigt werden. Es konnte aber gezeigt werden, dass es, im etwa 300 x 350 µm großen Scannfeld, Bereiche mit sehr guten Ladungssammlungseigenschaften (Effizienz über 90 % im Maximum der Verteilung) gibt und in unmittelbarer Nähe Bereiche mit geringster Ladungssammlungs- effizienz (etwa 8 % im Maximum der Verteilung) existieren. Es konnte nicht geklärt werden, ob diese Bereiche aus Einkristallen bestehen oder sich über Korngrenzen ausdehnen. Die beobachtete 90%ige Ladungssammlungseffizienz ist jedoch ein eindeutiger Nachweis der Möglichkeit, die Detektoreigenschaften dieses Materials wesentlich verbessern zu können, wenn es gelingt, die Besonderheiten dieses hocheffizienten Bereichs aufzuklären. CVD Diamantdetektoren, die schon eine gewisse Ionendosis akkumuliert haben, werden auch als gepumpte Detektoren bezeichnet. Das Pumpen des Detektors kann dabei auch durch andere Formen der Energiezufuhr, beispielsweise mit Hilfe eines Lasers erfolgen, wichtig ist nur, dass eine große Zahl der Ladungsträgerfallen mit Ladungsträgern gefüllt sind. Da diese Fallen im CDV Diamant relativ tief sind, werden gefüllte Fallen nicht schnell entleert und sie stören, so lange sie gefüllt sind, die Ladungssammlung nicht mehr. Die Ladungs- sammlungseffizienz gepumpter Diamantdetektoren verbessert sich sehr stark im Vergleich zum ungepumpten Material. Das Maximum der Verteilung des Ladungssammlungsspektrums verschob sich von etwa 15 % Effizienz beim ungepumpten Detektor zu mehr als 50 % Effizienz beim gepumpten Detektor gemittelt über das gesamte Scannfeld. Bei der Betrachtung des Einflusses der Korngrenzen im gepumpten Material konnte festgestellt werden, dass die Einkristalle nun tatsächlich wesentlich weniger zum Verlust der Ladungsträger beitragen als die Korngrenzen. Die Korngrenzen zeichneten sich beim gepumpten CVD Diamant deutlich als dominante Bereiche des Ladungsträgerverlustes ab. Somit haben wir die bestehende Vermutung über den dominierenden Ladungsträgereinfang in den Korngrenzen für den gepumpten CVD Diamanten bestätigen können, beim ungepumpten Material hingegen verwerfen müssen. Eine weitere Aufklärung der Unterschiede zwischen den beiden Zuständen wür de hier zu einem besseren Verständnis der Vorgänge führen. Zudem wurde am CVD Diamant eine Hochdosisbestrahlung vorgenommen, bei der bestimmt werden sollte ab, welcher Ionendosis das Material soweit geschädigt ist, dass eine Trennung der Detektorsignale von den Rauschsignalen nicht mehr möglich ist. Für einen 8,3 MeV/u 12C-Strahl war diese Trennung ab einer Dosis von 8,0 x 1013 Ionen/cm² nicht mehr möglich, was bedeutet, dass der Detektor hier seine Verwendbarkeit verliert. Eine weitere Gruppe von drei Experimenten befasste sich mit der Wirkung von schnellen, schweren Ionen auf Halbleiterbauelemente. Diese anwendungsorientierten Experimente sollten Ursachen für das Fehlverhalten mikroelektronischer Bauelemente bei Ionentreffern an bestimmten Orten und zu bestimmten Zeitpunkten untersuchen, beziehungsweise Grundlagen für die theoretische Betrachtung der Vorgänge liefern. Beim ersten der drei Experimente wurde das Auftreten von Single Event Upsets in Verbindung mit Single Event Latchups in SRAM Bausteinen untersucht. Die Latchups werden bei den üblichen Testverfahren durch einen Spannungsabfall an einem externen Widerstand in der Versorgungsleitung erkannt. Mit Hilfe der Mikrosonde wurde nachgewiesen, dass diese Methode der Latchupdetektion unzureichend sein kann. Da die internen Versorgungsleitungen in der Halbleiterstruktur selber Widerstände bilden, kann der Latchup am äußeren Widerstand unter bestimmten Bedingungen nicht erkannt werden. Hier spielt die Länge der integrierten Versorgungsleitung eine wesentliche Rolle. Die bild- gebenden Verfahren der Mikrosonde bei der simultanen Messung von Latchups und Upsets können hier Latchups entdecken, die im üblichen Testverfahren nicht erkennbar waren. Das zweite dieser drei Experimente hatte das Ziel, die Upsetempfindlichkeit einer getakteten CMOS- Struktur im Bereich der Schaltflanken zu bestimmen. Hierzu wurden die Schaltzeit- punkte des ICs mit dem vom UNILAC gelieferten Ionenstrahl synchronisiert. Einzelne Ionen trafen den Schaltkreis nur innerhalb eines Zeitfensters von 2 nsec um die Schaltflanke. Da der getaktete integrierte Schaltkreis im Bereich der Schaltflanken besonders empfindlich auf die vom Ion erzeugten zusätzlichen Ladungsträger reagiert, sollten die Upsetwahrscheinlichkeiten innerhalb des Schaltprozesses mit möglichst hoher zeitlicher Auflösung vermessen werden. Die Bestimmung der Trefferzeitpunkte mit einer zeitlichen Genauigkeit von 1 ns oder besser brachte jedoch eine Vielzahl von Problemen mit sich, die letztlich dazu führten, dass dieses Experiment nicht erfolgreich abgeschlossen werden konnte. Auf Grund seiner hohen technischen Bedeutung wurde es in dieser Arbeit aber beschrieben und sollte nach der Verbesserung der Treffererkennung erneut durchgeführt werden. Es wäre das erste Experiment, in dem die Empfindlichkeit einer CMOS- Struktur gegen Ionenstrahlen mit hoher örtlicher und zeitlicher Auflösung gemessen wird. Das dritte Experiment dieser Serie befasste sich mit der für theoretische Vorhersagen wichtigen Größe des elektronischen Durchmessers der Ionenspur. Aus der vom Schwerion erzeugten Spur breitet sich eine elektronische Stoßkaskade aus. Diese freien Ladungsträger können ungewollte Schaltvorgänge in integrierten Schalkreisen auslösen. Da die Integrationsdichte in modernen Baugruppen immer höher wird, kann die vom Ion erzeugte Spur aus freien Ladungsträgern mehrere Transistoren beeinflussen. Die Ausdehnung dieser Spur kann nicht mehr als vernachlässigbare Größe eingestuft werden. Um den Durchmesser der Spur zu bestimmen, wurde ein fein fokussierter 5,9 MeV/u Nickel-Strahl über eine Probe aus Mikrostreifen gerastert, und die in den Streifen gesammelten Ladungssignale wurden gemessen. Trotz einiger Probleme mit der kapazitiven Kopplung von Signalen zwischen den Streifen und dem Substrat und de n Streifen untereinander konnte der Durchmesser der elektronischen Spur bei diesem Test zu etwa 1,2 µm bestimmt werden. Es sollte der Versuch unternommen werden, diesen ersten experimentellen Wert durch weitere verfeinerte Messungen zu bestätigen und vor allem sollte versucht werden, das Dichteprofil der Elektronen in der Ionenspur mit dieser Technik zu bestimmen. Diese Informationen wären von großem Wert für theoretische Modelle zur Empfindlichkeit von integrierten Elektroniken gegen die Effekte einzelner Ionen. Im fünften und letzten Experiment dieser Arbeit wurde die Ionen-Mikrosonde als Werkzeug zur Strukturierung eines Hochtemperatur Dünnfilm Supraleiters eingesetzt. In der sogenannten Shubnikov-Phase können magnetische Flussquanten in den Supraleiter eindringen, obwohl der Zustand der Supraleitung noch vorhanden ist. Diese Flussquanten können durch säulenartige korrelierte Defekte im Supraleiter gebunden werden. Die Spuren schwerer Ionen bilden solche kolumnaren Defekte, die mit Hilfe der Mikrosonde aufgeprägt werden können. Da bei dieser Strukturierung eine hohe Defektdichte erforderlich war, konnte aus Zeitgründen eine Strukturierung mit dem schreibenden Ionenstrahl nicht realisiert werden. Stattdessen wurde eine Schlitzmaske verwendet, die mit Hilfe der Mikrosonde verkleinert auf der Oberfläche des Supraleiters abgebildet wurde. Auf diese Weise wur de dem Supraleiter eine Defektstruktur aus Stegen, die in einem bestimmten Winkel orientiert waren, aufgeprägt. An dem so erzeugten Supraleiter wurden dann an der Universität Mainz die elektrischen Transporteigenschaften des Materials unter dem Einfluss eines gepinnten magnetischen Feldes gemessen. Da die erwarteten Effekte aus dem Pinning der magnetischen Flussquanten erst dann eine messbare Größe annehmen, wenn dem Supraleiter Defektstrukturen in der Größenordnung von einigen µm aufgeprägt werden, ist auch hier die Ionen-Mirkrosonde das einzige verfügbare Instrument für diese Aufgabe. Mit dieser Arbeit wurde deutlich gemacht, dass eine Ionen-Mikrosonde ein vielseitig einsetzbares Instrument ist, das vor allem aufgrund der hohen Bedeutung von miniaturisierten Systemen in der modernen Forschung und Technik ein hohes Verwendungspotential besitzt. Alle hier vorgestellten Experimente wären ohne den Einsatz der Mikrosonde nicht durchführbar gewesen. Neben diesen Experimenten werden an der GSI noch eine Reihe weiterer Experimenten zum Beispiel im Bereich der Biophysik bearbeitet, die ihrerseits von der einzigartigen Möglichkeit der µm-genauen Platzierung schwerer Ionen profitieren.
Natürliche Enantioselektivität und Isotopendiskriminierung - Schlüssel zur Echtheit ätherischer Öle
(2002)
Als Grundlage für die Beurteilung der Echtheit ätherischer Öle können zwei biochemische Prinzipien Enantioselektivität und Isotopendiskriminierung während der Biosynthese herangezogen werden. In der vorliegenden Arbeit wurde die enantioselektive Kapillargaschromatographie sowie die online-Kopplung der Gaschromatographie mit der Isotopenmas- senspektrometrie zur Authentizitätsbewertung verschiedener ätherischer Öle eingesetzt. Die Bestimmung von Enantiomerenverhältnissen mittels Multidimensionaler Gaschromatographie-Massenspektrometrie (MDGC-MS) sowie von 13C/12C-Isotopenverhältnissen mittels GC-C-IRMS (Gaschromatographie-Combustion- Isotopenmassenspektrometrie) sind etablierte Methoden, die in der Authentizitätsbewertung von Aroma- und Duftstoffen eingesetzt werden. Dagegen ist die Bestimmung von 2H/1H-Isotopenverhältnissen mittels GC-P-IRMS (Gaschromatographie-Pyrolyse-Isotopenmassenspektrometrie) eine relativ neue Methode. In der vorliegenden Arbeit wurden Strategien zur Bestimmung von zuverlässigen 2H/1H-Isotopenverhältnissen mittels GC-P-IRMS entwickelt. Die Kalibrierung des Referenzgases mit Hilfe von internationalen Standards kann nur mittels eines Elemental Analyzers (EA-IRMS) erfolgen, da für die Gaschromatographie geeignete Standards nicht zur Verfügung stehen. Daher ist insbesondere der Vergleich von Isotopenverhältnissen von Standardsubstanzen, die mittels TC/EA-IRMS und GC- P-IRMS bestimmt wurden, von Bedeutung. Es konnte gezeigt werden, dass eine Konditionierung (Einbringen einer Kohlenstoffschicht) des Pyrolysereaktors im GC- P-IRMS-System notwendig ist, um für die untersuchten Aromastoffe mittels GC-P- IRMS zum Elemental Analyzer vergleichbare Ergebnisse zu erzielen. Von zwei verschiedenen getesteten Methoden zur Konditionierung des Pyrolysereaktors war die Konditionierung durch Einleiten von Methan in den Pyrolysereaktor die geeignetere und effektivere Methode. Weiterhin wurden der Einfluss des Trägergasflusses des Gaschromatographen auf die bestimmten Isotopenwerte sowie der lineare Bereich der Methode untersucht. Es konnte erstmalig gezeigt werden, dass die mittels GC-P-IRMS bestimmten Isotopenverhältnisse von verschiedenen Parametern abhängig sind. Richtige Ergebnisse zu erzielen setzt folgende Konditionen voraus: Konditionierung des Pyrolysereaktors, optimaler Trägergasfluss sowie Mindestmenge des Analyten (> 0,3 µg on column). Die neuen Möglichkeiten, die die online-Bestimmung von 2H/1H-Isotopenverhältnissen in der Authentizitätsbewertung von Lavendelölen, Anis- und Fenchelölen sowie Kümmelölen bietet, wurden erstmalig untersucht. Darüber hinaus wurden die enantioselektive Kapillargaschromatographie und die Bestimmung von 13C/12C-Isotopenverhältnissen mittels GC-C-IRMS eingesetzt. Es konnte gezeigt werden, dass sich die Bereiche der 2HV-SMOW-Werte von Linalool und Linalylacetat aus authentischen Lavendelölen deutlich vom Bereich der Isotopenverhältnisse kommerziell erhältlicher, synthetischer Analoga unterscheiden und somit eine Verfälschung von Lavendelölen mit synthetischem Linalool und/oder Linalylacetat nachweisbar ist. Mit dieser Methode konnten diverse Handelsöle eindeutig als verfälscht beurteilt werden. Über die Bestimmung der Enantiomerenverhältnisse von Linalool und Linalylacetat dieser Öle konnte die Aussage bestätigt werden (hohe Reinheit zugunsten des (R)-Enantiomeren in genuinen Lavendelölen). Anhand der unterschiedlichen 13C/12C-Isotopenverhältnisse ist eine Unterscheidung zwischen synthetischem und Linalylacetat aus Lavendel möglich. Die 13CV-PDB-Werte von synthetischem und natürlichem Linalool aus Lavendelölen liegen im gleichen Bereich und sind somit zur analytischen Differenzierung natürlich/naturidentisch nicht geeignet. Mittels GC-C(P)-IRMS Analyse von trans-Anethol aus Fenchel- und Anisölen wurden die authentischen Bereiche der 13C/12C- und 2H/1H-Isotopenverhältnisse ermittelt. Es konnte gezeigt werden, dass sich einige der synthetischen trans-Anethol- Muster nur aufgrund eines der beiden bestimmten Isotopenverhältnisse von dem authentischen Bereich abgrenzen lassen. Somit konnte gezeigt werden, dass die integrale Betrachtungsweise der 13CV-PDB-Werte und der 2HV-SMOW-Werte biogener Stoffe für die Authentizitätsbewertung von großer Bedeutung ist. Zur Authentizitätsbewertung von Kümmelölen wurden die Enantiomerenverhältnisse, die 13C/12C- und die 2H/1H-Isotopenverhältnisse der Hauptkomponenten Limonen und Carvon bestimmt. Aufgrund der 2HV-SMOW-Werte von Limonen lassen sich keine Unterscheidungen zwischen kommerziell erhältlichen Limonen und Limonen aus Kümmelölen treffen. Dagegen können die 13CV-PDB-Werte von Limonen zur Authentizitätsbewertung von Kümmelölen herangezogen werden. Die dargestellten Ergebnisse zeigen, dass die Bestimmung von 2H/1H- Isotopenverhältnissen mittels GC-P-IRMS neue Möglichkeiten in der Echtheitsbewertung ätherischer Öle bietet. Insbesondere die integrale Betrachtung von 2HV- SMOW- und 13CV-PDB-Werten ( 2H/ 13C-Korrelation) wird eine Authentizitätsbewertung künftig noch wesentlich differenzierter möglich machen. Weitere Perspektiven wird die Bestimmung von 18O/16O-Isotopenverhältnissen bieten. Die Authentizitätsbewertung anhand der Multielement-Analyse mittels GC- IRMS eröffnet gerade für achirale Aromastoffe Perspektiven, stellt aber auch eine Ergänzung zur enantioselektiven Analytik dar.
In dieser Arbeit wurde ein relativistisches Punktkopplungsmodell und seine Anwendbarkeit auf Probleme in der Kernstrukturphysik untersucht. Der Ansatz ist in der Kernstrukturphysik recht neu. Aus diesem Grund war es ein wichtiges Ziel festzustellen, wie gut sich das Modell zur Beschreibung von Grundzuständen von Kernen eignet. Während sich Modelle wie das Relativistic-Mean-Field-Modell mit Mesonenaustausch und Hartree-Fock-Rechnungen mit Skyrme-Kräften in vielen detaillierten Untersuchungen bewährt haben, musste dies für das relativistische Punktkopplungsmodell erst gezeigt werden. Als erster Schritt war eine sorgfältige Anpassung der Kopplungskonstanten des Modells erforderlich. Um möglichst einen optimalen Satz an Parametern zu erhalten, wurden verschiedene Optimierungsverfahren getestet und angewandt. Die Parameter der effektiven Mean-Field-Modelle sind untereinander stark korreliert. Zusammen mit der Nichtlinearität der Modelle führt diese Tatsache auf die Existenz vieler lokaler Minima der zu minimierenden x2-Funktion, was eine flexible Anpassungsmethode erfordert. Als besonders fruchtbar erwies sich eine Kombination aus der Methode Bevington-Curved-Step mit dem Monte-Carlo-Algorithmus simulated annea/ing. Durch die Anpassung der Kraft PC-F1 an experimentelle Daten in einem x2-Fit ist es gelungen, mit dem Punktkopplungsmodell eine Vorhersagekraft zu erreichen, die der etablierter RMF-FR- und SHF-Modelle gleicht. Dies ist nicht selbstverständlich, da die Modelle eine deutlich unterschiedliche Dichteabhängigkeit der Potenziale besitzen. Weiterhin haben wir gesehen, dass die Anpassungsprozedur der Parameter eine komplizierte Aufgabe darstellt und noch in mancher Hinsicht ausgearbeitet und verbessert werden kann. Das Punktkopplungsmodell mit der Kraft PC-F1 verhält sich für viele Observablen sehr ähnlich wie das RMF-FR-Modell. Dies betrifft die Beschreibung der bulk properties von symmetrischer Kernmaterie, Neutronenmaterie, Bindungsenergien, Spin-Bahn-Aufspaltungen, Observablen des nuklearen Formfaktors, Deformationseigenschaften von Magnesium-Isotopen, die Spaltbarriere von 240Pu sowie die Vorhersage der Schalenstruktur von überschweren Elementen. Dabei werden aber insbesondere Radien besser beschrieben als mit den RMF-FR-Kräften. Oberflächendicken werden, im Einklang mit dem RMF-FR-Modell, als zu klein vorhergesagt. Deutliche Unterschiede treten bei Deformationsenergien einiger Kerne auf (sie sind größer als beim RMF-FR-Modell und oft kleiner als die von dem SHF-Modell vorhergesagten) sowie bei Dichtefluktuationen in Kernen. Die vektoriellen Dichten der Nukleonen oszillieren nicht so stark wie die des RMF-Modells mit Mesonenaustausch, was auf die fehlende Faltung der nukleonischen Dichten zurückgeführt werden kann. Im Vergleich zum Skyrme-Hartree-Fock-Modell ergeben sich deutliche Unterschiede in der Beschreibung von symmetrischer Kernmaterie und Neutronenmaterie. Relativistische Modelle sagen eine höhere Sättigungsdichte und Bindungsenergie vorher. Die vorhergesagte Asymmetrieenergie ist deutlich größer als die Werte des SHF- bzw. Liquid-Drop-Modells. Die Beschreibung von Neutronenmaterie weicht stark von modernen Rechnungen [Fri8 1] und den Vorhersagen von Hartree-Fock-Rechnungen mit der Skyrme-Kraft SLy6 ab. Die Vorhersagen zu überschweren Kernen stimmen in Bezug auf magische Zahlen mit anderen relativistischen Modellen überein: Der doppelt-magische, überschwere Kern besitzt Z = 120 Protonen und N = 172 Neutronen. Im Einklang mit anderen selbstkonsistenten Vorhersagen zeigt seine Baryonendichte eine Semi-Blasenstruktur. Die Spaltbarrieren der Kerne 292 120 und 298 114 sind von ähnlicher Größenordnung wie die von anderen untersuchten RMF-Kräften. Die Lage des isomeren Zustandes im symmetrischen Spaltpfad liegt beim RMF-PC-Modell sehr tief, was auf eine geringe Oberflächenenergie schließen lässt. Die deutlichen Unterschiede zu den Vorhersagen von Hartree-Fock-Rechnungen mit Skyrme-Kräften zeigen, dass sich gewisse Eigenschaften der Modelle besonders stark bei überschweren Elementen auswirken. Überschwere Elemente sind ein sensitives Testfeld für die Modelle. Hier bedarf es dringender Untersuchungen, um längerfristig zuverlässige Vorhersagen machen zu können. Besonders in den Rechnungen von Bindungsenergien in Isotopen- und Isotonenketten sowie für Neutronenmaterie zeigt das Punktkopplungsmodell Schwächen im isovektoriellen Kanal der effektiven Wechselwirkung, die denen des RMF-FR-Modells ähneln. Dies bestätigt den Verdacht, dass dieser Kanal modifiziert werden muss. Deshalb wurden mehrere Varianten des RMF-PC-Modells mit Erweiterungen im isovektoriellen Kanal getestet. Ein interessantes Ergebnis der Untersuchungen zu den erweiterten Parametersätzen des Punktkopplungsmodells ist, dass sich eine Anpassung zusätzlicher Terme im isovektoriellen Kanal der Wechselwirkung mit den in dieser Arbeit verwendeten Fitstrategien nicht bewerkstelligen lässt. Andererseits zeigen die Modelle gerade in dieser Hinsicht noch unverstandene Schwächen. Dies zeigt, dass in der Zukunft eine Erweiterung der Fitstrategie wichtig wird. Kerne mit großem Isospin und z.B. Neutronenmaterie könnten hier Verwendung finden. Neue experimentelle Daten zu exotischen Kernen werden hierbei von großem Nutzen sein. Untersuchungen zur Natürlichkeit der angepassten Kopplungskonstanten mit Hilfe der naiven dimensionalen Analyse haben gezeigt, dass die Kraft PC-F1 dieses Kriterium erfüllt. Dies ist besonders interessant, da bei dieser Kraft alle Kopplungskonstanten frei im Fit variierbar waren. Die Kopplungskonstanten des Modells bzw. die korrespondierenden Terme absorbieren auch Vielkörpereffekte, weshalb es interessant ist, dass dieses Kriterium anwendbar ist. Parametersätze für erweiterte Punktkopplungsmodelle erfüllen bisher nicht das Kriterium der Natürlichkeit, was noch einmal ihre ungenügende Fixierungsmöglichkeit in den verwendeten Fitstrategien unterstreicht. Die Struktur des relativistischen Punktkopplungsmodells ermöglicht es, die Austauschterme der 4-, 6- und 8-Fermionen-Terme als direkte Terme umzuschreiben. Diese Möglichkeit ebnet den Weg für relativistische Hartree-Fock-Rechnungen für endliche Kerne, die numerisch kaum aufwendiger sind als die Rechnungen mit der Hartree-Version des Modells. Dabei bedürfen die Ableitungsterme gesonderter Behandlung. Allerdings muss dazu auch der Modellansatz erneut überdacht werden: das Pion bzw. die dazu korrespondierenden Terme sollten Bestandteil dieser Formulierung sein und durch die Austauschterme Beiträge zu den mittleren Potenzialen liefern. Relativistische Hartree-Fock-Rechnungen mit dem Punktkopplungsmodell werden es ermöglichen, den Zusammenhang zwischen relativistischen und nichtrelativistischen Hartree-Fock-Modellen systematisch und im Detail zu studieren. Längerfristig können diese Studien zu einer quantitativen Verbesserung der Modelle und damit einhergehend zu ihrem klaren Verständnis führen. Die mikroskopische und selbstkonsistente Beschreibung von Atomkernen ist eine faszinierende und spannende Herausforderung, sie anzunehmen war Ziel und Aufgabe dieser Arbeit.
Vanille ein tropisches Orchideengewächs liefert eines der bedeutendsten Aromen weltweit. Die stetig wachsende Nachfrage und das hohe Preisniveau sind allerdings häufig die Ursache für Verfälschung von Vanilleextrakten und -aromen. Ziel der Arbeit war es daher, die Methoden zur Echtheitsbewertung von Vanille weiter zu entwickeln. Daneben sollten Untersuchungen im Hinblick auf aromaaktive Minorkomponenten durchgeführt werden. Als Basisdaten für die Authentizität von Vanille dienen häufig Verhältniszahlen, die aus den Gehalten der Hauptinhaltsstoffe Vanillin, 4-Hydroxybenzaldehyd, Vanillinsäure und 4-Hydroxybenzoesäure gebildet werden. Um diese Verhältniszahlen zuverlässig bestimmen zu können, wurden eine hochdruckflüssigkeits-chromatographische (HPLC) und zum ersten Mal eine gas-chromatographische (GC) Methode entwickelt. Unter Verwendung von internen Standards konnte mit beiden Methoden eine zuverlässige Quantifizierung erzielt werden. Die ermittelten Werte erwiesen sich als unabhängig von der Analysenmethode, von Erntejahrgang und Herkunft der Schoten. Weiterhin konnte gezeigt werden, dass die bisher zur Bewertung herangezogenen Richtwerte im Vergleich mit den im Rahmen dieser Arbeit ermittelten Werte durchweg zu enge Spannbreiten aufweisen. Die neu bestimmten Daten zur quantitativen Zusammensetzung von Vanilleschoten stellen daher wertvolle Basiskriterien für eine Echtheitsbewertung von Vanille dar. Für eine weitergehende, noch zuverlässigere Authentizitätsbewertung wurden die 13C/12C-Verhältnisse von Vanillin und der zweiten Hauptkomponente 4- Hydroxybenzaldehyd ermittelt. Als grundlegende Voraussetzung für die Bestimmung korrekter Isotopenwerte wurde zum einen die Gerätekonfiguration optimiert, um eine vollständige Verbrennung zu gewährleisten, zum anderen wurde der Einfluss der Schotenaufarbeitung untersucht. Durch Korrelation der Delta13CV-PDB-Werte der beiden Komponenten konnten klare Authentizitätbereiche festgelegt werden. Insbesondere durch die integrale Betrachtungsweise beider Kriterien Verhältniszahlen und Isotopenwerte konnte die Authentizitätsbewertung von Vanille erheblich verbessert werden. Neben den Hauptkomponenten kommen in der Vanille aber auch eine große Zahl von aromaaktiven Minorkomponenten vor. Im Rahmen dieser Arbeit sollten daher auch Untersuchungen zu einigen dieser Minorkomponenten durchgeführt werden. Dabei ermöglichte es der Einsatz der neuen, hochempfindlichen Methode der Stir Bar Sorptive Extraction, eine enantioselektive Analyse von - Nonalacton und verschiedenen Monoterpenen durchzuführen. -Nonalacton konnte dabei in allen untersuchten Proben mit einem nahezu racemischen Enantiomerenverhältnis nachgewiesen werden. Die Enantiomerenreinheit und die Schwankungen der Enantiomerenverhältnisse für die untersuchten Monoterpene waren stark variierend. Es konnte dabei aber weder eine Herkunfts- noch eine Jahrgangsabhängigkeit festgestellt werden. Die sehr geruchsaktive Substanz Guajacol wurde in Schoten der Gattungen V. planifolia und V. tahitensis semiquantitativ untersucht. Es konnte aber auch hier keine Abhängigkeit von der Herkunft der Schoten festgestellt werden. Um weitere geruchsaktive Minorkomponenten zu identifizieren, wurde ein Headspace- Extrakt von Vanilleschoten mittels Gaschromatographie-Olfaktometrie untersucht. Es konnten dabei die beiden Substanzen Kreosol und 4- Hydroxybenzylamin identifiziert werden. Letztgenanntes war bisher als natürlicher Aromastoff nicht bekannt. Obwohl beide Komponenten nur im ppb- Bereich vorkommen, leisten sie dennoch eine Beitrag zum Gesamtaroma von Vanille. Insgesamt konnten im Rahmen dieser Arbeit neue Wege im Hinblick auf die Analytik und Authentizitätsbewertung von Vanille aufgezeigt werden.
Der Cytochrom-bc1-Komplex katalysiert die Elektronenübertragung von Ubihydrochinon auf Cytochrom c in der Atmungskette und in der bakteriellen Photosynthese. Das Enzym stellt somit das Bindeglied zwischen den Ubihydrochinon bildenden Dehydrogenasen und der Cytochrom c oxidierenden Cytochrom-c-Oxidase dar. Im Rahmen der vorliegenden Arbeit wurden die Wechselwirkungen des Cytochrom-bc1-Komplexes aus Saccharomyces cerevisiae mit seinen Substraten Ubichinon und Cytochrom c sowie mit Phospholipiden der inneren Mitochondrienmembran untersucht. Durch Analyse von Gesamtlipidextrakten aus Proben des Cytochrom-bc1-Komplexes konnte gezeigt werden, daß das Enzym in Anwesenheit von vier verschiedenen Phospholipiden gereinigt und kristallisiert werden kann. In der Kristallstruktur des Enzyms bei 2,3 Å Auflösung wurden fünf Bindungsstellen für Phospholipide und eine Bindungsstelle für ein Detergensmolekül identifiziert. Die Bindungsstelle für eines der Phospholipide, ein Cardiolipin-Molekül, liegt am Eingang eines von zwei Protonierungspfaden für die Ubichinon-Reduktionsstelle (Qi-Bindungsstelle). Ein Phosphatidylinosit-Molekül befindet sich in einer außergewöhnlichen Position unweit der flexiblen "Linker"-Region des Rieske Eisen-Schwefel-Proteins und trägt vermutlich zur Stabilisierung dieser katalytischen Untereinheit bei. Durch Röntgenbeugung an Kokristallen bestehend aus Cytochrom-bc1-Komplex und gebundenem Cytochrom c konnte die dreidimensionale Struktur dieses transienten Enzym-Substrat-Komplexes bei 2,97 Å ermittelt werden. Die Kristallstruktur ist die erste Struktur des Cytochrom c im Komplex mit einem seiner beiden Redoxpartner aus der Atmungskette. Sie zeigt, daß das Cytochrom c hauptsächlich durch hydrophobe Wechselwirkungen an das Cytochrom c1 bindet und daß die Nähe der beiden c-Typ Hämgruppen eine schnelle Reduktion des Cytochrom c erlaubt. Im homodimeren Cytochrom-bc1-Komplex ist nur eine der beiden Bindungsstellen für Cytochrom c besetzt. Diese hälftige Substratbindung zeigte sich auch für das Ubichinon in der Qi- Bindungsstelle und weist darauf hin, daß die beiden Monomere des Enzyms unabhängig voneinander oder sequentiell arbeiten können. Möglicherweise dient dies der Regulation der Enzymaktivität des Cytochrom-bc1-Komplexes. Durch partielle Reduktion des Cytochrom-bc1-Komplexes in Anwesenheit von Ubichinon konnte ein proteingebundenes Ubisemichinonradikal erzeugt und durch Schockgefrieren stabilisiert werden. Die spektralen Eigenschaften dieses Radikals sind typisch für ein Ubisemichinon an der Qi-Bindungsstelle. Durch Spektroskopie an einer Probe, die einem Wasserstoff/Deuterium-Austausch unterzogen wurde, konnte gezeigt werden, daß dieses Radikal von Protonen koordiniert wird, die mit dem Solvens im Austausch stehen. Dies steht in Übereinstimmung mit der Theorie des Q-Zyklus und wurde durch die hochauflösenden Kristallstruktur des Enzyms bei 2,3 Å vorhergesagt. Die erzielten Ergebnisse zeigen neue Informationen zum Wechselspiel des Cytochrom- bc1-Komplexes mit Phospholipiden aus der inneren Mitochondrienmembran. Die Bestimmung der Struktur des transienten Komplexes bestehend aus Enzym und Cytochrom c erweitert das Bild über den Elektronentransfer durch Cytochrom c zwischen dem Cytochrom-bc1-Komplex und der Cytochrom-c-Oxidase. Das mögliche Zusammenwirken der Bindungstellen für Cytochrom c und Ubichinon ist ein neuer mechanistischer Aspekt, der auf eine Regulation der Enzymaktivität schließen läßt.
Nichtmethan-Kohlenwasserstoffe sind in Gegenwart von Stickstoffoxiden (NO, NO2) wichtige Vorläufersubstanzen von troposphärischen Photooxidantien (z. B. Ozon), die beim photochemischen Metabolismus gasförmiger organischer Verbindungen durch Hydroxylradikale (OH) unter Einwirkung von Sonnenlicht gebildet werden. Experimenteller Beitrag dieser Arbeit ist die Charakterisierung, Modifizierung, Optimierung und Qualitätssicherung des zur Messung von leichtflüchtigen atmosphärischen C2-C10 Kohlenwasserstoffen verwendeten mobilen Gaschromatographen (GC) mit Flammenionisationsdetektor (AirmoVOC HC2010). Im Rahmen des vom BIvIBF geförderten Berlin Ozonexperiments BERLIOZ, das im Sommer 1998 im Großraum Berlin/Brandenburg stattfand, wurden an einer ländlichen Bodenstation in Blossin, 40 km südöstlich Berlins, in situ Messungen von 69 Nichtmethan-Kohlenwasserstoffen durchgeführt. im Vorfeld der Feldkampagne wurde der GC einer umfangreichen Qualitätssicherung unterzogen. Bei einer Immissionsvergleichsmessung, die unter Beteiligung aller Arbeitsgruppen stattfand, ergab sich eine mittlere konzentrationsabhängige Abweichung des HC-2010 von ± 16% und ein konstanter Offset (Bias) von 0,71 nmol/m3 (16 pptv) vom Referenzmeßverfahren des Forschungszentrums Jülich. Die Geräteblindwerte waren für die meisten Analyten kleiner 0,3 nmol/m3 (6 pptv). Aus der dreifachen Standardabweichung der Blindwerte ergaben sich die für Außenluftuntersuchungen geforderten Nachweisgrenzen um 0,4 nmol/m3 (10 pptv). Im zweiten Teil dieser Arbeit wurde der BERLIOZ-Datensatz hinsichtlich einer Bestandsaufnahme ausgewertet. Die beobachteten Konzentrationen der einzelnen Kohlenwasserstoffe wiesen jeweils eine logarithmische Normalverteilung auf, die Charakterisierung des Datensatzes erfolgte deshalb nicht anhand von arithmetischem Mittelwert und Standardabweichung, sondern mit geometrischem Mittelwert und multiplikativer Standardabweichung. Anhand der OH-Verlustrate wurde der Einfluß der verschiedenen Kohlenwasserstoffe auf die lokale Bildung von Photooxidantien untersucht. Der natürliche Kohlenwasserstoff Isopren lieferte mit 70% den weitaus größten mittleren Beitrag zur Photooxidantienproduktion am Boden. In der Grenzschicht verlor isopren allerdings seine dominante Rolle. Sein Beitrag schrumpfte mit zunehmender Höhe auf 20-40%. in der in 200 m Höhe beobachteten Abluftfahne Berlins verursachten anthropogene Kohlenwasserstoffe rund 2/3 der OH-Verlustrate, wobei die reaktiven C3/C4-Alkene alleine bereits 50% beitrugen.