Refine
Year of publication
- 2002 (190) (remove)
Document Type
- Doctoral Thesis (190) (remove)
Has Fulltext
- yes (190)
Is part of the Bibliography
- no (190)
Keywords
- Gaschromatographie (3)
- Genexpression (3)
- Authentizität (2)
- Gephyrin (2)
- Halbleiteroberfläche (2)
- Ionenkanal (2)
- Kontamination (2)
- Abmahnung (1)
- Abweichendes Verhalten (1)
- Allosterischer Effektor (1)
Institute
- Medizin (43)
- Biochemie und Chemie (41)
- Biowissenschaften (30)
- Pharmazie (23)
- Physik (17)
- Geowissenschaften (9)
- Informatik (4)
- Geschichtswissenschaften (3)
- Gesellschaftswissenschaften (3)
- Psychologie (3)
In dieser Arbeit erfolgt eine Untersuchung der intrazellulären Transporteigenschaften des Na /Glucose Cotransporters SGLT1 aus dem Kaninchen. Der Transporter wird dazu heterolog in Xenopus laevis Oozyten exprimiert. Die hohe Expressionsdichte erlaubt die Anwendung der "giant excised patch clamp"-Technik in der inside-out Konfiguration. Die Patches mit Durchmessern von 20-30 µm enthalten ca. 2,5 - 5·10 hoch 6 Transportern bei einem durchschnittlichen Strom von 20-40 pA. Der Transport des Substrats Glucose bzw. des hier verwendeten alpha MDG wird angetrieben durch den elektrochemischen Gradienten für das Cosubstrat Na . Bei 0 mV Haltepotential wird zuerst die reine Konzentrationsabhängigkeit des Auswärtstransports durch die Bestimmung der apparenten intrazellulären Affinität für alpha MDG bei verschiedenen festen Na -Konzentrationen untersucht. Es kann eine deutliche Abhängigkeit des KM alpha MDG von der Na -Konzentration festgestellt werden. Eine Erhöhung der intrazellulären Na -Konzentration von 10 mM auf 400 mM führt zu einer ca. 12fachen Abnahme des KM alpha MDG. Experimente mit symmetrischer Na -Verteilung zeigen, dass auch ohne Na -Konzentrations-Gradient Transport stattfinden kann, allerdings mit einer deutlich geringeren Affinität für alpha MDG. Verglichen mit Literaturwerten für die extrazelluläre alpha MDG-Affinität ist die intrazelluläre Affinität 10-15mal geringer ist als die extrazelluläre. Die Untersuchung der Abhängigkeit von der Na -Konzentration bei verschiedenen festen MDG-Konzentrationen zeigt, dass KM Na eine geringe Abhängigkeit von der alpha MDG- Konzentration besitzt. Die 10fache Erhöhung der alpha MDG-Konzentration von 25 mM auf 250 mM führt nur zu einer leichten Erniedrigung des KM Na. Die intrazelluläre Na - Affinität liegt in der gleichen Größenordnung wie die extrazelluläre. Zur Untersuchung der intrazellulären Bindungsreihenfolge werden die gemessenen Abhängigkeiten des KM alpha MDG und des I Max von der Na -Konzentration mit Simulationen für die 3 möglichen Bindungsreihenfolgen (2Na :G), (Na :G:Na ) und (G:2Na ) verglichen. Mit den hier gemachten Annahmen für die intrazellulären Bindungskonstanten für MDG und Na wird die beste Übereinstimmung für die intrazelluläre Bindungsreihenfolge (2Na :G) gefunden. Zur Untersuchung des spannungsabhängigen Verhaltens der Affintitäten für alpha MDG und Na werden Spannungssprünge unter denselben Konzentrationsbedingungen wie vorher durchgeführt. Die Strom-Spannungs-Kennlinien zeigen eine Zunahme der zuckerinduzierten Stromamplituden zu positiven Potentialen hin. Dabei wird weder bei hyperpolarisierenden noch bei depolarisierenden Potentialen eine Sättigung erreicht. Dies läßt den Rückschluss, dass im betrachteten Spannungsbereich ein spannungsabhängiger Schritt im Transportzyklus geschwindigkeitsbestimmend ist. Die apparenten Affinitäten für alpha MDG und Na besitzen eine geringe Spannungsabhängigkeit. Der KM alpha MDG bei annähernd sättigender Na -Konzentration fällt zwischen 40 mV und 40 mV um einen Faktor 4,4. Bei verringerter Na -Konzentration beeinflusst das Membranpotential die MDG-Affinität stärker. Der KM Na fällt unter sättigenden Zuckerbedingungen im gleichen Spannungsbereich auf die Hälfte ab, wobei der Hill-Koeffizient konstant bleibt. Die Erniedrigung der alpha MDG-Konzentration verursacht keine Veränderung des spannungsabhängigen Verlaufs. Die Ergebnisse zeigen, dass SGLT1 ein reversibler Transporter ist, der sowohl Einwärts-, aber auch Auswärtstransport von Glucose generieren kann. Er zeigt dabei eine starke Abhängigkeit von der Na -Konzentration und eine geringe Abhängigkeit vom Membranpotential. Die hier bestimmten Eigenschaften zeigen aber auch, dass unter physiologischen Bedingungen ein Auswärtstransport von Glucose sehr unwahrscheinlich ist. Das Zusammenwirken der Faktoren Richtung des Na -Gradient, geringe Zuckeraffinität, negatives Membranpotential und geringe intrazelluläre Na - Konzentration verhindern den Auswärtstransport. Der physiologische Na -Gradient ist dem Auswärtstransport entgegengerichtet. Die geringe intrazelluläre Na -Konzentration und das negative Membranpotential verursachen eine sehr geringe intrazelluläre Zuckeraffinität von ca. 75 mM alpha MDG, so dass ein merklicher Auswärtstransport nur bei einer hohen Zuckerkonzentration innerhalb der Epithelzellen stattfinden kann. Dies wird jedoch durch basolaterale Glucose-Transporter verhindert. Das negative Membran- potential führt zu einer geringen Aktivität des Auswärtstransports. Die geringe intrazelluläre Na -Konzentration liegt weit unterhalb es KM Na , so dass auch hier die Transporteraktivität gering ist. Die asymmetrische Funktionsweise des SGLT1 gewährleistet, dass der Glucose- Transport nur in eine physiologisch sinnvolle Richtung, nämlich der Aufnahme von Glucose in die Epitheltzellen, stattfindet.
Bei einer HIV-1-Infektion ist die Krankheitsprogression zum Vollbild AIDS mit dem Auftreten von Virusvarianten assoziiert, die den Chemokinrezeptor CXCR4 zum Zelleintritt verwenden. Dagegen nutzen SIV ein breites Korezeptorspektrum, vor allem CCR5. Im Verlauf einer SIV-Infektion findet kein Korezeptorwechsel von CCR5 zu CXCR4 statt. In dieser Arbeit wurde der Einfluß einer solchen Änderung der Korezeptornutzung auf die SIVagm-Infektion in-vitro und auf den Verlauf der apathogenen SIV-Infektion in-vivo nach Infektion von Schweinsaffen untersucht. Um die Korezeptorspezifität eines SIV zu CXCR4 zu verändern, wurde das in AGM und Schweinsaffen apathogene SIVagm3mc verwendet, das als Korezeptoren zum Zelleintritt CCR5, BOB und BONZO nutzt. Die potentielle Korezeptorbindungsstelle, der zu HIV-1 homologe V3-Loop des Oberflächen-Hüllproteins gp130-SU des SIVagm3mc wurde durch den V3-Loop des CD4 / CXCR4-tropen HIV-1-Klons BH10 ersetzt. Das resultierende SIVagm3-X4mc erwies sich als replikationskompetent und verwendete zum Zelleintritt ausschließlich CD4 / CXCR4. Die Replikation wurde durch den natürlichen Liganden des CXCR4, SDF-1a, dosisabhängig gehemmt. Überraschenderweise besaß SIVagm3-X4mc die Eigenschaft, in-vitro nicht nur in IL2 / PHA-stimulierten sondern auch in unstimulierten PBMC von Schweinsaffen und AGM replizieren. Nach Infektion von je zwei Schweinsaffen (Macaca nemestrina) mit SIVagm3mc bzw. SIVagm3-X4mc konnte bis zu 14 Monate nach Inokulation keine Krankheitsentwicklung und kein Abfall der absoluten Anzahl der CD4 -T-Lymphozyten beobachtet werden. Die Virusbelastung der Tiere war vergleichbar und die Korezeptornutzung blieb auch nach in-vivo Replikation erhalten. Interessanterweise konnte SIVagm3-X4mc, nicht aber das Wildtypvirus SIVagm3mc, durch Sera von SIVagm3mc und SIVagm3-X4mc infizierten Schweinsaffen neutralisiert werden. HIV-1-spezifische Antikörper konnten in Sera eines mit SIVagm3-X4mc infizierten Tieren nachgewiesen werden. Diese Studie beschreibt zum ersten Mal den erfolgreichen Austausch eines V3-Loops bei SIV. Das resultierende SIVagm3-X4mc, das wie beabsichtigt CD4 / CXCR4-positive Zellen infizierte, war im Gegensatz zum Ausgangsvirus in der Lage, in nicht-stimulierten PBMC zu replizieren und zeigte Sensitivität gegenüber neutralisierenden Antikörpern, die in SIVagm3mc- und SIVagm3-X4mc-infizierten Schweinsaffen induziert wurden.
More than 70 years ago, the effects of extracellular adenosine 5'-triphosphate (ATP), a newly identified and purified biomolecule at that time (Fiske and Subbarow, 1925; Lohmann, 1929) were observed by Drury and Szent-Györgyi (1929). Since then, many pharmacological studies were carried out with extracellular adenine nucleotides in various intact organ systems, isolated tissues, and purified cell preparations. Yet it was not until 1972 that Burnstock introduced the concept of "purinergic nerves" and suggested that ATP might fulfil the criteria generally regarded as necessary for establishing a substance as a neurotransmitter, summarised by Eccles (1964):
• synthesis and storage of transmitter in nerve terminals
Strips of guinea-pig taenia coli (GPTC) were shown to take up large amounts of tritium-labelled adenosine when incubated with tritium-labelled adenosine, adenosine 5'-monophosphate (AMP), adenosine 5'-diphosphate (ADP) and ATP. The nucleoside was rapidly converted into and retained largely as [ 3 H]-ATP (Su et al., 1971).
• release of transmitter during nerve stimulation
Spontaneous relaxation of GPTC as well as relaxations induced by nerve stimulation or nicotine, respectively, in the presence of compounds which block adrenergic and cholinergic responses were accompanied by a remarkable increase in release of tritium-labelled material from taenia coli incubated in [ 3 H]-adenosine (Su et al., 1971).
• postjunctional responses to exogenous transmitters that mimic responses to nerve stimulation
Burnstock et al. (1966) characterised ATP and ADP as the most potent inhibitory purine compounds in the gut and observed that the effects of ATP mimic more closely the inhibitory response of the taenia to non-adrenergic nerve-stimulation than to adrenergic nerve stimulation (Burnstock et al., 1970).
enzymes that inactivate the transmitter and/or uptake systems for the transmitter or its breakdown products
When ATP was added to a perfusion fluid recycled through the vasculature of the stomach, very little ATP remained, but the perfusate contained substantially increased amounts of adenosine and inosine, as well as some ADP and AMP (Burnstock et al., 1970).
• drugs that can produce parallel blocking of potentiating effects on the responses of both exogenous transmitter and nerve stimulation
Tachyphylaxis to ATP produced in the rabbit ileum resulted in a consistent depression of responses to non-adrenergic inhibitory nerve stimulation, whereas responses to adrenergic nerve stimulation remained unaffected (Burnstock et al., 1970). Lower concentrations of quinidine reduced and finally abolished relaxation of GPTC induced by noradrenaline (NA) and by adrenergic nerve stimulation. Using higher concentrations of the compound, relaxant responses of GPTC to ATP as well as to non-adrenergic inhibitory nerve stimulation were abolished (Burnstock et al., 1970). ...
Ziel dieser Arbeit ist die Herstellung und Charakterisierung von Zn-Mg-SE-Legierungen (SE = Y, Ho, Er, Dy, Tb, Gd), um Informationen über Struktur, Stabilisierung und physikalische Eigenschaften der quasikristallinen Phasen dieses Systems zu erhalten. Die Quasikristalle dieses Systems unterscheiden sich von Quasikristallen anderer Legierungen, die meist Al als Hauptkomponente enthalten. Es konnten bis zu 275 mm3 große Einkristalle der flächenzentriert ikosaedrischen Phase in den Systemen Zn-Mg-Y und Zn-Mg-Ho gezüchtet werden. Außerdem wurden MgZn2- und hexagonale A-Zn70Mg14Y16-Einkristalle hergestellt, deren Existenzbereiche im Phasendiagramm benachbart zu dem der ikosaedrischen Phase liegen. Um polykristalline Proben herzustellen, die unterschiedliche quasikristalline oder verwandte Strukturen als Hauptphase enthalten, wurden verschiedene Herstellungsverfahren getestet und verwendet. So konnte zum Beispiel erstmalig eine Probe hergestellt werden, die dekagonales ZnMgY als Hauptphase enthält. Zudem wurde eine neue kubische (R-Phase) bzw. hexagonale (M-Phase) und eine neue hochgeordnete primitiv ikosaedrische Phase im System Zn-Mg-Er entdeckt, synthetisiert und charakterisiert. Bei Untersuchungen dieser selbst gefertigten Proben konnten Erkenntnisse über magnetische Eigenschaften, elastische Konstanten, optische Leitfähigkeit, Leerstellenverteilung, Oberflächenbeschaffenheit, Diffusionsmechanismen und die Erstarrungsgeschichte der flächenzentriert ikosaedrischen Zn-Mg-SE-Quasikristalle gewonnen werden. Durch vergleichende Messungen an kristallinen Zn-Mg-SE-Legierungen lassen sich die für Quasikristalle spezifischen Effekte identifizieren. Die im Rahmen dieser Arbeit hergestellten und charakterisierten Proben sind aktuell Gegenstand weiterer Untersuchungen. Mit Hilfe von Beugungsexperimenten konnte gezeigt werden, dass die kubische R-Phase strukturell nahe mit der ikosaedrischen Phase im System Zn-Mg-SE verwandt ist. Die R- Phase ist bei Raumtemperatur nicht stabil und bildet die rhomboedrische M-Phase. Es konnte ein Strukturmodell für die R-Phase entwickelt werden, in dem keine ikosaedrischen Cluster als Strukturelement verwirklicht sind. Auch in der hexagonalen A-Phase konnten solche Strukturelemente nicht gefunden werden. Die Resultate dieser Arbeit legen nahe, dass die Struktur der Zn-Mg-SE-Quasikristalle, im Gegensatz zu Quasikristallen anderer Systeme, nicht auf großen ikosaedrischen Clustern basiert. Damit ist gezeigt, dass große ikosaedrische Cluster zur Bildung von Quasikristallen nicht notwendig sind. Messungen an den Proben zeigen, dass sich dadurch auch einige der physikalischen Eigenschaften, zum Beispiel die optische Leitfähigkeit, von Quasikristallen mit Clustern unterscheiden. Keine Unterschiede konnten beim Diffusionsverhalten und bei mechanischen Eigenschaften festgestellt werden. Hier gleichen die Zn-Mg-SE-Quasikristalle anderen strukturell komplexen Legierungen oder Quasikristallen anderer Legierungssysteme.
In der vorliegenden Arbeit wurde die mögliche Regulation verschiedener Ionenkanalgene bei Herz-Kreislauf-Erkrankungen mit Hilfe von Northern Blots, der semiquantitativen RT-PCR- Technik und zum Teil durch elektrophysiologische Untersuchungen analysiert. Ziel war es, solche Gene zu identifizieren, deren mRNA-Spiegel hochreguliert oder herunterreguliert waren, da diese möglicherweise eine wichtige Rolle bei den kardiovaskulären Erkrankungen spielen könnten. Diese Untersuchungen sollten zu einem besseren Verständnis der renalen und kardialen Funktion dieser Ionenkanäle und der Pathogenese der untersuchten Krankheiten beitragen, aber auch helfen, neue Kandidatengene für diese Krankheiten zu identifizieren. Es wurden insgesamt fünf Tiermodelle mit Hypertonie, kardialer Hypertrophie, Herzinsuffizienz, Niereninsuffizienz und Vorhofflimmern untersucht. Ein Schwerpunkt dieser Untersuchungen waren die CLC-Chloridkanäle, deren kardiovaskuläre Funktionen noch wenig untersucht sind. Die Genprofile der Chloridkanäle CLC-2, CLC-3, CLC-4, CLC-5, CLC-6 und CLC-7 sowie CLC-K1 und CLC-K2 wurden in den Herzen und Nieren der folgenden Tiermodelle analysiert: (1) In spontan hypertensiven Ratten (SHR) und (2) in SH-stroke-prone-Ratten, die eine genetisch bedingte Hypertonie und Herzhypertrophie entwickeln. (3) In salz-sensitiven Dahl-Ratten, die Hypertonie und Herzhypertrophie erst nach einer salzhaltigen Diät, und (4) in Aortic-Banding-Ratten, die nach einem operativen Eingriff Bluthochdruck und kardiale Hypertrophie entwickeln. (5) Schließlich wurde noch ein Rattenmodell untersucht, in dem durch die Ligatur der Koronararterie ein Herzinfarkt induziert wurde, der letztlich zur Herzinsuffizienz führte. In keinem dieser Tiermodelle wurde jedoch eine auffällige Veränderung in der mRNA-Expression der acht untersuchten CLC-Chloridkanäle in den erkrankten Tieren im Vergleich zu den Kontrolltieren beobachtet. Die CLC-Chloridkanäle wurden ferner in einem Niereninsuffizienz-Modell untersucht, bei dem in Ratten durch Abklemmen der renalen Arterien und Venen ein akutes Nierenversagen und letztlich eine Niereninsuffizienz hervorgerufen wurde. In diesem Tiermodell war bereits eine Herunterregulation vieler anderer Ionenkanäle und Transporter beschrieben worden. In zwei unabhängigen Tierstudien wurde eine unterschiedlich starke Abnahme der mRNA-Expression für die einzelnen CLC-Chloridkanäle beobachtet. In einer weiteren Studie konnte die Behandlung von niereninsuffizienten Ratten mit einem bei Niereninsuffizienz wirksamen Inhibitor des NHE-3-Transports das Ausmaß der Reduktion einzelner CLC-Gene abschwächen. Weitere Studien mit höheren Dosen oder potenteren Substanzen sind notwendig, um diese vorläufigen Befunde zu bestätigen. Ein weiterer Schwerpunkt der vorliegenden Arbeit war die Charakterisierung der kardialen Ionenkanaldichten bei einem neuen Kaninchenmodell für Vorhofflimmern, die in Zusammenarbeit mit der Universitätsklinik Tübingen durchgeführt wurde. Das Vorhofflimmern ist eine sehr häufige Herzerkrankung bei älteren Menschen, und anhand dieses Tiermodells sollten vor allem frühe Prozesse des elektrischen Remodelings, das für das Auftreten und die Aufrechterhaltung des Vorhofflimmerns von Bedeutung ist, untersucht werden. Mit Hilfe der semiquantitativen RT-PCR-Analyse konnte in diesem Tiermodell erstmals eine Reduktion der mRNA für die Kaliumkanalgene Kv1.4, Kv4.3 und Kv1.5 sowie für die Kalziumkanalgene alpha1, CaB2a, CaB2b und CaB3 im frühem Stadium des Vorhofflimmerns nachgewiesen werden. Diese Befunde konnten die Resultate von Patch-Clamp-Messungen erklären, die gleichzeitig an der Universität Tübingen an isolierten Vorhofzellen durchgeführt wurden. In diesen Studien wurde in Übereinstimmung mit den erzielten mRNA-Daten eine Abnahme des Ito-Kaliumstromes und des ICa,L-Kalziumstromes nachgewiesen. Mit diesen Untersuchungen konnten frühere Resultate, die auch an Patienten mit chronischem Vorhofflimmern erhoben wurden, bestätigt werden. Die gefundene Regulation zeigt, dass diese Ionenkanalgene eine wichtige Rolle bei dem frühen elektrischen Remodeling spielen und dass das Rapid-Pacing- Kaninchenmodell ein geeignetes Tiermodell für das Vorhofflimmern beim Menschen ist.
Ziel der Arbeit war es, neue Techniken zur Erschließung und Selektion von Web- basierten Suchservern zu entwickeln und zu evaluieren, um hieraus eine integrierte Architektur für nicht-kooperative Suchserver im WWW abzuleiten. Dabei konnte gezeigt werden, daß die im Sichtbaren Web vorhandene Informationsmenge dazu geeignet ist, um eine effektive Erschließung des Unsichtbaren Webs zu unterstützen. Existierende Strategien für verteiltes Information Retrieval setzen eine explizite Kooperation von Seiten der Suchserver voraus. Insbesondere Verfahren zur Selektion von Suchservern basieren auf der Auswertung von umfangreichen Termlisten bzw. Termhäufigkeiten, um eine Auswahl der potentiell relevantesten Suchserver zu einer gegebenen Suchanfrage vornehmen zu können (z. B. CORI [26] und GlOSS [54]). Allerdings werden derartige Informationen von realen Suchservern des WWW in der Regel nicht zu Verfügung gestellt. Die meisten Web-basierten Suchserver verhalten sich nicht kooperativ gegenüber hierauf aufsetzenden Metasuchsystemen, was die Übertragbarkeit der Selektionsverfahren auf das WWW erheblich erschwert. Außerdem erfolgt die Evaluierung der Selektionsstrategien in der Regel in Experimentumgebungen, die sich aus mehr oder weniger homogenen, künstlich partitionierten Dokumentkollektionen zusammensetzen und somit das Unsichtbare Web und dessen inhärente Heterogenität nur unzureichend simulieren. Dabei bleiben Daten unberücksichtigt, die sich aus der Einbettung von Suchservern in die Hyperlinkstruktur des WWW ergeben. So bietet z. B. die systematische Auswertung von Backlink-Seiten also jener Seiten die einen Hyperlink auf die Start- oder Suchseite eines Suchservers enthalten die Möglichkeit, die im WWW kollektiv geleistete Indexierungsarbeit zu nutzen, um die Erschließung von Suchservern effektiv zu unterstützen. Eine einheitliche Systematik zur Beschreibung von Suchservern Zunächst ist es notwendig alle Informationen, die über einen Suchserver erreichbar sind, in ein allgemeingültiges Beschreibungsmodell zu integrieren. Dies stellt eine Grundvorraussetzung dar, um die einheitliche Intepretierbarkeit der Daten zu gewährleisten, und somit die Vergleichbarkeit von heterogenen Suchservern und den Aufbau komplexer Metasuchsysteme zu erlauben. Ein solche Beschreibung soll auch qualitative Merkmale enthalten, aus denen sich Aussagen über die Reputation einer Ressource ableiten lassen. Existierende Beschreibungen von Suchservern bzw. Dokumentkollektionen wie STARTS-CS [53] oder RSLP-CD [93] realisieren wenn überhaupt nur Teilaspekte hiervon. Ein wichtiger Beitrag dieser Arbeit besteht somit in der Identifizierung und Klassifizierung von suchserverbeschreibenden Metadaten und hierauf aufbauend der Spezifikation eines als Frankfurt Core bezeichneten Metadatensatzes für web-basierte Suchserver, der die genannten Forderungen erfüllt. Der Frankfurt Core berücksichtigt Metadaten, deren Erzeugung eine explizite Kooperation von Seiten der Suchserver voraussetzt, als auch Metadaten, die sich automatisiert z. B. durch linkbasierte Analyseverfahren aus dem sichtbaren Teil des WWW generieren lassen. Integration von Wissensdarstellungen in Suchserver-Beschreibungen Ein wichtige Forderung an Suchserver-Beschreibungen besteht in der zusätzlichen Integration von wissens- bzw. ontologiebasierten Darstellungen. Anhand einer in Description Logic spezifizierten Taxonomie von Suchkonzepten wurde in der Arbeit exemplarisch eine Vorgehensweise aufgezeigt, wie die Integration von Wissensdarstellungen in eine Frankfurt Core Beschreibung praktisch umgesetzt werden kann. Dabei wurde eine Methode entwickelt, um unter Auswertung einer Suchkonzept-Taxonomie Anfragen an heterogene Suchschnittstellen verschiedener Suchserver zu generieren, ohne die Aussagekraft von kollektionsspezifischen Suchfeldern einzuschränken. Durch die Taxonomie wird die einheitliche Verwendung von syntaktisch und semantisch divergierenden Suchfeldern verschiedener Suchserver sowie deren einheitliche Verwendung auf der integrierten Suchschnittstelle eines Metasuchsystems sichergestellt. Damit kann diese Arbeit auch in Zusammenhang mit den Aktivitäten des Semantischen Webs betrachtet werden. Die Abstützung auf Description Logic zur Wissensrepräsentation sowie die Verwendung von RDF zur Spezifikation des Frankfurt Core verhält sich konform zu aktuellen Aktivitäten im Bereich Semantisches Web, wie beispielsweise der Ontology Inference Layer (OIL) [24]. Darüber hinaus konnte durch die Integration der Suchkonzept-Taxonomie in den Arbeitsablauf einer Metasuchmaschine, bereits eine konkrete Anwendung demonstriert werden. Entwicklung neuartiger Verfahren zur Erschließung von Suchservern Für einzelne Felder des Frankfurt Core wurden im Rahmen dieser Arbeit Strategien entwickelt, die aufzeigen, wie sich durch die systematische Auswertung von Backlink- Seiten Suchserver-beschreibende Metadaten automatisiert generieren lassen. Dabei konnte gezeigt werden, daß der Prozeß der automatisierten Erschließung von Suchservern durch die strukturelle und inhaltliche Analyse von Hyperlinks sinnvoll unterstützt werden kann. Zwar hat sich ein HITS-basiertes Clustering-Verfahren als wenig praktikabel erwiesen, um eine effiziente Erschließung von Suchservern zu unterstützen, dafür aber ein hyperlinkbasiertes Kategorisierungsverfahren. Das Verfahren erlaubt eine Zuordnung von Kategorien zu Suchservern und kommt ohne zusätzliche Volltextinformationen aus. Dabei wird das WWW als globale Wissenbasis verwendet: die Zuordnung von Kategorienbezeichnern zu Web-Ressourcen basiert ausschließlich auf der Auswertung von globalen Term- und Linkhäufigkeiten wie sie unter Verwendung einer generellen Suchmaschine ermittelt werden können. Der Grad der Ähnlichkeit zwischen einer Kategorie und einer Ressource wird durch die Häufigkeit bestimmt, mit der ein Kategoriebezeichner und ein Backlink auf die Ressource im WWW kozitiert werden. Durch eine Reihe von Experimenten konnte gezeigt werden, daß der Anteil korrekt kategorisierter Dokumente an Verfahren heranreicht, die auf Lerntechniken basieren. Das dargestellte Verfahren läßt sich leicht implementieren und ist nicht auf eine aufwendige Lernphase angewiesen, da die zu kategorisierenden Ressourcen nur durch ihren URL repräsentiert werden. Somit erscheint das Verfahren geeignet, um existierende Kategorisierungsverfahren für Web-Ressourcen zu ergänzen. Ein Verfahren zur Selektion von Suchservern Ein gewichtiges Problem, durch welches sich die Selektion von Suchservern im WWW erheblich erschwert, besteht in der Diskrepanz zwischen der freien Anfrageformulierung auf Benutzerseite und nur spärlich ausgezeichneten Suchserver-Beschreibungen auf Seiten des Metasuchsystems. Da auf der Basis der geringen Datenmenge eine Zuordnung der potentiell relevantesten Suchserver zu einer Suchanfrage kaum vorgenommen werden kann, wird oft auf zusätzliches Kontextwissen zurückgegriffen, um z. B. ein Anfragerweiterung durch verwandte Begriffe vornehmen zu können (siehe z. B. QPilot [110]). Eine solche Vorgehensweise erhöht allerdings nur die Wahrscheinlichkeit für Treffer von Anfragetermen in den Suchserver-Beschreibungen und liefert noch keine ausreichende Sicherheit. Deshalb wurde in der Arbeit ein Selektionsverfahren entwickelt, das sich auf die Auswertung von Ko-Zitierungs- und Dokumenthäufigkeiten von Termen in großen Dokumentsammlungen abstützt. Das Verfahren berechnet ein Gewicht zwischen einem Anfrageterm und einem Suchserver auf der Basis von einigen wenigen Deskriptortermen, wie sie z. B. aus der FC-Beschreibung eines Suchservers extrahiert werden können. Dies hat den Vorteil, daß die Suchbegriffe nicht explizit in den einzelnen Suchserver-Beschreibungen vorkommen müssen, um eine geeignete Selektion vornehmen zu können. Um die Anwendbarkeit des Verfahrens in einer realistischen Web-Umgebung zu demonstrieren, wurde eine geeignete Experimentumgebung von spezialisierten Suchservern aus dem WWW zusammengestellt. Durch anschließende Experimente konnte die Tauglichkeit des entwickelten Verfahrens aufgezeigt werden, indem es mit einem Verfahren verglichen wurde, das auf Probe-Anfragen basiert. Das heißt, daß eine erfolgreiche Selektion durchgeführt werden kann, ohne daß man explizit auf das Vorhandensein von lokalen Informationen angewiesen ist, die erst aufwendig durch das Versenden von Probe-Anfragen ¨uber die Web-Schnittstelle des Suchservers extrahiert werden müssten. Herleitung einer integrierten Architektur Um das Zusammenspiel der erarbeiteten Strategien und Techniken zur Erschließung, Beschreibung und Selektion in einer integrierten Architektur umzusetzen, wurde die Metasuchmaschine QUEST entwickelt und prototypisch implementiert. QUEST erweitert die Architektur einer traditionellen Metasuchmaschinenarchitektur, um Komponenten, die eine praktische Umsetzung der Konzepte und Techniken darstellen, die im Rahmen dieser Arbeit entwickelt wurden. QUEST bildet einen tragfähigen Ansatz zur Kombination von wissensbasierten Darstellungen auf der einen und eher heuristisch orientierten Methoden zur automatischen Metadatengenerierung auf der anderen Seite. Dabei stellt der Frankfurt Core das zentrale Bindeglied dar, um die einheitliche Behandlung der verfügbaren Daten zu gewährleisten.
Die Tatsache der Entwicklung des Staates in der Frühen Neuzeit in einem langsamen Übergang vom mittelalterlichen Personenverbandsstaat zum institutionellen Flächenstaat, ist von mehreren Wissenschaftlern zum Gegenstand ihrer Forschungen gewählt und es sind von ihnen allgemeine Essentials herausgearbeitet worden. ...
Kathetertherapie interatrialer Defekte unter besonderer Berücksichtigung der Septum-Morphologie
(2002)
Zwischen 1/98 und 9/99 wurde bei 50 Patienten mit einem Vorhofseptumdefekt vom Sekundum-Typ (ASD II) und bei 75 Patienten mit persistierendem Foramen ovale und gekreuzten Embolien ein transfemoraler Verschluss durchgeführt. Zum Einsatz kamen der Cardio-Seal-Okkluder, der Cardio-Seal-Starflex-Okkluder, der Amplatzer-ASD-Okkluder, der Amplatzer-PFO-Okkluder und der PFO-Star- Okkluder. Ziel der vorliegenden Arbeit war es, zu überprüfen, ob bestimmte morphologisch- anatomische Besonderheiten wie insbesondere das Vorliegen eines Vorhof- septumanuerysmas das Behandlungsergebnis und den Verlauf beeinflussen. Das Alter der 18 männlichen und 32 weiblichen ASD-Patienten betrug 44 ± 17 (13- 77) Jahre, das der 35 männlichen und 40 weiblichen PFO-Patienten 47 ± 13 (21- 73) Jahre. Die Größe des Vorhofseptumdefektes betrug, in der kurzen Achse des transösophagealen Echokardiogramms gemessen, im Mittel 13,2 ± 4,5 mm (6,4 29,4 mm; n = 50). Die mit Hilfe eines Ballonkatheters ermittelte Defektgröße betrug für die Ballonpassage 20 ± 4 mm (6 30 mm; n = 49) und für den Stretched- diameter 19 ± 4 mm (11 29 mm; n = 47). Der PFO-Durchmesser betrug 4 22 mm, im Mittel 12 ± 4 mm (Ballonpassage; n = 73) bzw. 3 16 mm, im Mittel 9 ± 3 mm (Stretched-diameter; n = 71). Die Messwerte von Passage und Stretched-diameter waren bei den PFO-Patienten mit Vorhofseptumaneurysma signifikant größer als bei den Patienten ohne Vorhofseptumaneurysma (p < 0,001). Insgesamt konnte bei den ASD- und PFO- Patienten eine lineare Korrelation zwischen Stretched-diameter und Ballonpassage ermittelt werden. Bei allen 50 ASD- und allen 75 PFO-Patienten war die Schirmimplantation primär erfolgreich. Der Nachuntersuchungszeitraums betrug im Mittel 9 ± 5 Monate (1 28 Monate). Direkt nach Verschluss bestand bei 17,6%, nach 2-4 Wochen bei 1,6% und nach 6 Monaten bei 1,6% der Patienten ein Restshunt. Bei den ASD-Patienten, bei denen vor und nach Verschluss Messungen durchgeführt werden konnten (n = 40), sank das Verhältnis Qp/Qs von 2,0 ± 0,5 signifikant auf 1,1 ± 0,3 (p < 0,0001). Während und nach der Implantation traten bei der Gesamtgruppe der Patienten (n = 125) folgende Komplikationen auf: Koronare und cerebrale Luftembolie mit kurzzeitiger klinischer Symptomatik (0,8%), therapierbare Herzrhythmusstörungen (2,4%), passagere thrombotische Auflagerungen auf den Schirmen (1,6%), geringer Perikarderguss (1,6%) und Schirmarmfrakturen (8%). In der Gruppe der PFO-Patienten erlitten 2 von 75 Patienten ein rezidivierendes cerebrovaskuläres Ereignis. Die Rezidivrate fiel von 54% vor Verschluss auf 3,5% nach Verschluss ab. Morphologische Besonderheiten beeinträchtigten das Ergebnis des Katheter- verschlusses nicht, können aber Indikatoren für bestimmte Risikofaktoren sein. Bei den PFO-Patienten zog eine kürzere Tunnellänge ( 7,8 mm) eine signifikant höhere Ereignisrate vor Verschluss (4,5%) gegenüber den Patienten mit längerer Tunnellänge (> 7,8 mm) (2,9%) nach sich (p < 0,05). Auch die Rezidivrate vor Verschluss war bei den Patienten mit kürzerer Tunnelstrecke (75%) signifikant höher als bei den Patienten mit längerer Tunnelstrecke (31%) (p<0,01). PFO- Patienten mit Vorhofseptumaneurysma (vor Verschluss) wiesen nach Katheterverschluss eine höhere Rezidivrate cerebraler Ereignisse (10,5%) auf als die PFO-Patienten ohne Vorhofseptumaneurysma (0%). Bei den ASD-Patienten mit Vorhofseptumaneurysma (n = 12) ergab sich eine signifikant höhere Eingriffs- und Durchleuchtungszeit gegenüber den ASD- Patienten ohne Vorhofseptumaneurysma (50 ± 21,1 min. / 10,5 ± 6,4 min.) versus (39,1 ± 12,8 min. / 6,5 ± 3,6 min.) (p < 0,01). Bei der gleichen Patientengruppe nahm die Septumauslenkung signifikant von 15 ± 3,5 mm vor Verschluss auf 4,6 ± 2,4 mm 6 Monate danach ab (p < 0,001). Bei den PFO-Patienten mit Vorhofseptumaneurysma (n = 17) verringerte sich die Septumauslenkung von 15,9 ± 2,8 mm vor Verschluss auf 3,8 ± 2,0 mm 6 Monaten später (p < 0,001). Ohne Einfluss auf den postinterventionellen Verlauf war die Zunahme der Septumdicke, die in den ventralen und zentralen Abschnitten nach 6 Monaten beim Amplatzer-ASD-Okkluder am stärksten und beim PFO-Star-Okkluder am geringsten ausgeprägt war. Alle angewendeten Okkludersysteme sind für den Verschluss von Vorhofseptumdefekten (ASD II) und persistierenden Foramina ovalia auch bei Vorliegen von Vorhofseptumaneurysmen geeignet.
Die Messung des T-Wellen-Alternans ist eine neue, vielversprechende Methode zur Erfassung von Patienten mit einem erhöhten Risiko für arrhythmische Ereignisse. Die gute Testeffizienz ist für unterschiedliche kardiale Krankheiten belegt; ebenfalls wurde die Überlegenheit des TWA gegenüber anderen gängigen Parameter zur Risikostratifizierung erwiesen. Schwachpunkte dieses Verfahrens sind der relativ hohe Anteil an falsch positiv Getesteten und die häufig scheiternden Messungen. Nach unserem Wissen haben wir mit dieser Studie anhand eines Patienten- kollektivs mit Myokardinfarkt erstmalig erwiesen, dass das Ergebnis einer TWA- Untersuchung unabhängig ist von dem Alter und dem Geschlecht des Patienten, sowie von verschiedenen Parameter des erlittenen Herzinfarktes, wie der Höhe der CK, der Lokalisation, der Art der Erstintervention und dem Perfusionsstatus. Im Gegensatz zu anderen Studien konnten wir keinen Einfluss der Medikation, insbesondere der antiarrhythmischen, auf den Ausgang des Alternans-Testes feststellen. Schließlich zeigt die vorliegende Untersuchung erstmalig, dass das Wiederholen der Messung zu einem späteren Zeitpunkt, nämlich nach sechs Wochen und nach einem Jahr, zu 80 % das gleiche Ergebnis liefert, und zwar unabhängig von Änderungen in der Medikation, weiteren Maßnahmen zur Reperfusion und erneuten kardialen Ereignissen. Das Ergebnis positiv zeigt sich dabei etwas weniger stabil als das Ergebnis negativ. Insgesamt kann gefolgert werden, dass die Methode eine gute Reproduzierbarkeit aufweist und bei der Mehrzahl der Patienten auch im Langzeitverlauf stabile Ergebnisse liefert.
Unsere Kultur beinhaltet zahlreiche Vorstellungen darüber, welche Probleme in Liebesbeziehungen auftreten können, welche Ursachen diese Probleme haben und wie mit ihnen umzugehen sei. Dominiert wurden diese Vorstellungen in der Literatur zwischen Empfindsamkeit und Romantik bekanntermaßen durch einige wenige epochenübergreifende Motive: Untreue, der Gegensatz von gesellschaftlicher oder moralischer Pflicht und Neigung, der Tod des anderen, einseitige und verhinderte Liebe bildeten die immer wiederkehrenden Konfliktursachen der meisten Liebesgeschichten. Dabei floss die Geschlechterdifferenz in die Darstellungen zwar stets mit ein, wurde aber in der Regel als solche nicht reflektiert. Die in der Arbeit untersuchten Texte zeigen nun, dass neben diesen typischen Liebesgeschichten auch eine bisher kaum beachtete Ideentradition besteht, die Liebeskonflikte explizit unter dem Aspekt der Geschlechterdifferenz beschreibt und dieser Differenz eine grundlegende Bedeutung beimisst. Dabei konnte für die fünf in dieser Arbeit ausgewählten Konfliktfelder Folgendes festgestellt werden: Egalitäre Liebe versus männliche Eheherrschaft Ein breit diskutiertes Konfliktfeld betrifft das Verhältnis von egalitärer Liebe und männlicher Eheherrschaft. Seit der Mitte des 18. Jahrhunderts setzt sich in Deutschland die Idee der Liebesehe durch, wobei Liebe oftmals ausdrücklich im Gegensatz zu jeglicher Form von traditioneller Herrschaft zwischen den Geschlechtern begriffen wird. Sozial gedeckt muss sie in die Ehe führen. Dort wird aber nicht nur praktisch, sondern auch theoretisch bis ins 20. Jahrhundert hinein an der Herrschaft des Mannes über die Frau festgehalten. Wie reflektiert sich dieser Gegensatz um 1800? Ich habe in meiner Arbeit unter dieser Perspektive eine Reihe von literarischen, philosophischen und populärpädagogischen Texten untersucht, die einen ersten Eindruck der eher theoretisch-normativen Diskurse dieser Zeit geben. Die Autoren sind Gellert, Kant, Fichte, Hegel und Campe. Dem stelle ich ein populäres Lustspiel von August von Kotzebue und einen autobiographischen Text die Jugenderinnerungen von Elisa von der Recke gegenüber. Diese Texte ermöglichen es, der theoretischen eine eher alltagsorientierte Sichtweise des Problems zur Seite zu stellen. Für die philosophisch-pädagogischen Schriften lässt sich Folgendes erkennen: Erstens wird der Widerspruch zwischen egalitärer Liebe und männlicher Eheherrschaft, entsprechend einer Grundkategorie der Zeit, vorwiegend entlang der Differenz Vernunft Natur bearbeitet. Aufgeboten werden unterschiedliche Varianten einer geschlechterdifferenzierten Anthropologie, die sich teilweise direkt widersprechen (zum Beispiel bei Kant und Fichte). Zweitens wird an die Vernunft und Klugheit appelliert. Dies geschieht ebenfalls widersprüchlich, nämlich entweder in konsensorientierter (Gellert) oder aber manipulativer Ausrichtung (Kant und Campe). Eine allgemein getragene argumentative Problemlösung ist nicht zu erkennen, verbindendes Element ist jedoch die vermittelnde Funktion: Liebe und Herrschaft werden für kompatibel erklärt. Demgegenüber beinhalten die Texte von Kotzebue und Elisa von der Recke auch eine andere Diskursform. Bei Kotzebue zeichnet sich momenthaft das Bild einer durchaus emanzipierten Frau ab, deren Verhalten zu den vorherrschenden weiblichen Normen des literaturwissenschaftlichen Kanons nicht recht passen will. Hier könnten sich - dem wäre aber erst genauer nachzugehen - Tendenzunterschiede zwischen der sogenannten hohen und der Unterhaltungsliteratur der Zeit abzeichnen. Während bei Kotzebue die Eheherrschaft aber letztlich affirmiert wird, zeichnet Elisa von der Recke in ihren Jugenderinnerungen anhand dreier Frauengenerationen das Bild einer Lebenswelt, für die das Spannungsverhältnis von Liebe und Patriarchat sowohl identitätsstiftend als auch kaum überbrückbar erscheint. Die zahlreichen Klugheitsratschläge der Zeit bedeuten letztendlich für die Frau, nicht aber für den Mann, einen Verzicht auf die "wahre" gegenseitige Liebe. Gemeinsame Weltsicht versus Zunahme der Individualität Zu diesem Konfliktfeld untersuchte ich exemplarisch die Erzählung Der Sandmann von E.T.A. Hoffmann. Hoffmanns Text erweist sich in dieser Perspektive als eine differenzierte Satire genau dieser Problematik und verschiedener Strategien, unter patriarchalen Bedingungen mit ihr umzugehen. Der Autor illustriert an der Figur Nathanaels ein Extrem an mangelnder Anpassungsleistung und der Neigung zur Projektion gewünschter Eigenschaften auf die Geliebte zur Vermeidung eigener Veränderung. Er weist dies deutlich als ein geschlechtsspezifisches Verhaltensschema aus. Dem korrespondieren auf je unterschiedliche Weise die weiblichen Figuren der Erzählung. Dabei wird an der Figur Olimpias vorgeführt, wie absurd sich eine patriarchal verordnete Bestätigung darstellt. Hoffmann erkennt damit das soziale Bestätigungsproblem gesteigerter Individualität als ein allgemein bürgerliches, führt das Scheitern der Lösung dieses Problems in der patriarchalen Liebesbeziehung vor und verweist so bereits auf eine wesentliche Ursache der heutigen Krise traditioneller Beziehungsmuster. Geschlechterstereotypen versus Wahrnehmung von Individualität Der Liebesdiskurs des 18. Jahrhunderts fordert seit der Empfindsamkeit die genaue Kenntnis der Individualität des Geliebten als Voraussetzung wahrer Liebe. Zugleich jedoch bewegen sich Liebende in einem Umfeld, das den sozialen Umgang über stereotype Geschlechterbilder strukturiert, die eine Wahrnehmung des anderen als Individuum gerade verstellen können. Inwieweit wird dies im 18. Jahrundert als Problem wahrgenommen und verarbeitet? Hier zeigt meine Arbeit, unter anderem anhand des frühempfindsamen Briefwechsels zwischen Meta Moller und Friedrich Gottlieb Klopstock, exemplarisch Folgendes: Klopstock, der als Inbegriff des empfindsamen Dichters gilt, zeigt zumindest in den Briefen an seine spätere Frau kein Bewusstsein dieser Problematik. Er bleibt in seiner Kommunikation bei einer vorempfindsamen Konfliktwahrnehmung stehen. Moller hingegen bringt die Bilderproduktion der Geschlechterdifferenz als störenden Faktor der Annäherung deutlich zur Sprache. Sie befürchtet, Klopstock könne sich ein durch Weiblichkeitsentwürfe entstelltes Bild von ihr machen, er könne sie als Muse funktionalisieren und/oder sei an ihren ernsthaften Seiten "sie ist ja nur eine Frau" nicht interessiert. Darüber hinaus konfrontiert sie Klopstock in sarkastisch-ironischem Ton mit seinem Fehlverhalten. Insofern ist die These Ulrike Prokops, Meta Moller setze typisch für Frauen ihrer Generation Selbstverleugnung und narzisstische Identifikation an die Stelle aktiver Auseinandersetzung, kritisch zu ergänzen. "Schale Alltäglichkeit" versus "Die große Liebe" Ehen werden, um es mit Luhmann zu pointieren, im Himmel geschlossen und im Auto geschieden. Das Ideal der Liebesehe stellt an die Gatten Anforderungen an Aufmerksamkeit und Zuwendung, die in einem durch Geschlechterrollen differenzierten gemeinsamen Alltag schwer zu erfüllen sind. Viele der untersuchten Texte dieser Arbeit verweisen auf dieses Problem. Eine der dichtesten Auseinandersetzungen damit findet sich jedoch in der Erzählung Das mißlungene Opfer von Therese Huber: Huber legt hier eine vielschichtige Reflexion über Liebes- und Eheprobleme vor, die durch Bezüge zu Goethes Werther stereotype Leseerwartungen des Publikums (Pflicht versus Neigung) herausfordert. Diese Leseerwartungen konfrontiert sie dann mit der Darstellung der geschlechterdifferenzierten Arbeitsteilung in der bürgerlichen Ehe. Zugleich dokumentiert sie verschiedene weibliche Attributionsmuster, die den Alltag männlicher Lieblosigkeit entschuldigen. Der Text changiert dabei zwischen Alltagsdarstellung und bis ins surreal-komische getriebenen Situationen kommunikativer Entfremdung, überlässt es aber der Leserin, eigene Erfahrungen und Sehnsüchte im Text bestätigt oder hinterfragt zu finden. Weibliche Pflichterfüllung versus Bedürfnis nach individuellem Glück Die Idee der Liebesehe ist an die Freiwilligkeit der Partnerwahl und eines glücklichen Zusammenlebens gebunden. Sozialgeschichtlich betrachtet wurden Ehen aber um 1800 bekanntermaßen häufig gegen den Willen der Frau geschlossen; und sie verliefen für diese häufig nicht glücklich. Eine bislang kaum zur Kenntnis genommene umfangreiche Darstellung der Lage und Emanzipation einer Frau in einer solchen unglücklichen Zwangsehe sind die Eheerinnerungen Elisa von der Reckes. Der Text ist, wie sich zeigen lässt, entgegen der Überzeugung seines Herausgebers, keine Sammlung von Briefen, sondern eine literarische Bearbeitung und Ergänzung der Tagebücher der Autorin. Die Autorin legt hier eine ungewöhnlich realitätsnahe und die Grenzen des intimschicklichen überschreitende Milieustudie vor, in deren Zentrum der bedrückende Ehealltag einer jungen Frau steht. Sozialisiert ist sie in einer Umwelt, in der ländlich- patriarchale, galante und empfindsame Ehe- und Liebesdiskurse aufeinander prallen. Ihre Ehegeschichte erweist sich so als eine psychologische Dokumentation kognitiver Dissonanzen, verdrängter Bedürfnisse, psychosomatischer Symptome, Rationalisierungen und der Instrumentalisierungen von Sexualität im Ehealltag. Interessant ist dieser Text auch hinsichtlich der Frage nach der Freiheit von Subjekten gegenüber den sie formenden Diskursen. Er zeigt beispielhaft, wie eine Frau mit Bruchstücken des empfindsamen Liebesdiskurses und des autoritären Ehe- und Pflichtdiskurses für sich selbst eine individuelle Ehe- und Liebeskonzeption entwickelt und auf dieser Grundlage ihre Vorstellung eines richtigen Lebens gegen die Überzeugungen ihres gesamten sozialen Umfeldes durchsetzt. Weiterführende Fragestellungen Ich möchte nun abschließend einige weiterführende Fragestellungen andeuten, die durch die Ergebnisse meiner Arbeit nahegelegt werden. Erstens: Die Interpretation von Hoffmanns Sandmann zeigt, dass auch klassische Texte unter der hier dargestellten Perspektive neue Facetten erkennen lassen. An dieser Stelle bietet sich etwa eine Betrachtung der Frühromantik an, zum Beispiel unter der Perspektive, ob die Unterscheidung männlich/weiblich in Bezug auf Liebeskonflikte dort eine wesentlich andere ist, als in der Zeit ansonsten üblich. Zudem legen die Werke von Therese Huber und Elisa von der Recke nahe, weitere bisher weitgehend unbekannte Texte zur Analyse historischer Liebeskonfliktdiskurse heranzuziehen. Ähnliches ergibt sich aus Kotzebues Lustspiel für den Bereich der sogenannten populären Literatur. Zweitens: Die Texte von Huber und Elisa von der Recke werfen die Frage auf, wie Liebeskonflikte aus der Perspektive von Müttern und Vätern wahrgenommen werden. Die Untersuchung beider Texte legt hier erste Spuren, deren Weiterverfolgung fruchtbar sein könnte. Drittens: Es ist auffällig, dass keiner der untersuchten Texte eine wirkliche Alternative zum modernen Liebesdiskurs andeutet, außer in Form eines Rückzugs auf vorempfindsame Liebesideen oder Freundschaften. Hier schließt sich die auf die Zukunft gerichtete Frage an: Wo im modernen Liebesdiskurs ist um es mit Foucault zu formulieren die Gegenmacht zu finden? Oder verschwindet dieser Diskurs allmählich und einer liebenden Annäherung wird in einigen Generationen so begegnet, wie dies die emanzipierte Elisa von der Recke gegenüber den linkischen Annäherungen ihres Gatten getan hat: mit kaltem Ernste, aber ohne Zeichen des Unwillens: "Unter uns, mein Theurer, sind solche Tändeleien überflüssig."
In der vorliegenden Untersuchung wurden Populationen der Gattung Corbicula im Rhein mit Individuen aus der Mosel, der Weser sowie aus Frankreich, Spanien, Nordamerika und dem Nahen und Fernen Osten sowohl mit genetischen als auch morphologischen Methoden untersucht. Aus diesen Daten sollte ermittelt werden, wie viele Taxa bei der rezenten Besiedelung Europas auftraten und welche Migrationsrouten hierbei nachgewiesen werden konnten. Es konnte gezeigt werden, dass im Rhein zwei hybridisierende genetische Linien auftraten, wobei keine Rückkreuzung mit den Eltern nachgewiesen werden konnte. Die Hybride waren morphologisch nicht zu unterscheiden. Hinweise auf einen unterschiedlichen Chromosomensatz dieser Linien bzw. eine Polyploidie konnte nicht gefunden werden. In der Rhone wurde eine weitere Linie entdeckt. Eine der genetischen Linien im Rhein konnte im Vergleich zu Individuen aus Fernost als C. fluminea identifiziert werden. Die Herkunft der beiden Linien aus Rhein und Rhone blieb unklar, da sie nicht Individuen aus Israel oder Nordamerika zugeordnet werden konnten. Eine Polytomie der MP- und ML-Analysen war nicht auf einen zu geringen Datensatz zurückzuführen, vielmehr konnte gezeigt werden, dass Corbicula im Pleistozän eine Radiation durchief. Schalenmorphologisch konnten die genetischen Linien aus dem Rhein nicht durchgehend den zwei auftretenden Morphen zugeordnet werden. Gleichzeitig schienen diese Individuen die Extreme einer weltweiten Variabilität der Schalenform darzustellen. Ein morphologischer Vergleich von Schalen aus der Sammlung Senckenberg zeigte keine Unterschiede zwischen Individuen, die als C. fluminalis und C. fluminea bezeichnet waren. Vielmehr scheint die Schalenform nicht genügend conchologischen Merkmale zu besitzen, um die genetischen Linien zu unterscheiden. Die Besiedelung Europas durch die Körbchenmuschel erfolgte mehrfach unabhängig in verschiedenen Flusssystemen Südwest- und Mitteleuropas Anfang der 1980er Jahre. Auf- grund der hier nachgewiesenen Isolationswirkung von Stauwehren der Bundeswasserstrassen auf Makroinvertebraten und der Ergebnisse der DAF-Fingerprints von Corbicula- Populationen wurde die Mosel vermutlich von Frankreich aus besiedelt.
Die Protoonkogene Ras und Raf spielen eine wichtige Rolle bei der Übertragung eines extrazellulären Signals in den Zellkern. Die direkte Interaktion zwischen GTP-gebundenem, aktiviertem Ras und der Proteinkinase Raf führt zur Aktivierung der Ras/Raf/MEK/ERK-Kaskade, die eine entscheidende, regulatorische Rolle bei onkogenen, mitogenen und entwicklungsabhängigen Signalwegen besitzt. Die Beeinflussung der Kaskade stellt daher einen interessanten Ansatz für die Arzneistoffentwicklung dar. Trotz der bekannten Proteinstrukturen von Ras und Raf sind bisher nur wenige Stoffe gefunden worden, die die Interaktion direkt beeinflussen. In der vorliegenden Arbeit wurde daher ein Testsystem auf der Basis des Hefe-Zwei-Hybrid-System etabliert, mit dessen Hilfe Effektoren der Ras/Raf-Wechselwirkung schnell und einfach identifiziert werden können. Das erste Ziel der Arbeit war die Etablierung einer Testmethode in 96-well-Microtiterplatten, die einen schnellen Durchsatz verschiedener Proben erlaubt. Insgesamt wurden in der vorliegenden Arbeit 469 Reinsubstanzen und Pflanzenextrakte in verschiedenen Konzentrationen getestet. Durch die Verwendung geeigneter Kontroll-Hefestämme konnte außerdem eine Aussage über die Spezifität der Substanzinteraktion getroffen werden. Bei einigen Ras/Raf-aktivierenden Substanzen konnten über die Testung systematischer Substanzreihen Struktur-Wirkungsbeziehungen aufgestellt werden. Cycloalkylidencarbonsäuren wurden als erste potente Ras/Raf-Aktivatoren identifiziert, deren wahrscheinlicher Interaktionsbereich durch die Expression verkürzter Raf-Mutanten auf den Bereich von AS 131-194 von Raf eingeschränkt werden konnte. Sie stabilisieren nicht nur die Bindung von mutiertem, sondern auch von Wildtyp-Ras an Raf. In einem zweiten, unabhängigen Säugerzell-Testsystem, das auf der Aktivierung der Ras/Raf/MEK/ERK-Kaskade und dem anschließendem Nachweis des phosphorylierten MEK-Proteins beruht, lieferten die aktiven Verbindungen erste Hinweise auf eine Aktivierung der Signalkaskade. Mögliche Optimierungen der beiden verwendeten Testsystem, sowie Alternativen, weitergehende Experimente und Einsatzgebiete von Ras/Raf-Effektoren werden abschließend diskutiert.
Natürliche Enantioselektivität und Isotopendiskriminierung - Schlüssel zur Echtheit ätherischer Öle
(2002)
Als Grundlage für die Beurteilung der Echtheit ätherischer Öle können zwei biochemische Prinzipien Enantioselektivität und Isotopendiskriminierung während der Biosynthese herangezogen werden. In der vorliegenden Arbeit wurde die enantioselektive Kapillargaschromatographie sowie die online-Kopplung der Gaschromatographie mit der Isotopenmas- senspektrometrie zur Authentizitätsbewertung verschiedener ätherischer Öle eingesetzt. Die Bestimmung von Enantiomerenverhältnissen mittels Multidimensionaler Gaschromatographie-Massenspektrometrie (MDGC-MS) sowie von 13C/12C-Isotopenverhältnissen mittels GC-C-IRMS (Gaschromatographie-Combustion- Isotopenmassenspektrometrie) sind etablierte Methoden, die in der Authentizitätsbewertung von Aroma- und Duftstoffen eingesetzt werden. Dagegen ist die Bestimmung von 2H/1H-Isotopenverhältnissen mittels GC-P-IRMS (Gaschromatographie-Pyrolyse-Isotopenmassenspektrometrie) eine relativ neue Methode. In der vorliegenden Arbeit wurden Strategien zur Bestimmung von zuverlässigen 2H/1H-Isotopenverhältnissen mittels GC-P-IRMS entwickelt. Die Kalibrierung des Referenzgases mit Hilfe von internationalen Standards kann nur mittels eines Elemental Analyzers (EA-IRMS) erfolgen, da für die Gaschromatographie geeignete Standards nicht zur Verfügung stehen. Daher ist insbesondere der Vergleich von Isotopenverhältnissen von Standardsubstanzen, die mittels TC/EA-IRMS und GC- P-IRMS bestimmt wurden, von Bedeutung. Es konnte gezeigt werden, dass eine Konditionierung (Einbringen einer Kohlenstoffschicht) des Pyrolysereaktors im GC- P-IRMS-System notwendig ist, um für die untersuchten Aromastoffe mittels GC-P- IRMS zum Elemental Analyzer vergleichbare Ergebnisse zu erzielen. Von zwei verschiedenen getesteten Methoden zur Konditionierung des Pyrolysereaktors war die Konditionierung durch Einleiten von Methan in den Pyrolysereaktor die geeignetere und effektivere Methode. Weiterhin wurden der Einfluss des Trägergasflusses des Gaschromatographen auf die bestimmten Isotopenwerte sowie der lineare Bereich der Methode untersucht. Es konnte erstmalig gezeigt werden, dass die mittels GC-P-IRMS bestimmten Isotopenverhältnisse von verschiedenen Parametern abhängig sind. Richtige Ergebnisse zu erzielen setzt folgende Konditionen voraus: Konditionierung des Pyrolysereaktors, optimaler Trägergasfluss sowie Mindestmenge des Analyten (> 0,3 µg on column). Die neuen Möglichkeiten, die die online-Bestimmung von 2H/1H-Isotopenverhältnissen in der Authentizitätsbewertung von Lavendelölen, Anis- und Fenchelölen sowie Kümmelölen bietet, wurden erstmalig untersucht. Darüber hinaus wurden die enantioselektive Kapillargaschromatographie und die Bestimmung von 13C/12C-Isotopenverhältnissen mittels GC-C-IRMS eingesetzt. Es konnte gezeigt werden, dass sich die Bereiche der 2HV-SMOW-Werte von Linalool und Linalylacetat aus authentischen Lavendelölen deutlich vom Bereich der Isotopenverhältnisse kommerziell erhältlicher, synthetischer Analoga unterscheiden und somit eine Verfälschung von Lavendelölen mit synthetischem Linalool und/oder Linalylacetat nachweisbar ist. Mit dieser Methode konnten diverse Handelsöle eindeutig als verfälscht beurteilt werden. Über die Bestimmung der Enantiomerenverhältnisse von Linalool und Linalylacetat dieser Öle konnte die Aussage bestätigt werden (hohe Reinheit zugunsten des (R)-Enantiomeren in genuinen Lavendelölen). Anhand der unterschiedlichen 13C/12C-Isotopenverhältnisse ist eine Unterscheidung zwischen synthetischem und Linalylacetat aus Lavendel möglich. Die 13CV-PDB-Werte von synthetischem und natürlichem Linalool aus Lavendelölen liegen im gleichen Bereich und sind somit zur analytischen Differenzierung natürlich/naturidentisch nicht geeignet. Mittels GC-C(P)-IRMS Analyse von trans-Anethol aus Fenchel- und Anisölen wurden die authentischen Bereiche der 13C/12C- und 2H/1H-Isotopenverhältnisse ermittelt. Es konnte gezeigt werden, dass sich einige der synthetischen trans-Anethol- Muster nur aufgrund eines der beiden bestimmten Isotopenverhältnisse von dem authentischen Bereich abgrenzen lassen. Somit konnte gezeigt werden, dass die integrale Betrachtungsweise der 13CV-PDB-Werte und der 2HV-SMOW-Werte biogener Stoffe für die Authentizitätsbewertung von großer Bedeutung ist. Zur Authentizitätsbewertung von Kümmelölen wurden die Enantiomerenverhältnisse, die 13C/12C- und die 2H/1H-Isotopenverhältnisse der Hauptkomponenten Limonen und Carvon bestimmt. Aufgrund der 2HV-SMOW-Werte von Limonen lassen sich keine Unterscheidungen zwischen kommerziell erhältlichen Limonen und Limonen aus Kümmelölen treffen. Dagegen können die 13CV-PDB-Werte von Limonen zur Authentizitätsbewertung von Kümmelölen herangezogen werden. Die dargestellten Ergebnisse zeigen, dass die Bestimmung von 2H/1H- Isotopenverhältnissen mittels GC-P-IRMS neue Möglichkeiten in der Echtheitsbewertung ätherischer Öle bietet. Insbesondere die integrale Betrachtung von 2HV- SMOW- und 13CV-PDB-Werten ( 2H/ 13C-Korrelation) wird eine Authentizitätsbewertung künftig noch wesentlich differenzierter möglich machen. Weitere Perspektiven wird die Bestimmung von 18O/16O-Isotopenverhältnissen bieten. Die Authentizitätsbewertung anhand der Multielement-Analyse mittels GC- IRMS eröffnet gerade für achirale Aromastoffe Perspektiven, stellt aber auch eine Ergänzung zur enantioselektiven Analytik dar.
Vanille ein tropisches Orchideengewächs liefert eines der bedeutendsten Aromen weltweit. Die stetig wachsende Nachfrage und das hohe Preisniveau sind allerdings häufig die Ursache für Verfälschung von Vanilleextrakten und -aromen. Ziel der Arbeit war es daher, die Methoden zur Echtheitsbewertung von Vanille weiter zu entwickeln. Daneben sollten Untersuchungen im Hinblick auf aromaaktive Minorkomponenten durchgeführt werden. Als Basisdaten für die Authentizität von Vanille dienen häufig Verhältniszahlen, die aus den Gehalten der Hauptinhaltsstoffe Vanillin, 4-Hydroxybenzaldehyd, Vanillinsäure und 4-Hydroxybenzoesäure gebildet werden. Um diese Verhältniszahlen zuverlässig bestimmen zu können, wurden eine hochdruckflüssigkeits-chromatographische (HPLC) und zum ersten Mal eine gas-chromatographische (GC) Methode entwickelt. Unter Verwendung von internen Standards konnte mit beiden Methoden eine zuverlässige Quantifizierung erzielt werden. Die ermittelten Werte erwiesen sich als unabhängig von der Analysenmethode, von Erntejahrgang und Herkunft der Schoten. Weiterhin konnte gezeigt werden, dass die bisher zur Bewertung herangezogenen Richtwerte im Vergleich mit den im Rahmen dieser Arbeit ermittelten Werte durchweg zu enge Spannbreiten aufweisen. Die neu bestimmten Daten zur quantitativen Zusammensetzung von Vanilleschoten stellen daher wertvolle Basiskriterien für eine Echtheitsbewertung von Vanille dar. Für eine weitergehende, noch zuverlässigere Authentizitätsbewertung wurden die 13C/12C-Verhältnisse von Vanillin und der zweiten Hauptkomponente 4- Hydroxybenzaldehyd ermittelt. Als grundlegende Voraussetzung für die Bestimmung korrekter Isotopenwerte wurde zum einen die Gerätekonfiguration optimiert, um eine vollständige Verbrennung zu gewährleisten, zum anderen wurde der Einfluss der Schotenaufarbeitung untersucht. Durch Korrelation der Delta13CV-PDB-Werte der beiden Komponenten konnten klare Authentizitätbereiche festgelegt werden. Insbesondere durch die integrale Betrachtungsweise beider Kriterien Verhältniszahlen und Isotopenwerte konnte die Authentizitätsbewertung von Vanille erheblich verbessert werden. Neben den Hauptkomponenten kommen in der Vanille aber auch eine große Zahl von aromaaktiven Minorkomponenten vor. Im Rahmen dieser Arbeit sollten daher auch Untersuchungen zu einigen dieser Minorkomponenten durchgeführt werden. Dabei ermöglichte es der Einsatz der neuen, hochempfindlichen Methode der Stir Bar Sorptive Extraction, eine enantioselektive Analyse von - Nonalacton und verschiedenen Monoterpenen durchzuführen. -Nonalacton konnte dabei in allen untersuchten Proben mit einem nahezu racemischen Enantiomerenverhältnis nachgewiesen werden. Die Enantiomerenreinheit und die Schwankungen der Enantiomerenverhältnisse für die untersuchten Monoterpene waren stark variierend. Es konnte dabei aber weder eine Herkunfts- noch eine Jahrgangsabhängigkeit festgestellt werden. Die sehr geruchsaktive Substanz Guajacol wurde in Schoten der Gattungen V. planifolia und V. tahitensis semiquantitativ untersucht. Es konnte aber auch hier keine Abhängigkeit von der Herkunft der Schoten festgestellt werden. Um weitere geruchsaktive Minorkomponenten zu identifizieren, wurde ein Headspace- Extrakt von Vanilleschoten mittels Gaschromatographie-Olfaktometrie untersucht. Es konnten dabei die beiden Substanzen Kreosol und 4- Hydroxybenzylamin identifiziert werden. Letztgenanntes war bisher als natürlicher Aromastoff nicht bekannt. Obwohl beide Komponenten nur im ppb- Bereich vorkommen, leisten sie dennoch eine Beitrag zum Gesamtaroma von Vanille. Insgesamt konnten im Rahmen dieser Arbeit neue Wege im Hinblick auf die Analytik und Authentizitätsbewertung von Vanille aufgezeigt werden.
Regulation des CFTR
(2002)
In der vorliegenden Arbeit wurde die Regulation des humanen CFTR an isolierten Makropatches von Xenopus-Oozyten untersucht. Die inside-out-Konfiguration ermöglicht den einfachen Zugang zu den zytosolischen Domänen, welche die CFTR- Aktivität steuern. Daher ist es mit dieser bewährten Methode möglich, die Interaktion des CFTR mit Nukleotiden, insbesondere unter dem Einfluss der Phosphorylierung, weitergehend zu charakterisieren. Die Strom-Spannungskennlinie des ATP-induzierten CFTR-Chloridstroms weicht bei zunehmendem Haltepotenzial von dem Verlauf ab, der aufgrund der Goldmann- Hodgkin-Katz-Gleichung zu erwarten ist. Dies weist auf einen hemmenden Einfluss des in der Badlösung vorhandenen Aspartats hin. Die transienten Ströme bei schnellen Chloridkonzentrationswechseln bestätigen diese Hemmung und legen einen inhibitorischen Einfluss auf das CFTR-Gating nahe. Die Koexpression des CFTR mit dem Fusionsprotein Bakteriorhodopsin-PKA katalytische Untereinheit (BR-PKA) erm glicht die Kanalaktivierung durch einfache ATP-Zugabe. Es wurde gezeigt, dass diese Koexpression die apparente Affinität für MgATP erhöhte. Eine naheliegende Vermutung ist, dass diese Affinitätszunahme durch einen erhöhten Phosphorylierungsgrad hervorgerufen wird, was durch die Messungen mit dem Proteinkinaseinhibitor PKI unterstützt wird. Durch die Aktivierung der koexprimierten membrangebundenen cGMP-abhängigen Proteinkinase II (cGKII) kann der CFTR sowohl in Ganzzellmessungen, als auch in Makropatches phosphoryliert werden. Der Vergleich der ATP-Konzentrationsabhängigkeiten des CFTR unter permanenter (KM = 29 µM) und vorübergehender cGKII-Stimulierung (KM = 64 µM) belegt eine Abnahme des apparenten KM bei kontinuierlicher Kinaseaktivität und somit vermutlich erhöhter Phosphorylierung. Die Öffnungs- und Schlieflkinetik des Kanals wird durch diese permanente Kinaseaktivität nicht beeinflusst. Die zeitabhängige Abnahme des CFTR-Chloridstroms, der Rundown, kann nicht durch eine permanente Proteinkinaseaktivität von BR-PKA oder cGKII aufgehoben werden. Die Signalabnahme tritt auch unter Bedingungen auf, bei denen mögliche vorhandene Phosphatasen (v.a. PP2C) inaktiv sind. Daraus folgt, dass der Rundown des CFTR nicht nur durch Dephosphorylierung verursacht wird. Für Einzelkanalmessungen wird eine Verringerung der Offenwahrscheinlichkeit des epithelialen Natriumkanals ENaC durch den aktivierten CFTR beschrieben. Die im Rahmen dieser Arbeit durchgeführten Makropatchmessungen bestätigen diese Inhibition nicht. Die CFTR- und Natriumkanal-vermittelten Ströme sind, unabhängig von dem Verhältnis der Einzelströme und dem anliegenden Haltepotenzial, generell additiv. Der präphosphorylierte CFTR kann auch durch ATP-Zugabe geöffnet werden, wenn die Badlösung kein Magnesium enthält. Da unter diesen Bedingungen keine ATP- Hydrolyse erfolgen kann, muss eine Kanalaktivierung durch einfache ATP-Bindung möglich sein. Es tritt eine Verringerung der apparenten ATP-Affinität, nicht aber des maximalen Chloridstroms auf, wenn das Magnesium aus der Badlösung entfernt wird (KM[MgATP] 70 µM; KM[ATP]> 1 mM). Die Möglichkeit der nichthydrolytischen Aktivierung wird dadurch bestätigt, dass auch mit dem nicht-hydrolysierbaren ATP- Analog AMP-PNP eine Kanalöffnung erfolgt. Magnesium ist nicht nur an der ATP-Hydrolyse beteiligt, sondern beeinflusst darüber hinaus die Kanalaktivität. Aus den Messungen bei unterschiedlichen freien Mg2 - Konzentrationen in der Badlösung geht ein inhibitorischer Einfluss dieses Kations auf den stationären Maximalstrom und ein komplexer Einfluss auf die Öffnungskinetik hervor. Die Walker-A und die Walker-B-Dom nen von Nukleotidbindestellen sind an der Bindung und Hydrolyse von MgATP in ATPasen beteiligt. Mit CFTR- Mutanten, in denen die Walker-A (K1250A), bzw. die Walker-B (D1370N)-Domäne der zweiten Nukleotidbindestelle (NBD2) mutiert sind, kann die Beteiligung der NBD2 an der Kanalöffnung belegt werden. Die langsame K1250A-Mutante öffnet in Abwesenheit von Magnesium nicht. Dagegen ist sowohl die Öffnungs- und Schließkinetik, als auch die ATP-Affinität der D1370N-Mutante mit der des Wildtyps vergleichbar, weist aber im Gegensatz zu diesem keinerlei Magnesiumabhängigkeit auf. Auf Grundlage dieser Daten wird ein Modell vorgeschlagen, in dem alternativ zu dem hydrolytischen Öffnungszyklus, in dem zunächst eine ATP-Hydrolyse an der NBD1 erfolgt, auch die nichthydrolytische Öffnung über die NBD2 möglich ist.
Ziel dieser Arbeit ist es, Wege darzustellen, wie die Thematik Ökobilanzen im Chemieunterricht allgemeinbildender Schulen behandelt werden kann. Ökobilanzen sind definiert als ein Verfahren zur Ermittlung der potentiellen Umweltbelastungen eines Produktes über dessen gesamten Lebensweg. Ein solcher Lebensweg besteht aus mehreren Abschnitten. Am Anfang steht die Rohstoffgewinnung, dann folgt die Herstellung des Produktes, darauf der Gebrauch/Verbrauch und schließlich die Entsorgung oder das Recycling. Die grundlegende Vorgehensweise, wie eine (klassische) Ökobilanz aufzustellen ist, ist ausführlich in den DIN EN ISO-Normen 14040 bis 14043 beschrieben. Für den Chemieunterricht ist aber ein solche, den gesamten Lebensweg umfassende und DIN-gerechte Betrachtung zu zeitaufwendig und schwierig. Daher wurde nach Lösungsmöglichkeiten gesucht, dieses aufgrund seines Umweltbezuges interessante Thema dennoch für den Unterricht erschließen zu können. Es wurde ein kombinierter experimenteller und computerunterstützter Zugang entwickelt. Schwerpunkt ist der Chemieunterricht der Sekundarstufe II, jedoch kann die Thematik Ökobilanzen aufgrund umfassender didaktischer Reduktion bereits in der Sekundarstufe I oder ganz vereinfacht sogar im Sachunterricht der Grundschule behandelt werden. Methodische Möglichkeiten werden auch für diese Schulstufen vorgestellt. Für die Sekundarstufe II wurden Experimente erarbeitet, deren Daten zu den Stoff- und Energieströmen dazu dienen, eine vereinfachte Ökobilanz im Unterricht aufstellen zu können. Gegenstand der Experimente ist zum einen die Herstellung von entionisiertem Wasser über Destillation und Ionenaustausch, zum anderen die Herstellung und das Recycling von Kunststoffen. Die Experimente sind so konzipiert, daß sie von Schülern selbst durchgeführt werden können. Um die Auswertung und die Aufstellung der Ökobilanz zu vereinfachen und somit zu beschleunigen, wurde das Programm ÖKO-BILLY unter Microsoft Excel 97 entwickelt, welches hier ebenfalls vorgestellt werden soll. Es dient nicht nur Datenerfassung, sondern ist darüber hinaus auch ein Lernprogramm, welches den Aufbau und die Durchführung einer Ökobilanz demonstriert. Durch die Kombination von Experiment und Computerprogramm kann die Thematik Ökobilanzen erfolgreich im Chemieunterricht der gymnasialen Oberstufe vermittelt werden.
Weltweit stellen die tropischen Tieflandregenwälder die Zentren der Artenvielfalt und Biodiversität dar. Sie sind das komplexeste aller terrestrischen Ökosysteme. Zu der Frage nach den Ursachen ihrer Artenvielfalt und deren Aufrechterhaltung gibt es neben theoretischen Erklärungsansätzen bisher kaum Studien, die versuchen, die Artenvielfalt eines Taxons bedingende ökologischen Faktoren kausal zu untersuchen. Die vorliegende Arbeit hatte zum Ziel, diese Thematik mit Hilfe eines neuen Forschungsansatzes aufzugreifen. Die Artenabnahme eines Taxons und die sie potentiell verursachenden Faktoren sollten entlang eines Höhengradienten aufgenommen werden, um im Umkehrschluß Hinweise zu finden, welche Bedingungen für die Aufrechterhaltung der Artenvielfalt entscheidend sind. Ameisen boten sich aufgrund ihrer starken Artenabnahme mit zunehmender Höhe besonders als Untersuchungsobjekt an. Sie nehmen zudem eine Schlüsselrolle im Ökosystem Tieflandregenwald ein, stellen unter den Invertebraten eine der taxonomisch mit am besten bearbeiteten Gruppen dar, und selbst einzelne Individuen können aufgrund ihrer eusozialen und seßhaften Lebensweise definitiv dem Fundort bzw. der Fundhöhe zugeordnet werden. Der grundlegende Versuchsansatz bestand darin, alle Untersuchungen vergleichend in Boden- und Vegetationsstratum durchzuführen. Dementsprechend wurden entlang des Höhengradienten in beiden Straten die Artenabnahme der Ameisen sowie abiotische und biotische Parameter aufgenommen. Weiterhin wurde eine Art (Diacamma sp.) exemplarisch herausgegriffen, um eventuelle Veränderungen ihrer Ökologie zu erfassen. Die Abnahme der Artenvielfalt von Ameisen am Boden und in der niederen Vegetation verläuft unterschiedlich. Dieser Unterschied ist jedoch nicht auf grundlegend unterschiedliche Faktoren zurückzuführen, sondern auf deren unterschiedliche Ausprägung entlang des Höhengradienten. Es handelt sich hier in beiden Straten zusammenfassend vor allem um vier Faktoren: Temperatur, Feuchtigkeit (umfaßt relative Luftfeuchtigkeit, Nebel, Regen und Staunässe), Nistraumverknappung und Nahrungsverknappung. Die in dieser Studie festgestellte signifikant positive Korrelation von Arten- und Temperaturabnahme betont die besondere Bedeutung des Parameters Temperatur. Diese wirkt einerseits durch eine Beeinträchtigung des Stoffwechsels direkt auf adulte Tiere und Brut und andererseits indirekt über die Veränderung abiotischer (Feuchtigkeit und Nistraum) und biotischer (Nahrung) Parameter. Die jeweiligen relativen Anteile von direktem und indirektem Temperatureinfluß, die mit zunehmender Höhe zur Artenabnahme führen, sind mit den vorliegenden Daten nicht quantifizierbar. Zudem verändern sich die Relationen entlang des Höhengradienten. Anhand ökologischer Überlegungen kann dennoch eine Einschätzung der jeweiligen Bedeutung der Einzelfaktoren vorgenommen werden. Der direkte Einfluß von Temperatur wird in der vorliegenden Studie mehrfach verdeutlicht. Diacamma sp. zeigt beispielsweise eine verminderte Leistungsfähigkeit durch eine signifikant geringere Bauaktivität mit steigender Höhe. Zudem scheint Diacamma sp. in der Lage zu sein, die Architektur ihrer Nester so zu verändern, daß sie thermoregulatorisch der Temperaturabnahme entgegenwirkt. Diese ethologische Flexibilität ermöglicht Diacamma sp., ihr Vorkommen über ihre physiologische Toleranz hinaus auszudehnen. Ein weiterer Hinweis auf einen direkten Temperatureinfluß ergibt sich aus der generellen Reduktion der Koloniegrößen mit zunehmender Höhe. Sie könnte unter anderem durch eine verringerte Fouragieraktivität begründet sein. Weiterhin nimmt die Nestdichte in beiden Straten in dem Höhenbereich signifikant ab, in dem die Durchschnittstemperaturen unter den ökologisch für Ameisen kritischen Schwellenwert von 20°C sinken. Der überwiegende Teil der Ameisen beider Straten nistet in thermoregulatorisch ungünstigem Nistraum (z.B. kleines Totholz, Laub, Humusschicht, Karton). Daher kann die Temperaturabnahme direkt zu einer Nistraumverknappung führen. Am Boden hat die temperaturinduzierte Zunahme von Staunässe mit steigender Höhe einen zusätzlichen negativen Effekt auf die Ressource Nistraum. Insbesondere die Schicht, in der die meisten Nester gefunden wurden (Humus-Wurzel-Schicht), ist davon betroffen. Zudem führt die signifikant an Höhe zunehmende Humus-Wurzel-Schicht dazu, daß der Oberboden im Übergang zwischen Tiefland- und unterem Bergregenwald immer weniger als Nistraum zur Verfügung steht. Im Bergregenwald hingegen treten durch vermehrten Epiphytenbewuchs für Bodenameisen neue Nistmöglichkeiten in der niederen Vegetation auf. In der Vegetation werden durch zunehmende Feuchtigkeit die Kartonnester instabil und damit in größeren Höhen unbrauchbar. Zudem trägt die temperaturabhängige Veränderung der Wuchsform des unteren Bergregenwaldes durch eine räumliche Verkleinerung des Gesamtlebensraumes zu einer Reduzierung der Nist- und Nahrungsressourcen bei. Die Nahrungsverfügbarkeit für Ameisen wird am Boden und in der niederen Vegetation ebenfalls negativ von Temperatur und Feuchtigkeit beeinflußt. Am Boden wird die Nahrungsverknappung z.B. durch den signifikant zunehmenden Nistabstand und den signifikant abnehmenden Beuteeintrag / Zeit von Diacamma sp. Kolonien deutlich. Es ist anzunehmen, daß Nahrungsmangel bei ihrer Verbreitungsgrenze von 1050 m eine wichtige Rolle spielt. Die Nahrungsverknappung für die räuberisch lebenden Bodenameisen wird vermutlich vor allem durch die Abnahme wichtiger Beutegruppen (z.B. Termiten) verursacht. Weiterhin hindert (Stau)Nässe kleine Ameisenarten (die große Mehrheit der hier gesammelten Arten) an der Nahrungssuche. In der niederen Vegetation verursacht der Wechsel des Florentyps auf Familienniveau zwischen Tieflandregenwald und Bergregenwald mit großer Wahrscheinlichkeit eine entscheidende Verknappung der Nahrungsressourcen über die Abnahme von Pflanzen mit extrafloralen Nektarien und der mit Ameisen assoziierten Trophobionten. Die Arten- und Abundanzabnahme der Ameisen verstärkt diese Tendenz wiederum durch negative Rückkopplung, da eine geringere Nachfrage das Angebot bzw. die Produktion der Nahrungssubstrate reduziert. Die vorliegenden Ergebnisse geben weiterhin Hinweise, welche Faktoren bei der Faunenverarmung in anthropogen veränderten Habitaten eine wichtige Rolle spielen können. Der größte Teil der Artenvielfalt des untersuchten primären Regenwaldes wird von kleinen Arten gestellt. Diese wiederum weisen in besonderem Maße eine Sensibilität gegenüber mikroklimatischen Veränderungen auf. Insbesondere abiotische Extreme wie Nässe und niedrige Temperaturen oder Trockenheit in Kombination mit hohen Temperaturen sind Faktoren, die sie am Fouragieren und Nisten hindern können. Daher trägt eine gut ausgebildete Laubstreu- bzw. Humusschicht grundsätzlich zur Artenvielfalt der Bodenameisen bei. Die Laubstreuschicht dient als Fouragierstratum, die Humusschicht als Hauptniststratum, und beide zusammen wiederum sind ein Schutz gegen die Austrocknung des Oberbodens. Ihre Bewahrung sowie die eines möglichst ausgewogenen Mikroklimas sind Grundvoraussetzung für die Vermeidung einer Artenverarmung. Für die niedrige Ausbreitungsgrenze von Ameisen an feucht-tropischen Höhengradienten (ca. 2300 m) scheinen spezielle Charakteristika ihrer eusozialen Lebensweise entscheidend zu sein. Hier sind insbesondere die ökologische Notwendigkeit geschützten Nistraums, energieaufwendiger Fouragierleistung und hoher Brut-Entwicklungstemperatur sowie die Unfähigkeit zur aktiven Nest- Temperaturerhöhung zu nennen. Historisch tiergeografische Gründe scheinen für die starke Abnahme der Ameisenvielfalt mit zunehmender Höhe bzw. für ihre Ausbreitungsgrenzen eine eher untergeordnete Rolle zu spielen. Temperaturabnahme allein bedingt jedoch nicht zwingend eine Artenabnahme, wie im unteren Bergregenwald an der gleichbleibenden Artenzahl des Bodenstratums deutlich wird. Die Bodenameisen müssen hier Lösungswege gefunden haben, dauerhaft mit weit unter 20°C liegenden Temperaturen, starker Nässe und geringer Sonneneinstrahlung zurecht zu kommen. Insofern können in den submontanen und montanen Bereichen der Regenwälder Höhenspezialisten vermutet werden, die jedoch nicht die subalpinen Regionen erreichen. Zusammenfassend ist festzuhalten, daß für eine hohe Artenvielfalt von Ameisen eine relativ hohe Temperatur, ausgewogen hohe Feuchtigkeit, Nistraumvielfalt und Nahrungsmenge sowie -qualität von entscheidender Bedeutung sind. Eine nähere experimentelle Analyse ihres jeweiligen relativen Gewichtes und ihrer konkreten Wirkweise auf einzelne Arten bzw. Artengruppen wäre für die Zukunft wünschenswert.
Human epidermal-type fatty acid binding protein (E-FABP) belongs to a family of intracellular non-enzymatic 14-15 kDa lipid binding proteins (LBP) that specifically bind and facilitate the transport of fatty acids, bile acids or retinoids. Their functions have also been associated with fatty acid signalling, cell growth, regulation and differentiation. As a contribution to better understand the structure-function relationship of this protein, the features of its solution structure determined by NMR spectroscopy are reported here. Both unlabeled and 15N-enriched samples of recombinant human E-FABP were used for multidimensional high-resolution NMR. The sequential backbone as well as side-chain resonance assignments have been completed. They are reported here and are also available at the BioMagResBank under the accession number BMRB-5083. The presence of six cysteines in the amino acid sequence of human E-FABP is highly unusual for LBPs. Four of the six cysteines are unique to the E-FABPs: C43, C47, C67 and C87. In the three-dimensional structure of E-FABP, two cysteine pairs (C67/C87 and C120/C127) were identified by X-ray analysis to be close enough to allow disulfide bridge formation, but a S-S bond was actually found only between C120 and C127 [Hohoff et al., 1999]. Since the exclusion of a disulfide bridge between C67 and C87 improved the Rfree factor of the crystallographic model, the existence of a covalent bond between these two side- chains was considered unlikely. This agrees with the NMR data, where SCH resonances have been observed for the cysteine residues C43, C67 (tentative assignment) and C87, thus excluding the possibility of a second disulfide bridge in solution. Based on the NOE and hydrogen exchange data, an ensemble of 20 energy-minimized conformers representing the solution structure of human E-FABP complexed with stearic acid has been obtained. The analysis of homonuclear 2D NOESY and 15N-edited 3D NOESY spectra led to a total of 2926 NOE-derived distance constraints. Furthermore, 37 slow- exchanging backbone amide protons were identified to be part of the hydrogen-bonding network in the >-sheet and subsequently converted into 74 additional distance constraints. Finally, the disulfide bridge between C120 and C127 was defined by 3 upper and 3 lower distance bounds. The structure calculation program DYANA regarded 998 of these constraints as irrelevant, i.e., they did not restrict the distance between two protons. Out of the remaining 2008 non-trivial distance constraints, 371 were intraresidual (i = j), 508 sequential (|i - j| = 1), 233 medium-range (1 < |i - j| £ 4), and 896 long-range (|i - j| > 4) NOEs. The protein mainly consists of 10 antiparallel -strands forming a >-barrel structure with a large internal cavity. The three-dimensional solution structure of human E-FABP has been determined with a root-mean-square deviation of 0.92 ± 0.11 Å and 1.46 ± 0.10 Å for the backbone and heavy atoms, respectively, excluding the terminal residues. Without the portal region (i.e., for residues 4-26, 40-56, 63-75 and 83-134; the portal region apparently represents the only opening in the protein surface through which the fatty acid ligand can enter and exit the internal binding cavity), an average backbone RMSD of 0.85 ± 0.10 Å was obtained, thus reflecting the higher conformational dispersion in the portal region. Superposition with the X-ray structure of human E-FABP (excluding the terminal residues) yielded average backbone RMSD values of 1.00 ± 0.07 Å for the entire residue range and 0.98 ± 0.06 Å without the portal region. This indicates a close similarity of the crystallographic and the solution structures. The structure coordinates have been deposited at the RCSB data bank under PDB ID code 1JJJ. The measurement of 15N relaxation experiments (T1, T2 and heteronuclear NOE) at three different fields (500, 600 and 800 MHz) provided information on the internal dynamics of the protein backbone. Nearly all non-terminal backbone amide groups showed order parameters S2 > 0.8, with an average value of 0.88 ± 0.04, suggesting a uniformly low backbone mobility in the nanosecond-to-picosecond time range throughout the entire protein sequence. Moreover, hydrogen/deuterium exchange experiments indicated a direct correlation between the stability of the hydrogen-bonding network in the >-sheet structure and the conformational exchange (Rex) in the millisecond-to-microsecond time range. The features of E-FABP backbone dynamics elaborated here differ from those of the phylogenetically closely related heart-type FABP and the more distantly related ileal lipid binding protein. The results on protein dynamics obtained in this work allow to conclude that the different LBP family members E-FABP, H-FABP and ILBP are characterized by varying stabilities in the protein backbone structures. Hydrogen/deuterium exchange experiments displayed significant differences in the chemical exchange with the solvent for the backbone amide protons belonging to the hydrogen-bonding network in the >-sheets. The >-barrel structure of H- FABP appears to be the most rigid, with exchange processes presumably slower than the millisecond-to-microsecond time range. ILBP, on the other hand, shows the fastest hydrogen exchange as well as a significant number of exchange parameters (Rex), implying a decreased stability in the >-sheet structure. E-FABP, finally, appears to rank between these two proteins based on the hydrogen/deuterium exchange, with Rex terms in the >-strands indicating millisecond-to-microsecond exchange processes like in ILBP.
Eine verteilte Infrastruktur für typ- und diensterweiterbare orthogonale digitale Bibliotheken
(2002)
Ziel dieser Arbeit war es, eine verteilte Infrastruktur zu entwickeln, die die Realisierung skalierbarer erweiterbarer orthogonaler Digitaler Bibliotheken erlaubt. Dabei sollte die Skalierbarkeit sowohl hinsichtlich der Zahl der unterstützten Anwender als auch hinsichtlich der Zahl der gespeicherten Dokumente gewährleistet sowie die Erweiterbarkeit um neue Typen und um neue Dienste sichergestellt werden. In einem ersten Schritt wurde ein Modell skalierbarer erweiterbarer orthogonaler Digitaler Bibliotheken entworfen, das die für Erweiterbarkeit und Orthogonalität notwendigen Elemente und Mechanismen identifiziert. Anhand dieses Modells erfolgte dann eine Untersuchung existierender Systeme zur Verarbeitung digitaler Dokumente im Hinblick auf ihre Eignung zur Realisierung einer skalierbaren, erweiterbaren, orthogonalen Digitalen Bibliothek. Resultat dieser Untersuchung war, daß in existierenden Systemen zur Verarbeitung digitaler Dokumente Erweiterbarkeit nur auf Kosten der Orthogonalität oder Skalierbarkeit unterstützt wird. Als Grund dafür wurde eine mangelnde Unterstützung der transparenten Erweiterung und Interpretation der Zuordnungsfunktion durch diese Systeme erkannt. Die Ursache dieses Mangels ist die unzureichende Benennung der Elemente der Zuordnungsfunktionen in den existierenden Systemen. Um eine Infrastruktur für Digitale Bibliotheken zu entwickeln, die die genannten Anforderungen erfüllt, wurden drei Maßnahmen getroffen: die Einführung einer systemweit eindeutigen Benennung der Elemente der Zuordnungsfunktion, der Entwurf eines Mechanismus zur transparenten Verteilung der Zuordnungsfunktion in der Digitalen Bibliothek und die Entwicklung eines Mechanismus zur transparenten Bereitstellung von Dokumentmethoden in den, an der Digitalen Bibliothek beteiligten Rechnerknoten. Die eindeutige Benennung wurde durch die Definition orthogonaler Operationen ermöglicht. Die Verteilung der Zuordnungsfunktion in der Digitalen Bibliothek konnte durch die Einführung von Metadokumenten erreicht werden. Das Konzept der Metadokumente basiert auf der Erkenntnis, daß die Komponenten der Digitalen Bibliothek nur die Teile der Zuordnungsfunktion benötigen, die sich auf die Dokumente beziehen, die sie bearbeiten. Diese dokumentspezifischen Teile der Zuordnungsfunktion erhält man durch Partitionieren der Zuordnungsfunktion entlang der Dimension der Dokumente. Die dokumentspezifischen Zuordnungsfunktionen werden dann zusammen mit dem Dokumentinhalt in Form eines Metadokuments zusammengefaßt. Aufgrund des Verzichts auf eine Typabbildung ist in jedem Metadokument die vollständige dokumentspezifische Zuordnungsfunktion gespeichert. Die Verteilung der Zuordnungsfunktion in der Digitalen Bibliothek ist damit allein durch den Transport des Dokumentinhalts in Form der Metadokumente möglich geworden. Die transparente Bereitstellung der Dokumentmethoden konnte durch Verwendung von mobilen Programmen zur Implementierung von Dokumentmethoden erreicht werden. Digitale Bibliotheken lassen sich so durch Erstellung eines entsprechenden Metadokuments durch den Dokumentautor transparent um neue Dokumenttypen erweitern. Es wurde gezeigt, wie auf der Basis dieser Infrastruktur eine Vielzahl verschiedener Dokumenttypen realisiert werden können. Dazu zählen Dokumente, die unterschiedliche Formen der Präsentation realisieren, sowie Dokumente zur verteilten Datenhaltung, zur Aggregation von Dokumenten und zur Realisierung zugriffsgeschützter und vertraulicher Dokumente. Die Erweiterung um neue Dienste wurde durch die Definition mobiler Dokumente ermöglicht, die die Verteilung neuer Dienstfunktionen innerhalb der Digitalen Bibliothek erlauben. Mobile Dokumente können, analog zu nicht mobilen Dokumenten, durch den Autor des Dokuments, in diesem Fall den Gestalter des Dienstes, transparent in die Digitale Bibliothek integriert werden. Zusammen mit der Möglichkeit zur Einführung neuer orthogonaler Operationen läßt sich dadurch das Dienstspektrum der Digitalen Bibliothek dynamisch erweitern. Die Elemente der Infrastruktur wurden unter der Verwendung standardisierter Protokolle und existierender Laufzeitumgebungen für interpretierte Sprachen realisiert. Auf der Basis dieser Realisierung wurden verschiedene Dokumente implementiert, anhand derer die Umsetzbarkeit der entwickelten Konzepte demonstriert werden konnte. Der Einsatz plattformunabhängiger Sprachen zur Implementierung von Dokumentmethoden ermöglicht eine Integration zukünftiger Plattformen in die Infrastruktur, ohne daß dazu eine Änderung der existierenden Dokumente und Methoden notwendig wird. In dieser Arbeit wurde eine Infrastruktur entworfen, auf deren Grundlage sich skalierbare erweiterbare orthogonale Digitale Bibliotheken realisieren lassen. Das resultierende System läßt sich durch die Dokumentautoren und Dienstgestalter transparent um neue Dokumenttypen und Dienste erweitern. Durch die konsequente Vermeidung zentraler Komponenten konnte die Skalierbarkeit des Systems in der Zahl der unterstützten Anwender sowie in der Zahl der verwalteten Dokumente sichergestellt werden. Ausgehend von den in dieser Arbeit entwickelten Konzepten können weitergehende Fragestellungen diskutiert werden. So kann die Möglichkeit zur einer engeren Integration der Präsentation aggregierter multimedialer Dokumente, wie sie z. B. im InformediaProjekt bei der synchronisierten Darstellung geographischer Regionen und darauf bezogener VideoDaten vorgenommen wird (vgl. [13]), untersucht werden. Eine Integration unterschiedlicher Dokumente im Präsentationsraum könnte durch die Definition einer orthogonalen MultimediaPresentOperation geschehen, die die Angabe von Koordinaten im Dokument und Präsentationsraum, wie sie z. B. in HyTime [64] möglich ist, zur Kontrolle der Präsentation erlaubt. In der vorliegenden Arbeit wurde der Schutz einzelner AusführungsServer gegen böswillige Dokumentmethoden behandelt. Mit der Möglichkeit zur Erstellung mobiler Dokumente verdient der Schutz des ServerVerbundes zur Begrenzung der Ressourcennutzung durch einen Initiator ebenfalls eine eingehendere Betrachtung. Hier könnten Konzepte aus Infrastrukturen für mobile Agenten, z. B. AgentTcl [42], angepaßt werden, z. B. die Kontingentierung der Ressourcennutzung auf den Rechnerknoten innerhalb einer administrativen Domäne und die Verwendung elektronischen Geldes zur Limitierung der Ressourcennutzung durch mobile Dokumente, die sich zwischen mehreren administrativen Domänen bewegen. Zur Effizienzsteigerung könnten Verfahren zur Übersetzung von plattformunabhängigem Zwischencode in nativen Code der Zielmaschine, wie sie beispielsweise in [33] beschrieben sind, eingesetzt werden. In diesem Zusammenhang sind geeignete Mittel für eine Durchsetzung der Sicherheitsanforderungen auszuwählen und ihr Einfluß auf den zu erwartenden PerformanceGewinn zu untersuchen.