Refine
Year of publication
- 2002 (190) (remove)
Document Type
- Doctoral Thesis (190) (remove)
Has Fulltext
- yes (190)
Is part of the Bibliography
- no (190)
Keywords
- Gaschromatographie (3)
- Genexpression (3)
- Authentizität (2)
- Gephyrin (2)
- Halbleiteroberfläche (2)
- Ionenkanal (2)
- Kontamination (2)
- Abmahnung (1)
- Abweichendes Verhalten (1)
- Allosterischer Effektor (1)
Institute
- Medizin (43)
- Biochemie und Chemie (41)
- Biowissenschaften (30)
- Pharmazie (23)
- Physik (17)
- Geowissenschaften (9)
- Informatik (4)
- Geschichtswissenschaften (3)
- Gesellschaftswissenschaften (3)
- Psychologie (3)
Das Ziel dieser Arbeit wurde eingangs über den Begriff der erweiterten Schließung der optischen und mikrophysikalischen Eigenschaften der Partikel definiert. Hierunter versteht man das Zusammenfügen von verschiedenen Messungen zu einem konsistenten Bild der betrachteten Partikeleigenschaften. Darüber hinaus sollen die Messungen auch in anderen Teilgebieten der Aerosolphysik verwendbar sein, um so das konsistente Bild zu erweitern. Dieses so umschriebene Ziel konnte für die mikrophysikalischen und optischen Messergebnisse, die während des LACE 98 Experimentes, einem vom Bundesministerium für Forschung und Bildung (Bmb f) geförderten Schließungsexperiment, in Lindenberg (Brandenburg) rund 50 km südöstlich von Berlin im Juli und August 1998 erfasst wurden, erreicht werden. Die Messungen wurden erfolgreich zu einem konsistenten Datensatz und einem "Bild" der Partikeleigenschaften zusammengefügt. Unter dem Begriff "Bild" subsummiert sich hierbei nicht nur eine Charakterisierung der Variabilität und Abhängigkeit der Partikeleigenschaften, z.B. von der rel. Luftfeuchte, sondern darüber hinaus auch eine Charakterisierung der Beeinflussung verschiedener von den Eigenschaften der Partikel abhängiger Größen. Hierzu zählen Strahlungshaushaltsgrößen (Erwärmungsrate der Luft durch Absorption solarer Strahlung und die Volumenabsorption solarer Strahlung durch Partikel), wolkenphysikalische Größen (maximale Übersättigung der Wolkenluft während der Wolkenentstehung und Anzahlkonzentration der wachsenden Wolkentropfen), die massengewichtete mittlere Sedimentationsgeschwindigkeit von Partikeln und nicht zuletzt gesundheitsrelevante Größen, wie z.B. die vom Menschen beim Atmen aufgenommene und eingelagerte Partikelmasse. Nachfolgende Zusammenstellung soll nochmals die erzielten Ergebnisse zusammenfassen. Für eine detaillierte Darstellung der in den einzelnen Kapiteln erzielten Ergebnisse soll hier nur auf die jeweiligen Zusammenfassungen der einzelnen Kapitel verwiesen werden. . Im Rahmen der direkten Schließung, wurden unterschiedliche Verfahren zur Bestimmung der optischen Eigenschaften der Partikel erfolgreich miteinander verglichen. Beteiligt waren bei diesem Vergleich folgende Methoden: Partikel im trockenen Zustand: -- Aerosolphotometer (alle optischen Eigenschaften, ) -- Nephelometer (Streukoeffizient) -- PSAP (Absorptionskoeffizient) -- IPMethode (Absorptionskoeffizient) -- Telephotometer (Extinktionskoeffizient) Partikel bei Umgebungsfeuchte: -- Telephotometer (Extinktionskoeffizient) -- horizontales Lidar (Extinktionskoeffizient) Es zeigte sich, dass sich das Aerosolphotometer mit seinem schon aus der Theorie des Messverfahrens her begründeten konsistenten Satz aller optischen Eigenschaften als Referenzmethode während LACE 98 bewährte. Mit seiner Hilfe konnte nun auch die Gültigkeit einer empirischen Korrektur des PSAP nach Bond et al. [1999] für natürliche Aerosolpartikel bestätigt werden. Dem Anwender dieses Gerätes, das mit einer hervorragenden zeitlichen Auflösung von wenigen Minuten den Absorptionskoeffizienten bestimmt, stehen somit zwei unabhängig voneinander gewonnene Kalibrierungsfunktionen zur Verfügung, die innerhalb der Fehlergrenzen auch mit einander im Einklang stehen. . Im Rahmen der indirekten Schließung wurde ein Modell entwickelt, mit dem auf Basis eines Kugelschalenmodells der Partikel aus Messungen der mikrophysikalischen Eigenschaften der Partikel den Extinktions, den Streu- und den Absorptionskoeffizienten sowie die Single Scattering Albedo berechnet wurden. Mit Hilfe dieses Modells wurde der Feuchteeffekt der oben genannten optischen Eigenschaften berechnet. Mit diesen Ergebnissen konnten dann die Messwerte des Telephotometers feuchtekorrigiert, und mit den Messungen des Aerosolphotometers verglichen werden, wo bei eine gute Übereinstimmung der Messreihen festgestellt werden konnte. Die beobachteten Unterschiede konnten auf Ernteaktivitäten, die nur die Messungen des Telephotometers beeinflussten, zurückgeführt werden. Ein Vergleich der mit Hilfe des Modells auch direkt berechenbaren optischen Eigenschaften mit den direkten Messwerten der beteiligten Verfahren fiel ebenfalls positiv aus. Anhand aller Modellrechnungen wurde eine physikalisch motivierte Näherungsfunktion für den Feuchteeffekt des Extinktions- und des Streukoeffizienten als Funktion des Aktivierungsparameters bereit gestellt. In Klimamodellen kann mit Hilfe der vorgestellten Näherungsfunktionen der Feuchteeffekt auf einfache Weise parametrisiert werden. Wenn man allerdings konkrete Messergebnisse miteinander vergleichen möchte, ist man auf eine vollständige Erfassung der mikrophysikalischen Eigenschaften der Partikel angewiesen. . Im Teil IV der Arbeit wurden auf der Basis des zuvor vorgestellten Datensatzes und der hierfür entwickelten Verfahren (Algorithmen) weitere Auswertungen zu unterschiedlichen, für die Meteorologie interessanten Themengebieten, vorgestellt und ihre Ergebnisse charakterisiert. . In Kapitel 6.1 wurde mit Hilfe von Auswertegleichungen aus den in dieser Arbeit erstellten Messungen des Sieben-Sensor-Bilanzphotometers und den Messungen des Aerosolphotometers die Volumenabsorptionsrate solarer Strahlung der bodennahen Partikel und die daraus resultierende Erwärmungsrate der Luft berechnet. Die Ergebnisse wurden mit Literaturwerten anderer Messkampagnen verglichen. Insbesondere konnte ein interessantes Ergebnis von Hänel
Ziel dieser Arbeit ist es, Wege darzustellen, wie die Thematik Ökobilanzen im Chemieunterricht allgemeinbildender Schulen behandelt werden kann. Ökobilanzen sind definiert als ein Verfahren zur Ermittlung der potentiellen Umweltbelastungen eines Produktes über dessen gesamten Lebensweg. Ein solcher Lebensweg besteht aus mehreren Abschnitten. Am Anfang steht die Rohstoffgewinnung, dann folgt die Herstellung des Produktes, darauf der Gebrauch/Verbrauch und schließlich die Entsorgung oder das Recycling. Die grundlegende Vorgehensweise, wie eine (klassische) Ökobilanz aufzustellen ist, ist ausführlich in den DIN EN ISO-Normen 14040 bis 14043 beschrieben. Für den Chemieunterricht ist aber ein solche, den gesamten Lebensweg umfassende und DIN-gerechte Betrachtung zu zeitaufwendig und schwierig. Daher wurde nach Lösungsmöglichkeiten gesucht, dieses aufgrund seines Umweltbezuges interessante Thema dennoch für den Unterricht erschließen zu können. Es wurde ein kombinierter experimenteller und computerunterstützter Zugang entwickelt. Schwerpunkt ist der Chemieunterricht der Sekundarstufe II, jedoch kann die Thematik Ökobilanzen aufgrund umfassender didaktischer Reduktion bereits in der Sekundarstufe I oder ganz vereinfacht sogar im Sachunterricht der Grundschule behandelt werden. Methodische Möglichkeiten werden auch für diese Schulstufen vorgestellt. Für die Sekundarstufe II wurden Experimente erarbeitet, deren Daten zu den Stoff- und Energieströmen dazu dienen, eine vereinfachte Ökobilanz im Unterricht aufstellen zu können. Gegenstand der Experimente ist zum einen die Herstellung von entionisiertem Wasser über Destillation und Ionenaustausch, zum anderen die Herstellung und das Recycling von Kunststoffen. Die Experimente sind so konzipiert, daß sie von Schülern selbst durchgeführt werden können. Um die Auswertung und die Aufstellung der Ökobilanz zu vereinfachen und somit zu beschleunigen, wurde das Programm ÖKO-BILLY unter Microsoft Excel 97 entwickelt, welches hier ebenfalls vorgestellt werden soll. Es dient nicht nur Datenerfassung, sondern ist darüber hinaus auch ein Lernprogramm, welches den Aufbau und die Durchführung einer Ökobilanz demonstriert. Durch die Kombination von Experiment und Computerprogramm kann die Thematik Ökobilanzen erfolgreich im Chemieunterricht der gymnasialen Oberstufe vermittelt werden.
Das Photosystem II (PSII) und die F1Fo-ATP-Synthase, zwei Membranproteinkomplexen der Energieumwandlung, wurden im Rahmen dieser Dissertation bearbeitet. Mittels zweidimensionaler (2D) Kristallisation und elektronenkristallographischen Methoden sollte die dreidimensionale (3D) Struktur aufgeklärt werden. PSII katalysiert den ersten Schritt der Lichtreaktion der Photosynthese. Es ist für das Einfangen von Lichtquanten, die Anregung von Elektronen, die Freisetzung von Sauerstoff aus Wasser verantwortlich. Über 25 Untereinheiten sind an diesem Prozess in den Thylakoidmembranen der Chloroplasten beteiligt. Ziel des ersten Projekts war die Verbesserung der 8 Å-Struktur des CP47-RC-Subkomplexes durch neue oder bessere 2D-Kristalle. Die Aufreinigung aus Spinat lieferte reproduzierbar eine gute Ausbeute an aktivem PSII. Das solubilisierte PSII enthielt genug endogenes Lipid, um es ohne den Zusatz von weiterem Lipid direkt durch Mikrodialyse zu rekonstituieren. Während der Rekonstitution verlor der PSII-Komplex CP43 und andere Untereinheiten, wahrscheinlich durch das Detergenz begünstigt, und ergab hoch geordnete Membranen aus CP47-RC. Die besten vesikulären 2D-Kristalle hatten eine tubuläre Morphologie und waren bis zu 1 µm breit und 3 µm lang. Elektronenmikroskopische Bilder unter Cryo-Bedingungen von ihnen aufgenommen zeigten nach der Bildverarbeitung Daten bis 6 Å. Durch Erhöhung der Zinkazetatkonzentration im Dialysepuffer konnten dünne 3D-Kristalle gezüchtet werden, die aus 2D-Kristallstapeln bestanden. Obwohl Elektronenbeugungsmuster Reflexe bis 4,5 Å aufwiesen, konnte auf Grund der unbekannten und veränderlichen Anzahl von Schichten keine 3D-Struktur erstellt werden. Weitere Versuche die Qualität der 2D-Kristalle von CP47-RC zu verbessern waren nicht erfolgreich. Durch die kürzliche Veröffentlichung der Röntgenkristallstruktur des dimeren PSII-Komplexes aus Synechococcus elongatus wurden weitere Untersuchungen eingestellt. Im letzten Schritt der Energieumwandlungskette bildet die F1Fo-ATP-Synthase unter Ausnutzung eines elektrochemischen Gradienten schließlich ATP, die universelle Energieeinheit der Zelle. Die Struktur und Funktion des löslichen, katalytischen F1-Teils sind seit einigen Jahren im Detail bekannt. Im Gegensatz zeichnet sich die Struktur des membranintegrierten, Ionen-translozierenden Fo-Teiles aus den Untereinheiten ab2cx erst langsam ab. Der c-Ring besteht in Hefe aus 10 und in Spinatchloroplasten aus 14 Untereinheiten. Ziel des zweiten Projekts war die Aufklärung der 3D-Struktur des sehr stabilen, undecameren c-Rings aus dem Bakterium Ilyobacter tartaricus, welches Na als Kopplungsion nutzt. Große, tubuläre 2D-Kristalle mit einer Einheitszelle von 89,7 x 91,7 Å und p1-Symmetrie bildeten sich nach der Rekonstitution von gereinigten c-Ringen mit dem Lipid Palmitoyl-Oleoyl-Phosphatidylcholin, nachdem das Detergenz durch Mikrodialyse entzogen wurde. Bilder von in Trehalose eingebetteten 2D-Kristallen wurden im Elektronenmikroskop JEOL 3000 SFF bei 4 K aufgenommen. Ein 3D-Datensatz, bestehend aus 58 Bilder bis zu einem Kippwinkel von 45°, ermöglichte die Berechnung einer 3D-Dichtekarte mit einer Auflösung von 4 Å in der Membranebene und 15 Å senkrecht dazu. Die elffach symmetrisierte Karte eines c-Rings zeigt einen taillierten Zylinder mit einer Höhe von 70 Å und einem äußeren Durchmesser von 50 Å, der aus zwei konzentrischen Ringen von transmembranen (-Helices besteht. Ein C-(-Modell der c-Untereinheit, die eine helikale "hair pin" bildet, konnte in die Dichte eingepaßt werden. Die inneren Helices sind nur 6,5 Å (Zentrum-zu-Zentrum-Abstand) von einander entfernt um eine zentrale Öffnung von 17 Å Durchmesser angeordnet. Die dichte Helixpackung wird durch ein konserviertes Motiv aus vier Glycinresten ermöglicht. Jede innere Helix ist mit einer äußeren, C-terminalen Helix über einen kurzen, wohl geordneten Loop auf der cytoplasmatischen Seite verbunden. Die äußere Helix weist in der Nähe der Ionenbindungsstelle einen Knick auf, der gleichzeitig in der Mitte der Membran liegt, wo sich die äußeren und inneren Helices am nächsten kommen. Dadurch wird es möglich, dass die Ionenbindungsstelle aus den Resten von zwei äußeren (Glu65, Ser66) und einer inneren Helix (Pro28) geformt wird. Zur Unterstützung der Ein-Kanal-Modell der Ionentranslokation konnte ein Zugang von der Ionenbindungsstelle zum Cytoplasma durch polare Reste in der c-Untereinheit vorgeschlagen werden. Des Weiteren kann spekuliert werden, dass drei Ionenbrücken zwischen den c-Untereinheiten für die hohe Temperaturstabilität des Oligomers von I. tartaricus verantwortlich sind. Die Vorstellung dieses 3D-Modells des c-Rings ist ein erster Schritt hin zum Verständnis der Kopplung der Ionentranslokation an die Rotation der F1Fo-ATP-Synthase. Wenn die Struktur der a-Untereinheit gelöst worden ist, wird hoffentlich auch der Mechanismus des kleinsten, biologischen Rotationsmotors entschlüsselt werden.
Dihydrocodein wird im wesentlichen zu Dihydrocodein-6-O-43-ß-glucuronid (DHC6G), Dihydromorphin (DHM), Dihydromorpbin-3-O-ß-D-glucuronid (DHM3G), Dihydromorphin-6-O-ß-D-glucuronid (DHM6G) und Nordihydrocodein (NDHC) biotransformiert. In Analogie zu Codein wird vermutet, dass die Metaboliten DHM und DHM6G pharmkologisch deutlich aktiver als die Muttersubstanz sind und somit zur Wirkung von DHC wesentlich beitragen können, auch wenn sie nur in geringen Mengen gebildet werden. Da die O-Demethylierung von Dihydrocodein zu Dihydromorphin durch das polymorphe Cytochrom P450-Enzym CYP2D6 katalysiert wird, sind in EM (schnelle Metabolisierer) und PM (langsame Metabolisierer, weisen kein funktionelles CYP2D6-Enzym auf) unterschiedliche Metabolitenprofile zu beobachten. In etwa 5-10% der Kaukasier, die PM für CYP2D6 sind, könnte sich somit ein Therapiemisserfolg nach Gabe von therapeutisch empfohlenen Standarddosen an DHC einstellen. Es war daher Ziel der vorliegenden Arbeit, die Bedeutung der Biotransformation für die Wirkung von Dihydrocodein beim Menschen zu untersuchen. Im Rahmen dieser Untersuchung wurden Affinitätsprofile an Hirnmembranpräparationen und Affinitäts- und Aktivitätsprofile an humanen Neuroblastomzellen für DHC und seine Metaboliten erstellt. Des weiteren wurden pharmakokinetische und pharmakodynamische Parameter (und deren Zusammenhang) von Dihydrocodein und seinen Metaboliten beim gesunden Menschen unter Berücksichtigung des CYP2D6-Phänotyps mit Hilfe einer Pilot-Probandenstudie bestimmt. Zuletzt wurden die Ergebnisse der Affinitäts- und Aktivitätsversuche mit den Ergebnissen der Probandenstudie unter Berücksichtigung der verfügbaren Literaturdaten in Zusammenhang gebracht. Di in vitro-Untersuchungen zeigten, dass alls Prüfsubstanzen mit Ausnahme des unwirksamen DHM3G vorwiegend u-selektive Agonisten waren und dass das prinzipielle Verhältnis der Affinitäten bzw. Aktivitäten der einzelnen aktiven Prüfsubstanzen zueinander in allen Untersuchungen annähernd gleich war. Auf Grundlage dieser Daten konnte folgender Grundsatz formuliert werden; Die Affinitäten/Aktivitäten von DHM und DHM6G waren etwa um den Faktor 100 größer als die von DHC, während die anderen Metaboliten (mit Ausnahme des unwirksamen DHM3G) vergleichbare Affinitäten/Aktivitäten besaßen. Die im Rahmen der Probandenstudie ermittelten pharmakokinetischen Werte bestätigten verfügbare Literaturdaten, insbesondere dass CYP2D6 wesentlich für die Bildung von DHM war. So konnten weder DHM, DHM3G noch DHM6G in Plasma und Urin von PM detektiert werden. Die pharmakodynamischep Untersuchungen mittels Pupillometrie zeigten einen signifikanten Unterschied im ursprünglichen Pupillendurchmesser an den Zeitpunkten 1 bis 6 Stunden zwischen Placebo einerseits und EM bzw. PM andererseits. Damit konnte zunächst eine eigene in vivo-Wirkung von DHC beim Menschen nachgewiesen werden. Jedoch ergab sich kein signifikanter Unterschied zwischen EM und PM. Im zweiten pharmakodynamischen Modell (Schmerzmodell) konnten bezüglich der Parameter R-III-Reflexschwelle und VAS-EC30 keine Unterschiede sowohl zwischen EM und PM als auch zwischen Placebo und EM bzw. PM festgestellt werden, so dass 60 mg DHC keine analgetische Wirkung hatte oder das Modell für die Ermittlung der analgetischen Potenz von 60 mg DHC ungeeignet war. Einschränkend muss jedoch hier erwähnt werden, dass die Studie aufgrund der kleinen Fallzahl nur Pilotcharakter aufwies. Die Ergebnisse der vorliegenden Arbeit in Zusammenhang mit den verfügbaren Literaturdaten lassen die Schlussfolgerung zu, dass die pharmakologisch wesentlich aktiveren Metaboliten DHM und DHM6G nicht oder nur geringfügig zur Wirkung von DHC nach oraler Einzelgabe von 60 mg DHC beitragen. Gründe hierfür könnten die geringe Bildung von DHM und seinen Metaboliten (ca. 9%) und/oder durch Verteilung und Ausscheidung bedingte niedrige Konzentrationen am Rezeptor in vivo sein. Somit scheint die Biotransformation keine Bedeutung für die Wirkung von DHC zu haben. Entsprechend sind keine Unterschiede in der Therapie von EM und PM mit niedrigen therapierelevanten DHC-Dosen zu erwarten.
Der Einsatz verschiedenster Substanzen, die die affektive, emotionale oder körperliche Befindlichkeit verändern, ist so alt wie die Menschheit selbst. Rauschmittel im weitesten Sinn werden seit alters her zur Linderung oder Heilung von Krankheiten, bei rituellen Zusammenkünften, zur Bewußtseinsveränderung oder -erweiterung oder einfach als Genußmittel eingesetzt. Als "grundlegende Funktionsbereiche des Drogengebrauchs" werden allgemein "religiöse, medizinische, hedonistische, soziale, kompensatorische, ökonomische und politische" genannt (Blätter, 1995, 279). Im Rahmen einer mehrjährigen Tätigkeit als Sozialpädagogin in einer Jugend- und Drogenberatungsstelle im "Drogenbrennpunkt" Frankfurt hatte ich Gelegenheit festzustellen, daß zumindest bei Heroinkonsumenten in Deutschland soziale und kompensatorische Aspekte gegenüber den anderen genannten Faktoren offensichtlich im Vordergrund stehen. Die häufig gehörte Einschätzung, es handele sich bei Drogenabhängigen um hedonistisch orientiertes "arbeitscheues Gesindel", das sich auf Kosten der Allgemeinheit einen "schönen Lenz mache", erweist sich spätestens dann als falsch, wenn man Gelegenheit erhält, Einblick in ihren hektischen und nicht selten auch mittelbar oder unmittelbar lebensbedrohlichen Alltag zu nehmen. ...
Zur Zeit basiert die Behandlung der Infektion mit dem Humanen-Immunschwäche-Virus (HIV) ausschließlich auf einer Chemotherapie, die das Virus nicht eradiziert, sondern in seiner Vermehrung hemmt. Diese Therapie muß lebenslang erfolgen. Die Wirksamkeit der Medikamente ist, auch in einer Kombinationstherapie, durch die Entwicklung von Resistenzen limitiert. Diese begründet sich zum einen in der Selektion resistenter Virusmutanten. Zum anderen weisen experimentell und in Studien gewonnene Ergebnisse auf die Beteiligung zellulärer Faktoren am Therapieversagen hin. Über die Rolle zellulärer Prozesse bei der Resistenzentwicklung gegen die in der HIV-1 Therapie eingesetzten Nukleosidalen-Reverse-Transkriptase-Inhibitoren ist jedoch noch wenig bekannt. NRTIs sind Prodrugs und werden durch zelleigene Kinasen aktiviert. Eine verminderte Expression oder Aktivität dieser Kinasen kann zu subtherapeutischen intrazellulären Wirkspiegeln führen. In der vorliegenden Arbeit wurden anhand einer T-lymphoiden Zellkultur (H9) die zellulären Mechanismen, die nach einer langdauernden Zidovudin (AZT) Exposition eine zelluläre AZT-Resistenz bewirken, und Methoden diese Resistenz zu umgehen bzw. zu verhindern, untersucht. Es zeigte sich, daß die kontinuierliche AZT-Exposition eine verminderte Expression der Thymidinkinase 1 (TK1) bewirkt. Dies führt zu einer verminderten AZT-Phosphorylierung und letztendlich zu geringeren Wirkstoffspiegeln des antiretroviral wirksamen Metaboliten AZT-Triphosphat (AZT-TP). In AZT resistenten H9 Zellen zeigte AZT eine verminderte Zytotoxizität, und eine um mehr als den Faktor 1000 verminderte antiretrovirale Aktivität. Als mögliche Ursachen für die verminderte Expression der TK1 wurden die DNA-Methylierung und die Histon-Deacetylierung, zwei Faktoren, die Hand in Hand die Genexpression auf transkriptioneller Ebene beinflussen, untersucht. AZT resistente Zellen zeigten in immunzytochemischen Färbungen eine starke Histon-Deacetylierung. Die Behandlung resistenter Zellen mit Trichostatin A (TSA), einem Hemmstoff der Histon-Deacetylierung führte jedoch nicht zu einer Erhöhung der TK1 mRNA-Spiegel. Die Behandlung resistenter Zellen mit 5-AZA-C, einem Inhibitor der Methyltransferase 1 (DNMT1) erhöhte sowohl die Expression der TK1 als auch die Zytotoxizität und die antiretrovirale Aktivität von AZT. Darüber hinaus verminderte die gleichzeitige Behandlung von H9 Zellen mit AZT und 5-AZA-C die Resistenzentwicklung gegen AZT erheblich. Weiterhin konnte gezeigt werden, daß in den AZT resistenten Zellen die Expression der „de novo“ Methyltransferasen 3a und 3b (DNMT3a / 3b) erhöht ist. Diese Ergebnisse weisen darauf hin, daß eine „de novo“ Methylierung des TK1-Gens durch die DNMT3a und DNMT3b die Ursache für die verminderte TK1 Expression in AZT resistenten H9 Zellen ist. Zusätzlich wurde in dieser Arbeit gezeigt, daß einige amphiphile Heterodinukleosidphosphate, die nach intrazellulärer Spaltung monophosphorylierte Nukleosidanaloga freisetzen, die AZT Resistenz überwinden können. Die Ergebnisse dieser Arbeit lassen vermuten, daß eine spezifische Hemmung der „de novo“ Methyltransferasen oder der Einsatz monophosphorylierter Substanzen die Wirksamkeit einer antiretroviralen Therapie erheblich verbessern können, indem sie zelluläre Faktoren, die eine Phosphorylierung von AZT vermindern und dadurch zum Versagen von AZT als antiretroviralem Therapeutikum führen, unterdrücken bzw. umgehen.
In der vorliegenden Arbeit wurden 10 Typen der Gehölzvegetation und 14 Typen der Krautvegetation für das Untersuchungsgebiet Atakora vorgestellt. Dabei konnten nur Sonderstandorte, wie Galeriewälder und Lateritkrusten, klar abgetrennt werden. Viele Arten besitzen keine eindeutigen ökologischen Präferenzen, was sich gut mit der Einschätzung der lokalen Bevölkerung deckt, die für den Großteil der Arten angaben, dass diese wüchsen wo sie wollten. Dabei fällt auf, dass sich die Typen (vor allem in Gehölzschicht aber auch in Krautschicht) in den einzelnen Dörfern oft nur in Teilen entsprechen. Gründe dafür konnten nur teilweise in den unterschiedlichen ökologischen Gegebenheiten und unterschiedlichen Nutzungspräferenzen einzelner wichtiger Trennarten gegeben werden. Selten findet sich ein hundertprozentiges Zusammentreffen eines Gehölztyps mit einem Krauttyp. Damit bestätigt sich die Annahme unterschiedlicher Entwicklungsbedingungen und teilweise unabhängiger Entwicklung dieser beiden Elemente in der westafrikanischen Savanne. Gesellschaften, in denen eine Krautschicht mit einer Gehölzschicht eng korreliert sind, konnten nur für landwirtschaftlich nicht genutzte Sonderstandorten wie Galeriewälder und Lateritkrusten gebildet werden. Zudem zeigt sich, dass die Vegetation in der dichter besiedelten Ebene klarer strukturiert ist, als in der Bergregion. Dies trifft vor allem auf die Gehölzvegetation zu. Dennoch sind erstaunlich viele Gehölzarten auch in der intensiver genutzten Ebene anzutreffen, was für große Regenerationsfähigkeit und die Anpassung der hauptsächlichen Savannengehölze an das menschliche Wirken spricht. Die geringere Zahl an Gehölzarten in der Ebene ist hauptsächlich Resultat der wesentlich stärker degradierten Galeriewälder. In den Berggebieten sind zudem mehr Gehölzschichttypen und mehr krautige Arten angetroffen worden. Hier zeigt sich, dass Berggebiete auch in dieser Untersuchungsregion als Refugium für Vegetationsformationen und Arten gelten können. Die Nutzung von Wildpflanzen für verschiedene Zwecke wurde dokumentiert. Dabei konnte gezeigt werden, dass Präferenzen für diverse Nutzungen auf ethnischen, teilweise auch auf persönlichen Präferenzen, sowie auf der Verfügbarkeit der Pflanzen basieren. Dabei zeigte sich, dass die Präferenzen von Arten als Bau- und Brennholz eher auf der Verfügbarkeit basieren, während die Präferenzen für Medizinalpflanzen eher auf ethnischnen Vorstellungen von Wirksamkeit und teilweise auch auf kollektiven Erfahrungen basieren. Es erwies sich, dass die traditionelle Nutzung von Wildpflanzen als Brenn- und Bauholz und zu zusätzlichen Ernährung in dem Untersuchungsgebiet einen geringen Einfluß auf die Biodiversität hat, solange diese Pflanzen nicht kommerzialisiert werden. Es gibt genügend Pflanzenarten, die leicht zu finden sind und gute Eigenschaften für die eingesetzten Zwecke aufweisen, so dass man meist auf die jeweiligen in einem Dorfgebiet häufig anzutreffenden Arten ausweichen kann. Für diese geringe Auswirkung der traditionellen Nutzung von Gehölzpflanzen auf die Biodiversität sprechen auch die Aussagen der Bevölkerung über die geringere Verfügbarkeit von Gehölzpflanzen zu bestimmten Nutzungen. Dabei ergab sich eine Reihung von Nennungen, die von weniger Bauholz über weniger Brennholz zu weniger Gehölzpflanzen für die traditionelle Medizin abnahmen. Zudem wurde in allen Befragungen verneint, dass eine Art aus dem Dorfgebiet verschwunden wäre. Daraus läßt sich schließen, dass ein Großteil der wichtigen Gehölzpflanzen in dem Untersuchungsgebiet noch vorhanden ist, aber auf Grund der intensivierten Landwirtschaft nicht mehr in der Lage ist, sich zu richtigen Bäumen zu entwickeln. Da sich dadurch einige Gehölzpflanzen nur noch vegetativ vermehren können, kann eine genetische Verarmung von Populationen bestimmter Arten angenommen werden. Dies wäre ein interessanter Ansatzpunkt für zukünftige Forschungen. Ein negativer Einfluß auf die Biodiversität durch traditionelle Nutzungen ist bei der Nutzung von Gehölzpflanzen für die traditionellen Medizin größer, vor allem wenn Wurzeln verwendet werden. Dennoch lässt sich erkennen, dass der Einfluß der traditionellen Nutzungen von Wildpflanzen im Vergleich zu der landwirtschaftlichen Nutzung der Flächen einen marginalen Effekt auf die Vegetation hat. Im Rahmen der ethnobotanischen Befragungen wurden Pflanzennamen, Umweltwahrnehmung und die Vorstellungen von Krankheit der Bétamaribè und Wama dokumentiert. Diese weisen im Gegensatz zu den Vorstellungen anderer afrikanischer Völker kaum Differenzen auf. Die Vorstellungen von Krankheit sind dabei von einem starken Wandel betroffen, da man sich immer stärker auf westliche Konzepte und Medikamente verläßt. Ein positiver Effekt hiervon auf die Phytodiversität ist jedoch nicht zu erwarten, da die Medikamentkosten eine Intensivierung der Landwirtschaft erfordern. Über 240 traditionelle Heilrezepte wurden gesammelt. Die wichtigste Rolle spielen dabei Gehölzpflanzen. Dabei zeigt sich, dass sich die Präferenzen zwischen den einzelnen Dörfern stärker unterscheiden als bei der Nutzung von Pflanzen zu Brenn- und Bauholzzwecken. Auch erweisen sich große Unterschiede zu Verwendungen von Medizinalpflanzen in anderen Untersuchungsgebieten. Dies liegt an unterschiedlichen Vorstellungen und Erfahrungen zur Wirksamkeit von Pflanzen vor allem bei Krankheiten, die auch von alleine wieder vergehen wie Magen-Darm-Erkrankungen. Das Wissen über Heilpflanzen ist in der Ebene geringer ausgeprägt, als in den beiden Bergdörfern. Gründe hierfür können jedoch nicht alleine in den geringeren pflanzlichen Ressourcen gesehen werden. Ein Wandel in der Landwirtschaft bezieht sich hauptsächlich auf die Anbauprodukte. Während traditionelle angepaßte Cerealien seltener angebaut werden, baut man viele Produkte für den Verkauf an. Die herausragende Stellung darunter nimmt die anspruchsvolle und arbeitsintensive Baumwolle ein. Die Auszahlungsmodalitäten der halbstaatlichen Baumwollgesellschaft kommen dabei den bäuerlichen Bedürfnissen am ehesten entgegen. Um den finanziellen Ansprüchen der Verwandtschaft zu entgehen werden kurzfristige Strategien zur Geldbeschaffung angenommen. Es zeigt sich also, dass die Ursachen von Degradation eher in dem Kulturwandel und einer zunehmenden Abhängigkeit der Bauern von Bareinkünften zu sehen ist als in der oft pauschal genannten Überbevölkerung. Zukünftige Forschungen über Biodiversität und Vegetationswandel sollten auch den Kulturwandel stärker berücksichtigen. Die Degradation zeigt sich in dem Untersuchungsgebiet mehr in der Verarmung der Böden als in einem Rückgang der Biodiversität. Obwohl schon historische Vegetationsbeschreibungen von einer starken Beeinträchtigung der vermuteten natürlichen Wälder sprechen, ist nicht davon auszugehen, dass sich die Vegetation in dem Untersuchungsgebiet die letzten 50 Jahre stark verändert hat. Das in nördlicheren Gebieten von der lokalen Bevölkerung beobachtete Verschwinden von Arten wird kategorisch verneint. Bei den genannten zurückgehenden Arten handelt es sich hauptsächlich um wichtige Nutzarten. Da hierzu historische Daten fehlen, kann es sich auch um selektive Wahrnehmung der Bauern handeln. Dennoch ist anzunehmen, dass sich in Zukunft die Degradationsphänomene verschlimmern werden. Da die Bargeldbedürfnisse der Bauern nicht mehr zurückzuschrauben sind und zudem die Experimentiefreudigkeit in der recht unsicheren Umweltsituation gering ist, muss auf bestehende Produkte zurückgegriffen werden, um sowohl diese Bargeldbedürfnisse zu befriedigen, als auch die Umwelt zu schonen. Eine Chance hierfür könnte eine Vermarktung von Fonio, wie bereits in Mali geschehen, darstellen. Dieses anspruchslose, noch auf sehr ausgelaugten Böden wachsende und zudem sehr nahrhafte und wohlschmeckende Getreide sollte wieder vermehrt angebaut werden und auf lange Sicht die anspruchsvolle und Boden auslaugende Baumwolle ersetzten. Dies ist jedoch nur möglich, wenn Fonio über internationale Strukturen auch in Europa und Amerika vermarktet wird. Eine weitere finanziell nicht ausgeschöpfte Ressource bieten die Mangobäume. In der Hochzeit der Mangoernte werden die Bäume vielfach nicht mehr abgeerntet, weil die Preise für die Früchte stark sinken. Die Früchte fallen dann meist Flughunden und Vögeln zum Opfer. Wie das Beispiel Burkina Faso zeigt, könnten diese Früchte getrocknet, zu Marmelade oder Saft verarbeitet werden und selbst in Europa in dieser haltbaren Form verkauft werden. Leider sind bislang die entsprechenden Initiativen und Strukturen dazu in Benin noch nicht geschaffen. Eine weitere, wenn auch langfristigere Möglichkeit wäre die Ersetzung der Baumwollfelder durch Cashjew-Pflanzungen. Diese werden von der Bevölkerung immer mehr angenommen. Dabei könnten neue Gehölzresourcen geschaffen und die Bodenfruchtbarkeit erhöht werden. Einige Initiativen von kleinen NGO's, die das Pflanzen von Bäumen befürworten, finden großen Anklang. Es muß nur eine Möglichkeit gefunden werden, solche Produkte auch international zu kommerzialisieren, um die Böden stark belastende und zudem arbeitsaufwendige Baumwolle zu ersetzten. Zudem sind Initiativen von einzelnen Dörfern in der Atakoraregion, Teile des Dorfgebietes unter Schutz zu stellen und damit Ressourcen und Wissen vor allem für die traditionelle Medizin zu sichern, ermutigend. Es zeigt, dass die lokale Bevölkerung Bedrohungen ihrer Umwelt ernst nimmt und versucht mit Hilfe von NGO's Gegenmaßnahmen zu schaffen. In diesem Hinblick wäre es wichtig, dass sich zukünftige Forschungen mehr den pharmazeutischen Inhaltsstoffen von Heilpflanzen widmen, so wie dies in Südamerika bereits geschieht. Dabei sollten jedoch die Rechte der autochtonen Bevölkerung gewahrt werden. Zudem wäre es wichtig, mehr über die Ökologie einzelner Gehölzpflanzen unter Berücksichtigung der jeweiligen Nutzungsverhältnisse zu kennen. Hierbei wäre es auch interessant über die Naturverjüngung ausgewählter Arten zu arbeiten. Zudem sollten Forscher, die über Degradationsprobleme arbeiten, vor allem in angewandten Bereichen, mehr auf die Erfahrungen der lokalen Bevölkerung hören und weniger scheinbar offensichtliche und populäre Theorien wie Überbevölkerung strapazieren. Dabei sollten auch vermehrt historische Quellen zu Rate gezogen werden, da es scheint, dass die westafrikanische Savanne nicht so degradiert ist, wie es oft behauptet wird und noch große Potentiale besitzt, wenn diese richtig genutzt werden. Abschließend sei bemerkt, dass, wenn man Berichte aus anderen afrikanischen Regionen hört und sieht, der Norden Benins als "Insel der Glückseeligen" betrachtet werden kann. Die politische Lage ist stabil, die Bevölkerung aufgeschlossen und freundlich, es gibt kaum Kriminalität, große Krankheitsepedemien sind in den letzten Jahren ausgeblieben, Hunger wird selten erlitten und auch die Umweltdegradation hält sich in Grenzen. Möge die hier vorliegende Arbeit dazu beitragen, diese Region und die Bétamaribè ein wenig mehr ins Bewußtsein der Öffentlichkeit bringen und ein wenig dazu beitragen, dass die Situation der Region und ihrer Bevölkerung sich nicht verschlechtert.
The substantia nigra is not the induction site in the brain of the neurodegenerative process that underlies Parkinson’s disease. Instead, the results of this semiquantitative study of 30 autopsy cases with incidental Lewy body pathology indicate that Parkinson’s disease in the brain commences with the formation of the very first immunoreactive Lewy neurites and Lewy bodies in noncatecholaminergic visceromotor neurons of the dorsal glossopharyngeusvagus complex, in projection neurons of the intermediate reticular zone, and in specific nerve cell types of the gain setting system (coeruleussubcoeruleus complex, caudal raphe nuclei, gigantocellular reticular nucleus), olfactory bulb, olfactory tract, and/or anterior olfactory nucleus in the absence of nigral involvement. The topographical parcellation of the nuclear grays described here is based upon known architectonic analyses of the human brain stem and takes into consideration the pigmentation properties of a few highly susceptible nerve cell types involved in Parkinson’s disease. In this sample and in all 58 ageand gendermatched controls, Lewy bodies and Lewy neurites do not occur in any of the known telencephalic Parkinson’s disease predilection sites (hippocampal formation, temporal mesocortex, proneocortical cingulate areas, amygdala, basal nucleus of Meynert, interstitial nucleus of the diagonal band of Broca, hypothalamic tuberomamillary nucleus).
ZIELSETZUNG: Die postoperative kardiale Ventrikelfunktion ist stark mit den Auswirkungen der kardialen Ischämie und den Auswirkungen der extrakorporalen Zirkulation (EKZ) assoziiert. Um die alleinigen Auswirkungen der EKZ auf die postoperative linksventrikuläre Herzfunktion zu untersuchen, wurde ein Leitfähigkeitskatheter verwendet mit dem die linksventrikuläre Funktion mit Hilfe der Druck-Volumen Beziehung vor und nach EKZ erfasst werden konnte. METHODEN: 22 drei Wochen alte Schweine wurden sternotomiert und einer normothermen EKZ von 1 h ausgesetzt. Der Leitfähigkeitskatheter wurde in den linken Ventrikel eingeführt. Die endsystolische Druck-Volumen-Beziehung (ESPVR), der linksventrikuläre enddiastolische Druck (LVEDP) und der systemische Gefässwiderstand (SVR) wurden in Ruhephasen vor und 15 Min nach EKZ in Gruppe A (n=11) gemessen. Gruppe B (n=11) diente als Kontrollgruppe ohne EKZ. ERGEBNISSE: Vor der Implementierung der EKZ wurden in beiden Gruppen keine signifikanten Unterschiede efunden. Als Mass für eine eingeschränkte LV Funktion wurde eine signifikant niedrigere Steigung der ESPVR (mmHg/ml) in der EKZ-Gruppe nach Abgang von der HLM im Vergleich zur Kontrollgruppe festgestellt (1,69 ± 0,51 vs. 1,86 ± 0,55; p<0.0081). In der EKZ-Gruppe war der maximale Druckanstiegsgeschwindigkeits- Index dP/dtmax index (mmHg/sec/kg) signifikant erniedrigt (1596,10 ± 339,51 vs. 2045,0 ± 205,57; p<0.03). In Gruppe A war die Steigung der EDPVR (mmHg/ml) signifikant erniedrigt (7,21 ± 2,20 vs. 5,43 ± 1,36; p = 0,0293), während der LVEDP (mmHg) signifikant erhöht war (11,67 ± 2,59 vs. 5,39 ± 0,92; p<0.001). Zudem konnte ein signifikant niedrigerer systemischer Gefässwiderstand- Index(SVR)(dyn.sec.cm-5/kg) in der Kontrollgruppe gemessen werden (1407,30 ± 176,44 vs. 1676,94 ± 312,96; p<0.0001). SCHLUSSFOLGERUNG: Auch ohne ischämischen Arrest führt der Einsatz der EKZ zu einer signifikanten Einschränkung der LV Funktion in der frühen post EKZ Phase. Dies sollte bei der Entscheidungsfindung für die Wahl der Operationsstrategie bedacht werden.
Ziel der Arbeit war es, neue Techniken zur Erschließung und Selektion von Web- basierten Suchservern zu entwickeln und zu evaluieren, um hieraus eine integrierte Architektur für nicht-kooperative Suchserver im WWW abzuleiten. Dabei konnte gezeigt werden, daß die im Sichtbaren Web vorhandene Informationsmenge dazu geeignet ist, um eine effektive Erschließung des Unsichtbaren Webs zu unterstützen. Existierende Strategien für verteiltes Information Retrieval setzen eine explizite Kooperation von Seiten der Suchserver voraus. Insbesondere Verfahren zur Selektion von Suchservern basieren auf der Auswertung von umfangreichen Termlisten bzw. Termhäufigkeiten, um eine Auswahl der potentiell relevantesten Suchserver zu einer gegebenen Suchanfrage vornehmen zu können (z. B. CORI [26] und GlOSS [54]). Allerdings werden derartige Informationen von realen Suchservern des WWW in der Regel nicht zu Verfügung gestellt. Die meisten Web-basierten Suchserver verhalten sich nicht kooperativ gegenüber hierauf aufsetzenden Metasuchsystemen, was die Übertragbarkeit der Selektionsverfahren auf das WWW erheblich erschwert. Außerdem erfolgt die Evaluierung der Selektionsstrategien in der Regel in Experimentumgebungen, die sich aus mehr oder weniger homogenen, künstlich partitionierten Dokumentkollektionen zusammensetzen und somit das Unsichtbare Web und dessen inhärente Heterogenität nur unzureichend simulieren. Dabei bleiben Daten unberücksichtigt, die sich aus der Einbettung von Suchservern in die Hyperlinkstruktur des WWW ergeben. So bietet z. B. die systematische Auswertung von Backlink-Seiten also jener Seiten die einen Hyperlink auf die Start- oder Suchseite eines Suchservers enthalten die Möglichkeit, die im WWW kollektiv geleistete Indexierungsarbeit zu nutzen, um die Erschließung von Suchservern effektiv zu unterstützen. Eine einheitliche Systematik zur Beschreibung von Suchservern Zunächst ist es notwendig alle Informationen, die über einen Suchserver erreichbar sind, in ein allgemeingültiges Beschreibungsmodell zu integrieren. Dies stellt eine Grundvorraussetzung dar, um die einheitliche Intepretierbarkeit der Daten zu gewährleisten, und somit die Vergleichbarkeit von heterogenen Suchservern und den Aufbau komplexer Metasuchsysteme zu erlauben. Ein solche Beschreibung soll auch qualitative Merkmale enthalten, aus denen sich Aussagen über die Reputation einer Ressource ableiten lassen. Existierende Beschreibungen von Suchservern bzw. Dokumentkollektionen wie STARTS-CS [53] oder RSLP-CD [93] realisieren wenn überhaupt nur Teilaspekte hiervon. Ein wichtiger Beitrag dieser Arbeit besteht somit in der Identifizierung und Klassifizierung von suchserverbeschreibenden Metadaten und hierauf aufbauend der Spezifikation eines als Frankfurt Core bezeichneten Metadatensatzes für web-basierte Suchserver, der die genannten Forderungen erfüllt. Der Frankfurt Core berücksichtigt Metadaten, deren Erzeugung eine explizite Kooperation von Seiten der Suchserver voraussetzt, als auch Metadaten, die sich automatisiert z. B. durch linkbasierte Analyseverfahren aus dem sichtbaren Teil des WWW generieren lassen. Integration von Wissensdarstellungen in Suchserver-Beschreibungen Ein wichtige Forderung an Suchserver-Beschreibungen besteht in der zusätzlichen Integration von wissens- bzw. ontologiebasierten Darstellungen. Anhand einer in Description Logic spezifizierten Taxonomie von Suchkonzepten wurde in der Arbeit exemplarisch eine Vorgehensweise aufgezeigt, wie die Integration von Wissensdarstellungen in eine Frankfurt Core Beschreibung praktisch umgesetzt werden kann. Dabei wurde eine Methode entwickelt, um unter Auswertung einer Suchkonzept-Taxonomie Anfragen an heterogene Suchschnittstellen verschiedener Suchserver zu generieren, ohne die Aussagekraft von kollektionsspezifischen Suchfeldern einzuschränken. Durch die Taxonomie wird die einheitliche Verwendung von syntaktisch und semantisch divergierenden Suchfeldern verschiedener Suchserver sowie deren einheitliche Verwendung auf der integrierten Suchschnittstelle eines Metasuchsystems sichergestellt. Damit kann diese Arbeit auch in Zusammenhang mit den Aktivitäten des Semantischen Webs betrachtet werden. Die Abstützung auf Description Logic zur Wissensrepräsentation sowie die Verwendung von RDF zur Spezifikation des Frankfurt Core verhält sich konform zu aktuellen Aktivitäten im Bereich Semantisches Web, wie beispielsweise der Ontology Inference Layer (OIL) [24]. Darüber hinaus konnte durch die Integration der Suchkonzept-Taxonomie in den Arbeitsablauf einer Metasuchmaschine, bereits eine konkrete Anwendung demonstriert werden. Entwicklung neuartiger Verfahren zur Erschließung von Suchservern Für einzelne Felder des Frankfurt Core wurden im Rahmen dieser Arbeit Strategien entwickelt, die aufzeigen, wie sich durch die systematische Auswertung von Backlink- Seiten Suchserver-beschreibende Metadaten automatisiert generieren lassen. Dabei konnte gezeigt werden, daß der Prozeß der automatisierten Erschließung von Suchservern durch die strukturelle und inhaltliche Analyse von Hyperlinks sinnvoll unterstützt werden kann. Zwar hat sich ein HITS-basiertes Clustering-Verfahren als wenig praktikabel erwiesen, um eine effiziente Erschließung von Suchservern zu unterstützen, dafür aber ein hyperlinkbasiertes Kategorisierungsverfahren. Das Verfahren erlaubt eine Zuordnung von Kategorien zu Suchservern und kommt ohne zusätzliche Volltextinformationen aus. Dabei wird das WWW als globale Wissenbasis verwendet: die Zuordnung von Kategorienbezeichnern zu Web-Ressourcen basiert ausschließlich auf der Auswertung von globalen Term- und Linkhäufigkeiten wie sie unter Verwendung einer generellen Suchmaschine ermittelt werden können. Der Grad der Ähnlichkeit zwischen einer Kategorie und einer Ressource wird durch die Häufigkeit bestimmt, mit der ein Kategoriebezeichner und ein Backlink auf die Ressource im WWW kozitiert werden. Durch eine Reihe von Experimenten konnte gezeigt werden, daß der Anteil korrekt kategorisierter Dokumente an Verfahren heranreicht, die auf Lerntechniken basieren. Das dargestellte Verfahren läßt sich leicht implementieren und ist nicht auf eine aufwendige Lernphase angewiesen, da die zu kategorisierenden Ressourcen nur durch ihren URL repräsentiert werden. Somit erscheint das Verfahren geeignet, um existierende Kategorisierungsverfahren für Web-Ressourcen zu ergänzen. Ein Verfahren zur Selektion von Suchservern Ein gewichtiges Problem, durch welches sich die Selektion von Suchservern im WWW erheblich erschwert, besteht in der Diskrepanz zwischen der freien Anfrageformulierung auf Benutzerseite und nur spärlich ausgezeichneten Suchserver-Beschreibungen auf Seiten des Metasuchsystems. Da auf der Basis der geringen Datenmenge eine Zuordnung der potentiell relevantesten Suchserver zu einer Suchanfrage kaum vorgenommen werden kann, wird oft auf zusätzliches Kontextwissen zurückgegriffen, um z. B. ein Anfragerweiterung durch verwandte Begriffe vornehmen zu können (siehe z. B. QPilot [110]). Eine solche Vorgehensweise erhöht allerdings nur die Wahrscheinlichkeit für Treffer von Anfragetermen in den Suchserver-Beschreibungen und liefert noch keine ausreichende Sicherheit. Deshalb wurde in der Arbeit ein Selektionsverfahren entwickelt, das sich auf die Auswertung von Ko-Zitierungs- und Dokumenthäufigkeiten von Termen in großen Dokumentsammlungen abstützt. Das Verfahren berechnet ein Gewicht zwischen einem Anfrageterm und einem Suchserver auf der Basis von einigen wenigen Deskriptortermen, wie sie z. B. aus der FC-Beschreibung eines Suchservers extrahiert werden können. Dies hat den Vorteil, daß die Suchbegriffe nicht explizit in den einzelnen Suchserver-Beschreibungen vorkommen müssen, um eine geeignete Selektion vornehmen zu können. Um die Anwendbarkeit des Verfahrens in einer realistischen Web-Umgebung zu demonstrieren, wurde eine geeignete Experimentumgebung von spezialisierten Suchservern aus dem WWW zusammengestellt. Durch anschließende Experimente konnte die Tauglichkeit des entwickelten Verfahrens aufgezeigt werden, indem es mit einem Verfahren verglichen wurde, das auf Probe-Anfragen basiert. Das heißt, daß eine erfolgreiche Selektion durchgeführt werden kann, ohne daß man explizit auf das Vorhandensein von lokalen Informationen angewiesen ist, die erst aufwendig durch das Versenden von Probe-Anfragen ¨uber die Web-Schnittstelle des Suchservers extrahiert werden müssten. Herleitung einer integrierten Architektur Um das Zusammenspiel der erarbeiteten Strategien und Techniken zur Erschließung, Beschreibung und Selektion in einer integrierten Architektur umzusetzen, wurde die Metasuchmaschine QUEST entwickelt und prototypisch implementiert. QUEST erweitert die Architektur einer traditionellen Metasuchmaschinenarchitektur, um Komponenten, die eine praktische Umsetzung der Konzepte und Techniken darstellen, die im Rahmen dieser Arbeit entwickelt wurden. QUEST bildet einen tragfähigen Ansatz zur Kombination von wissensbasierten Darstellungen auf der einen und eher heuristisch orientierten Methoden zur automatischen Metadatengenerierung auf der anderen Seite. Dabei stellt der Frankfurt Core das zentrale Bindeglied dar, um die einheitliche Behandlung der verfügbaren Daten zu gewährleisten.