Doctoral Thesis
Refine
Year of publication
- 2004 (281) (remove)
Document Type
- Doctoral Thesis (281) (remove)
Has Fulltext
- yes (281)
Is part of the Bibliography
- no (281)
Keywords
- Arbeitsplatz (2)
- Biomarker (2)
- Deutschland (2)
- Enzymaktivität (2)
- Hämodynamik (2)
- Mobbing (2)
- NMDA-Rezeptor (2)
- Sozialer Konflikt (2)
- Tagebuch (2)
- Tandem-Massenspektrometrie (2)
Institute
- Medizin (99)
- Biochemie und Chemie (52)
- Biowissenschaften (27)
- Physik (22)
- Pharmazie (19)
- Kulturwissenschaften (8)
- Neuere Philologien (7)
- Biochemie, Chemie und Pharmazie (6)
- Geowissenschaften (6)
- Psychologie (5)
Eine Lavage mit exogenem Surfactant, Perfluorcarbonen alleine oder in Kombination mit der partiellen Flüssigkeitsbeatmung, jeweils mit HFOV, verbessert den pulmonalen Gasaustausch im Modell des MAS bei Ferkeln. In unserem Betrachtungszeitraum von vier Stunden erwies sich die Surfactant Lavage bezüglich des Gasaustausches als die beste Therapie. Eine Perfluorcarbonlavage alleine oder in Kombination mit der PLV erreicht nicht die PaO2-Werte einer Surfactantlavage. Der negative Einfluss einer Mekoniumaspiration auf die Hämodynamik der Versuchstiere der Kontrollgruppe konnte klar dargestellt werden. Innerhalb der Therapiegruppen gibt es während einer Betrachtung von vier Stunden keine wesentlichen Unterschiede in der hämodynamischen Entwicklung der Tiere. Arbeiten, die sich mit den Langzeitveränderungen der systemischen Hämodynamik bei der Therapie des MAS mit Surfactant, PFC, und PLV beschäftigen, müssen folgen. Es konnte in allen Therapiegruppen eine über den Betrachtungsverlauf stabile Hämodynamik (z.B. MABP, Puls, Cardiac Index) und ein stetiger Anstieg des PaO2 ermittelt werden. Zudem war das HZVi zum Zeitpunkt t=240 in allen Therapiegruppen signifikant höher als in der Kontrollgruppe. Die PFC-Lavage Gruppe zeigte nach vier Stunden das signifikant größte ITBVi und schützt vermutlich in Form einer Pufferfunktion in den Alveolen vor „air-trapping“, Pneumothorax und weiteren Lungenschäden beim MAS. Vor allem in Kenntnis der Pathophysiologie des MAS ist dies ein nicht zu unterschätzender Faktor. Wirkliche Langzeiterfahrungen am menschlichen Neonaten stehen leider noch nicht zur Verfügung. Es zeigten sich bei den untersuchten Therapiestrategien keine negativen Auswirkungen auf die protokollierten hämodynamischen Parameter. Früher publizierte Arbeiten, welche den Indikator GEDVi als Vorlastparameter zur Volumensteuerung empfehlen, konnten wir nicht bestätigen. Der positive Einfluss der untersuchten Therapieformen auf das pulmonale Gefäßbett konnte durch den Verlauf des PBV/EVLW Verhältnisses, welches ein Maß für die pulmonalvaskuläre Permeabilität darstellt, nachgewiesen werden.
Ultrarelativistische Schwerionenstöße werden seit etwa 15 Jahren untersucht, um Kernmaterie unter extremen Bedingungen zu erforschen; in Kollisionen schwerer Atomkerne kann bei hohen Einschußenergien Kernmaterie stark komprimiert und aufgeheizt werden. Die Bedeutung dieser Experimente wird durch Berechnungen der Quanten-Chromo-Dynamik auf raumzeitlichen Gittern hervorgehoben, die bei ausreichend hoher Energiedichte eine Phase voraussagen, in der die Quarks nicht mehr in Hadronen gebunden sind, sondern zusammen mit den Gluonen ein partonisches System ausbilden. Ist das System hinreichend groß und equilibriert, wird es als Quark-Gluon-Plasma bezeichnet. Die als Signatur für das Überschreiten der Phasengrenze vorgeschlagene erhöhte Produktion Seltsamkeit tragender Teilchen wurde in der Gegenüberstellung von elementaren Proton+Proton-Interaktionen und Kern+Kern-Stößen experimentell über einen weiten Energiebereich bestätigt. Eine solche Überhöhung kann aber auch durch rein hadronische Phänomene hervorgerufen werden. So tritt beispielsweise in statistischen Modellen bereits in einem Hadrongas eine Seltsamkeitserhöhung aufgrund des Übergangs von einem kanonischen zu einem großkanonischen Ensemble mit steigender Systemgröße in Kern+Kern-Stößen auf. Das motivierte die Messung der Systemgrößenabhängigkeit der Seltsamkeitsproduktion bei einer Einschußenergie, bei der in den Stößen der größten Kerne die partonische Phase erreicht werden sollte, während Proton-Proton-Interaktionen überlicherweise als hadronische Systeme betrachtet werden. In Kollisionen von Kohlenstoff- und Siliziumkernen bei 158 GeV pro Nukleon, deren Untersuchung Gegenstand dieser Arbeit ist, kann möglicherweise die Umgebung der Phasengrenze abgetastet werden. Besondere Aufmerksamkeit gilt der Frage nach dem Mechanismus der Seltsamkeitsproduktion in diesen Reaktionen. Das Experiment wurde am SPS-Beschleuniger am CERN in Genf durchgeführt, erstmals wurden dort leichte Projektilkerne durch den Aufbruch des primären Bleistrahls an einem Produktionstarget erzeugt. Das Herzstück des NA49-Spektrometers, mit dem die Daten aufgezeichnet wurden, sind die vier großvolumigen Spurendriftkammern, die die große Akzeptanz ermöglichen. Die Lambda- und Antilambda-Hyperonen aus C+C und Si+Si Kollisionen werden anhand ihrer Zerfallstopologie rekonstruiert und ihre Impulsverteilungen über einen weiten Bereich gemessen; mit zusätzlichen Annahmen werden schließlich die totalen Multiplizitäten extrapoliert. Die Produktion der Hyperonen pro Pion ist im Vergleich zu p+p-Daten bereits in C+C-Reaktionen deutlich erhöht, in Si+Si--Kollisionen ist annähernd der Wert aus Pb+Pb-Stößen erreicht. Mehrere Ursachen für diese Beobachtung werden diskutiert und mögliche Interpretationen vorgeschlagen. Der Grad an chemischer Equilibration und die Lage des Ausfrierpunktes im Phasendiagramm und im Vergleich zu anderen Stoßsystemen wird besprochen. Die Rapiditätsspektren der Lambda-Hyperonen entsprechen zunehmendem Stopping mit steigender Anzahl von Stößen pro Nukleon. Dadurch wird die Energie pro Nukleon im Feuerball erhöht, was zunehmende kinetische Energie der Teilchen und eine ansteigende Teilchenproduktion erzeugt. Die Verbreiterung der Transversalimpulsspektren mit der Systemgröße fügt sich in der Tat in das Bild anwachsenden radialen Flußes ein.
Ziel der vorliegenden Arbeit war, Arzneistoffformulierungen, wie kationische Nanopartikel, Liposomen und virale Hüllkapside, für den Transport von Antisense-Oligonukleotiden in Zellen zu untersuchen. Der Schwerpunkt lag hierbei auf der in vitro Testung in der Zellkultur. Als Zielstruktur wurde der NMDA-Rezeptor gewählt, dessen Expression durch die Gabe von Antisense-Oligonukleotiden gehemmt wurde. Testobjekt waren murine Fibroblasten, die in einer Vorgängerarbeit von Ralf Steinmetz mit der cDNA für die entsprechenden NMDA-Rezeptorsubtypen transfiziert worden sind und deren Eignung für die Testung von Rezeptorantagonisten schon gezeigt worden ist. Beim NMDA-Rezeptor handelt es sich um einen ligandgesteuerten Ionenkanal, der normalerweise nur in neuronalem Gewebe zu finden ist. Eine Überexpression und anschließende Stimulation des Rezeptors führt über einen massiven Ca2+-Einstrom zum Absterben der Zellen. Dieses Modell erlaubte die Auswertung der Antisense-Wirkung in einem funktionellen Assay über ein reduziertes Absterbeverhalten der Zellen. Die spezifischen Reduktion des Zielproteins wurde mittels Western-Blot-Technik gezeigt. Alle eingesetzten Trägersysteme wurden hinsichtilich ihrer physiko-chemischen Eigenschaften untersucht. Im Mittelpunkt standen dabei die Bestimmung von Größe und Oberflächenladung (Zetapotential), die mit Hilfe der dynamischen Lichtstreuung (DLS) bestimmt wurden. Der Schwerpunkt bei der Untersuchung der Drug-Delivery-Systeme lag auf den biodegradierbaren Nanopartikeln auf Basis von Protamin. Im Anschluß an diese physikochemische Charakterisierung wurden diese Partikel in der Zellkultur im Vergleich zu freien, d.h. nicht an ein Trägersystem gebundenen, und zu liposomal (DOTAP) verpackten Oligonukleotiden getestet. Es zeigt sich, dass die Albumin-Protamin-Oligokukleotid-Formulierung gegenüber den freien Oligonukleotiden eine um den Faktor 12 verbesserte zelluläre Aufnahme aufweisen, was mit der liposomen Formulierung vergleichbar ist. Mit Hilfe der konfokalen Laser-Scan-Mikroskopie konnte gezeigt werden, dass 100 % der Zellen transfiziert worden sind. Es wurde sowohl im funktionellen Modell über Zelltod, als auch auf Proteinebene (Western-Blot) eine Reduktion des NMDA-Rezeptors von etwa 35 % 24 Stunden nach der Gabe des Oligonukleotide gefunden. Dieses Ergebnis spricht für eine intrazelluläre Freigabe der Oligonukleotide aus den Partikeln. Im Gegensatz zur liposomalen Zubereitung wurden keine zytotoxischen Nebenwirkungen der Nanopartikel gefunden. In einem abschließenden Vergleich wurden rekombinant hergestellte virale Hüllkapside (VP1 Kapside), zwei kationische liposomale Zubereitungen (DOTAP/Lipofectin), zwei kationische Alkylcyanoacrylat Nanopartikelpräparationen (PBCA/PHCA) und zwei auf Protamin basierende Nanopartikelsystme (mit/ohne Albumin-Zusatz) in der Zellkultur getestet. Untersucht wurde die Transfereffizienz für Oligonukleotide mittels einer Fluoreszenzmethode, die intrazelluäre Verteilung wurde im konfokalen Laser-Scan-Mikroskop dargestellt, es wurde eine Antisense-Wirkung im Vergleich zu einer Kontrollsequenz bestimmt (sowohl im funktionellen System, als auch im Western-Blot) und es wurden die zytotoxischen Nebenwirkungen betrachtet. Zusammenfassend ergaben diese Ergebnisse eine um das 2- bis 18-fache Erhöhung der Zellaufnahme im Vergleich zu freien Oligonukleotiden. Die protamin-basierten Nanopartikel zeigten keine nennenswerten zytotoxischen Nebenwirkungen.
Für eine möglichst vollständige analytische Beschreibung werden in der statistischen Klimatologie beobachtete Klimazeitreihen als Realisation eines stochastischen Prozesses, das heißt als eine Folge von Zufallsvariablen verstanden. Die Zeitreihe soll im wesentlichen durch eine analytische Funktion der Zeit beschrieben werden können und die Beobachtung nur durch Zufallseinflüsse von dieser Funktion abweichen. Diese analytische Funktion setzt sich aus der Summe zeitlich strukturierter Komponenten zusammen, welche aus klimatologischem Blickwinkel interpretierbar erscheinen. Es werden Funktionen zugelassen, die den Jahresgang, Trends, episodische Komponenten und deren Änderung beschreiben. Die Extremereignisse sind als eine besondere weitere Komponente in die Zeitreihenanalyse aufgenommen und als von Änderungen in den Parametern der Verteilung unabhängige, extreme Werte definiert. Die Zufallseinflüsse sollen zunächst als Realisierungen unabhängiger normalverteilter Zufallsvariablen mit dem Erwartungswert Null und im Zeitablauf konstanter Varianz interpretiert werden können. In diesem Fall beschreibt die analytische Funktion der Zeit, die Summe detektierter strukturierter Komponenten, den zeitlichen Verlauf des Mittels. Ein zu einem bestimmten Zeitpunkt tatsächlich beobachteter Wert kann dann als eine mögliche Realisation einer Zufallsvariablen interpretiert werden, die der Gaußverteilung mit dem Mittelwert µ(t) zur Zeit t und konstanter Varianz genügt. Da die zugrundeliegenden Annahmen, unter Verwendung klimatologisch interpretierbarer Basisfunktionen, in der Analyse von Klimazeitreihen, die nicht die Temperatur betreffen, zumeist nicht erfüllt sind, wird in eine Verallgemeinerung des Konzepts der Zeitreihenzerlegung in einen deterministischen und einen statistischen Anteil eingeführt. Zeitlich strukturierte Änderungen werden nun in verschiedenen Verteilungsparametern frei wählbarer Wahrscheinlichkeitsdichtefunktionen gesucht. Die gängige Beschränkung auf die Schätzung einer zeitlich veränderlichen Lokation wird aufgehoben. Skalenschätzer sowie Schätzer fär den Formparameter spielen ebenso relevante Rollen fär die Beschreibung beobachteter Klimavariabilität. Die Klimazeitreihen werden wieder als Realisation eines Zufallprozesses verstanden, jedoch genügen die Zufallsvariablen nun einer frei wählbaren Wahrscheinlichkeitsdichtefunktion. Die zeitlich strukturierten Änderungen in den Verteilungsparametern werden auf Basis der gesamten Zeitreihe für jeden Zeitpunkt geschätzt. Die aus der Analyse resultierende analytische Beschreibung in Form einer zeitabhängigen Wahrscheinlichkeitsdichtefunktion ermöglicht weiterhin die Schätzung von Über- und Unterschreitungswahrscheinlichkeiten beliebig wählbarer Schwellenwerte für jeden Zeitpunkt des Beobachtungszeitraums. Diese Methode erlaubt insbesondere eine statistische Modellierung monatlicher Niederschlagsreihen durch die Zerlegung in einen deterministischen und einen statistischen Anteil. In dem speziellen Fall von 132 Reihen monatlicher Niederschlagssummen deutscher Stationen 1901-2000 gelingt eine vollständige analytische Beschreibung der Reihen durch ihre Interpretation als Realisation einer Gumbel-verteilten Zufallsvariablen mit variablem Lage- und Streuparameter. Auf Basis der gewonnenen analytischen Beschreibung der Reihen kann beispielsweise im Westen Deutschlands auf Verschiebungen der jährlichen Überschreitungsmaxima des 95%-Perzentils von den Sommer- in die Wintermonate geschlossen werden. Sie werden durch relativ starke Anstiege in der Überschreitungswahrscheinlichkeit (bis 10%) in den Wintermonaten und nur geringe Zunahmen oder aber Abnahmen in den Sommermonaten hervorgerufen. Dies geht mit einer Zunahme der Unterschreitungswahrscheinlichkeit in den Winter- und einer Abnahme in den Sommermonaten einher. Monte-Carlo-Simulationen zeigen, daß jahreszeitlich differenzierte Schätzungen von Änderungen im Erwartungswert, also gebräuchliche Trends, auf Basis der Kleinst-Quadrate-Methode systematischen Bias und hohe Varianz aufweisen. Eine Schätzung der Trends im Mittel auf Basis der statistischen Modellierung ist somit ebenso den Kleinst-Quadrate-Schätzern vorzuziehen. Hinsichtlich der Niederschlagsanalysen stellen jedoch aride Gebiete, mit sehr seltenen Niederschlägen zu bestimmten Jahreszeiten, die Grenze der Methode dar, denn zu diesen Zeitpunkten ist eine vertrauenswürdige Schätzung einer Wahrscheinlichkeitsdichtefunktion nicht möglich. In solchen Fällen ist eine grundsätzlich andere Herangehensweise zur Modellierung der Reihen erforderlich.
Die in der Zwischenzeit erreichten guten Erfolge bei der Herztransplantation in Bezug auf die operative und früh postoperative Letalität werden durch die nach wie vor recht ungünstige Langzeitüberlebensrate relativiert. Als Ursache für das „chronische Transplantatversagen“ konnte die Transplantatvaskulopathie ausgemacht werden. Ihr morphologisches Korrelat ist eine konzentrische Intimaproliferation, die im Gegensatz zur Arteriosklerose häufig diffus auftritt und auch distal die kleinsten Koronararterien betrifft. Die Ursache dieser häufig zum Organverlust führenden, Veränderung der Koronargefäße ist nach wie vor nicht vollständig geklärt. Eine Theorie geht von einer chronischen, von zytotoxischen T-Zellen vermittelten Endothelialitis aus. In unserer Untersuchung, die ein Tiermodell verwendet, in dem es nicht zu einer akuten sondern nur zu einer chronischen Organabstoßung kommt, konnten verschiedene T-Lymphozyten assoziierte Rezeptoren in ihrem zeitlichen Verlauf nachgewiesen werden. LFA-2, CD 4, CD8 und CD 49d fallen durch einen Anstieg in der frühen Phase post transplantationem besonders auf. Durch eine Immunsuppression mit Cyclosporin A wird dieser initiale Anstieg deutlich gemindert. VLA-4 ( CD 49d ) wird ebenfalls in den ersten 20 Tagen unter Immunsuppression signifikant weniger exprimiert; Dann allerdings kommt es zu einem Anstieg auf das Niveau der unbehandelten Gruppe. Eine durch VLA-4 vermittelte Immunreaktion könnte als Kofaktor einer die konzentrische Intimaproliferation unterhaltende Endothelialitis angesehen werden. Hier sehen wir einen Ansatz für weitere Studien.
Pflanzenfunde aus archäologischen Ausgrabungen im Norden Burkina Fasos dokumentieren die regionale Geschichte der Pflanzennutzung und damit zusammenhängende Wechselwirkungen zwischen Mensch und Umwelt. Das untersuchte Material besteht überwiegend aus verkohlten Früchten und Samen, die durch das Schlämmen von Kultursedimenten aus mehr als 20 Fundplätzen gewonnen wurden. Sie decken einen Zeitraum von etwa 4000 Jahren ab, der von der Endsteinzeit bis in die jüngste Neuzeit reicht. Die Analysen der archäobotanischen Inventare ermöglichen es, mehrere Phasen der Pflanzennutzung auszuweisen, die mit spezifischen Lebens- und Siedlungsweisen der Bevölkerung assoziiert sind. Eine ausschließlich wildbeuterische Wirtschaftsform wird für die älteste der untersuchten Fundstellen, den Lagerplatz Corcoba, angenommen. Dort nutzten mobile Gesellschaften um 2000 BC reiche Fischressourcen und sammelten systematisch die Früchte von Gehölzen. Im Inventar des Fundplatzes Tin Akof ist um 1800 BC erstmals eine Kulturpflanze, die Perlhirse (Pennisetum glaucum) nachweisbar. Sie markiert den Beginn der produzierenden Wirtschaftsweise. Es wird ein Anbau in kleinem Maßstab rekonstruiert, wobei Feldbau nur eine von mehreren praktizierten Subsistenzstrategien war. Vermutlich handelte es sich bei den Bewohnern von Tin Akof um seminomadische Viehhalter, die aus dem Sahararaum einwanderten und das bereits domestizierte Getreide einführten. Ab der Zeitenwende tritt in der Eisenzeit eine neue, sesshafte Kultur in Erscheinung. Ihre Siedlungen befanden sich vorzugsweise auf sandigen, leicht kultivierbaren Böden in der Nähe permanenter Gewässer. Die Nahrungsproduktion basierte auf der Kultivierung von Perlhirse, daneben wurden Hibiscus cf. sabdariffa und die Hülsenfrüchte Vigna subterranea und V. unguiculata angebaut. Als Anbausysteme lassen sich Mischkulturen mit Perlhirse als Hauptfrucht und Kulturbaumparks, die vom Menschen geschätzte Gehölze (u.a. Vitellaria paradoxa) aus der ursprünglichen Savannenvegetation einbeziehen, rekonstruieren. Die gemischte Wirtschaftsweise umfasste Viehhaltung, aber auch wildbeuterische Praktiken wie das Sammeln von Wildpflanzen, insbesondere von Baumfrüchten. Hinweise auf Handelskontakte liegen aus der zweiten Hälfte des ersten Jahrtausends AD vor. Sie lassen sich zum Teil mit dem Ausbau transsaharischer Handelsnetze im Verlauf der Islamisierung Westafrikas verknüpfen. Sorghum bicolor und die Wassermelone (Citrullus lanatus) wurden möglicherweise auf diese Weise eingeführt. Die Eisenzeit erweist sich insgesamt als stabile Epoche mit langer Siedlungskontinuität. Gleichwohl zeigen die detailliert untersuchten Fundsequenzen sich wandelnde Nutzungsmuster und eine Intensivierung der Landwirtschaft. Im 14. Jahrhundert werden die für die Epoche typischen Siedlungshügel im gesamten Gebiet verlassen. Mögliche Ursachen sind politische Veränderungen in benachbarten Regionen. Erst aus der jüngsten Neuzeit liegen wieder archäobotanische Belege vor. Die Ergebnisse aus Burkina Faso bestätigen die archäobotanischen Forschungen in anderen Gebieten Westafrikas, nach denen Feldbau relativ spät um 2000 BC begann und Perlhirse die erste domestizierte Kulturpflanze darstellt. Die stabile Bedingungen in der Eisenzeit führten vielerorts zur Entstehung von Städten und Handelszentren. Diese Entwicklung ist im ländlichen Raum, zu der auch die Arbeitsregion zählt, weniger deutlich ausgeprägt, aber dennoch fassbar. Die archäobotanischen Inventare der Endsteinzeit und Eisenzeit dokumentieren ein, im Vergleich zu heute, niederschlagsreicheres Klima und einen geringeren anthropozoogenen Einfluss auf die natürliche Vegetation.
Wand- und Gratentwicklung seit dem Spätglazial : ein Beitrag zur Landschaftgeschichte in Graubünden
(2004)
Das Hochgebirge als erdgeschichtlich junge Reliefform ist eine Zone geomorphologisch höchster Aktivität, deren Landschaftshaushalt vom Umsatz großer Materialmengen gekennzeichnet ist. Der überaus vielschichtige Bau der Alpen und ihre quartäre Formgebung durch ausgedehnte Vergletscherung hinterließen nach dem Weichen des Eises ein vielfach übersteiltes und zergliedertes Relief. Bergstürze, Sackungen, Rutschungen, Schlipfe und Murgänge haben das Landschaftsbild weitergeprägt, seitdem das stabilisierende Widerlager der Eisströme fehlt. Je nach geologischer Situation wohnt dem Prozeß eine mehr oder minder große zeitliche Verzögerung zwischen der Disposition der Bewegungsmasse und dem tatsächlichen Ereignis inne. Diese Erkenntnis gelangte in jüngerer Zeit zu mehr Aufmerksamkeit, als neue Untersuchungen die generell spätglazial angenommene Initiation vieler großer Massenbewegungen in Frage stellten und bekannte Bergstürze wie z. B. Köfels, Tschirgant oder Flims mit großer Sicherheit ins Holozän rückten (HAAS & POSCHINGER 1997: 1 sowie HAAS 2000: frdl. mdl. Mitt.). Viele bisher gängige Gedanken zur Vorbereitung, Auslösung und zum Bewegungsverhalten großer Massenbewegungen im Hochgebirge müssen vor diesem Hintergund überdacht werden. Alpine Wand- und Gratentwicklung seit dem Spätglazial hängt damit eng zusammen. Um die heutigen Formen und ihre Entstehung zu erklären, müssen die beteiligten Prozesse und Agentien mit einem breitgefächerten und dem Forschungsgegenstand angepaßten methodischen Instrumentarium synoptisch untersucht werden. Um die Entwicklung einer freien Felswand zu rekonstruieren, muß ihre Gliederung in Flächen, Vorsprünge, Simse, Steinschlagrinnen, Zähne und Pfeiler untersucht werden, weiterhin die korrelaten Schuttkörper an ihrem Wandfuß und deren eventuelle spätglaziale Überformung. Wandfußnahe Schuttkörper sind Zeugen der Formung freier Felswände und Spiegelbilder ihrer Struktur und Entwicklung. Daher kann man sie in Typen unterschiedlicher Genese einteilen, die charakteristische Eigenschaften besitzen und deren Bildung an bestimmte Verhältnisse in den sie nährenden Wand- oder Gratabschnitten gebunden ist. Dies ermöglicht eine sehr präzise Einschätzung von Materialbewegungen in den oberen Schichten und Aussagen über Verlauf und besondere Aktivitätsphasen der Verwitterungsleistung im Nährgebiet. Die bisher unterschiedenen Genotypen sind in Tab. 3 zusammengestellt. Ein Zusammenhang zwischen Exposition und Ausbildung bestimmter Genotypen konnte nicht festgestellt werden. Die tektonische und petrographische Gliederung der Wand bestimmt die Einzugsbereiche der Schuttkörper. Entlang der Klüfte bilden sich Steinschlagrinnen aus, deren Einzugsgebiete durch Grate getrennt sind. Stellenweise kommt es durch ebene Flächen zur Überschneidung von Einzugsbereichen oder zu Materialabgängen direkt wandabwärts, ohne bestimmte Kanalisierung. Wandfußnahe Schuttkörper altern durch Setzungsbewegungen, Frostsprengung in situ und Feinmaterialverspülung. Hohlräume zwischen Schuttstücken werden verfüllt, und der Anteil an Porenraum sinkt. Dadurch werden Schuttkörper weniger gut drainiert und sind anfälliger für Erosion durch abfließendes Niederschlags- oder Schmelzwasser. Typische Reifeerscheinungen sind Runsen, die am Wandfuß tief eingeschnitten beginnen und hangabwärts in eine Schuttlobe umschlagen. Sie entstehen unter den Traufpunkten ausgeprägter Steinschlagrinnen. Mit einem gewissen Abstand vom Ursprung solcher Rinnen ist eine wulstartige Ablagerung oberhalb von beiden Rinnenschultern zu beobachten. Diese entsteht durch überbordende Massen, die das Fassungsvermögen einer solchen Rinne übersteigen. Durch den erhöhten Querschnitt des Abflußprofils beim Ausborden einer solchen “Mure“ verringert sich in den Randbereichen die Transportfähigkeit, es kommt zur Ablagerung. Bewuchs kennzeichnet Oberflächen und Wandabschnitte, die in relativer (jedoch flüchtiger) Formungsruhe verharren. Schuttkörper wachsen nicht durch stetige flächige Überdeckung mit einem neuen Kegelmantel, sondern durch die Bildung von streifig langezogenen Schuttloben, die sich in Rutschungsbewegungen bis zum Auslauf des Kegels fortpflanzen können und bestimmten Fördergebieten des Steinschlages streng zugeordnet werden können. Daher weisen ihre Oberflächen kein einheitliches Alter auf. Die Stabilität von Oberflächenmaterial auf Schuttkörpern ist eine Funktion nicht der durchschnittlichen Korngröße, sondern der Rauhigkeit des Materials, die wiederum unter anderem von der Korngröße beeinflußt wird. Schuttkörper sind a priori flüchtige Erscheinungen von ständigem Wandel, Aufbau und Abtrag; jedoch im Kern festliegend, im Mantel in Ruhe und Setzung begriffen und in ihrer Oberfläche nur in Streifen aktiv, dort aber zum Teil erheblich. Man kann für einzelne Körper wohl eine generelle Tendenz festlegen, muß aber immer kleinräumig mit starken Schwankungen rechnen, die jedoch ungeachtet ihrer heutigen Ausprägung Gesamtbild und Gesamttendenz eines Körpers nicht in Frage stellen. Die genetische Unterscheidung von Schutthalde und Schuttkörper macht sich also an der Art der Förderung (durch die Beschaffenheit der Transportwege in der Wand) und der Speisung (durch die Beschaffenheit der Austragsstelle aus der Wand) fest: Traufkante oder Traufpunkt. Dem entsprechend wird Haldenschutt flächig gefördert und linear gespeist, Kegelschutt aber linear gefördert und punktuell gespeist. Daraus resultieren abweichende Eigenschaften beider Formengruppen, die sich bei freier Entwicklung (i.e. Übereinstimmung von Genotyp und Phänotyp), durch andere Einflüsse differenziert, in unterschiedlichen Erscheinungsformen niederschlagen. Meßprofile auf ausgewählten Schuttkörpern unter der Südwand der Sulzfluh lieferten Daten zum Bewegungsverhalten des Oberflächenschuttes. Die Ergebnisse führten zu einer hochauflösenden Unterteilung der Oberflächen in Aktivitätsstreifen von einigen Dezimetern bis wenigen Metern Breite und mehreren Dekametern bis Hektometern Länge. An solchen hochmobilen Schuttfahnen können heute die Ursachen und Abläufe beobachtet werden, die am Wachsen der Schuttkörper bis zu ihrer heutigen Form mitwirkten. Steinschlagrinnen müssen nach ihrer Fähigkeit beurteilt werden, abgehenden Steinschlag zu bündeln und einem Traufpunkt zuzuführen. Ihre Wertigkeit als Maß dieser Fähigkeit ist abhängig von der Tiefe einer solchen Förderrinne und ihrem Gefälle und kann durch den horizontalen Abstand von Rinnenboden zu Rinnenschulter definiert werden. In Kombination mit der genetischen Typisierung korrelater Schuttkörper läßt sich so die Struktur einer beliebigen Wand schnell und präzise erfassen. In der Zusammenschau mit den Moränen der örtlichen Wandfußgletscher sind umfassende Rückschlüsse auf die spät- und postglaziale Formungsgeschichte der betreffenden Felswände möglich. Moränen, Schuttkörper und Wand müssen also stets gemeinsam betrachtet werden. Die Formenentwicklung zwischen Gipfel und unterstem Rand der wandfußnahen Schuttkörper sind in einer in beiden Richtungen ableitbaren Prozesskette kausal miteinander verknüpft. Neben einer intensiven Zerschneidung exponierter Wandflächen in Steinschlagrinnen und Vorsprünge sind auch Reste alter, glatter Wandoberflächen aus dem ausgehenden Hochglazial erhalten, deren lange Expositionsdauer durch stellenweise tief eingeschnittene Karren belegt wird. Ihre über weite Strecken felsgruppenübergreifende Parallelisierung ist eine wichtige Methode der Rekonstruktion spät- und postglazialer Gratformung. Im Bereich Drusentor konnten im Zusammenhang mit der Moränensituation verschiedene Aktivitätsphasen der Gratzerlegung mit zum Teil erheblichen Kubaturen bewegter Felsmasse unterschieden und zeitlich eingegrenzt werden. Durch Rutschungen und Felsstürze zerfiel der Grat entlang der Schwächelinien von Blattverschiebungen, den Grat kreuzenden Bruchlinien und Trennflächen von Einzelschuppen der Deckenstirn. Der Grat verlor dabei im Vergleich zum Hochglazial mindestens 150 bis 250 Meter seiner damaligen Höhe. Die Deckenstirn nördlich des Drusentores ist nur noch in Bruchstücken der basalen Schuppe (z. B. Zollwärterhöhe) erhalten; der Aufschuppungsbereich zwischen Sulzfluh und Dritürm bildet durch Bruch, Blattverschiebung und Rutschung einen Doppelgrat. Wie im Umfeld des Drusentores finden sich auch In den Schijen Reihen von Zähnen und Galerien von Pfeilern als Zeugen einer zerfallenen oder zurückverwitterten Wand. Die Entstehung der großen glatten Fläche unter der Schijenflue ist jedoch nicht auf ein großvolumiges Sturzereignis zurückzuführen, sondern auf eine Schar von Blattverschiebungen, die Wissplatte und Schijenflue gliedern. Die Felspartie um P. 2442 stammt nicht etwa aus höheren Wandteilen und hinterließ beim Loslösen eine glatte, ebene Ausbruchnische, sondern war basaler Wandteil, der sich entlang einer nordsüdlich verlaufenden Bruchlinie von der Schijenwand trennte und nur um ca. acht Meter abrutschte. Obwohl die Felssturzaktivität im Spätglazial außerordentlich hoch war, wie die Ablagerungen In den Schijen mit ihren zahlreichen Grob- und Riesenblöcken belegen, erreichten diese Massen im Spätglazial durch Wandfußgletscher den Talboden und engten ihn geringfügig ein. Der Partnunsee selbst ist kein Bergsturz-, sondern ein Karsee. Das Gafiental quert in südwestlich-nordöstlicher Richtung eine Bruchlinie, an der östlich der Gämpiflue und bei Hasenflüeli Teile der Sulzfluh-Decke insgesamt 200 Meter abgesunken sind. Die auf dem Eggberg-Grat vor dem Erosionsrand zurückgelassenen Deckenteile sind die einzige isolierte Sulzfluh-Klippe des Rhätikon und gehören zum aufgeschuppten Bereich der Plattenflue. Sie ist im Zuge des Absinkens leicht verstellt worden und wahrscheinlich im frühen Spätglazial in mehrere Teile zerfallen, die - seither von einander getrennt - sich in Zähne und Pfeiler auflösen. Dem nordwärtigen Einfallen des morphologisch weicheren Falknis-Wildflysches im Liegenden folgend gingen alle nennenswerten Massenbewegungen auf der Nordseite des Grates ab. Auf der Südseite findet sich wesentlich weniger blockiges Felssturzmaterial, die postglazialen Schuttkörper sind weitestgehend blockarm. Ammaflue ist von seiner ursprünglichen Position zwischen Geisstschuggen und Hasenflüeli vor Egesen 1 nach Norden abgerutscht und hat dabei auf seiner Rutschbahn einige Klippen-Bruchstücke zurückgelassen. Bi den Nünzgen findet sich ein isoliertes Malmkalkvorkommen, das mit den höheren Schuppenteilen von Hasenflüeli korrespondiert. Der hiesige Klippenteil ist im Spätglazial völlig zerfallen und bildet seither nur noch den Stumpf einer Wand. Anhand der egesenzeitlichen Lokalmoränen beiderseits des Grates Bi den Nünzgen konnte der Betrag der Wandzerlegung im Spätglazial quantifiziert werden. Demnach hat die Nünzgenflue durch Wandzerlegung unter Steinschlag- und Felssturzspende seit Egesen 1 mindestens 54 Meter, in Egesen 2 ca. 27 Meter Höhe eingebüßt. An ihr wird die zukünftige Entwicklung Hasenflüelis sichtbar. Das in dieser Arbeit vorgestellte vielfältige methodische Instrumentarium kann in seinen Modulen je nach gewünschter Auflösung der Geländeanalyse frei kombiniert werden. Je nach Fragestellung und zugebilligtem Aufwand kann eine schnelle und sichere Ansprache der Genotypen wandfußnaher Schuttkörper völlig ausreichen. In umfassenderen Fragen der Wandentwicklung, die komplizierte lokale Zusammenhänge zu erforschen suchen, lohnt sich die Entfaltung sehr genauer und damit erheblich zeitaufwendigerer Methoden. Was sie im einzelnen zu leisten vermögen, wird in der Betrachtung der landschaftgeschichtlichen Beispiele deutlich, die an Schlüsselstellen höheren Einsatz mit umfassenden Erkenntnissen belohnen.
Durch anhaltende Entzündungsvorgänge oder Nervenläsionen kommt es zu einem vermehrten nozizeptiven Einstrom ins Rückenmark, was lang anhaltende Sensibilisierungsvorgänge an den zentralen Synapsen zur Folge hat. Auf molekularer Ebene kommt es dabei zur Regulation verschiedenster Proteinsynthesen. Diese plastischen Veränderungen im Zellstoffwechsel der Hinterhornneurone können eine Chronifizierung der zentralen Vorgänge bewirken. In der vorliegenden Arbeit wurden mittels vergleichender Proteomanalyse Proteine identifiziert, die aufgrund chronischer Entzündungsschmerzen und neuropathischer Schmerzen im Lumbalmark reguliert werden. In Folge einer durch Zymosan induzierten Pfotenentzündung konnten mittels 2D-Gelelektrophorese des Lumbalmarks der Ratte bei neun Proteinspots eine Regulation festgestellt werden. Diese Proteine sind möglicherweise an Mechanismen der zentralen Sensibilisierung in Hinterhornneuronen beteiligt und könnten als innovative Therapieansatzpunkte von Bedeutung sein. Ein Zusammenhang zwischen den identifizierten Proteinen und Mechanismen der Schmerzentstehung und -verarbeitung wurde bislang nicht beschrieben. Eines der Proteine, bei dem es zu einem deutlichen zeitabhängigen Abbau nach Zymosaninjektion kam, wurde massenspektrometrisch als Neurofilament light (NF-L) identifiziert. NF-L spielt insbesondere für die strukturelle Stabilität der Neurone und den axoplasmatischen Transport eine wichtige Rolle. Ein Abbau von Neurofilamenten im Rahmen von neurodegenerativen Erkrankungen wurde bereits mehrfach beschrieben. Für die Degradierung von NF-L wird hierbei hauptsächlich die Protease Calpain verantwortlich gemacht. In der vorliegenden Arbeit wurde eine Aktivierung von Calpain nach Zymosaninjektion sowohl im Lumbalmark als auch im entzündeten Pfotengewebe nachgewiesen. Der entzündungsassoziierte Abbau von NF-L im Rückenmark und den Hinterwurzelganglien konnte durch die einmalige Verabreichung eines spezifischen Inhibitors von Calpain verhindert werden. Eine Vorbehandlung der Tiere mit dem Calpain Inhibitor zeigte darüber hinaus antiinflammatorische und antihyperalgetische Effekte im Entzündungsmodell. Die antinozizeptive Wirkung des Inhibitors war dabei unabhängig davon, ob die Substanz systemisch (i.p.) oder am Rückenmark (peridural) appliziert wurde. Zusammenfassend zeigen die bisher genannten Ergebnisse, dass die Hemmung einer pathophysiologischen Aktivierung von Calpain ein neues, bislang nicht beschriebenes Wirkprinzip zur Behandlung von Schmerzen und Entzündungen darstellen könnte. In einem weiteren Teil der Arbeit wurde das Protein Aldose Reduktase (AR), das ebenfalls nach Induktion einer peripheren Entzündung reguliert wurde, näher beleuchtet. Bislang wurde die AR vorwiegend mit der Entstehung diabetischer Spätschäden in Verbindung gebracht. Im Proteinmuster des Lumbalmarks zeigte sich dieses Protein durch zwei verschiedene Spots, wobei nach der Zymosaninjektion eine Verschiebung in der Intensität zwischen diesen beiden Varianten der AR beobachtet wurde. Da die AR nach der Entzündungsinduktion weder auf Transkriptions- noch auf Translationsebene reguliert wurde, ist von einer posttranslationalen Modifikation des Proteins auszugehen, wobei eine Phosphorylierung naheliegend erscheint. In Zellkulturexperimenten wurde gezeigt, dass die AR nach einer Stimulation der transfizierten Zellen mit proinflammatorischen Zytokinen abgebaut wird, wobei hierfür eine Aktivierung des Proteasoms verantwortlich zu sein scheint. Eine Hemmung des Abbaus konnte dabei nicht nur durch einen Proteasominhibitor sondern zum Teil auch durch Dexamethason erzielt werden. Die AR scheint daher bei Entzündungsprozessen auf verschiedene Arten reguliert zu werden. Weiterhin wurden Änderungen im Lumbalmark nach Induktion von neuropathischen Schmerzen proteomanalytisch untersucht. Beim Vergleich der Proteinexpressionsmuster zeigten sich bei vier Proteinen Regulationen infolge der Nervenläsion. Keines dieser Proteine wurde bislang mit neuropathischen Schmerzen in Verbindung gebracht. Eines der identifizierten Proteine, alpha-Crystallin, wurde sowohl bei neuropathischem Schmerz als auch bei chronischem Entzündungsschmerz herunterreguliert. Dieses Protein scheint daher mit beiden dieser chronischen Schmerzzustände korreliert zu sein. Die ansonsten beobachteten Änderungen waren jedoch spezifisch für das jeweilige Schmerzmodell, so dass davon ausgegangen werden kann, dass deutliche Unterschiede in den spinalen Sensibilisierungsvorgängen infolge einer Entzündung oder einer Nervenläsion bestehen. Mit der Identifizierung und Charakterisierung von schmerz- und entzündungsassoziierten Proteinen im Rahmen dieser Arbeit wurde ein Beitrag zur Aufklärung bislang unbekannter Mechanismen der zentralen Sensibilisierung geleistet. Diese Erkenntnisse könnten in der Zukunft als Grundlage zur Entwicklung innovativer Therapieansätze für die Schmerztherapie genutzt werden.
Komposite werden in den letzten Jahren als Füllungsmaterial zunehmend auch im Seitenzahnbereich verwendet. Ein Nachteil dieser Füllungen ist, daß sie mit der Zahnhartsubstanz verklebt werden müssen, was bei Revision von Füllungen tendenziell zu einem Verlust von Zahnhartsubstanz führt. In der vorliegenden Untersuchung wurde geprüft, ob die Verwendung farbiger Unterfüll- oder Füllmaterialien das Auffinden der Grenze zwischen Zahnhartsubstanz und Füllung erleichtert. Die Ergebnisse der vorliegenden in vitro-Untersuchung zeigen, daß bei allen verwendeten Materialienkombinationen nach der Kompositrevision, trotz der Verwendung einer Lupenbrille, eine Überextension der Kavitäten festzustellen war. Die bei einzelnen Messungen gefundenen Unterextensionen dürften als durch den Sprayauftrag bedingte Meßfehler anzusehen sein. Für den Vergleich verschiedener Komposite und Unterfüllungen ergaben sich keine wesentlichen Unterschiede in der Revisionszeit bzw. den dimensionalen Veränderungen der Kavität durch die Revision. Weder die Verwendung eines photochromen Komposits für die Unterfüllung (wie in den Gruppen II und III) noch die eines blauen Füllungskomposits (Gruppe IV) verkürzten die Revisionszeit oder verbesserten die Präparationsgenauigkeit in statistisch signifikanter Weise. Vorteile metallischer gegenüber adhäsiven Füllungsmaterialien dürften damit nicht durch die unterschiedliche Farbe bedingt sein, sondern am ehesten durch das Entfallen der Adhäsivschicht, die das Auffinden der Grenze zwischen Zahnhartsubstanz und Füllungsmaterial offensichtlich erschwert.
Vorhofflimmern ist die in der Klinik und Praxis am häufigsten diagnostizierte Herzrhythmusstörung. In allen Fällen bestehen zwei grundsätzliche Therapieoptionen: Zum einen Kardioversionsbehandlung gefolgt von Rezidivprophylaxe mit Antiarrhythmika bzw. alleinige Frequenzkontrolle unter adäquater Antikoagulation bei Inkaufnahme der Rhythmusstörung. In der vorliegenden Arbeit sind 32 Patienten mit persistierendem Vorhofflimmern untersucht worden, die entwedermit Cordichin, Sotalol oder Amiodaron behandelt worden sind. Der Schwerpunkt der Untersuchung wurde auf die Veränderung der Hämodynamik nach erfolgreicher Kardioversion in den Sinusrhythmus gelegt. Hier zeigte sich, dass unabhängig von dem zur Rhythmusstabilisierung verwendeten Medikament die erfolgreiche Wiederherstellung von Sinusrhythmus mit einer Verbesserung der Hämodynamik und der Auswurffraktion des Herzens einherging. Somit bestätigen die vorliegenden Untersuchungsbefunde die umfangreiche Literatur zu diesem Thema.
Die natürliche Killerzelllinie NK-92 zeichnet sich durch eine breit gefächerte Aktivität gegen verschiedenste Tumore und Leukämien aus und würde sich daher prinzipiell für eine Verwendung als adoptives Zelltherapeutikum eignen. NK-92-Zellen sind eine von nur 5 etablierten NK-Zelllinien weltweit. Ihr Wachstum in der Zellkultur war bisher von Bedingungen abhängig, die mit einer klinischen Anwendung der Zellen nicht zu vereinbaren sind. Ziel der vorliegenden Doktorarbeit war es daher, ein Kulturverfahren zu etablieren, mit dem sich NK-92-Zellen unter Bedingungen einer „Guten Herstellungs Praxis“ kultivieren und expandieren lassen. In dieser Arbeit wurde daher die Adaption der NK-92-Zellen an ein in der Klinik einsetzbares Zellkulturmedium vorgenommen und ein Batch-Kulturverfahren entwickelt, mit dem sich die NK-92-Zellen innerhalb von 10-14 Tagen auf bis zu 1010 Zellen in 10L Kulturvolumen expandieren lassen. Die Funktionsprüfung der NK-92-Zellen, anhand der Expression von immunologisch relevanten Oberflächenrezeptoren (CD11a, CD25, CD28, CD54, CD56, CD122, FAS-L), ergab keine Veränderung des Phänotyps der expandierten Zellen. Darüber hinaus wiesen die Zellen eine Viabilität von >95,3% +/- 0,46% auf, und ihre zytotoxische Aktivität gegen die NK-sensitive Leukämiezelllinie K562 war nicht eingeschränkt. Da NK-92-Zellen in der Erkennung virusinfizierter und maligner Zellen nicht MHCrestringiert sind, eignen sie sich auch für den ungerichteten Einsatz. Hierzu wäre eine Expansion der Zellen im großen Massstab mit anschliessender Kryokonservierung von Vorteil, da die Zellen dann im Voraus hergestellt und geprüft werden könnten. Die Prüfung des Einflusses unterschiedlicher Konzentrationen (0, 0,5, 1, 2, 3, 5, 8 10 %) der Einfrierschutzlösung Dimethylhylsulfoxid (DMSO) auf die zytotoxische Aktivität der NK-92-Zellen ergab keine Einschränkung der NKZellfunktion bei Konzentrationen < 5%. Es wurden daraufhin verschiedene Einfrierprotokolle und deren Einfluss auf die Viabilität der NK-92-Zellen untersucht. NK-92- Zellen wurden mit 2, 3, 5 8 und 10% DMSO in humanem Serum Albumin (HSA) in Ampullen, oder aber im klinischen Masstab (5x108 Zellen/ 20ml HSA) mit 3, 5 und 10% DMSO eingefroren und ihre Viabilität nach dem Auftauen untersucht. Im Mittel ergab sich für alle Zellpräparationen und DMSO Konzentrationen eine relativ geringe Viabilität der Zellen nach dem Auftauen (<50% +/- 9,77). Hierbei war es unerheblich, ob die für eine klinische Anwendung der allogenen NK-92-Zellen notwendige Bestrahlung mit 10GY vor dem Einfrieren oder nach dem Auftauen durchgeführt wurde (Viabilität 48,8% versus 44%). Aus den in dieser Dissertation erarbeiteten Daten wurde schliesslich ein Konzept zur Expansion der NK-92-Zellen entwickelt, welches ihren klinischen Einsatz, unter Erhalt der Funktionalität bei höchstmöglicher Sicherheit für den Patienten, erlaubt. Dieses Konzept geht von einer Expansion der NK-92-Zellen, ausgehend von einer Masterzellbank, in 2L Batchkulturen im Nunc-Wannenstapel-System aus. Die Kulturen werden mit 2x104 NK-92-Zellen/ml X-Vivo 10 Medium, 5% hitzeinaktiviertem humanen Plasma und 100IE IL-2 beimpft. Nach 10 Tagen haben die Kulturen ihre höchste Dichte (6,4 x105/ml) erreicht.
Das Lupus-Antikoagulans ist mit einem deutlich erhöhten Risiko für arterielle und venöse Thrombosen assoziiert, so dass ihr Nachweis im Labor von großer klinischer Relevanz ist. Bei den meisten bisher verfügbaren Testsystemen sind Sensitivität und Präzision häufig unbefriedigend, und es kann zu falsch positiven Testergebnissen durch Heparin oder orale Antikoagulantien kommen. Ziel dieser Arbeit war es daher, einen präzisen, sensitiven und spezifischen Test zum optimierten Nachweis des Lupus-Antikoagulans zu entwickeln. Hierzu wurde ein auf der aPTT basierendes vollautomatisches Testprinzip entwickelt, bei dem Mischungen eines lupussensitiven und eines lupusinsensitiven aPTT-Reagenzes mit Patientenplasma oder Normalplasma hergestellt wurden. Die Ergebnisangabe erfolgte in Form einer Ratio, bei der jeweils die beiden Ratios des Patienten– und Normalplasmas nochmals in Relation gesetzt werden. Es wurden 99 Blutspender, 10 Patienten unter einer intravenösen, therapeutischen Behandlung mit unfraktioniertem Heparin, 19 oral antikoagulierte Patienten, sowie 5 Patienten mit Hämophilie A und 15 Patienten mit Antiphospholipid-Syndrom mit dem neuen Testsystem untersucht. Für die Präzision innerhalb einer Messreihe und von Tag zu Tag ergaben sich Varianzkoeffizienten von 1,5 – 1,9%. Der Mittelwert + 2SD der Ratio lag für die 99 Blutspender bei 1,07 und diente als Cutoff. Ein negatives Testergebnis zeigten alle mit Heparin oder oralen Antikoagulantien behandelten Patienten (Spezifität: 100%), 1/5 Patienten mit Hämophilie A reagierte positiv (80%), dieser hatte jedoch eine Faktor VIII Hemmkörper entwickelt. Von den 15 Patienten mit einem definitiven Antiphospholipid-Syndrom wiesen 13 eine erhöhte Ratio auf (Sensitivität: 87%). Somit ermöglicht dieses neu entwickelte Testsystem vollautomatisch einen präzisen, sensitiven und spezifischen Nachweis des Lupus-Antikoagulans.
In der medizinischen Praxis in Deutschland ist Klassifikation als essentieller Bestandteil der Dokumentation in vielen Bereichen durch gesetzliche Regelungen vorgeschrieben. Über diesen gesetzlich determinierten Rahmen hinaus können durch Klassifikation vergleichbar gemachte Informationen als Basis neuer wissenschaftlicher Erkenntnisse herangezogen werden und weiterhin helfen, bestehende Lehrmeinungen zu evaluieren. Ein Blick auf die im medizinischen Umfeld vorhandene organisatorische Realisierung der Klassifikation zeigt, daß diese in der Regel von medizinisch qualifiziertem Fachpersonal neben der eigentlichen Tätigkeit durchgeführt wird. Eine Klassifikation vorhandener Dokumentationen im Sinne einer Erschließung zusätzlicher wertvoller Informationsquellen über den gesetzlichen Mindestumfang hinaus scheitert somit häufig an der organisatorisch bedingten Überlastung der eingesetzten Mitarbeiter. Eine Unterstützung medizinischer Klassifikation in der Praxis durch den geeigneten Einsatz von Informationstechnologie (IT) erscheint somit sinnvoll und wünschenswert. Im Rahmen der vorliegenden Arbeit wird ein entsprechender Ansatz in Form eines entwickelten Prototypen (XDIAG) vorgestellt und evaluiert. Der entwickelte Prototyp realisiert ein IT-gestütztes leitbegrifforientiertes Verfahren zur automatischen Kodierung von Diagnosen auf Basis vorliegender medizinischer Freitexte. Die hierbei realisierten Ansätze und Verfahren folgen den Vorschlägen von Herrn D. Schalck und sind somit das Resultat langjähriger intensiver und praxisnaher Beschäftigung mit Fragen medizinischer Freitextverarbeitung und Klassifikation. Die besondere Vorgehensweise verleiht dem vorgestellten Prototypen den Charakter einer Heuristik. In Abgrenzung zu zahlreichen bestehenden Verfahren erfolgt eine konsequente Reduktion der Komplexität der eingesetzten Algorithmen und Stammdaten durch einen Verzicht auf eine tiefgreifende linguistische Analyse der zur Kodierung vorgelegten Texte. Durch diesen Verzicht kann auf die Verwendung einer Grammatik und somit auf die Verwendung komplexer Stammdaten verzichtet werden. Als Stammdatenbasis werden vielmehr Datenbestände verwendet, die entweder besonders leicht zu pflegen sind oder aber ohnehin permanent im Rahmen von Langzeitprojekten gepflegt werden. An dieser Stelle spielt insbesondere der ICD10-Diagnosen-Thesaurus mit seiner umfassenden und besonders praxisorientierten Begriffsmenge eine wichtige Rolle. In Erweiterung bestehender Verfahren bietet der vorgestellte Prototyp darüber hinaus die Möglichkeit, mehrere medizinische Diagnosen im Rahmen eines Satzes zu kodieren. Weiterhin können dem Benutzer interaktiv qualifizierte Fehlerhinweise mit dem Ziel einer verbesserten Kodierung bereitgestellt werden. Als Ergebnis der Evaluation des realisierten Prototypen läßt sich festhalten, daß die hierbei eingesetzten Verfahren helfen können, eine synergistische Brücke zwischen praktischer Medizin, medizinischer Verwaltung und medizinischer Forschung zu schlagen, wenn sie an der richtigen Stelle und mit der richtigen Motivation eingesetzt werden.
A fundamental work on THz measurement techniques for application to steel manufacturing processes
(2004)
The terahertz (THz) waves had not been obtained except by a huge system, such as a free electron laser, until an invention of a photo-mixing technique at Bell laboratory in 1984 [1]. The first method using the Auston switch could generate up to 1 THz [2]. After then, as a result of some efforts for extending the frequency limit, a combination of antennas for the generation and the detection reached several THz [3, 4]. This technique has developed, so far, with taking a form of filling up the so-called THz gap . At the same time, a lot of researches have been trying to increase the output power as well [5-7]. In the 1990s, a big advantage in the frequency band was brought by non-linear optical methods [8-11]. The technique led to drastically expand the frequency region and recently to realize a measurement up to 41 THz [12]. On the other hand, some efforts have yielded new generation and detection methods from other approaches, a CW-THz as well as the pulse generation [13-19]. Especially, a THz luminescence and a laser, originated in a research on the Bloch oscillator, are recently generated from a quantum cascade structure, even at an only low temperature of 60 K [20-22]. This research attracts a lot of attention, because it would be a breakthrough for the THz technique to become widespread into industrial area as well as research, in a point of low costs and easier operations. It is naturally thought that a technology of short pulse lasers has helped the THz field to be developed. As a background of an appearance of a stable Ti:sapphire laser and a high power chirped pulse amplification (CPA) laser, instead of a dye laser, a lot of concentration on the techniques of a pulse compression and amplification have been done. [23] Viewed from an application side, the THz technique has come into the limelight as a promising measurement method. A discovery of absorption peaks of a protein and a DNA in the THz region is promoting to put the technique into practice in the field of medicine and pharmaceutical science from several years ago [24-27]. It is also known that some absorption of light polar-molecules exist in the region, therefore, some ideas of gas and water content monitoring in the chemical and the food industries are proposed [28-32]. Furthermore, a lot of reports, such as measurements of carrier distribution in semiconductors, refractive index of a thin film and an object shape as radar, indicate that this technique would have a wide range of application [33-37]. I believe that it is worth challenging to apply it into the steel-making industry, due to its unique advantages. The THz wavelength of 30-300 ¼m can cope with both independence of a surface roughness of steel products and a detection with a sub-millimeter precision, for a remote surface inspection. There is also a possibility that it can measure thickness or dielectric constants of relatively high conductive materials, because of a high permeability against non-polar dielectric materials, short pulse detection and with a high signal-to-noise ratio of 103-5. Furthermore, there is a possibility that it could be applicable to a measurement at high temperature, for less influence by a thermal radiation, compared with the visible and infrared light. These ideas have motivated me to start this THz work.
Die chemische Analyse von 17 abundanten Nordseeschwammarten zeigte, dass die Metabolitenzusammensetzung und -konzentration standortbedingt nur geringfügig schwanken. Den Großteil der Schwammmetaboliten bilden mittelpolare bis polare Substanzen ohne UV-Absorption. Allgemein scheinen in Nordseeschwämmen aromatische und olefinische Verbindungen seltener vorzukommen als in tropischen Arten. Die Chemie der einzelnen Nordseeschwämme ist oft ähnlich und wird von kleinen, stickstoffhaltigen Molekülen dominiert. Ubiquitär verbreitete, vermutlich phylogenetisch alte Substanzen wie Inosin, Allantoin, Homarin und Trigonellin wurden in zahlreichen untersuchten Arten nachgewiesen. Trigonellin und Homarin üben, wie für andere marine Organismen bereits dokumentiert, auch in den Nordseeschwämmen Schutzfunktion gegen Konkurrenten und Fouling-Organismen aus. Die identifizierten Verbindungen weisen darauf hin, dass den mit dem Aminosäure- und Purinstoffwechsel verbundenen Biosynthesewegen eine große Bedeutung in der Naturstoffsynthese der untersuchten Schwammarten zukommt. Diese Vermutung wird dadurch untermauert, dass auch die Bildung von Imidazolen (aus Phakellia ventilabrum isoliert) aus Histidin eng mit dem Purinstoffwechsel verbunden ist. Durch den Abbau von Histidin können wiederum Substanzen entstehen, die als Methyldonatoren in Frage kommen (methylierte Verbindungen, vgl. Pachymatisma johnstonia). Biologische Aktivität wurde anhand von Biotests zur antilarvalen, cytotoxischen, antibakteriellen, enzyminhibitorischen und bewuchshemmenden Wirkung in Extrakten der untersuchten Nordseeschwämme nachgewiesen. Dabei zeigten alle Schwammarten Effekte in mehr als einem Biotest. Diese Untersuchungen bestätigen das Vorkommen biologisch aktiver Substanzen in Schwämmen kaltgemäßigter Habitate und widerlegen damit die Latitudinalhypothese. Unabhängig von der geographischen Breite sind Schwämme weltweit einem selektiven Druck ausgesetzt, der die Entwicklung biologisch aktiver Metaboliten begünstigt. Die Art der Selektionsfaktoren scheint jedoch habitatbedingt unterschiedlich zu sein. Während in wärmeren Gewässern vor allem Prädatoren (Fische) das Überleben der Schwämme beeinflussen, sind in kälteren Gebieten Aufwuchsorganismen und Bakterien von entscheidender Bedeutung. Diese Annahme wird durch die Beobachtung der assoziierten Organismen ebenso unterstützt, wie durch die Tatsache, dass in allen untersuchten Nordseeschwammarten (Esperiopsis fucorum, Phakellia ventilabrum, Leucosolenia complicata, Cliona celata, Pachymatisma johnstonia) Bakterien nachgewiesen werden konnten. Neben den ökologischen Beobachtungen bekräftigt auch die starke antibakterielle Wirkung der Schwammmetaboliten diese Hypothese. Während Toxizität seltener beobachtet wurde, zeigten viele Schwämme auch enzyminhibitorische Wirkung. Zusammenhänge zwischen biologischer Aktivität und morphologischen bzw. taxonomischen Kriterien, Lebensweise, Habitatcharakteristika oder assoziierten Organismen waren nicht durch Clusteranalysen aufzudecken. Es konnten jedoch Unterschiede im Metabolitengehalt und der Art der assoziierten Organismen zwischen langlebigen, großen Kieselschwammarten und kleineren, saisonal wachsenden Kalkschwämmen hervorgehoben werden. Leucosolenia compl icata (Calcarea) ist sowohl qualitativ als auch quantitativ relativ metabolitenarm, biologisch sehr aktiv und mit einer großen Zahl an Bakterien assoziiert. Die Mikroorganismen scheinen für diese Art von größerer Bedeutung zu sein als bei den untersuchten Demospongiae. Einige Kieselschwämme (z.B. Cliona celata, Phakellia ventilabrum) sind besonders metabolitenreich, enthalten weniger Bakterien und verfügen ebenfalls über biologisch aktive Substanzen. Um diese Beobachtungen in einem ökologischen Zusammenhang zu sehen, sind eingehendere Studien, wie sie mit Pachymatisma johnstonia durchgeführt wurden, notwendig. Die Isolierung der Hauptmetaboliten von Pachymatisma johnstonia führte zur Identifizierung der methylierten Substanzen Betain, N,N,N-Trimethyl-ß-alanin, L-6-Bromohypaphorin und dem Pyridinalkaloid Trigonellin. Anhand verschiedener biologischer Tests konnte ein Einblick in die Wirkungsweise und Funktion der aktiven Metaboliten gewonnen werden. Die Aminosäure L-6-Bromohypaphorin und eine noch nicht identifizierte Substanz zeigten starke Enzyminhibition gegenüber einer Protein-Tyrosin-Kinase. L-6-Bromohypaphorin wurde im Pinacoderm unbewachsener Individuen in einer höheren Konzentration nachgewiesen als in Schwämmen mit Bryozoenbewuchs, und spielt demnach vermutlich bei der Abwehr von Fouling-Organismen eine Rolle. Bakterien wurden als Produzenten der aktiven Substanzen ausgeschlossen. Eine Abgabe der Metaboliten nach außen ist eher unwahrscheinlich. Die Extrakte von P. johnstonia zeigten starke antibakterielle Wirkung mit einer Breitbandaktivität, vor allem gegen marine Bakterien. Welche Substanzen für diese Effekte verantwortlich sind, ist nicht bekannt. Eine Hälterung von P. johnstonia war möglich. Ebenso wie Cliona celata passte sich der Schwamm an veränderte abiotische und biotische Faktoren an. Verletztes Gewebe wurde regeneriert und Hauptmetaboliten weiter produziert. Die Synthesetätigkeit von P. johnstonia schwankte, die biologische Aktivität blieb über neun Monate hinweg erhalten. Durch eine Optimierung der Hälterungsbedingungen könnte die Naturstoffproduktion vermutlich konstant gehalten werden. Mit P. johnstonia wurde somit ein gutes Beispiel für die Interaktion zwischen Naturstoffchemie, Ökologie und pharmakologischem Potential bzw. biotechnologischer Nutzbarkeit geliefert. Bedingt durch das Ziel der Arbeit, einen Überblick über die Chemie und biologische Aktivität der Nordseeschwämme zu gewinnen, wurde weniger Augenmerk auf die Isolierung neuer Strukturen gelegt. Im Zuge von intensiveren Studien wäre eine Optimierung der chemischen Methodik anzustreben. Die Aufklärung der in geringerer Konzentration vorkommenden Substanzen könnte hilfreich sein, um den ersten Eindruck der Metabolitenzusammensetzung zu überprüfen. Außerdem wird aufgrund der Biotestergebnisse die Existenz zahlreicher biologisch aktiver Substanzen, vor allem antibiotischer Wirkstoffe, vermutet, deren Isolierung eine Herausforderung darstellt. Besonders interessant ist in diesem Zusammenhang auch die Tatsache, dass bisher sämtliche medizinisch genutzten Antibiotika aus Mikroorganismen stammen, Schwämme aber weltweit über ein hohes antibiotisches Potential verfügen. Dadurch stellt sich erneut die Frage, ob Schwämme tatsächlich selbst in der Lage sind, wirksame Substanzen zu produzieren. Diese Ungewissheit zusammen mit der Tatsache, dass alle aus den Nordseeschwämmen isolierten und identifizierten Verbindungen aus Stoffwechselwegen stammen, die bisher als für Mikroorganismen typisch beschrieben wurden, bietet interessante Ansatzmöglichkeiten für weitere Untersuchungen. Auch wenn Schwämme zu den am besten untersuchten Organismen in der marinen Naturstoffchemie zählen, ist das Wissen im Bereich der chemischen Ökologie noch begrenzt. Um mehr über die Beziehung zwischen Schwämmen und ihrer belebten Umwelt zu erfahren und die Rolle der Naturstoffe dabei aufzudecken, müssen geeignete Untersuchungsmethoden bzw. Biotests etabliert werden. Abbildung 4.1 soll die Bedeutung der Schwämme für ihren Lebensraum und den Menschen hervorheben und die komplexen Zusammenhänge, welche durch die Wirkung der Naturstoffe vermittelt werden, verdeutlichen. Häufig werden Schwämme als primitive Organismen beschrieben, da sie sich durch das Fehlen eines Nervensystems und anderer Organe von höheren Tieren unterscheiden. Tatsächlich sind diese Lebewesen aber hochentwickelte Spezialisten. Optimal an eine sessile Lebensweise angepasst, bewohnen sie seit Millionen von Jahren erfolgreich vor allem marine Habitate in großer Artendiversität und Abundanz. Aufgrund der Produktion von aktiven Metaboliten zur Abwehr schädlicher Organismen stellen die Schwämme aus menschlicher Perspektive eine wertvolle Ressource dar. Nicht nur aus diesem Grund sollten wir Ihnen mit Respekt begegnen und versuchen, die (Naturstoff-)forschung nachhaltig zu betreiben, die Beeinträchtigung der Tiere auf ein vertretbares Maß zu reduzieren und ihren Lebensraum zu schützen.
Synthese von modifizierten Nukleotiden und modifizierten Oligodesoxynukleotiden zur DNA-Analytik
(2004)
1.) Entwicklung eines Verfahrens zum Nachweis von Wechselwirkungen zwischen Sondenmolekülen und Targetmolekülen auf einem Sonden-Array Innerhalb des Projektes sollte ein Verfahren entwickelt werden, dass zum Nachweis von Wechselwirkungen zwischen Sondenmolekülen und Targetmolekülen auf Sonden-Arrays genutzt werden kann. Der prinzipielle Aufbau dieses Testsystems wird in der vorliegenden Arbeit beschrieben. Einer der entscheidenden Schritte zur Entwicklung dieses Verfahrens, ist die Einführung einer selektiv spaltbaren Bindung innerhalb der DNA. Die von uns hierfür präferierte Bindung ist die 5´-O-P-S-3´ Bindung. Das erste zu realisierende Ziel bestand damit in der Synthese der entsprechend 5´-Thio-modifizierten Amidite. Die Synthese von 4,4´-Dimethoxytriphenylmethanthiol, als alternative Schwefel-Quelle und gleichzeitig temporäre 5´-Schutzgruppe stellt den Schlüsselschritt der erfolgreichen Synthese dar. Mit Hilfe dieser Strategie gelingt es, die entsprechend benötigten modifizierten Amidite in zufriedenstellender Ausbeute herzustellen. Durch die Anwendung eines modifizierten Synthesezyklus ist die Synthese eines entsprechend Schwefel-modifizierten Modelloligodesoynukleotids möglich. Mit Hilfe dieser Verbindung wurde die erwünschte Spaltung der 5´-O-P-S-3´ Bindung mit Silbernitrat in Lösung und an verschiedenen Oberflächen (Chip, Biacore-Chip und Magnetic Beads) untersucht. 2.) Punktmutationsdetektion durch festphasenvermittelte Single Nucleotide Primer Extension (SNuPE) und MALDI-MS Ziel dieses Projektes war die Entwicklung eines neuen, elektrophoresefreien Verfahrens zur Detektion von bekannten Punktmutationen mittels fester Phase und der MALDI-Massenspektrometrie. Hierfür wird zunächst ein synthetisches Oligodesoxynukleotid, welches später als Primer fungiert, über einen photolytisch spaltbaren Linker an eine feste Phase gebunden. Dessen Oligodesoxynukleotid-Sequenz wird dabei so ausgewählt, daß sie komplementär zur Zielsequenz einer mutierten DNA ist und direkt vor der zu detektierenden Punktmutation endet. Durch eine enzymatische Polymerasereaktion wird der Primer dann um eine Base, die entweder komplementär zur korrekten DNA oder zur Mutation ist, verlängert. Das Reaktionsprodukt kann dann direkt mittels MALDI-MS photolytisch von der festen Phase getrennt und analysiert werden. Die Masse des Reaktionsproduktes ist festgelegt durch den erfolgten Einbau einer von vier Nukleobasen und gibt daher unmittelbar Auskunft über das Vorhandensein einer Punktmutation. Zunächst sollte die prinzipielle Durchführbarkeit des Projekts erarbeitet werden. Wesentliche Vorteile dieser neuen Methode im Vergleich zu bestehenden Verfahren wären der außerordentlich geringe Zeitaufwand und die unmittelbare Detektion ohne Label. Das hier entwickelte Konstrukt gestaltete sich allerdings für die Anwendung als ein Standardanalyseverfahren zu komplex, da für die Detektion von Punktmutationen aussagekräftigere und einfachere Verfahren bereits zur Verfügung stehen, der hier beobachtete Spaltungs-mechanismus wirft jedoch einige Fragen auf. Für einen Einsatz als photolabiles Trägermaterial ist dieses Konstrukt jedoch ebenfalls zu kompliziert. 3.) Verknüpfungsreaktionen von Acetal-geschützten Oligodesoxynukleotiden mit Hydrazin-modifizierten Derivaten Die effektive Konjugation von modifizierten Oligodesoxynukleotiden und Hydrazin-Derivaten durch die Verwendung einer 5´-Acetalfunktion konnte hier durch die Verwendung eines aromatischen Phosphitylierungsreagenz gezeigt werden. Das hergestellte 5´-Acetal-modifizierte Oligodesoxynukleotid fungiert hier als ein maskiertes 5´-Aldehyd. Der Einsatz des maskierten Acetals weist gegenüber dem reaktiven Aldehyd-Derivat mehrere Vorteile auf: es ist lagerstabil, gut handhabbar und stabil gegenüber den Bedingungen der Oligodesoxynukleotid-Synthese. Ein aromatisches Acetal-geschützte Oligodesoxynukleotid kann in einer Eintopfreaktion mit einem entsprechenden Hydrazin-Derivat umgesetzt werden. Das verwendete Hydrazin-Derivat muß jedoch als Hydrochlorid oder als Trifluoracetat eingesetzt werden. Die Reaktion erfolgt in wässriger methanolischer Lösung durch den Zusatz von Natriumacetat, dieses katalysiert die Reaktion. Durch den Einsatz von Methanol als Lösungsmittel kann der Reaktionsansatz direkt mit Hilfe der HPL-Chromatographie gereinigt werden. Die Umsetzung des Acetal-modifizierten Oligodesoxynukleotids wurde mit verschiedenen Hydrazinen durchgeführt. Die mit den Hydrazinen erreichten Ausbeuten übersteigen bei weitem (Ausnahme Biotin) die der entsprechenden Aktivester. Vorallem das Arbeiten in wässriger Lösung erleichtert die Synthese und die Aufreinigung. Hiermit steht eine 5´-Modifikation zur Verfügung, die eine Konjugation mit Hydrazin-Derivaten in sehr guten Ausbeuten ermöglicht.
An den Folgen der HIV-Infektion sind bisher mehr als 15 Millionen Menschen gestorben und die Zahl der Neuinfektionen wächst ständig. Nach Einführung der hochaktiven antiretroviralen Kombinationstherapie (HAART) 1995 konnte die HIV-Replikation im Patienten unterdrückt und der Verlauf der Krankheit verzögert werden. Aber die Bildung resistenter HIV-Stämme während der Therapie und die hohe Toxizität der Medikamente limitieren diese Erfolge. Einen neuen Therapieansatz bietet die genetische Modifikation von T-Lymphozyten zur "intrazellulären Immunisierung" der Zielzellen von HIV. Dabei werden die Zellen mit einem retroviralen Vektor transduziert und exprimieren ein antivirales Gen, das sie vor der HIV-Infektion schützt. In Vorarbeiten der Arbeitsgruppe von Laer wurde der retrovirale Vektor M87- Ineo entwickelt, der die Expression des membranverankerten Fusionsinhibitors C36/T20 auf der Zelloberfläche ermöglicht. Durch das Peptid sind die Zielzellen effizient vor der Infektion mit HIV geschützt (Hildinger et al., 2001). Das therapeutische Gen von M87-Ineo besteht aus dem Signalpeptid von LNGFR für die Translokation in das ER, dem inhibitorischen Peptid C36/T20, das von HIV-1 gp41 abgleitet ist, einem flexiblen Linker sowie aus der Transmembrandomäne von LNGFR für die Verankerung in der Plasmamembran. In der vorliegenden Arbeit wurde dieser retrovirale Vektor erfolgreich für die klinische Applikation zur Gentherapie der HIV-Infektion optimiert. Ziel war es, die potentielle Immunogenität des exprimierten Peptides zu minimieren, die Expression zu erhöhen sowie der Resistenzbildung entgegenzuwirken. Der Linker im Basiskonstrukt M87-Ineo ist abgeleitet aus dem Gelenk des murinen Antikörpers von IgG2 und verleiht dem Hemmpeptid Flexibilität. Um die potentielle Immunogenität des exprimierten Peptides zu reduzieren, wurde der Linker des murinen Antikörpers IgG2 durch Gelenke ("Hinge") von humanen Antikörpern der IgG-Klasse ersetzt. Das Konstrukt mit der humanen "Hinge" von IgG2 exprimierte genauso hoch wie das Basiskonstrukt und hemmte mindestens so effizient die HIV-Replikation. Durch die N-terminale Verlängerung des C-Peptids um 10 Aminosäuren konnte das Risiko der Resistenzbildung minimiert werden. Das verlängerte C-Peptid war in der Lage, HIV-Hüllproteine zu hemmen, die gegen das C36/T20-Peptid resistent sind. Das optimierte Peptid von M87o bestand somit aus dem Membrananker von trunkiertem CD34, dem Linker von humanem IgG2 sowie aus dem verlängerten C-Peptid (C46). Weiterhin wurde ohne Verlust der Expression oder Hemmwirkung des membranverankerten C-Peptids ein RNAElement (RRE decoy) erfolgreich als weiteres Hemmprinzip in den Vektor eingefügt, um die Bildung resistenter HIV-Stämme zu unterbinden. Durch Einsatz eines optimierten Leaderelementes im retroviralen Vektor konnte die Expression des inhibitorischen Peptides mehr als verzehnfacht werden. Damit konnte das Peptid und dessen Hemmung erstmals auch in primären Zellen nachgewiesen werden. Der Vergleich zwischen dem Basiskonstrukt M87-Ineo und dem optimierten Konstrukt M87o-RRE-Ineo zeigte, dass die erhöhte Expression auch mit einer wesentlich verbesserten Hemmwirkung einherging. In Zell-Zellfusionsassays wurde außerdem nachgewiesen, dass die Wirkung des C-Peptids auf der Hemmung des Viruseintritts von HIV in die Zelle beruht. Für die klinische Applikation wurde der Vektor M87o-RRE konstruiert, der die optimalen Vektorelemente und Peptidmodule enthielt, aber aus dem das Neomycin-Resistenzgen entfernt wurde. Dies führte zu einer nochmals höheren Expression des C-Peptids sowie zur weiteren Verminderung der Immunogenität des retroviralen Vektors. Das Markergen wurde ohnehin nicht mehr benötigt, da die genetisch modifizierten Zellen aufgrund der hohen Transgenexpression einfach detektiert werden konnten. Der optimierte Vektor M87o-RRE hemmte die HIV-Replikation so effizient, dass bisher keine resistenten Stämme isoliert werden konnten. Bei Toxizitätsstudien in Maus und Rhesusmacaquen konnten keine Nebenwirkungen oder Immunogenität beobachtet werden. Durch die erfolgreiche Optimierung steht nun für die klinische Studie der Phase I der bestmögliche retrovirale Vektor zur Verfügung.
Klinische Forschung zum Mammakarzinom in Deutschland wird von zahlreichen Faktoren bestimmt. Um die förderlichen und hinderlichen Faktoren bei der Planung und Durchführung von klinischer Forschung darstellen zu können, werden diese am Beispiel der größten deutschen Brustkrebsforschungsgruppe, der German Adjuvant Breast Cancer Group, GABG, dargestellt. In die GABG-Studien wurden seit der Gründung der Forschungsgruppe im Jahr 1981 in 18 Studien 9.692 Patientinnen eingebracht. Grundlage sind neben den Erfahrungen einer langjährigen Tätigkeit als Studienkoordinatorin dieser Forschungsgruppe die Ergebnisse einer schriftlichen und einer mündlichen Befragung der teilnehmenden Kliniken. Diese Arbeit beleuchtet die bei der Planung zu berücksichtigenden Kriterien wie, z.B. rechtliche und finanzielle Grundlagen, Kooperation mit der Klinikverwaltung, mit der Pharmazeutischen Industrie und mit anderen Studiengruppen, die Abhängigkeit von Ethikkommissionen und von der Qualität der Zentren sowie das Interesse der Öffentlichkeit an klinischer Forschung generell. Trotz förderlicher Einflüsse gibt es schon im Anfangsstadium einer klinischen Studie Defizite, die den Beginn einer Mammakarzinom-Studie in Deutschland behindern und teilweise sogar verhindern können. Die Effizienz von klinischer Forschung zum Mammakarzinom in Deutschland könnte wesentlich besser sein, wenn klinische Forschung in Kooperation statt in einem Nebeneinander gleichartiger Studiengruppen zum Mammakarzinom mit den fast gleichen Studieninhalten stattfinden würde. Bei der Durchführung der Studien zum Mammakarzinom gibt es im Rahmen der hier dargestellten Studiengruppe Ansätze, die die Effizienz von Studien bereits gesteigert haben. Dazu gehören positive Beispiele von gelungener Kommunikation mit den Prüfzentren, geeignete Fortbildungsangebote für Prüfärzte und für niedergelassene Ärzte sowie für das Dokumentationspersonal der teilnehmenden Kliniken. Mit der Darstellung der hinderlichen Faktoren bei der Durchführung der Studien in der GABG werden die Defizite der klinischen Forschung zum Mammakarzinom in Deutschland beispielhaft vorgestellt. Defizite sind neben der geringen Stellung der klinischen Forschung in Deutschland in der mangelnden Institutionalisierung und den strukturellen Defiziten klinischer Forschung sowie in den daraus resultierenden rigiden Verwaltungsstrukturen zu finden. Zudem wird auf die fehlende Ausbildung für klinische Forschung und den kaum gelernten Umgang mit dem Patienten als hinderliche Faktoren hingewiesen. Die schlechten Arbeitsbedingungen für Prüfärzte, der ständige Prüfarztwechsel, sowie das geringe kulturelle Ansehen der klinischen Forschung in Deutschland sind weitere Gründe für die mangelnde Patienteneinbringung in Studien und für die zeitverzögerte Dokumentation von klinischen Studien. Die Verwertung der Studienergebnisse ist innerhalb der GABG, aber auch im internationalen Vergleich noch zu gering. Zum Schluss werden Vorschläge für die Verbesserung der klinischen Forschung zum Mammakarzinom in Deutschland gemacht. Dazu gehört ihre bessere Institutionalisierung, mehr staatliche Förderung (DFG-Mittel) und damit die Stärkung der Unabhängigkeit von der Industrie, die vermehrte Kooperation zwischen allen beteiligten Gruppierungen, die Umsetzung des von der EU geforderten „einen Ethik- Votums“, die Aufstockung und bessere Bezahlung von Personal für klinische Forschung, die Einführung einer Ausbildung und die Verstärkung der Fort- und Weiterbildungsanstrengungen für klinische Forschung. Abgerundet wird dies durch die Forderung nach Qualitätssicherung durch GCP/ICH Konformität bei der Ausführung der mit klinischer Forschung verbundenen Tätigkeiten. Ziel sollte weiterhin die Steigerung der Veröffentlichungen der Forschungsergebnisse in internationalen Journalen, in der Fachpresse, aber auch in der Laienpresse sein. Nur so kann das Interesse der Öffentlichkeit und noch nicht erkrankter Frauen an klinischer Forschung in Deutschland geweckt werden. Mit dem Ausblick auf eine Neustrukturierung der GABG durch Gründung der German Breast Group (GBG), einer Forschungs GmbH, die als Plattform für klinische Studien zum Mammakarzinom eine schnellere, zielgerichtetere und damit erfolgreichere Umsetzung klinischer Forschung in Deutschland mit verbesserter Therapie zum Wohle des Patienten anstrebt, wird diese Arbeit abgeschlossen.
Im Rahmen der vorliegenden Arbeit wurde in den drei für die Weidewirtschaft Westafrikas wichtigsten Naturräumen das Umweltklassifikationssystem von Weidewirtschaft betreibenden und für die Region repräsentativen autochthonen und allochthonen Fulbegruppen erfaßt. Motiv für diese Untersuchung war dabei, im Zuge der derzeit stattfindenden Neubewertung mobiler pastoraler Betriebssysteme das diesen Strategien zugrundeliegende traditionelle Wissen zu dokumentieren und so einen Beitrag zum besseren Verständnis der jahrhundertealten Weidestrategien zu leisten. In den drei Gebieten wurden bei den autochthonen Gruppen jeweils zwischen 70 und 100 Einheiten erhoben, mittels derer die Fulbe die natürliche sowie die anthropogen beeinflußte Umwelt klassifizieren. Für jede Einheit wurde die genaue Beschreibung durch die Fulbe ermittelt. Der Klassifikation liegt ein dichtes Kriteriengefüge zugrunde, dessen Grundkriterien - Relief, Hydrologie, Böden, Vegetation, anthropogene und zoogene Beeinflussung - durch eine große Zahl weiterer Kriterien verfeinert werden. Das hieraus resultierende Gesamtsystem ist ein von allen Mitgliedern der jeweiligen Gemeinschaft geteiltes geoökologisches System, mit dem sich alle für einen Standort relevanten Umweltfaktoren präzise und vollständig beschreiben lassen, und das sämtliche Größenordnungen von Einheiten einbezieht. Gleichzeitig enthält es implizit die für Pastoralisten besonders wichtige Information über den Weidewert einer Einheit. Parallel zum Klassifikationssystem der Fulbe wurde mittels pflanzensoziologischer Aufnahmen die Vegetation der drei Untersuchungsgebiete dokumentiert. Die Aufnahmen wurden in allen traditionellen, von den Fulbe mit Namen bezeichneten Einheiten durchgeführt. Im Sahel wurden 4 Gehölz- und 22 Krautgesellschaften ausgeschieden, im Nordsudan 5 Gehölz- und 12 Krautgesellschaften und im Südsudan 7 Gehölz- und 12 Krautgesellschaften. Die pflanzensoziologischen Aufnahmen ermöglichen eine botanische Referenzierung der Fulbe-Einheiten: Ihnen konnten die jeweils für sie typischen Vegetationseinheiten zugeordnet werden. In zahlreichen Fällen zeigte sich eine hohe Wahrscheinlichkeit, daß einer Fulbe-Einheit eine oder einige wenige Pflanzengesellschaften entsprechen. Eine vollständige Übereinstimmung zwischen Fulbe-Einheiten und pflanzensoziologischen Gesellschaften, d.h., einer Fulbe-Einheit entspricht zu 100 % einer Pflanzengesellschaft und gleichzeitig tritt letztere ausschließlich in dieser Fulbe-Einheit auf, ist aber selten. Im Rahmen der ethnobotanischen Untersuchungen wurde die Bedeutung der Vegetation für die Bevölkerung der drei Regionen untersucht. Es wurden bei allen Fulbegruppen Namen und Nutzungen der angetroffenen Arten erhoben. Der Schwerpunkt lag dabei auf Weidearten, die für die Fulbe als Pastoralisten einen besonders wichtigen Aspekt darstellen, Medizinalpflanzen für human- und tiermedizinische Zwecke sowie sonstigen Verwendungen als Nahrungsmittel, Werkstoffe etc. Bei den Weidearten zeigte sich, daß der Anteil der auf diese Weise genutzten Arten und Pflanzenfamilien im artenarmen Sahel im Vergleich zu den anderen beiden Regionen am höchsten ist. Im artenreichen Südsudan umfaßt die Weidenutzung dagegen die wenigsten Arten. Dieses Ergebnis belegt die Bedeutung breitgefächerter Nutzungsstrategien gerade in Regionen mit prekärer Ressourcensituation. Die Erhebung der traditionellen Heilpflanzen stellt einerseits einen Beitrag zur Bewahrung traditionellen Wissens dar, das in allen drei Regionen durch sich rasch veränderte Lebensumstände bedroht ist. Außerdem hat sie gezeigt, daß eine traditionelle Lebensweise nicht immer den Erhalt dieser Kenntnisse garantiert. Im Rahmen der Arbeiten wurden 896 sicher bestimmte Arten und Unterarten aus insgesamt 104 Familien dokumentiert. Dies ist ein wichtiger Beitrag zur Erfassung der Biodiversität Westafrikas. Auch die Benennung der Arten wurde erhoben und analysiert: Für insgesamt 752 Arten konnte mindestens ein Vernakulärname erhoben werden. Im einzelnen wurden in den verschiedenen Dialekten erfaßt: Jelgoore (Sahel) 210 Vernakulärnamen, Jelgoore (Nordsudan) 259, Nommaare (Nordsudan) 348, Gu-urmaare (Südsudan) 97, Jugureere (Südsudan) 452. Anhand einer Analyse dieser Bezeichnungen sowie der bei den verschiedenen Fulbe-Gruppen gebräuchlichen Bezeichnungen der Umwelteinheiten wurde untersucht, wie bei Migration zwischen verschiedenen Naturräumen sprachlich mit der vorgefundenen neuen Umgebung und ihren Elementen (Landschaftseinheiten, Arten) umgegangen wird. Die Erhebungen zu Umweltwahrnehmung und -kenntnissen der Fulbe ergaben, daß diese die Standortansprüche zahlreicher Arten genau kennen und nach dem Prinzip der Indikatorarten anhand der Vegetation auf den Zustand des Bodens und sonstige Umweltbedingungen rückschließen. Gleichzeitig sind viele in der Umwelt ablaufenden Prozesse genau bekannt. Auch Faktoren, die die Böden von außen beeinflussen und unter deren Einwirkung es zu Degradationserscheinungen kommt, werden genau analysiert. Bezüglich der Degradation der Vegetation werden im Sahel mit Abstand die meisten zurückgehenden Arten genannt, die meisten von ihnen wichtige Nutzarten. Abschließend konnte durch den regionalen Vergleich der Weidepraktiken festgestellt werden, daß Umweltbedingungen und deren Wahrnehmung durch die Fulbe sich weniger als erwartet auf die Weidestrategien auswirken. Sie beeinflussen hauptsächlich Route und Dauer der Tageswanderungen. Ob und wie dagegen Transhumanz (saisonale Weidewanderungen) praktiziert wird, hängt mindestens ebenso sehr von sozialen und ökonomischen Faktoren wie von den ökologischen Bedingungen ab.
R-Flurbiprofen wird als das „inaktive“ Isomer des NSAIDs Flurbiprofen angesehen, weil es in vitro die Cyclooxygenase-Aktivität in therapeutischen Konzentrationen nicht hemmt. Dennoch zeigte sich, dass R-Flurbiprofen antinozizeptive und antikanzerogene Effekte hervorruft, obwohl das R-Enantiomer bei Ratte und Mensch nur marginal zum S-Enantiomer epimerisiert wird. Um diese Effekte näher untersuchen zu können, wurden sowohl in vivo als auch molekularbiologische Experimente durchgeführt: R- und S-Flurbiprofen wurden intraperitoneal in den Do sierungen 1, 3, 9 mg/kg und Dexamethason (Kontrolle) in einer intraperitonealen Dosis von 0.5 mg/kg Ratten verabreicht. Die Effekte von R- und S-Flurbiprofen und Dexamethason wurden in der Zymosan-induzierten Hinterpfotenentzündung im Vergleich zu Vehikel untersucht. Die Gruppengröße umfasste 3 – 6 Ratten pro Behandlung. Außerdem wurden Gewebeproben aus der entzündeten Pfote und dem Rückenmark auf eine PGE2-Freisetzung, Expression von COX mRNA und COX Protein hin untersucht. Weiterhin wurde die Hemmung der Aktivierung von Transkriptionsfaktoren (NFkB und AP-1) in RAW 264.7 Mausmakrophagen gemessen. R-Flurbiprofen zeigte in der Zymosan-induzierten Hinterpfotenentzündung der Ratte eine ähnliche antiinflammatorische Aktivität wie Dexamethason. Dieser beobachtete Effekt läßt sich zumindest teilweise über eine Hemmung der NFkB Aktivität erklären. R-Flurbiprofen hemmte: 1.) die LPS-induzierte NFkB DNA-Bindungsaktivität in RAW 264.7 Makrophagen, 2.) die Translokation der p65 Untereinheit in den Kern dieser Zellen und 3.) die Zymosan induzierte NFkB abhängige Gentranskription in der entzündeten Pfote und dem Rückenmark von Ratten. S-Flurbiprofen zeigte ähnliche Effekte, war jedoch weniger potent. R-Flurbiprofen hemmte ebenfalls die DNA Bindungsaktivität von AP-1, einem anderen wichtigen Transkriptionsfaktor bei Entzündungsprozessen. Da R-Flurbiprofen eine wesentlich geringere gastrointestinale Toxizität aufweist, lässt es sich möglicherweise als antiinflammatorische Substanz bei Erkrankungen einsetzen, in der die vermehrte oder konstitutive NFkB und AP-1 Aktivierung an pathophysiologischen Prozessen beteiligt ist. Zusammengefasst lässt sich der antiinflammatorische Effekt von R-Flurbiprofen über eine verminderte COX-2 Expression und eine Hemmung der Aktivierung der Transkriptions faktoren NFkB und AP-1 erklären.
Die intensiven gekühlten Schwerionenstrahlen des ESR-Speicherrings in Kombination mit dem dort installierten Überschallgastarget bieten einzigartige Möglichkeiten, Elektroneneinfangprozesse bei unterschiedlichen Projektilenergien zu untersuchen. In der vorliegenden Arbeit wurde die Emission der charakteristischen Balmerstrahlung detailliert nach (n, j)-Zuständen untersucht; die Lyman-alpha-Strahlung konnte aufgrund der großen Feinstrukturaufspaltung des 2p3/2-Niveaus darüber hinaus auch nach der Besetzung der magnetischen Unterzustände untersucht werden. Hierbei wurde gezeigt, dass der Einfangmechanismus einen starken Einfluss auf die Besetzung der magnetischen Unterzustände und damit auf die Winkelabhängigkeit der Emission der charakteristischen Photonen hat. Erstmals konnte an einem schweren Stoßsystem die Multipolmischung beim Ly-alpha1-Übergang mit großer Genauigkeit nachgewiesen werden; es ergab sich eine sehr gute Übereinstimmung mit der theoretischen Vorhersage. Aus dem Vergleich der Messung der Anisotropie bei höheren Energien mit der Vorhersage einer relativistisch exakten Theorie wurde geschlossen, dass die Messwerte nur dann erklärt werden können, wenn die Mischung von E1- und M2-Übergängen berücksichtigt wird. Durch den Vergleich der als zuverlässig anzusehenden Vorhersage für den REC-Prozeß mit den Messwerten konnte, erstmals für atomare Übergänge in Schwerionen, die Beeinflussung der messbaren Anisotropie durch Mischung der Strahlung unterschiedlicher Multipolaritäten aufgedeckt werden. Hiermit war es möglich, das Übergangsratenverhältnis Gamma M2 / Gamma E1 und daraus das Übergangsamplitudenverhältnis <M2>/<E1> zu extrahieren. Dieser kleine Beitrag(<1%) ist mit anderen Methoden nicht zu vermessen. Die beiden nichtrelativistischen Theorien, den nichtradiativen Einfang in das Projektil beschreiben, liefern bei den totalen Einfangswirkungsquerschnitten nahezu gleiche Ergebnisse in Übereinstimmung mit dem Experiment. Auch die (n, j)-differentiellen Querschnitte zeigen bei dem Vergleich mit den gemessenen Balmerspektren eine sehr gute Übereinstimmung. Erst wenn die magnetischen Unterzustände in die Untersuchung miteinbezogen werden, weichen die beiden Theorien voneinander ab. Unter Einbeziehung der Multipolmischung stimmt die Vorhersage der CDW-Theorie mit den Messwerten überein; die andere Theorie unterschätzt das Alignment des 2p3/2-Zustands und die daraus folgende Anisotropie der Lyman-alpha1-Strahlung. Es muss hervorgehoben werden, dass es durch die Anwendung der Abbremstechnik für nacktes Uran gelungen ist, diese Prozesse in einem Bereich extrem starker Störung (Q/v) zu untersuchen. Dieser Bereich ist im Allgemeinen experimentell nicht zugänglich und ist eine Herausforderung für die theoretische Beschreibung. Wie sich aus den Ausführungen zu den Zerfallskaskaden ergibt, ist die Messung des Alignments bei niedrigen Stoßenergien stark von Kaskadeneffekten beeinflusst. Das bedeutet, dass das Alignment der Lyman-alpha1-Strahlung sowohl durch den direkten Einfang als auch durch die Zerfallskaskade bestimmt ist. Dieses resultiert in einer von der jeweiligen Theorie abhängigen Vorhersage, wodurch sich eine integrale Aussage über die Güte einer bestimmten Beschreibung ableiten lässt.
Im Laufe der letzten Jahre hat sich die Aufmerksamkeit auf die Entwicklung von neuen RNA-bindenden Molekülen gerichtet. Grund dafür waren neue Erkenntnisse über die strukturelle und funktionelle Komplexität der RNA. So spielen spezifische RNA-Protein-Wechselwirkungen eine essentielle Rolle bei regulatorischen Prozessen. Die Spezifität dieser Interaktionen wird durch die dreidimensionale RNA-Struktur bestimmt. Somit bieten diese Wechselwirkungen ein attraktives Angriffsziel für die Suche nach niedermolekularen Substanzen, die in die regulatorischen Prozesse pathogener Organismen eingreifen. So gibt es im Replikationszyklus des HI-Virus mehrere essentielle Schritte, die der Interaktion zwischen charakteristischen, viralen RNA-Strukturen und der viralen Proteine bedürfen. Ein prominentes Beispiel ist die Verpackung der viralen RNA. Es handelt sich um einen hochspezifischen Prozess, bei dem aus einer Vielzahl von zellulären, viralen, gespleißten und ungespleißten RNA-Fragmenten, spezifisch die virale genomische RNA in die neu entstehende Partikel verpackt wird. Die Spezifität der Verpackung basiert auf der Erkennung der dreidimensionalen ps-Verpackungsstruktur am 5´-Ende der ungespleißten, viralen RNA durch die NCp7-Domäne des p55Gag- Vorläuferproteins. Die NCp7-Domäne ist durch zwei Zinkfingermotive, die in allen Onko- und Lentiviren mit Ausnahme der Spumaviren konserviert sind, gekennzeichnet. Durch die zentrale Rolle im HIV-1 Replikationszyklus bietet die ps-NCp7-Interaktion ein potentielles Angriffziel für antivirale Interventionen. Das langfristige Ziel des Projektes war die Identifizierung von Peptidliganden für das HIV-1 ps-Signal mittels der Phage-Display-Methode, welche die Basis für die Entwicklung antiviraler Moleküle liefern sollen. Die Methode des Phage-Display basiert auf der Affinitätsselektion von Peptiden, die als Fusionsproteine mit dem Hüllprotein an der Oberfläche eines Bakteriophagen exprimiert werden. Sie wurde sehr erfolgreich für die Selektion von Peptidliganden für Antikörper oder andere Proteindomänen eingesetzt. Für RNA-Targets gibt es nur gelegentliche Hinweise. Im Vordergrund des Projektes standen strukturelle Erkennungsmerkmale der Ligand-RNAWechselwirkung. Zur Identifizierung von Peptidliganden für das ps-Verpackungssignal sowie deren Teilelement SL3, das ebenfalls Verpackungsaktivitäten aufweist, wurden kommerzielle Phagen-Banken mit zufälliger Aminosäuresequenz eingesetzt. Im Rahmen des ersten Teilabschnitts konnten Phagen selektiert werden, die spezifisch an die Targetstrukturen gebunden haben und die Grundlage für die Ableitung von Peptidmotiven bildeten. Insgesamt konnten neun Motive abgeleitet werden, darunter das tryptophanreiche HXWPWW-Motiv, das Aminosäurehomologien zum nativen Liganden, dem NCp7-Protein, zeigte. Die Spezifität zur Ziel-RNA wurde mittels ELISA, CD-Spektroskopie und Peptidfilter-Bindungsstudien analysiert. Für die tryptophanreichen Peptide wurde die Affinität zur ps- und SL3-RNA ermittelt. Sie lag für das HWWPWWPeptid bei ca. 25 ± 2µM zur ps-RNA und bei ca. 34 ± 2µM zur SL3, also deutlich unter der Affinität des NCp7 (ca. 30nM). Entsprechend ließ sich das HWWPWW-Peptid in einem Kompetitions-ELISA mit ps-RNA als Target durch das native p55Gag- und NCp7-Protein, jedoch nicht durch ein unrelevantes RNA-bindendes Protein, verdrängen. Anschließend wurden mittels der CDspektroskopischen Mutationsanalyse die Bindungseigenschaften der Peptide optimiert, so dass zwei weitere Liganden, das HWWAWW- und HAWPWWPeptid, als potentielle ps-Liganden ermittelt werden konnten. Im zweiten Teil der Arbeit erfolgte die funktionelle Analyse der identifizierten Peptide hinsichtlich ihrer inhibitorischen Eigenschaften. Dazu wurden in HR´YFP-Zellen Pseudoviren, die das verpackbare Konstrukt ps-Yfp, sowie HIV-1 Gag-Pol und das Env des VSV-G enthielten, in Gegenwart des ps-bindenden Peptides, das als Rfp-Vpr-Fusionprotein vorlag, generiert. Eine Hemmung der Peptide auf die Verpackung der viralen RNA sollte dadurch messbar sein, dass die produzierten Pseudoviren weniger von der verpackbaren ps-Yfp-RNA enthielten als die Kontrollviren, die in Gegenwart eines Kontrollpeptids generiert wurden. Die Menge der Virus-RNA in den Partikeln wurde mittels einer quantitativen PCR-Methode, der Real-time-PCR, bestimmt. Einen hemmenden Einfluss auf die Verpackung der ps-Yfp-RNA und somit eine Inhibition der ps-NCp7-Interaktion hatte das HWWAWW-Peptid. Durch den Einsatz von 3 µg der HWWAWW-Rfp-Vpr-Vektors konnte die RNA-Menge um das fast 4000-fache im Vergleich zum Kontrollansatz reduziert werden.
Kompakte Sterne stellen neben weissen Zwergen und schwarzen Löchern eine der möglichen Endzustände der Evolution von Sonnen dar. Diese extrem dichten astrophysikalischen Objekte können als Restobjekte von massiven Sternen im Zentrum von Supernova-Explosionen entstehen. Allein in unserer Galaxie sind derzeit ca. 1500 solcher Objekte bekannt. Die Materie innerhalb der kompakten Sterne stellt neben der frühen Urknall-Phase, die dichteste, uns zugängliche Energieform im gesamten Universum dar; sie beschreibt den letzten stabilen Zustand bevor die Materie unaufhaltsam kollabiert und durch die Bildung eines Ereignishorizontes von der Aussenwelt abgetrennt wird. Die Eigenschaften der kompakten Sterne werden massgeblich durch zwei fundamentale Kräfte bestimmt: Die Quanten-Chromodynamik (QCD), die den Kräfteaustausch der elementaren Quarks durch farbgeladene Gluonen beschreibt, und die Allgemeine Relativitätstheorie, die die attraktive, gravitative Wechselwirkung der Sterne durch eine Verformung ihrer raumzeitlichen Struktur formuliert. In den ersten beiden Kapiteln der vorliegenden Arbeit wird zunächst die derzeitige Theorie der elementaren Wechselwirkungen mittels einer eichtheoretischen Formulierung beschrieben. Astrophysikalische Folgerungen der Allgemeinen Relativitätstheorie, wie die Raumzeitkrümmung innerhalb und ausserhalb kompakter Sterne und die Theorie schwarzer Löcher werden im Detail diskutiert und mittels dreidimensionaler Diagramme veranschaulicht. Im dritten Kapitel werden die numerisch erhaltenen Resultate der Eigenschaften der kompakten Sterne zusammengefasst und in folgende Gruppen untergliedert: Neutronensterne, Quarksterne, hybride Sterne und Zwillingssterne. Die mögliche Realisierung des Quark-Gluon-Plasmas im Inneren der kompakten Sterne wird diskutiert. Anhand von existierenden und zukünftig geplanten astrophysikalischen Beobachtungsmöglichkeiten (z.B. Gravitationswellendetektoren) wird die experimentelle Überprüfbarkeit der dargestellten Ergebnisse aufgezeigt.
Es wurden die Herstellung von protaminbasierten Oligonukleotid-Nanopartikel („binäres System“) physikochemisch charakterisiert. Vermischt man Oligonukleotide mit einer wässrigen Protaminlösung entstehen nach wenigen Sekunden sehr kleine Partikel (<20 nm). Der Partikeldurchmesser nimmt mit der Zeit zu und stabilisiert sich nach etwa 30 Minuten. Danach sind die NP für mindestens 24 Stunden bei Raumtemperatur stabil. Die Größe, die Größenverteilung und die Gestalt der Partikel wurden bestimmt. Diese runden Partikel konnten in ihrer Größe durch die Veränderung von Protamin- und ON-Konzentration in ihrer Größe gesteuert werden (etwa 100-1000 nm Durchmesser). Die Veränderung der Kettenlänge der Oligonukleotide (10-25 mer) zeigte einen nur geringen Einfluss auf die Größe und Größenverteilung der Partikel. Auch konnte die Oberflächenladung (Zetapotential) der Partikel durch die Veränderung des Protamin/OligonukleotidVerhältnisses gesteuert werden. Analytische Ultrazentrifugations-Messungen (durchgeführt vom AK Prof. Schubert) mit diesen Partikeln zeigte das diese schon in geringen Salzkonzentrationen (15 mM NaCl) nach wenigen Minuten zur Aggregation neigen. Diese konnte durch 15% Polyethylenglykol 20.000 Lösung gestoppt werden. Dies war ein wichtiger Hinweis, dass man mittels Makromolekülen die Partikelpräparationen stabilisieren kann. Ferner wurde die Zusammensetzung der Partikel, sowohl hinsichtlich der Oligonukleotide und als auch des Protamingehaltes bestimmt. Mehr als 90% des Wirkstoffes konnte in die Nanopartikel eingebunden werden. Da das von uns verwendete Protamin keine aromatische Aminosäure beinhaltet (Absorptionsmaximum kleiner 200 nm) und die Standard-Proteinnachweise wie z.B. BCA-Assay nur ungenügende Nachweisgrenzen aufweisen, wurde eine neue Protamin-Quantifizierungmethode mittels ortho-Phthaldialdehyd (OPA) und N-Acetyl-L-Cystein (NAC) für die Mikrotiterplatten erarbeitet. Damit war es möglich, auch in Anwesenheit von DNA, Protamin und Protaminsalze in einer Konzentration von 250 ng/ml sicher nachzuweisen. Ein weiteres Problem mit diesem binären Partikelsystem, neben der Aggregationsneigung, zeigte sich in verschiedenen Zellmodellen (durchgeführt von Norbert Dinauer, AK von Briesen). Die Partikel wurden zwar im großen Maße von humanen Macrophagen, humanen T-Zellen aufgenommen, aber danach langsam freigegeben. Auch wurden intrazellulär Aggregate gefunden. Humanes Serum Albumin (HSA) zeigte einen positiven Effekt auf die Aggregationsneigung (AlPrO-Nanopartikel). Es fungiert hierbei als ein Schutzkolloid, welches nur zu einem geringen Teil in die Partikelmatrix inkorporiert wird (<10%). Der Großteil des HSA befindet sich in der äußeren wässrigen Phase. Es ist zu vermuten dass es sterische die Partikel an der Sekundäraggregation hindert. Zusätzlich konnten primäre Komplexe vor der Zugabe von HSA aus HSA und Protamin beobachtet werden (Durchmesser 14 nm). Dies führt zu einem veränderten Self-Assembly der Nanopartikel gegenüber dem binären System. AlPrO-Partikel, hergestellt mit 1 mg/ml HSA, waren über Stunden stabilisiert in Zellmedium. Sie sind von runder Gestallt und 200-350 nm im Durchmesser groß. Sie weisen eine leicht negative Oberflächenladung auf, was auf eine Abdeckung der Partikeloberfläche mit HSA hinweist. Nahezu die gesamte eingesetzte Menge des Oligonukleotides wurde in die Partikelmatrix inkorporiert (> 90%). Es war möglich Partikel dieser Qualität mit unmodifizierten-, phosphorothioat modifizierten Oligonukleotiden und doppelsträngiger RNA (siRNA) herzustellen. Die von uns entwickelten AlPrO-Nanopartikel stellen eine neue Möglichkeit der peptidbasierte Transfektion von Oligonukleotiden in Zellen dar.
In dieser Arbeit wurden zwei Idealkristallsysteme und drei Systeme, die im weitesten Sinne als Domänenkristalle zu bezeichnen sind, mit quantenmechanischen Methoden untersucht, die auf Dichte-Funktional-Theorie basieren. Dabei wurden je nach System unterschiedliche Eigenschaften der jeweiligen Kristalle betrachtet. Zusätzlich wurden die berechneten Domänenkristalle jeweils mit entsprechenden Idealkristallen bezüglich ihrer Stabilität verglichen. Insgesamt konnte gezeigt werden, dass sich die hier verwendeten Rechenmethoden sehr gut zur Untersuchung von Grundzuständen und Strukturen unter hydrostatischem Druck sowie von Bindungseigenschaften eignen. Desweiteren lieferten die Ergebnisse starke Hinweise darauf, dass Kristalle mit Strukturgradienten nur dann existieren können, wenn sie sich vom Idealkristall um sehr geringe Energien unterscheiden, die unter der Fehlergrenze der hier angewendeten Methode (2-3 kJ/Mol) liegen.
Der Transport von antigenen Peptiden in das Lumen des endoplasmatischen Retikulums ist ein zentraler Vorgang bei der Antigenprozessierung und ihrer MHC-Klasse-I-vermittelten Präsentation auf der Zelloberfläche. Intrazelluläre Translokation über die ER-Membran erfolgt mit Hilfe von TAP, eines ATP-abhängigen ABC-Transporters. Einer ATP-unabhängigen Substratbindung folgt der eigentliche Transportschritt, dessen Energetisierung einer ATP-Spaltung bedarf. In der vorliegenden Dissertation wurde die ATPase-Aktivität des TAP-Komplexes aufgeklärt und detailliert charakterisiert. Es wurde eine schnelle und schonende Isolierungs- und Rekonstitutionsmethode entwickelt, die es erlaubt, den partiell aufgereinigten TAP-Komplex in Liposomen einzubauen und Funktionsstudien in vitro durchzuführen. Zum ersten Mal war es damit möglich, die Peptid-stimulierte TAP-spezifische ATP-Hydrolyse direkt zu beobachten und deren kinetische Parameter zu bestimmen. Eine direkte Korrelation zwischen Bindungsaffinität des Peptides zu TAP (Bindungskonstante KD) und der halbmaximalen Stimulation der ATPase-Aktivität von TAP (Km,pep) wurde festgestellt. Die Versuche mit den verzweigten Peptiden zeigten, dass Peptide, die nicht transportiert werden können, keine Stimulation der ATPase-Aktivität hervorrufen. Somit wurde die allosterische Interaktion zwischen Peptidbindung, ATP-Hydrolyse und Peptidtransport nachgewiesen. Nach der Entfernung des peptidexportierenden Sec61-Komplexes aus den Proteoliposomen konnte die vorläufige Stöchiometrie des Transportschrittes bestimmt werden. Eine weitere Anwendung fand die Rekonstitutionsmethode bei der Aufklärung des molekularen Wirkungsmechanismus des TAP-Inhibitors US6, indem der TAP-Komplex zusammen mit der aktiven ER-luminalen Domäne von US6 in die Proteoliposomen rekonstituiert wurde. Die Bindung von US6(delta147-183) an die ER-luminalen Bereiche von TAP blockiert die ATP-Bindung an die zytoplasmatischen NBD des Transporters. Die Peptid-induzierte ATP-Hydrolyse wird durch die Inhibition der ATP-Bindung unterbunden, wohingegen die Peptid- und ADP-Bindung von TAP nicht beeinflusst sind.
Im Rahmen der vorliegenden wissenschaftlichen Abhandlung wurden die Ergebnisse der Angioplastie von Beckenarterienstenosen oder –okklusionen analysiert. Hierbei wurde insbesondere die neue Einteilung von Gefäßläsionen zur Klassifikation nach dem TransAtlantic Inter-Society Consensus (TASC) Dokument herangezogen als auch der Stellenwert der Excimer-Laser assistierten Angioplastie bei diesen Läsionen evaluiert. Die Bedeutung einer kritischen Betrachtung der interventionellen Möglichkeiten in der Therapie der peripheren arteriellen Verschlusskrankheit (pAVK) liegt zum einen in der weiten Verbreitung dieser Erkrankung als auch in der zunehmenden Prävalenz. Als eindeutige Vorteile der interventionellen Methoden im Vergleich zu operativen Verfahren können die Durchführung in Lokalanästhesie, die geringere Mortalität und Morbidität und der kürzere Krankenhausaufenthalt gelten. Die Rekanalisation von Arterienverschlüssen bereitete jedoch lange Zeit Schwierigkeiten und zeigte die therapeutischen Grenzen der konventionellen Ballonangioplastie auf. Dies führte zur Entwicklung von verschiedenen abtragenden („Debulking“) Verfahren wie z. B. den Excimer-Laser. Mit ihm konnten auch chronische, kalzifizierte Gefäßokklusionen erfolgreich therapiert werden. In dem Zeitraum von Januar 1999 bis Dezember 2001 wurden 91 Patienten mit Gefäßläsionen im Bereich des Beckens therapiert. Dabei handelte es sich um 133 Stenosen, 20 Okklusionen und eine Dissektion. 142 Stents wurden im Rahmen der Interventionen implantiert. Präinterventionell erfolgte die Klassifizierung der Gefäßläsionen nach dem TransAtlantic Inter-Society Consensus (TASC), die Erhebung einer Medikamenten- und Risikofaktoren-Anamnese sowie die Ermittlung der Gehstrecke und der klinischen Stadieneinteilung nach Fontaine. Die postinterventionellen Kontrolluntersuchungen erfolgten in einem Zeitraum von einem Tag nach dem Eingriff sowie nach 1, 3, 6, 12 Monaten und dann jährlich. Im Zuge der Nachuntersuchung wurden neben der aktuellen Anamnese auch eine Überprüfung der Risikofaktoren und der aktuellen Medikamentenanamnese durchgeführt. Zusätzlich beinhaltete die Kontrolluntersuchung die farbkodierte Duplex-Untersuchung der unteren Extremitäten als auch die Bestimmung des Tibio-brachialen Quotienten als Index für den Grad der Durchblutungsstörung. Alle Kontrolluntersuchungen wurden durch die klinischen Partner des Gefäßzentrums (Abt. für Angiologie, Abt. für vaskuläre und endovaskuläre Gefäßchirurgie) der Universitätsklinik Frankfurt durchgeführt. Bei 36, der insgesamt 154 durchgeführten Interventionen, kam der Excimer-Laser zum Einsatz. 55% der Okklusionen (11 von 20) wurden mittels Excimer-Laser therapiert. Trotz des hohen Anteils an Gefäßverschlüssen waren die sekundären Offenheitsraten nach 24 Monaten nahezu identisch mit denen des gesamten Patientenkollektivs (97,14% zu 97,37%). Der technische Erfolg betrug 98,1%, die gesamte Komplikationsrate belief sich auf 3,9%. Die von uns erzielten Ergebnisse liegen im Wertebereich der bislang publizierten Arbeiten und sprechen für den Einsatz der Angioplastie bei Iliakalarterienläsionen. Dies gilt sowohl für Stenosen, als auch für Okklusionen. Lediglich Läsionen im Bereich der A. iliaca externa bei weiblichen Patienten lieferten deutlich schlechtere Ergebnisse (primäre Offenheitsraten nach 24 Monaten: 81,82% Frauen; 90,79% gesamt). Des Weiteren war ein multisegmentaler Gefäßbefall mit einer erhöhten Reinterventionsrate vergesellschaftet. 70% der Läsionen, welche einer Reintervention bedurften, waren multisegmental. Insbesondere nicht passierbare Läsionen stellen das Einsatzgebiet für den Excimer-Laser dar. Die etwas schlechteren primären Offenheitsraten (85,71% zu 90,79%) der Laser-PTA Gruppe im Vergleich zu unserer Gesamt-Gruppe beruhen auf dem größeren Anteil an langstreckigen Gefäßverschlüssen in dieser Gruppe (30,6% zu 7,7%). Die sekundären Offenheitsraten lassen hingegen keine signifikanten Unterschiede mehr erkennen (97,14% zu 97,37%). Die Ergebnisse dieser Arbeit zeigen, dass die Rekanalisation mittels Angioplastie bei Beckenarterienläsionen sowohl im Falle der AIC als auch der AIE, mit hohem technischen und klinischen Erfolg durchgeführt werden können. Insbesondere die Excimer-Laser assistierte Angioplastie erweitert das Anwendungsspektrum auf langstreckige, chronische Beckenarterien-verschlüsse, mit ermutigenden Resultaten. Die perkutane Rekanalisation von Beckenarterienläsionen stellt somit eine echte Alternative zur chirurgischen Therapie dar und sollte primär angestrebt werden.
Für ein Assessment Center zur Auswahl von Versicherungs-Außendienstmitarbeitern wurde geprüft, ob Beobachterexperten und Beobachternovizen zu ähnlichen oder zu unterschiedlichen Schlussfolgerungen über die Teilnehmer kommen. Eine ähnliche Schlussfolgerung sollte dabei Indikator dafür sein, dass ein Beobachtertraining (hier: Verbesserung der Beobachterexpertise durch wenigstens einmalige Teilnahme an einem AC als Beobachter) ohne Auswirkungen bleibt. Verglichen wurden die Ergebnisse dieser Beobachtergruppen mit dem AC-Leiter als "Oberexperten" und der AC-Assistenz. Im Rahmen der vorliegenden Untersuchung wurden die Daten von 37 AC mit insgesamt 267 Kandidaten und 171 Beobachtern in zwei unterschiedlichen Datensätzen überprüft. Es konnte nachgewiesen werden, dass sowohl Experten wie auch Novizen eine hohe Übereinstimmung mit der Gesamtrangfolge über die Teilnehmer hatten; hinsichtlich der übungsbezogenen und der merkmalsbezogenen mittleren Korrelationen sowie der mittleren Korrelationen innerhalb der einzelnen Übungen wurden kaum signifikante Unterschiede zwischen den einzelnen Beobachtergruppen festgestellt. Aus diesem Grunde kann geschlossen werden, dass die Teilnahme an einem AC als Beobachter nicht notwendigerweise die Beobachterexpertise verbessert. Angesichts der hohen Übereinstimmung der Beobachtergruppen mit der Gesamtrangfolge über die Teilnehmer kann geschlossen werden, dass für den vorliegenden einfachen AC-Typ verbunden mit der spezifischen Art der Ergebnisgewinnung der Verzicht auf ein Beobachtertraining nicht notwendigerweise eine Verschlechterung der AC-Ergebnisse bedeutet.
Bei den Non-Hodgkin Lymphomen (NHL) handelt es sich um eine heterogene Gruppe von Erkrankungen, die mit Strahlen- und Chemotherapie behandelt werden können. Im Frühstadium lassen sich mit der Bestrahlung Heilung erzielen, im forgeschrittenen Stadium und bei Rückfällen sind aber, zumindest bei den niedrigmalignen Lymphomen, keine Heilung mehr durch Chemotherapie und Strahlentherapie möglich. Ein neuartiger Therapieansatz erscheint nun möglich mit der Anwendung des ersten monoklonalen Antikörpers in der Hämatologie. Rituximab ist ein chimärer monoklonaler Antkörper mit humanen konstanten IgG1- und Kappa-Regionen und variablen Regionen eines Maus-Antikörpers gegen das CD20-Antigen, das von fast allen B-Zellen und auch den meisten Lymphomzellen exprimiert wird Rituximab richtet sich daher auch gegen normale, nicht maligne B-Zellen, schädigt aber nicht die Stammzellen, die wiederum für die Neubildung von B-Zellen zuständig sind. Die Wirkung des Antikörpers beruht dabei auf verschiedenen Mechanismen der Indukation von Apoptose sowie auf einer direkten Zytotoxizität. Rituximab besitzt bereits in der Anwendung als Monotherapie eine erhebliche antitumorale Aktivität. Die bisherigen Studien belegen, daß Rituximab als Monotherapie gegen B-Zell-Lymphome wirksam ist, diese aber auch nicht dauerhaft heilen kann. Daher stellt sich die Frage nach dem kombinierten Einsatz von Rituximab mit konventionellen Chemotherapien. Die grundsätzlich verschiedenartigen Wirkungs-, Toxizitäts- und Resistenzmechanismen sprechen für eine derartige Therapiekombination. In in vitro durchgeführten Versuchsreihen konnten syneristische Effekte der Kombination aus Chemotherapie und Rituximab beobachtet werden. Insbesondere scheint Rituximab einen chemotherapie- sensiblisierenden Effekt zu haben. in einer randomisierten Studie von Hiddemann et al. konnte die Überlegenheit von einer Polychemotherapie CHOP plus Rituximab gegenüber CHOP allein demonstriert werden. Die Remissionsrate war für die Kombinationstherapie CHOP plus Rituximab signifikant höher im Vergleich für CHOP alleine. Der Vorteil für die Kombination aus CHOP plus Rituximab war bei den Mantelzell-Lymphomen noch ausgeprägter. In unserer Arbeitsgruppe untersuchten wir in einer im Jahre 2000 initiierten Phase-II-Studie die Kombination von Bendamustin plus Rituximab bei Patienten mit fortgeschrittenen progredienten rezidivierten oder refraktären niedrigmalignen oder Mantelzell-Lymphomen. Ein anderes Therapieschema, welches bei diesen Lymphomentitäten in einer Studie geprüft wurde, war die Kombination aus Cladribin und Mitoxantron plus Rituximab. Bei hochmalignen wurde die Kombination aus Rituximab plus Gemcitabin, Oxaliplatin und Bendamustin untersucht. Ziel und Gegenstand dieser retrospektiven Untersuchung war, die eigenen Ergebnisse im Kontext mit anderen Studienergebnissen zu bewerten und diskutieren. 139 Patienten mit therapierefraktärem oder rezidiviertem Non-Hodgkin-Lymphom sind im Zeitraum von 1999 bis 2003 mit einer Rituximab-haltigen Chemotherapie behandelt worden. Das ORR lag für die einzelnen Lymphomentitäten wie folgt: - Follikulärs Lymphom: 89% - Mantelzell-Lymphom: 37% - Immunozytom : 84% - Diffus-großzelliges B-NHL: 64% Im Median dauerte die Remission für die jeweilige Erkrankung: - Follikulärs-Lymphom: 12,8 Monate - Mantelzell-Lymphom: 8,5 Monate - Immunozytom: 11,6 Monate - Diffus-großzelliges B-NHL : 10,2 Monate Die Ansprechraten lagen dabei für das prognostische ungünstige Mantelzell-Lymphom bei 37%, für die indolenten Lymphomentitäten Immunozytom und follikulären Lymphom bei 84% respektive 89%. Bei den hochmalignen Diffus-großzelligem B-NH Lymphomen konnte eine Remissionsrate von 64% erzielt werden. Die kürzeste Remissionsdauer war beim Mantelzell-Lymphom, die längste war beim follikulären Lymphom. Diese Therapieergabnisse erscheinen verbessert im Vergleich zu den etablierten Chemotherapieresultaten und vergleichbar mit internationalen Literatur publizierten Daten. Bei der Durchführung der Therapien mit Rituximab plus Chemotherpie konnte keine klinische relevante erhöhte Toxizität beobachtet werden. Die Patienten haben die Behandlung mit Antikörper Rituximab gut toleriert. nur 1,4% der Patienten (2 von 141) mussten die Behandlung mit Rituximab abbrechen. Ob die Verbesserung der Ansprechraten, die wir in unserer Studie in der retrospektiven Auswertung beobachtet haben, auch zu einer Verlängerung der Überlebenswahrscheinlichkeit und zu einer Verbesserung der Prognose dieser Krankheitsentitäten führen wird, ist noch nicht abschließend geklärt und muss erst noch in größeren prospektiven Studien geklärt werden.
In der vorliegenden Arbeit wird ein Curriculum zur Beugung vorgestellt, welches sich in ein Kerncurriculum und Erweiterungsmodule gliedert. Das Kerncurriculum geht von einer systematischen Erarbeitung von Erscheinungsreihen aus, zunächst in Form von Freihandversuchen. Dabei werden periodische Strukturen vor das Auge gehalten und durchblickt. Erst in einem zweiten Schritt treten entsprechende komplexere Versuchsaufbauten hinzu. Der Zusammenhang zwischen den durchblickten oder durchleuchteten periodischen Strukturen und den Konfigurationen der Beugungsbilder wird im Konzept optischer Wege beschrieben. Optische Wege werden dazu operational definiert und als geometrische Ordnungselemente eingeführt, die dem Zusammenhang zwischen den jeweils wirksamen räumlichen Bedingungen und den auftretenden Erscheinungen immanent sind. Den methodischen Rahmen des Kerncurriculum bildet damit eine phänomenologische Vorgehensweise - insbesondere, weil die optischen Wege nicht als ein Vorstellungskomplex gefasst werden, den man zur ursächlichen Erklärung eines Phänomens heranziehen kann. In einem Erweiterungsmodul des Curriculums wird im Einzelnen ausgeführt, wie es durch dieses methodische Vorgehen schon bei der Thematisierung der Beugung möglich ist, die holistischen Eigenschaften der Quantentheorie anzulegen und vorzubereiten. Dadurch kann der Übergang von der Beugung zur Quantentheorie in einem einheitlichen methodischen Rahmen erfolgen und eine vertikale Vernetzung der Unterrichtsinhalte unterstützen. Entsprechend dem von ERB und SCHÖN ausgearbeiteten Lichtwegkonzept bekommt auch beim Konzept optischer Wege das FERMAT-Prinzip eine zentrale Stellung. Es wird in der vorliegenden Arbeit räumlich formuliert. Im zentralen Thema des Kerncurriculums, der Beugung am Gitter, reichen in Erweiterung des FERMAT-Prinzips dann zwei Bedingungen aus, die man an die optischen Wege stellen muss, um diese Beugungserscheinungen umfassend zu beschreiben. Auch komplexe Zusammenhänge, wie beispielsweise die Invarianz des Beugungsbildes unter Translationen des Gitters, sind so anschaulich zu erklären. Das Beugungsbild eines Gitters tritt in der Brennebene einer Linse auf. Da es invariant unter Translationen des Gitters ist, darf auch ein Abstand zwischen Gitter und Linse gewählt werden, welcher größer als deren Brennweite ist. Je nach Stellung eines Schirms hinter der Linse erhält man so entweder das Beugungsbild oder das Abbild des Gitters. Eine Darstellung beider Situationen im Konzept optischer Wege lässt den Zusammenhang zwischen Beugungs- und Abbild sehr deutlich hervortreten und macht Experimente zur optischen Filterung unmittelbar verständlich. Die in diesem Rahmen eingeführte kontextuale Abbildung rundet das Kerncurriculum ab und arbeitet die Gesamtheit der wirksamen Bedingungen besonders heraus. Gleichzeitig gelingt es, Eigenschaften der FOURIER-Transformation auf einer elementaren Ebene zu behandeln. In einem der Erweiterungsmodule werden die Beugungsbilder bei Rotationen eines Gitters untersucht. Dabei treten Beugungsbilder in Form von Kegelschnitten auf. Es wird gezeigt, wie die schon im Kerncurriculum in Erweiterung des FERMAT-Prinzips formulierten beiden Bedingungen an die optischen Wege sich weiterhin als tragfähiger Beschreibungsansatz erweisen. Dabei können Elemente der Festkörperphysik anschaulich eingeführt werden – hier sind es die LAUE-Kegel. In einem anderen Erweiterungsmodul schließen sich eine anschauliche Herleitung des reziproken Gitters und der EWALD-Kugel an. Das Erweiterungsmodul, welches den Übergang zur Quantentheorie thematisiert, geht von der Beugung am Doppelspalt aus und sieht dort die Einführung des Zeigerformalismus vor. Der Kontrast zur phänomenologischen Vorgehensweise des Kerncurriculums ermöglicht eine saubere Unterscheidung zwischen den optischen Wegen als immanenten Ordnungselementen und den Zeigern als abstrakten Symbolen, die Wellenfunktionen repräsentieren. Methodendiskussionen werden so unterstützt. Im Zentrum des Moduls steht die Besprechung von Welcher- Weg-Experimenten. Die kontextuale Abbildung im Konzept optischer Wege führt dabei, wie oben bereits erwähnt, ohne methodischen Bruch auf das Superpositionsprinzip der Quantentheorie. Die schulische Erprobung des Kerncurriculums und einiger Erweiterungsmodule ergab schließlich, dass die operationale Definition der optischen Wege und die Formulierung von Kriterien an diese optischen Wege zur Beschreibung der Beugung es ermöglicht, durch tragfähige Begriffe bei den Schülern ein Bewusstsein für Zusammenhänge zwischen Teilinhalten des Unterrichtes zu wecken und die Beugung in eine Fülle optischer Erscheinungen zu integrieren. Der Übergang vom Experiment zu abstrakten Lerninhalten wird dann durch den Unterricht deutlich und generiert ein hohes Methodenbewusstsein.
Die vorliegende Arbeit befaßte sich mit der Untersuchung der Funktion und der Regulation des neuronalen GABA-Transporter 1 der Maus (mGAT1). Der mGAT1 ist ein elektrogener Neurotransmittertransporter, der in Gegenwart von GABA in Abhängigkeit des Membranpotentials und des Na+-Konzentrationsgradienten über der Membran einen sogenannten mGAT1-vermittelten Strom generiert. Der mGAT1 wurde in Oozyten von Xenopus laevis exprimiert und mit elektro-physiologischen Methoden (Two-Electrode Voltage Clamp), mit radioaktiven Auf-nahmemessungen (3H-GABA, 22Na+, 36Cl-) und mit biochemischen Methoden untersucht. In der vorliegenden Arbeit konnte unter Verwendung des Tiagabin –Analogons SKF-89976-A gezeigt werden, daß der mGAT1-vermittelte Strom aus zwei Komponenten besteht, einem Transportstrom und einem Transporter-assoziierten Strom. Dabei wurde die hier gewonnene neue Erkenntnis genutzt, daß SKF-89976-A die Transporter-assoziierte Stromkomponente selektiv blockieren kann. Als Ursache des Transportstroms konnte die in der Literatur angenommene Transportstöchiometrie von 1GABA : 2Na+ : 1Cl- bewiesen werden. Als Ursache des Transporter-assoziierten Stroms konnte eine vom GABA-Transport entkoppelte Na+-spezifische Leitfähigkeit in Gegenwart von GABA identifiziert werden, die drei bis fünfmal größer ist als die Transport-Leitfähigkeit selbst. Transportstrom und Transporter-assoziierter Strom scheinen von zwei unterschiedlichen Konformeren des mGAT1 vermittelt zu werden, die nicht miteinander im Gleichgewicht stehen. In Abwesenheit von GABA ist in der Stromantwort auf einen Spannungspuls ein mit der Zeit abfallender transienter Strom zu beobachten. Hinsichtlich dieses langsamen transienten Stroms des mGAT1 konnte ein Bindungsmodell für Na+ und Cl- in Abwesenheit von GABA entwickelt werden. Nach diesem Modell kommt es vor der Bindung von GABA am Transporter zu einer sequentiellen Bindung zweier Na+-Ionen und eines Cl--Ion. Regulation des mGAT1 konnte durch Phosphorylierung bzw. Dephosphorylierung des mGAT1 mittels PKC und PP2B gezeigt werden. Dabei scheint der mGAT1-vermittelte Strom durch Serin- / Threonin-Phosphorylierung verstärkt zu werden. Durch Koinjektion von mGAT1-cRNA und humaner Hirn-mRNA konnte der mGAT1 zusammen mit unbekannten zytosolischen bzw. Membranproteinen des humanen Hirns koexprimiert werden. Dabei wird die Transportrate des mGAT1 signifikant gesteigert; der mGAT1-vermittelte Strom wird nicht signifikant beeinflußt. Es scheint, daß eines oder mehrere der koexprimierten humanen Proteine die Bildung des Transport-Modus bzw. die Bildung des Kanal-Modus mit beeinflussen.
Der Untersuchungszeitraum von 9 Monaten und die Vergabe der Evaluation der Beratungsstelle der LZKH an die Poliklinik für Zahnerhaltungskunde des ZZMK der Universitätsklinik in Frankfurt (Carolinum) ergeben eine gute Vorraussetzung für eine repräsentative und objektive Beurteilung des bestehenden Services. Der bestehende Service der LZKH stellt eine gute Grundlage dar, was durch die positive Beurteilung der Ratsuchenden bestätigt wird. Diese zeigt, dass die bestehende Beratung die For-derungen des Präsidenten der LZKH nach einer unabhängigen und qualitativ hochwertigen Beratung bereits meist erfüllt. Möchte sich die Beratungsstelle allerdings gegen andere Konkurrenten, und vor allem gegen die geplante Beratungsstelle der Regierung behaupten [6], [25], [38], [57], [58], so muss der Service in einigen Punkten noch verbessert werden. Ein beträchtlicher Mangel stellte die Namensliste der Zahnärzte einer bestimmten Fachrichtung dar, die nur in den wenigsten Fällen mit der Spezialisierung des Zahnarztes übereinstimmte. Es müsste also für jedes Fachgebiet eine neue Liste erstellt werden, und diese in regelmäßigen Abständen aktualisiert werden. Im Bereich „Behandlung unter Anästhesie“ ist dies bereits erfolgt und weitere sind laut Aussage der LZKH geplant. Die Hilfe bei Rechnungsfragen dauerte bei Einsendung der Unterlagen mit bis zu sechs Wochen eindeutig zu lange, denn der Patient muss die Rechnung meist innerhalb von 4 Wochen begleichen. Die Beraterinnen der LZKH können laut eigener Aussage allerdings auf Grund des hohen Arbeitsaufkommens, auch in ihren anderen Tätigkeitsbereichen, die Überprüfung nicht schneller durchführen. Zusätzliche Mitarbeiter/innen wären in diesem Fall die einzige Lösungsmöglichkeit. Um sich in Hessen zu etablieren und für jeden Bürger zur Verfügung stehen zu können, sollte eine wesentlich breit gefächerte in Information in verschiedensten Medien durchgeführt werden. Denn viele Anrufer gaben an, nur durch Zufall auf die Nummer der Hotline gestoßen zu sein. Dieser Zustand entspricht derzeit also nicht einem Service, der allen Bürgern zugänglich ist, wie es das Ministerium für Gesundheit gefordert hat. Des weiteren müsste der Zugriff auf die beratenden Zahnärzte besser organisiert werden, denn es gab einige Fälle, in denen eine Beratung durch einen Zahnarzt nötig gewesen wäre, aber zum Zeitpunkt der Anfrage kein Zahnarzt verfügbar war. Ein Einsatzplan der beratenden Zahnärzte oder ein pensionierter bzw. berufsunfähiger Zahnarzt, der sich jedoch auf dem neusten Stand der Zahnmedizin befindet, sind die Lösungsmöglichkeiten dieses Problems. Eine persönlichen Vorstellung mit eventueller kurzer Befundaufnahme durch einen Zahnarzt wäre absolut wünschenswert, da einige Probleme nur mit einer genauen Diagnose qualitativ hochwertig lösbar sind [18]. Dieser Service müsste jedoch nicht für alle Ratsuchenden zur Verfügung stehen, sondern nur für diejenigen, denen per Telefon keine zufriedenstellende Lösung angeboten werden konnte. Allerdings dürfte der Telefonservice nicht vernachlässigt werden, denn viele Ratsuchenden sehen in dessen schnellen Hilfe den Hauptvorteil, denn hier entfällt die Wartezeit auf einen Termin. Außerdem gibt es einige Patienten, die aus psychischen oder physischen Gründen keinen Arzt aufsuchen können und so die telefonische Beratung oft die einzige Möglichkeit darstellt, um an Informationen zu gelangen [30], [70]. Diese genannten Ergänzungen würden zu einer Optimierung des bestehenden Beratungsser-vices führen, wodurch sich die Beratungsstelle gegenüber anderen Anbietern und vor allem dem Plan der Regierung, weitere Beratungsstellen zu gründen, behaupten könnte. Die Durchführbarkeit ist allerdings eine Kostenfrage, denn die LZKH möchte auch weiterhin dem Patienten ihren Service kostenfrei anbieten. Aus diesem Grund muss der Vorstand der LZKH abwägen, welche Verbesserungsvorschläge mit den vorhandenen finanziellen Mitteln durchgeführt werden können. Die Fortschritte der Veränderungen und eventuell auftretende neue Aspekte sollten regelmäßig durch befragen der Ratsuchenden überprüft werden. Trotz der genannten Mängel, ist die Forderung der Regierung nach einer bundesweiten Beratungsstelle, die dem Patienten gesundheitliche Informationen sowie Beratung und Aufklärung bieten sollen [55], nicht angebracht. Denn diese Forderungen erfüllt der bestehende Service der LZKH bereits. Aber nicht nur in Hessen hat der Patient diese Möglichkeit der Informationsfindung, sondern auch in allen anderen Bundesländern [79]. Der Nachteil anderer Anbieter ist die fragliche fachliche Kompetenz [55], [80], wenn sie keine Berater einsetzen, die aus dem zahnmedizinischen Bereich stammen, bzw. diese nicht auf dem neusten Stand der zahnmedizinischen Entwicklung sind. Wird das Feld durch die Krankenkassen besetzt, so ist hier das Problem die Neutralität, da diese nicht wirtschaftlich unabhängig sind. Außerdem erfolgt hier, im Gegensatz zu den Landeszahnärztekammern, oftmals erst die Beratung, wenn bereits ein Behandlungsfehler erfolgt ist [17]. Die durch die Regierung geplanten Beratungsstellen weisen nicht nur eine fragliche Kompetenz auf, sondern sollen aus Mitteln der Krankenkassen, und somit also durch den Patienten, finanziert werden [50]. Der Präsident der LZKH sieht dies sehr kritisch und betonte in einem Interview gegenüber der Pressereferentin der LZKH, dass in Zeiten knapper Ressourcen im Gesundheitswesen der von Bundesgesundheitsministerin Fischer mit Millionenbeträgen aus Mitteln der GKV geplante Aufbau von Patientenberatungsstellen absolut unnötig und überflüssig ist. Aus diesen Gründen versucht nicht nur die LZKH, sondern auch einige andere Zahnärztekammern, wie zum Beispiel die Landeszahnärztekammer Sachsen [25] und die Landeszahnärztekammer Baden-Württemberg [57], den Versuchen der Krankenkassen, Verbraucherorganisationen und Regierung mit einer besseren Alternative entgegenzutreten. Die Landeszahnärztekammer Hessen hat mit dieser Untersuchung einen wichtigen Schritt in Richtung Qualitätssicherung und Etablierung gegenüber anderer Anbieter unternommen. Voraussetzung ist allerdings, dass zumindest ein Teil der Verbesserungsvorschläge realisiert werden.
Das peroxsimale Enzym Katalase wird durch Blaulichtabsorption der prosthetischen Häm- Gruppe im sichtbaren Licht und in Anwesenheit von Sauerstoff in vitro und in vivo inaktiviert. Unter physiologischen Bedingungen wird das inaktivierte Enzym in vivo durch Neusynthese ersetzt. Ist der Proteinbiosyntheseapparat jedoch durch zusätzliche Stressoren wie z. B. Kälte gehemmt, kommt es zu einem Verlust von Katalaseaktivität im Blatt. Alpenpflanzen sind an ihrem natürlichen Standort sowohl hohen Lichtintensitäten, als auch niedrigen Temperaturen ausgesetzt. Streb et al. (1997) identifizierten in Blättern der Alpenpflanze Homogyne alpina eine lichtstabile Katalase. Nach Isolierung von Katalase-cDNAs der Alpenpflanzen Soldanella alpina und Homogyne alpina, sowie der Flachlandpflanze Secale cereale (durchgeführt und zu Verfügung gestellt von M. Schmidt, Universität Frankfurt) sollten diese heterolog exprimiert und auf Lichtstabilität untersucht werden. In Hefen gelang es jedoch nicht, pflanzliche Katalasen funktionell zu exprimieren. Daher wurde die heterologe Katalase-Expression im Baculovirussystem durchgeführt. Nach Infektion von Spodoptera frugiperda Insektenzellen mit rekombinantem Baculovirus, der die jeweilige Katalase-cDNA-Sequenz enthielt, gelang es, aktive pflanzliche Katalasen zu extrahieren. Die rekombinanten Katalasen von Soldanella alpina und Secale cereale waren, ebenso wie die aus Blättern gereinigten Enzyme, lichtsensibel. Die rekombinante Katalase der Alpenpflanze Homogyne alpina war dagegen lichtstabil. Die Ermittlung der Michaelis- Menten-Kinetiken, der peroxidatischen Aktivitäten und der Empfindlichkeit gegen Inhibitoren der lichtsensiblen und lichtstabilen Katalasen ergaben, dass sich die Katalasen in ihren katalytischen Eigenschaften nicht wesentlich voneinander unterschieden. Lediglich die spezifische Aktivität der rekombinanten lichtstabilen Katalase von Homogyne alpina war signifikant herabgesetzt. Ein Vergleich der abgeleiteten Aminosäuresequenz der Katalase von Homogyne alpina mit Katalasesequenzen anderer mono- und dikotyler Pflanzen und Rinderleberkatalase zeigte sechs auffällige Aminosäuresubstitutionen in stark konservierten Bereichen: Val124Thr, Leu135Ile, Leu189Trp, Gly206Ser, His225Thr und Lys291Met. An einer computergestützten Darstellung des Modells einer 3dimensionalen Katalaseuntereinheit der lichtstabilen Katalaseuntereinheit von Homogyne alpina ist zu sehen, dass die auffälligen Aminosäuresubstitutionen in einer Region am Eingang eines seitlichen Kanals, der zum Reaktionszentrum führt, lokalisiert sind. Diese Region repräsentiert bei tierischen Katalasen eine NADPH-Bindungsstelle. NADPH schützt Rinderleberkatalase, im Gegensatz zu den rekombinanten pflanzlichen Katalasen von Secale cereale und Homogyne alpina, komplett vor der Inaktivierung durch Superoxid und partiell vor Starklichtinaktivierung. Der NADPH-vermittelte Schutz der Rinderleberkatalase ist auf eine spezifische NADPH-Bindung zurückzuführen. Die in dieser Arbeit untersuchten Katalasen von Secale cereale und Homogyne alpina binden NADPH nicht. Die aus Blättern isolierte lichtsensible Katalase von Secale cereale wird durch Superoxid nicht inaktiviert, die rekombinante lichtstabile Katalase von Homogyne alpina dagegen schon. Daher liegt der oxidativen Photoinaktivierung ein anderer Mechanismus zu Grunde, als der Superoxid-vermittelten Katalaseinaktivierung. Die Aminosäuresequenz von CATA3 von Helianthus annuus zeigte die gleichen auffälligen Aminosäuresubstitutionen wie CAT-1 von Homogyne alpina. Heterologe Expression von CATA3 mit anschließender Lichtinkubation ergab, dass CATA3, ebenso wie CAT-1 von Homogyne alpina, lichtstabil ist. In Blättern von Helianthus annuus sind Katalasen mit erhöhter Lichtstabilität als semikristalline Einschlüsse, sogenannten Cores, organisiert. Transmissionselektronenmikroskopische Aufnahmen zeigten, dass in den Peroxisomen von Homogyne alpina-Blättern ebenfalls Cores vorhanden sind. Während der Lichtinaktivierung von Katalasen soll die Oxidation von Histidinresten ausgelöst werden. Daher ist die bei den lichtstabilen Katalasen vorkommende Aminosäuresubstitution von His zu Thr (Pos. 225) in einer bei eukaryotischen Katalasen konservierten Region besonders auffällig. Deshalb wurde bei der lichtsensiblen Katalase von Soldanella alpina durch in vitro Mutagenese das His225 durch ein Thr ersetzt. Die mutagenisierte Katalase von Soldanella alpina war noch lichtempfindlicher, als das nichtmutagenisierte rekombinante Emzym. Dieses Ergebnis zeigt, dass die Region um das His225 eine wichtige Rolle für die Lichtstabilität bzw. –empfindlichkeit von pflanzlichen Katalasen einzunehmen scheint; die His225Thr Substitution ist allerdings nicht alleine für die Lichtstabilität ausreichend.
Die vorliegende Arbeit wurde partiell als Bestandteil eines von der EU geförderten TME-Projektes angefertigt. Das vorrangige Ziel war die Weiterentwicklung der Methodik, die Ring-Testung und die Freiland-Validierung eines offenen und ungestörten terrestrischen Modellökosystems (TMEs). Hierzu wurden die Auswirkungen der Modellchemikalie Carbendazim (fungizider Wirkstoff der Formulierung Derosal®) auf die Enchytraeidenzönose mit TMEs im Labor und in Freiland- Validierungsstudien untersucht. Die Familie Enchytraeidae (Annelida, Oligochaeta) unterlag auf Grund ihrer hohen ökologischen Wertigkeit und einer bekannten Sensitivität gegenüber Carbendazim, im Rahmen dieser Arbeit einer weitergehenden und vertiefenden Auswertung. Im Detail wurde analysiert, welcher der mittels TMEs für die Enchytraeen erhobenen Parameter gegenüber der Exposition von Carbendazim am sensitivsten reagiert und bei der statistischen Auswertung den niedrigsten NOEC- bzw. EC50-Wert liefert. Darüber hinaus wurde die Frage geklärt, welche der in einer TME-Studie generierten ökotoxikologischen Kenngrößen, NOEC oder EC50, am sinnvollsten in der Risikobeurteilung eingesetzt werden sollte. Die Versuche wurden in Amsterdam (Niederland), Bangor (Wales, England), Coimbra (Portugal) und Flörsheim (Deutschland) durchgeführt. An allen Standorten wurde mit dem gleichen Equipment gearbeitet. Die TMEs bestanden aus intakten Bodensäulen (Ø = 17.5 cm, Länge = 40 cm) mit ungestörter Schichtung, indigener Bodenfauna und natürlichem Pflanzenbewuchs. Die Entnahme der TMEs erfolgte auf den Flächen, auf denen auch die entsprechenden Freiland-Validierungsstudien durchgeführt wurden. Es handelte sich dabei um Grünland bzw. in einem Fall (Coimbra) um eine landwirtschaftliche Nutzfläche. Unabhängig von den jeweiligen Bodeneigenschaften konnten an allen Standorten mit den angewandten Methoden intakte Bodensäulen im Freiland entnommen und über eine dreimonatige Versuchsdauer als TMEs im Labor oder im Gewächshaus installiert werden. Zumindest für diesen Versuchszeitraum war die Aufrechterhaltung einer natürlichen Zönose der Enchytraeen in den TMEs unter den beschriebenen Versuchsbedingungen möglich. Untersucht wurden die Parameter Gesamtabundanz, Artenanzahl, Shannon-Wiener Index, Dominanzspektrum, Abundanz der Gattungen Fridericia und Enchytraeus, Anteil der Juvenilen an der Gesamtabundanz sowie die Vertikalverteilung der Enchytraeidae. Mittels einer multivariaten Statistik (PRC, Principal Response Curve) wurden die Auswirkungen auf den Endpunkt Enchytraeidae-Artengemeinschaft bestimmt. An allen Standorten kam es im TME-Vortest, im TME-Ringtest und in der Freiland-Validierungsstudie bei allen Probennahmezeitpunkten zu einer hohen Variabilität der Messwerte, die durch die heterogene räumliche Verteilung der Enchytraeidae bedingt ist. Traten Unterschiede zwischen den Kontrollen der verschiedenen Probennahmezeitpunkte im TME-Vortest und im TME-Ringtest auf, waren sie meist auf eine hohe Variabilität des jeweiligen Endpunktes zurückzuführen. Nur in wenigen Ausnahmefällen kam es zu einer kontinuierlichen Zunahme während der Versuchsdurchführung. In der Freiland-Validierungsstudie nahmen die jeweiligen Messwerte in den Kontrollen während der Versuchsdauer ab. Dies war die Folge der hohen Sommertemperaturen und der dadurch bedingten Austrocknung des Bodens, die in der Freiland-Validierungsstudie, wie alle Umweltbedingungen, nicht zu kontrollieren war. Beim Vergleich TME-Ringtest versus Freiland-Validierungsstudie lagen die Kontrollwerte der einzelnen Parameter in den beiden Studien in vergleichbaren Größenordnungen. Zwischen den Standorten konnten im TME-Vortest, im TME-Ringtest und in der Freiland- Validierungsstudie für alle Parameter keine prinzipiellen Differenzen bezüglich der Entwicklung der Kontrollen über die Probennahmezeitpunkte beobachtetet werden. An allen Standorten zeigten die untersuchten Parameter im TME-Vortest, im TME-Ringtest und in der Freiland-Validierungsstudie eine gute Übereinstimmung mit in der Literatur veröffentlichten Ergebnissen. Insgesamt lässt sich für die Entwicklung der Kontrollen über die Zeit ableiten, dass sich die Enchytraeenzönosen in den TMEs sowie am entsprechenden Freilandstandort hinsichtlich der untersuchten Parameter und ihrer räumlichen Heterogenität unabhängig von den Bodeneigenschaften nicht unterschieden. Aufgrund dieser Tatsache können systembedingte methodische Fehler bei der Erfassung von Chemikalienwirkungen auf die Enchytraeenzönosen unterschiedlicher Standorte mittels TMEs ausgeschlossen werden. Die grundlegenden Voraussetzungen für den Einsatz von TMEs als ökotoxikologisches Testsystem und Instrument in der Ökotoxikologie sind somit gegeben. An den unterschiedlichen Standorten waren die Auswirkungen von Carbendazim auf die untersuchten Parameter an den unterschiedlichen Probennahmezeitpunkten im TME-Ringtest ähnlich wie in der Freiland-Validierungsstudie. Zum Probennahmezeitpunkt w+16 waren die Effekte im TME-Ringtest und in der Freiland-Validierungsstudie vergleichbar denen im TME-Vortest. Die zwischen den Standorten festgestellten Unterschiede hinsichtlich des zeitlichen Verlaufs der Effekte sind auf die unterschiedlichen Bodeneigenschaften und die speziellen Substanzeigenschaften von Carbendazim zurückzuführen. Daher sollten bei der Planung einer TME-Studie neben den Charakteristika der zu testenden Substanz auch die standortspezifischen pedologischen Gegebenheiten berücksichtigt werden. Dabei sollten die Versuchdauer und das Raster der Probennahmen so angelegt sein, dass die maximalen Auswirkungen einer Testsubstanz sowie eine eventuelle Regeneration festgestellt werden können. Zwischen dem TME-Vortest, dem TME-Ringtest und der Freiland-Validierungsstudie sowie zwischen den verschiedenen Standorten konnten bezüglich der Sensitivität der untersuchten Endpunkte keine Unterschiede beobachtet werden. Die niedrigsten NOEC-Werte wurden im TME-Vortest, im TME-Ringtest und in der Freiland-Validierungsstudie am häufigsten mit den Parametern Dominanzspektrum und Enchytraeidae-Artengemeinschaft bestimmt. Die niedrigsten EC50-Werte (inklusive enger 95 % Vertrauensbereiche) wurden für die mit Hilfe der PRC ermittelten sensitivsten Taxa berechnet. In dieser Arbeit konnte gezeigt werden, dass multivariate statistische Verfahren wie die PRC am besten geeignet sind, um Multispezies-Testsysteme wie die TMEs auszuwerten. Darüber hinaus lassen sich mittels PRC die jeweils empfindlichsten Taxa ermitteln, für welche dann wiederum EC50-Werte mit sehr engen 95 % Vertrauensbereichen berechnet werden können. Eine einfachere Alternative ist die Auswertung des Parameters Dominanzspektrum. Mit diesem Endpunkt lassen sich sowohl NOEC-Werte bestimmen als auch sensitive Taxa ermitteln für die anschließend EC50-Werte zu berechnet werden können. EC50-Werte waren an allen Standorten sowohl im TME-Vortest und im TME-Ringtest als auch in der Freiland-Validierungsstudie häufiger bestimmbar als NOEC-Werte. Die EC50- Werte lagen meist unter den entsprechenden NOEC-Werten. Der Faktor zwischen den an den einzelnen Standorten ermittelten Minimum- bzw. Maximumwerten war für die EC50-Werte niedriger als für die NOEC-Werte. Die im TME-Ringtest ermittelten NOEC- und EC50-Werte entsprachen denen der Freiland-Validierungsstudie. Beim Vergleich der Standorte zeigten die EC50-Werte eine geringere Streuung als die NOEC-Werte. Der Variationskoeffizient der für den TME-Vortest und den TME-Ringtest berechneten EC50- Werte sowie der Faktor zwischen Minimum- und Maximumwert der unterschiedlichen Institute war denen anderer Ringtests, die mit Labormethoden durchgeführt wurden, vergleichbar, obwohl hier unterschiedliche Böden mit unterschiedlichen Enchytraeenzönosen verwendet wurden. Die im TME-Vortest und im TME-Ringtest festgestellten EC50-Werte sind mit den in der Literatur für Enchytraeen und Lumbriciden angegebenen LC/EC50-Werten sehr gut vergleichbar und liegen im unteren Bereich dieser Angaben. Damit konnte im Rahmen dieser Arbeit nachgewiesen werden, dass die mittels TME generierten Ergebnisse replizierbar und reproduzierbar sind, was eine wichtige Bedingung für die Verwendung als Testsystem in der Ökotoxikologie darstellt. Gleichzeitig wurde mittels der Freiland-Validierungsstudie die ökologische Relevanz der TME-Resultate belegt. TMEs können als sinnvolles Instrument zur Verbesserung der Risikobewertung für das Kompartiment Boden für neue/existierende Chemikalien, Biozide und Pflanzenschutzmittel betrachtet werden. Strukturelle Parameter wie z.B. die Enchytraeidae-Artengemeinschaft oder das Dominanzspektrum sollten in die Auswertung mit einbezogen und multivariate Verfahren wie die PRC verwendet werden. Damit ist es möglich, die sensitivsten Taxa zu identifizieren, Zusammenfasssung 178 für welche EC50-Werte berechnet werden können. Anstelle von NOEC-Werten sollten bei der Auswertung von TME-Studien bevorzugt EC50-Werte als ökotoxikologische Kenngröße in die Risikobewertung eingehen (z.B. zur Berechnung von TER-Werten). Die dabei zu verwendenden Sicherheitsfaktoren sind entsprechend anzupassen. Mit der Kombination Enchytraeidae und TME ist neben der Untersuchung von ökotoxikologischen Effekten zudem eine gute Möglichkeit gegeben, das Bioakkumulationspotential von Chemikalien zu bestimmen. Damit stehen für ökotoxikologische Untersuchungen auf den unterschiedlichsten Ebenen (Labor, Modellökosystem, Freiland, Bioakkumulation) standardisierte Testsysteme mit Enchytraeen zur Bestimmung der Wirkungen und des Verhaltens von Chemikalien zur Verfügung.
Bendamustin ist eine Substanz, die seit über 40 Jahren in den Indikationen Non-Hodgkin Lymphom, CLL, multiples Myelom, Morbus Hodgkin, Mammakarzinom und SCLC eingesetzt wird, die jedoch erst nach der Wiedervereinigung Deutschlands systematisch neu entwickelt wurde. Die Wirksamkeit der Substanz als Monotherapie wurde, mit Ausnahme des Morbus Hodgkin, in allen Indikationen nachgewiesen. Obwohl in der Monotherapie hier keine Ergebnisse von randomisierten Studien vorliegen, ist der Stellenwert von Bendamustin als Einzelsubstanz eindeutig belegt, denn es wird als Monotherapie meist in fortgeschrittenen Therapiestadien eingesetzt, in denen es kaum Standardtherapieempfehlungen gibt. Die Ergebnisse in diesen Therapiesituationen sind insbesondere bei NHL beeindruckend (9, 28) und mit den Ergebnissen von Polychemotherapien in früheren Stadien der Erkrankung zu vergleichen (11). Beim Mammakarzinom wird Bendamustin als Monotherapie hauptsächlich palliativ eingesetzt, (36, 38, 64). Der Vorteil gegenüber anderen vergleichbaren Substanzen liegt in der Tatsache, daß Bendamustin kaum Alopezie und Organtoxizität verursacht, so dass die Patientinnen bezüglich Lebensqualität profitieren. In allen Indikationen sind oben beschriebene verschiedenste Kombinationsschemata geprüft worden. In-vitro konnte gezeigt werden, dass Bendamustin mit dem Purinanalogon Cladribin sowie mit dem monoklonalen Antikörper Rituximab synergistisch wirkt. Die Kombination mit einem Purinanalogon erwies sich klinisch zwar als sehr effektiv, aber durch das überschneidende Toxizitätsprofil ist sie mit schweren Nebenwirkungen verbunden (49). Als besonders günstig erwies sich bei den NHL die Kombination mit dem monoklonalen Antikörper Rituximab (68, 79). Die Kombination ist mit Ansprechraten von über 90% hocheffektiv und die Nebenwirkungen waren selten und nur von geringer Ausprägung. Dieses ist die einzige Bendamustin-Kombination, die systematisch vom Labor bis zur klinischen Prüfung entwickelt wurde. Die Prüfung dieser Kombination in prospektiv randomisierten Studien ist für die Weiterentwicklung der Substanz der logische nächste Schritt. Eine Indikationserweiterung erscheint insbesondere beim multiplen Myelom und bei der CLL sinnvoll. Die Ergebnisse der vorliegenden Studien zeigen, dass Bendamustin auch bei diesen Erkrankungen der B-Zellreihe sehr effektiv ist (2, 29, 59). Beim Mammakarzinom liegt der Stellenwert der Substanz eher in der Monotherapie als palliativer Ansatz (38, 64). Die Ergebnisse der Phase-III Studie in der BMF Kombination werden mit Spannung erwartet, jedoch sind die Therapiestandards in dieser Indikation inzwischen durch neue Substanzen, wie den Taxanen, modifiziert, so dass nur eine Prüfung gegen einen modernen Therapiestandard den Stellenwert des Bendamustins realistisch bestimmen könnte. Die Prüfung des Stellenwertes bei soliden Tumoren wäre insbesondere beim SCLC interessant, sofern gezeigt werden kann, dass die Substanz äquipotent ist und eine bessere Verträglichkeit aufweist. Das Toxizitätsprofil der Substanz ist ausreichend belegt. Die Haupttoxizität ist die Hämatotoxizität im Sinne von Leukozytopenie, Granulozytopenie und Thrombozytopenie. Als nicht-hämatologische Toxizität sind Übelkeit und Erbrechen dominierend. Die Toxizitäten sind in der Regel geringer Ausprägung, gut handhabbar und kontrollierbar. Langzeiteffekte sind bisher nicht bekannt, eine kumulative Thrombozytopenie ist anzunehmen (64), jedoch nicht an großen Patientenzahlen belegt. Bisher sind keine Zweittumoren als Langzeiteffekt dokumentiert worden, dies mag an der zum Teil erst relativ kurzen Nachbeobachtungszeit der in neueren Zeiten systematisch durchgeführten Studien liegen. Als Hauptindikation stellen sich die Non-Hodgkin Lymphome dar. In dieser Indikation dominiert die Zahl der durchgeführten Studien . Die Kombination mit Rituximab könnte eine sinnvolle mögliche Vergleichstherapie zur derzeitigen Standardtherapie darstellen. Ein Stellenwert als Standardtherapie kann der Substanz derzeit allerdings noch nicht zugesprochen werden. Die Substanz scheint insbesondere in der Kombination mit Rituximab bei NHL ein ideales Profil zu erfüllen: hohe Effektivität in Einklang mit einem patientenfreundlichen Toxizitätsprofil.
Ziel der vorliegenden Arbeit ist die Entwicklung, Aufbau und Inbetriebnahme eines Funnelsystems zur Zusammenführung zweier Teilchenstrahlen, bestehend aus zwei Injektionssystemen, zwei RFQ-Beschleunigern, Hochfrequenz-Deflektoren und Diagnoseeinheiten. Die Aufgabe des Experiments ist die praktische Umsetzung eines neuartigen Verfahrens zur Strahlstromerhöhung bei im Idealfall gleichbleibender Emittanz und steigender Brillanz. Notwendig wird dies durch die benötigten hohen Strahlströme im niederenergetischen Bereich einiger zukünftiger geplanter Beschleunigeranlagen. Hier kann der Strahlstrom nicht mehr konventionell von einer einzigen Ionenquelle erzeugt werden. Nur durch die Parallelerzeugung mehrerer Teilchenstrahlen sowie mehrfachem Zusammenführen (Funneling) der Teilchenstrahlen ist es möglich, die notwendigen Strahlströme bei der geforderten kleinen Emittanz zur Verfügung zu stellen. Das Frankfurter Funneling-Experiment ist die skalierte erste HIDIF-Funneling-Stufe als Teil eines Fusionstreibers. Hier werden zwei möglichst identische Helium-Teilchenstrahlen von zwei Ionenquellen erzeugt und in zwei RFQ-Beschleunigern beschleunigt. Der Deflektor biegt die Teilchenstrahlen reißverschlussartig auf eine gemeinsame Strahlachse. Am Anfang der Arbeit stand die Optimierung des Betriebs der Beschleunigerkomponeten und die Entwicklung und der Aufbau eines Einzellendeflektors. Erste erfolgreiche Strahlexperimente zur Strahlvereinigung werden im Kapitel 7.5 vorgestellt. Die Phasenraumellipse des zusammengeführten Strahls zeigt starke bananenförmige Deformierungen, die auf eine schlechte Anpassung des RFQ an den Funnel-Deflektor zurückzuführen sind. Das Elektrodendesign des RFQ ist in zwei unabhängige Bereiche unterteilt. Die erste Zone dient der Beschleunigung der Teilchen. In der zweiten Zone soll erstmals ein sogenannter 3D-Fokus der Strahlradien der x- und y-Ebene und einer longitudinaler Fokussierung erreicht werden. Der zweite Abschnitt bestand für erste Strahltests aus zunächst unmodulierten Elektroden. Zur besseren Anpassung des RFQ an den Funneldeflektor wurde dann das letzte Elektrodenteil erneuert. Der Umbau erfolgte zunächst nur bei einem der beiden RFQ-Beschleuniger. Somit war der direkte Vergleich zwischen altem und neuen Elektrodendesign im Strahlbetrieb möglich. Mit diesem neuen Elektrodenendteil wurde eine Reduktion der Strahlradien der x- sowie y-Ebene, eine bessere longitudinalen Fokussierung sowie eine höhere Transmission erreicht (Kapitel 8). Damit ist es erstmals gelungen mit einer speziellen Auslegung der RFQ-Elektroden eine direkte Anpassung an nachfolgende Elemente zu realisieren. Untersuchungen zur Strahlzusammenführungen werden seit einigen Jahren am Institut durchgeführt. Mit der Entwicklung des 3D-matchers wurde ein weiteres der kritischen Probleme gelöst. Der Umbau des zweiten Beschleunigers findet zur Zeit statt. Nach der Inbetriebnahme werden Funneling-Experimente mit dem Einspalt- und einem neuem Vielspaltdeflektor folgen.
Um zu prüfen, ob das individuelle Risiko einer Flugreisethrombose anhand der Entstehung eines der ersten klinischen Symptome, der Ödembildung im Bereich der unteren Extremität abgeschätzt werden kann, nahmen 70 Probanden an einer simulierten 12-stündigen Flugreise teil. Der Versuch fand in einer Unterdruckkammer statt, in der die Probanden unter entsprechenden atmosphärischen und klimatischen Verhältnissen auf einer originalen Flugzeugbestuhlung saßen. Die Luftfeuchtigkeit in der Kammer war technisch limitiert und mit durchschnittlich 52% erheblich über dem angestrebten Sollwert von unter 20%. Die 70 Probanden waren in drei Riskogruppen aufgeteilt. 20 Probanden (28,6%) hatten eine gesicherte APC-Resistenz und hatten eine länger als 12 Monate zurückliegende Thrombose erlitten. 25 Teilnehmer (35,7%) gehörten zu der Gruppe, bei denen eine APC-Resistenz bekannt war, aber keine Thrombose in der Vorgeschichte. Die Kontrollgruppe bestand aus 25 Probanden (35,7%), die weder eine APC-Resistenz noch eine Thrombose in der Anamnese vorwiesen. Es bestand eine gleiche Geschlechts- und der Altersverteilung. Unmittelbar vor und nach dem Versuch wurde eine standardisierte optoelektronische Messung der Unterschenkelvolumina durchgeführt. Es konnte hier eine signifikante Zunahme des gemessenen Volumens ermittelt werden. Dieses Volumen des venösen Ödems betrug durchschnittlich 118ml (3,6%). Zwischen dem Ausmaß des Ödems und den Variablen Alter, Geschlecht, BMI und Trinkmenge bestand kein signifikanter Zusammenhang. Ebenfalls konnte zwischen den drei Risikogruppen „APC mit Thrombose“, „APC ohne Thrombose“ und der „Kontrollgruppe“ kein signifikanter Unterschied in Bezug auf das Unterschenkelödem nachgewiesen werden. Des weiteren konnte entgegen der Erwartungen ein Abfall des Hämatokrits festgestellt werden. Dieses Ergebnis ist jedoch auf Grund der relativ hohen Trinkmenge von 1300ml und der zu hohen Luftfeuchtigkeit während des Versuches von eingeschränkter Bedeutung. Bei keinem der Probanden konnte vor und nach dem Versuch bei der duplexsonographischen Untersuchung der unteren Extremität ein Strömungshindernis beobachtet werden. Im Rahmen dieser Studie kam es bei einem männlichen Probanden mit bekannter APC-Resistenz und einer Thromboseanamnese in beiden Unterschenkeln zu einem Zwischenfall. Ein 62 Jahre alter Teilnehmer entwickelte nach Abschluss der simulierten Flugreise eine Unterschenkelvenenthrombose. An dem später thrombosierten Bein wurde eine um zwei Standardabweichungen größere Ödembildung dokumentiert, was jedoch ebenso bei 7 anderen Probanden aller Risikogruppen beobachtet werden konnte. Schlussfolgerung: Es konnte zwischen den von uns zusammengestellten Risikogruppen und dem Ausmaß des Unterschenkelödems kein signifikanter Zusammenhang nachgewiesen werden. Bei dem Probanden, der eine Thrombose entwickelte, konnte retrospektiv eine um zwei Standardabweichungen größere Volumenzunahme des betroffenen Unterschenkels beobachtet werden. Ein ausgeprägtes Unterschenkelödem sollte als ein absolutes Warnzeichen verstanden werden, ist aber nicht als zuverlässiges Frühzeichen zu werten.
Im Rahmen dieser Arbeit wird ein Experiment vorgestellt, mit dem es möglich ist, die Wechselwirkungen zwischen Elektronen in der Gegenwart eines extrem starken Laserfeldes zu untersuchen. Diese resultieren aus der nichtsequentiellen Multiphoton- Doppelionisation von Neon in einem starken elektrischen Feld, das durch einen Hochleistungslaser erzeugt wird. Mit Hilfe der COLTRIMS-Technologie ist es möglich die entstandenen Teilchen nachzuweisen und die Impulskomponenten zu bestimmen. Bei dieser Technologie handelt es sich um ein „Mikroskop“, das atomphysikalische Prozesse vollständig differntiell beobachtet. Die bei der Doppelionisation entstandenen Elektronen und das Rückstossion werden mittels eines schwachen elektrischen Feldes auf orts- und zeitaufgelöste Multichannelplate-Detektoren mit Delaylineauslese geleitet. Zusätzlich wird noch ein magnetisches Feld überlagert. Aus dem Auftreffort und der Flugzeit der Teilchen können die Impulse bestimmt werden. Es ist erstmals möglich die Impulskomponenten der drei Raumrichtungen für alle an der Ionisation beteiligten Teilchen mit hinreichend guter Auflösung zu bestimmen. Es können vollständige differentielle Winkelverteilungen erzielt werden. Damit gelingt es, ein kinematisch vollständiges Experiment zu realisieren. Die Elektronen werden bevorzugt in Richtung des Polarisationsvektors des Laserlichtes emittiert. Aufgrund der guten Impulsauflösung ist es jetzt möglich, die Richtung senkrecht zur Polarisation zu untersuchen und die Erkenntnisse in Bezug zueinander zu bringen. Das der nichtsequentiellen Doppelionisation zu grunde liegende sehr anschauliche Modell ist der „Rescattering-Prozess“: Das Laserfeld koppelt an das Coulombpotential des Atoms und verformt es derart, dass ein Elektron die effektive Potentialbarriere überqueren oder durch diese durchtunneln kann. Dieses zuerst befreite Elektron wird durch das oszillierende elektromagnetische Feld zunächst vom Ursprungsion fortgetrieben. Kehrt aber die Phase des Laserfeldes um, wird es zurück zum Ion beschleunigt, nimmt dabei Energie aus dem Feld auf und kann durch Elektron-Elektron-Stossionisation ein zweites Elektron aus dem Atom ionisieren oder es können kurzzeitige Anregungszustände erzeugt werden, die später feldionisiert werden. Dieses Modell wurde schon durch ein Vielzahl von Experimenten verifiziert. Gleichzeitig wirft es aber auch Fragen auf: Wie sind die Elektron-Elektron-Korrelationen zu erklären? Wie hängt der Longitudinal- mit dem Transversalimpuls zusammen? Welche Ionisationsmechanismen treten wann auf? Zusammenfassend kann man sagen, dass ein Experiment präsentiert wird, das zur Erfoschung von Korrelationseffekten bei Multiphoton-Ionisation beiträgt und sehr detaillierte Einblicke in die Welt der Laseratomphysik gewährt. Die Daten belegen eindeutig, dass eine Messung der korrelierten Impulse mehrerer Teilchen in einem Laserfeld eine Zeitmessung mit einer Auflösung weit unter einer Femtosekunde ermöglicht. Das beobachtete Ein- und Ausschalten der Elektronenabstossung, je nach der über die Longitudinal-Impulskorrelation gemessenen Verzögerungszeit, zeigt die Möglichkeit „Attosekunden Physik ohne Attosekunden-Pulse“ zu betreiben.
Rumination im Alltag : Inhalte, Verlauf, Vorhersage und klinische Aspekte gedanklicher Bewältigung
(2004)
Unerwünschte wiederkehrende Gedanken - gewissermaßen gedankliches Wiederkäuen - werden auch als Rumination bezeichnet. Rumination kann harmlose Selbsterinnerung an noch zu erledigende Aufgaben beinhalten, aber auch bis hin zu klinisch bedeutsamen Symptomen reichen. Entsprechend gilt Rumination je nach theoretischem Ansatz beispielsweise als instrumentell im Dienste der Zielerreichung (Martin & Tesser, 1996a; 1996b) oder als maladaptive Bewältigung von dysphorischer oder depressiver Verstimmung (Nolen-Hoeksema, 1991; 1996). Da in den meisten bislang vorliegenden Studien jedoch entweder indirekte Indikatoren für Rumination oder aber Fragebögen zur Ruminationsneigung verwendet wurden, lagen ökologisch valide Daten zur spontan auftretenden Rumination im Alltag bislang kaum vor. Hierzu haben wir vier Studien durchgeführt. In der ersten Studie wurde das Ruminationsverhalten von N = 46 Studienanfängern mittels der aus Alltagsbewältigungsforschung und Therapie bekannten strukturierten Tagebücher untersucht. Der Anteil ruminativer Strategien an der Bewältigung negativer Alltagsereignisse lag je nach zugrundeliegender Ruminationsdefinition bei 28 bis 33%. Zur Vorhersage aktueller Rumination wurden aus den Ruminationstheorien von Martin und Tesser (1996a; 1996b) sowie Nolen-Hoeksema (1991; 1996) Hypothesenmodelle abgeleitet. Ein von uns vorgeschlagenes drittes Hypothesenmodell berücksichtigte mit Appraisal aus dem Bewältigungsmodell von Lazarus (1991; 1993) auch ein kognitives Element. Hierarchisch lineare Datenanalysen ergaben theoriekonforme Belege für die Bedeutung von Zielen und Dysphorie in der aktuellen, spontanen Rumination. Die beste Varianzerklärung gelang jedoch unter Einbeziehen des Appraisal im dritten Hypothesenmodell. Dieses Modell ließ sich anhand der Daten aus Studie II replizieren. Außerdem wurden bei den N = 72 Studienanfängern der zweiten Studie zusätzlich Dauer, Inhalte und Beurteilung des Nachdenkens erfasst und im Hinblick auf theoretische Grundannahmen diskutiert. In Studie III wurde die Bewältigung bei N = 54 Opfern eines Wohnungseinbruches untersucht. Hierbei zeigte sich nach 4 Wochen erwartungsgemäß ein Nachlassen der Rumination über den Einbruch bei gleichzeitiger Normalisierung des subjektiven Wohlbefindens. Die Befunde dieser drei Studien deuten darauf hin, dass Rumination eine bei gesunden Normalpersonen häufig eingesetzte alltägliche Bewältigungsstrategie ist. Trotz ihrer Zusammenhänge mit Dysphorie lassen sich keine längerfristig maladaptive Folgen der Rumination, wie Nolen-Hoeksema (1991; 1996) sie postuliert, nachweisen. Kognitive Ereignisbeurteilungen haben einen größeren Einfluss auf die Alltagsrumination als die in der Theorie von Martin und Tesser (1996a; 1996b) ins Zentrum gerückten Ziele. Die Angemessenheit der Ruminationsmodelle für die Alltagsrumination wird diskutiert. Studie IV schließlich untersuchte die Rumination von N = 50 stationär behandelten AlkoholEntgiftungspatienten. Hinsichtlich Dauer und Bewertung des Nachdenkens unterschieden sich die Patienten deutlich von den Studenten aus Studie II. Nach einem Katamnesezeitraum von 3 Monaten ließ sich bei den abstinent gebliebenen Patienten eine ähnliche Verringerung von Ruminationsneigung, Depressivität und negativem Befinden nachweisen, wie sie Hoyer, Heidenreich und Fecht (2000) bei langzeittherapierten Alkoholpatienten gefunden hatten. Die später abstinent bleibenden Patienten zeichneten sich zudem - gemessen an den weiter oder wieder Alkohol konsumierenden Patienten - bereits am Ende des Klinikaufenthaltes durch eine „kritischere“ Einstellung zum eigenen Nachdenken aus. Die explorative, prospektive Regressionsanalyse auf das Kriterium Abstinenz ergab, dass von Parametern der Rumination eine fast ebenso hohe Varianzerklärung ausging wie von „harten“ krankheitsbezogenen Daten. Hohe Ruminationsneigung sowie eine positive Einstellung zur aktuellen Rumination sind demnach prognostische Faktoren, die einen fortgesetzten Alkoholkonsum fördern. Die Ergebnisse werden im Hinblick auf therapeutische Implikationen diskutiert.
Ziel dieser Arbeit war die Untersuchung, inwieweit sich die Expression bestimmter Oberflächenmerkmale auf Lymphozyten im peripheren Blut nach einer Transplantation im Rahmen der chronischen Abstoßungsreaktion verändert. Dazu wurde ein etabliertes Modell zur chronischen Abstoßung mit zwei sich genetisch nur gering differierenden Rattenspezies verwendet. Dabei wurden Herzen von Lewis-Ratten heterotop auf Fischer 344-Ratten transplantiert. Die Untersuchung wurde vergleichend unter der immunsuppressiven Behandlung von Cyclosporin A (CsA), Tacrolimus (FK-506) und Mycophenolate mofetil (MMF) sowie einer unbehandelten Gruppe durchgeführt. Über den Zeitraum von 60 Tagen wurden die Oberflächenmerkmale mit durchflusszytometrischen Messungen bestimmt.
Operative Eingriffe am offenen Herzen wie die häufig durchgeführten Bypass- und Herzklappenersatzoperationen bedürfen fast immer der Unterstützung durch die Herz Lungenmaschine bzw. extrakorporale Zirkulation. Durch den Kontakt des Blutes mit nichtorganischen Fremdoberflächen der EKZ kommt es zur Induktion einer transienten Hyperaktivität neutrophiler Granulozyten. Nachdem Herz und Lunge nach Öffnung der Aortenklemme ihre physiologische Funktion wieder aufnehmen und reperfundiert werden, werden aus diesen ischämischen Organen darüber hinaus pathogene Moleküle wie freie Sauerstoffradikale freigesetzt. Von aktivierten Neutrophilen freigesetzte, immmunkompetente Moleküle (z.B. Zytokine) führen zusammen mit diesem oxidativen Stress zu Organdysfunktionen durch Ödembildung in Körpergeweben wie Myokard, Lunge, Gehirn und Gastrointestinaltrakt und dadurch zu typischen Folgeerscheinungen wie z.B. verlängerter postoperativer Beatmungszeit oder (meist transienten) neuropsychologischen Dysfunktionen im Sinne von kognitiven Defiziten. Andere Pathomechanismen wie Mikroembolien durch z.B. Kleinstteilchen und Gasbildungen aus dem OP Gebiet verstärken diese pathogenen Effekte. Resultat ist eine verlängerte Regenerationsdauer und ein verlängerter Krankenhausaufenthalt der operierten Patienten. Zur Minimierung dieser unerwünschten Wirkungen der EKZ wurden in den letzen 20 Jahren diverse Techniken zur Filtration der unterschiedlichen Kreislaufbestandteile innerhalb der EKZ entwickelt. Von besonderem Interesse ist die seit ca. 8 bis 10 Jahren etablierte Filtration aktivierter neutrophiler Granulozyten, die die Hauptverantwortung für das aseptische Entzündungsgeschehen unter Anwendung der EKZ tragen. Entwicklung und Einsatz dieser leukozytenspezifischen Filtersysteme führt zwar zu einer deutlichen Reduktion der zirkulierenden immunaktiven Zellen und zu einer geringgradigen Verringerung der pathogenen EKZ Folgeerscheinungen, die Effektivität der gegenwärtigen Leukozytenfiltration stellt sich allerdings nur in einzelnen Berichten als positiv dar. Die Daten, die einen deutlichen klinischen Vorteil der Leukozytenfiltration zeigen, sind nicht vorhanden. Die unterstützende Anwendung antiinflammatorischer, systemisch angewandter Pharmaka führte zwar bei den meisten Präparaten zu Erfolg versprechenden Ergebnissen im Tierversuch, konnte aber beim operierten Patienten selbst zu keiner deutlichen Verminderung der unerwünschten EKZ Wirkungen beitragen. Unter der Vorstellung, dass gefilterte, aktivierte Leukozyten zum Großteil zwar nicht in den Patientenkreislauf zurückgepumpt werden, jedoch immer noch immunaktive Stoffe von ihnen synthetisiert und sezerniert werden können, liegt es auf der Hand, dass die aktuell zum klinischen Einsatz kommenden Filtersysteme zum Zwecke der Filtrationsoptimierung und konsekutiver Pathogenitätsminimierung durchaus verbesserungsbedürftig sind. Die in Abschnitt 3 angeführten Ergebnisse belegen, dass antikörperbeschichtete Leukozytenfiltermembranen durchaus in der Lage sind, in einem Kreislaufmodell ihre entsprechenden Antigene herauszufiltern und damit zu inaktivieren. Als klinische Anwendung ist dieses Modell allerdings nur unter einem immensem Technik- sowie Kostenaufwand umsetzbar, so dass sich die Frage nach alternativen Lösungsstrategien stellt. Diese Arbeit leistete die theoretische Grundlage zur Entwicklung eines in naher Zukunft möglicherweise klinisch praktikablen Moduls zur Leukozyteninaktivierung. Da anti CD95 IgM in der Lage sind, Apoptose in CD95 Rezeptor tragenden Zellen zu induzieren und diese damit bzgl. ihrer Stoffwechselaktivität zu limitieren bzw. zu inaktivieren, konnte ein ebenfalls in Abschnitt 3 vorgestelltes Modell zeigen, dass in CD 95 Rezeptor tragenden Zellen über ihren Kontakt mit anti CD95 IgM beschichteten Leukozytenfiltermembranen Apoptose induziert werden kann. Ein detailverbessertes, anti CD95 IgM beschichtetes Leukozytenfiltersystem (Leukozyteninhibitionsmodul, „LIM“) zeigte bereits im Schweineversuch eine deutliche Verbesserung der postoperativen Herzfunktion gegenüber der Tiergruppe, die mit herkömmlichem Leukozytenfiltersystem operiert wurde. Außerdem konnte eine deutlich reduzierte Transmigrationsfähigkeit (als Maß des Aktivierungszustandes) der aus dieser EKZ isolierten Neutrophilen nachgewiesen werden, so dass Grund zur Annahme besteht, dass dieses Modell in Zukunft den herkömmlichen Leukozytenfilter ablösen könnte. Mit dieser Arbeit wurde eine Möglichkeit aufgezeigt, wie die Problematik der EKZ induzierten Immunpathogenese grundlegender bekämpft werden kann.
Ein gastroösophagealer Reflux, der keine gastroenterologischen Symptome wie Erbrechen oder saure Regurgitation zeigt, kann im Kindesalter chronische Erkrankungen der Lunge auslösen. Typische Krankheitsbilder sind hierbei zum Beispiel Asthma bronchiale oder rezidivierende Bronchitiden. Die Inzidenz hierfür beträgt 1 : 300 bis 1 : 500. Für die Entstehung eines gastroösophagealen Reflux wird ein multifaktorielles Geschehen diskutiert. So kann zum Beispiel ein verminderter Druck des unteren Ösophagussphinkters, eine verminderte Leistung der Clearancefunktion des Ösophagus, eine pathologische Magensäuresekretion und auch eine verlängerte Entleerung des Magens ursächlich sein. Studien haben einen Zusammenhang zwischen einer pathologischen Magenentleerungszeit und einem symptomatischen gastroösophagealen Reflux beschrieben. Ein primärer Defekt wird hierbei in einer Motilitätsstörung vermutet, da ein signifikanter Zusammenhang zwischen pathologischen Magenentleerungszeiten und Dysrhythmien (abnormen elektrischen Potentialen) des Magens beschrieben ist. Bisher ist kein diagnostisches Verfahren bekannt, dass mit hoher Sensitivität und Spezifität das Vorliegen eines gastroösophagealen Reflux beweist. Vielmehr umfasst die derzeitige Diagnostik lediglich Teilaspekte der Erkrankung und liefert uneinheitliche Bilder. Bei insgesamt 25 Kindern mit Lungenproblemen bedingt durch einen gastroösophagealen Reflux wurde die Magenentleerungszeit, eine 2 Punkt-pH Metrie, eine obere Magendarmpassage sowie eine quantitative Bestimmung von fettbeladenen Alveolarmakrophagen im Rahmen einer Bronchoskopie erhoben. Im Gegensatz zur bisher üblichen Bestimmung der Magenentleerungszeit per Szintigraphie konnten im Rahmen dieser Arbeit die Werte mit einem 13C-Acetat- Atemtest gemessen werden. Eine pathologische Magenentleerungszeit wurde bei ungefähr der Hälfte der Patienten dargestellt. Obwohl ein Zusammenhang zwischen der Magenentleerungszeit und anderen Untersuchungsbefunden vermutet wurde, konnte keine signifikante Korrelation aufgezeigt werde. Alle Testverfahren lieferten unterschiedliche Ergebnisse. Bei keinem Kind mit klinisch gesichertem gastroösophagealen Reflux waren alle erhobenen Parameter pathologisch. Die Verteilung der Ergebnisse erfolgte auch im grenzpathologischen Bereich nicht signifikant. Als Grund hierfür kann vermutet werden, dass der gastroösophageale Reflux bei Kindern unterschiedliche Ursachen hat. So könnte eine pathologische Magenentleerungszeit bei einem Teil der Kinder ursächlich sein oder im Vordergrund stehen, während andere pathologische Korrelate das gleiche Krankheitsbild verursachen. Die Diagnosestellung eines gastroösophagealen Reflux bei Kindern mit pulmonaler Symptomatik kann somit nur mit hinweisenden Untersuchungen erfolgen, bei denen auch Widersprüche geduldet werden müssen.
Die antivirale Funktion der RNA-abhängigen Adenosin-Desaminase bei der angeborenen Immunantwort
(2004)
Die angeborene Immunantwort von Säugetieren ist die erste wirkungsvolle Barriere gegen eindringende Pathogene, die sowohl Infektionen als auch die Entstehung von Neoplasien verhindern kann. Insbesondere wird durch sie die Ausbreitung und Replikation von Viren wirksam bekämpft. Bei RNA-Viren wird die angeborene Immunabwehr in infizierten Zellen von der doppelsträngigen RNA aktiviert, die während der Replikation oder Transkription dieser Viren entsteht. Es kommt zur Sezernierung von Interferon-alpha und -beta (IFN-alpha/beta), die wiederum die Expression einer Reihe von antiviralen Proteinen stimulieren. Eines dieser Proteine ist die IFN-alpha-induzierbare RNA-abhängige Adenosin Desaminase (iADAR-1). Ziel dieser Arbeit war es, die Rolle der iADAR-1 in der Immunabwehr näher zu charakterisieren. Bisher wurde die antivirale Aktivität der iADAR-1 gegen verschiedene Virusstämme, deren Genome Adenosin zu Guanosin (A->G) Hypermutationen aufweisen, nur angenommen, jedoch noch nicht direkt gezeigt [4]. In dieser Arbeit wurde am Beispiel des Glykoproteins (GP) des lymphozytären Choriomeningitis Virus (LCMV) untersucht, ob solche A->G Mutationen im viralen Genom tatsächlich durch die iADAR-1 verursacht werden und ob dadurch die Funktion der viralen Proteine und damit die Infektiösität von LCMV reduziert wird. Des Weiteren wurde die Induktion der iADAR-1 durch die Infektion mit LCMV und die Wirkung der iADAR-1 auf die Replikation von LCMV analysiert. Bekannt war nur, dass die iADAR-1 durch IFN-alpha selbst oder durch die Infektion von Makrophagen mit Adenoviren induziert wird. In dieser Arbeit wurde erstmals für Fibroblasten, neuronale Zellen und in vivo in Mäusen nachgewiesen, dass die iADAR-1 direkt durch die Infektion mit LCMV hochreguliert wird. Dies ist ein weiterer Hinweis, dass die iADAR-1 zu den antiviralen Effektormolekülen der angeborenen Immunabwehr zählt. LCMV induzierte die Expression der iADAR-1 sowohl auf mRNA- als auch auf Proteinebene. Im Gegensatz zu Vaccinia- und Adenoviren, die die Aktivität der iADAR-1 inhibieren [5, 6], konnte bei der Infektion von SH-SY5Y-Zellen mit LCMV keine reduzierte Aktivität der iADAR-1 festgestellt werden. Ferner konnte das schon in anderen Viren beobachtete A->G Hypermutationsmuster nun auch für LCMV bestätigt werden. Sowohl in vitro in L929-Zellen als auch in vivo in Mäusen wurde eine erhöhte A->G Mutationsfrequenz gefunden, die zwischen 50 und 75 % aller Mutationen in der S-RNA von LCMV ausmacht. Dies zeigte sich vor allem in der späten Phase der Infektion, also zu Beginn der Persistenz. Insgesamt wurden zu diesem Zeitpunkt in L929-Zellen 27 % und in der Maus 15 % nicht funktionelles LCMV-GP synthetisiert. Zudem wurde die Relevanz der A->G Hypermutationen für die beeinträchtigte Funktion des GPs deutlich, da sie 62 % der nicht infektiösen GP-Moleküle verursachen. Die desaminierende Wirkung der iADAR-1 auf das virale Genom von LCMV wurde in 293T-Zellen direkt gezeigt. A->G Mutationen in der S-RNA von LCMV nahmen durch die Überexpression der iADAR-1 in 293T-Zellen um 40 % zu. Ebenso wurde die Replikation bzw. das Assembly von Virionen durch die iADAR-1 reduziert, da im Vergleich zu Kontrollzellen der LCMV-Titer im Überstand von iADAR-1-überexprimierenden Zellen wesentlich niedriger war. Des Weiteren konnte bestätigt werden, dass die A->G Mutationen nicht durch die virale Polymerase induziert werden. Hierfür wurden iADAR-1 „knockout“ murine embryonale Fibroblasten (MEF) isoliert und als stabile Zelllinie etabliert. In diesen Zellen war kein A->G Hypermutationsmuster in der LCMV-RNA zu erkennen. In MEF wt war ebenfalls kein A->G Hypermutationsmuster nachweisbar. Der Grund hierfür könnte die im Vergleich zu L929-Zellen deutlich geringere basale iADAR-1-Expression der nicht völlig ausdifferenzierten MEFs sein.
Bei den Projekten wie der Europäischen und der Amerikanischen Spallationsneutronenquelle aber auch den geplanten aktuellen Großprojekten wie dem Upgrade von CERN oder ISIS werden negative Ionen benötigt. Bei solchen Anlagen werden am Ende des üblichen linearen Beschleunigers Speicherringe eingesetzt, die den Teilchenstrom akkumulieren und danach longitudinal komprimieren. Durch die Verwendung eines Strahls aus negativen Ionen kann die Injektion in den Speicherring wesentlich vereinfacht werden. In der vorliegenden Dissertation wurde die Extraktion und der Transport von negativen Wasserstoffionen für den ersten Abschnitt eines Linearbeschleunigers, bestehend aus Quelle, Extraktion und niederenergetischem Strahltransport (LEBT), sowohl experimentell als auch theoretisch untersucht. In dieser Sektion wird der grundlegende Strahlstrom und die Strahlqualität eines Linearbeschleunigers definiert. Eine komplette Untersuchung dieses Abschnitts lag bis dato für negative Ionen nicht vor. Um die Unterschiede aufzudecken und die einflußnehmenden Größen zu bewerten, mußten alle Experimente sowohl mit positiven als auch mit negativen Ionen durchgeführt werden. In allen Sektionen führen verschiedene Faktoren zu Strahlstromverlusten und Qualitätsverschlechterung, sprich Emittanzvergrößerung. Im Zuge dieser Arbeit wurde eine Quelle für negative Ionen entwickelt und gebaut und eine neue Methode zur Produktionssteigerung von negativen Ionen entwickelt. Die Innenwand der Plasmakammer der Ionenquelle wurde mit dem Edelmetallkatalysator Platin beschichtet. Die Plasmazusammensetzung innerhalb der Quelle verlagerte sich dadurch auf 80–90% H3 , 5-10% H2 und nur noch ein geringer Anteil an Protonen. Dieser hohe molekulare Anteil war über eine große Spanne aller Plasmaparameter stabil und führt zu einer drastischen Produktionssteigerung von angeregtem H2 und H- . Zur Formierung des Ionenstrahls wurde von mir ein sogenannter stromtoleranten Extraktor entwickelt. Trotz einer Veränderung des extrahierten Stroms um den Faktor 5 kommt es mit diesem Extraktor zu keinem nennenswerten Emittanzwachstum. Dieser eignet sich allgemein für die Extraktion gepulster Ionenstrahlen, im Besonderen aber für die Extraktion von negativen Ionen, da hierbei gleichzeitig Elektronen mit extrahiert werden. Dieser meist hohe Strahlanteil aus hochenergetischen Elektronen muß vor dem Einschuß der negativen Ionen in den RFQ durch ein geeignetes System aus dem Strahl ausgelenkt und abgeführt werden. Grundlagen, Entwicklung und Einflüsse dieser sogenannten Dumpingsysteme werden in Kap. 5 beschrieben. Für die Realisierung einer Niederenergietransportstrecke für negative Ionen stehen die beiden Möglichkeiten des magnetischen LEBT (Kap. 6) und des elektrostatischen LEBT (Kap. 7) zu Verfügung. Mit verschiedenen Meßaufbauten werden im anschließenden Kap. 8 die in den vorigen Kapiteln aufgeführten relevanten Größen der Erzeugung, der Extraktion und des Transport experimentell untersucht. Zusätzlich zu den bekannten klassischen Analyseverfahren kommen im Rahmen dieser Arbeit entwickelte optische Meßmethoden zum Einsatz, mit deren Hilfe man Plasmatemperatur und Plasmaverteilung innerhalb der Ionenquelle bestimmen kann. Mit Hilfe der Untersuchungen gelang es, die Unterschiede zwischen der Extraktion von negativen Ionen und von positiven Ionen aufzuzeigen und mit Hilfe der experimentellen Beobachtungen ein neues Modell für die Extraktion von negativen Ionen zu entwickeln. Mit der vorliegenden Arbeit wurde zudem gezeigt: - Der extrahierbare negative Strom ist hauptsächlich abhängig vom Diffusionsprozeß der Teilchen durch einen positiven Potentialwall innerhalb der Ionenquelle. - Durch Kompensation der magnetischen Felder in der Extraktionsregion wird die Emittanz reduziert und der Strom gesteigert. - Der beobachtete planare Plasmameniskus wird maßgeblich durch die rückfließenden Restgasionen beeinflußt. - Der Transport der negativen Ionen mit einer magnetischen LEBT stellt kein wesentliches Problem dar, da eine hinreichende Anzahl an positiven Restgasionen für den raumladungs-kompensierten Transport vorliegt.
Die vorliegende Studie hat die Häufigkeit familiärer Tumorhäufungen in Familien von Patienten mit kolorektalen Karzinomen und klinische Kriterien untersucht, die mit dem vermehrten Auftreten von Tumoren in diesen Familien assoziiert sind. Die Bedeutung von klinischen Diagnosekriterien zur Erfassung familiärer Häufigkeiten von Tumoren wurde analysiert. Dabei zeigte sich, dass die klassischen Diagnosekriterien im Alltag keine Bedeutung haben (die Amsterdam-Kriterien werden kaum erfüllt). Dass sich andererseits familiäre Tumorhäufungen mit einfachen klinischen Kriterien in hohem Ausmaß erfassen lassen, dazu zählt als wichtiges Kriterium: • Ein weiterer betroffener Patient mit Tumorleiden in der Familien im Diagnosealter <= 55 Jahre, • die Vertikale Transmission HNPCC-typischer Tumore Bei Anwendung dieser Kriterien können nahezu 2/3 der Familiären Cluster erkannt werden. Die Kombination von Kriterien, wie etwa „Diagnosealter des Patienten <= 50 Jahre mit Angehörigen mit Karzinom im Diagnosealter <= 50 Jahre“, sowie die Kombination „Diagnosealter des Patienten <= 50 Jahre und die Vertikale Transmission HNPCC-typischer Karzinome“ verbessert die Erkennung von Familien mit Tumorhäufungen nicht. Das Tumorspektrum in den so definierten Familien entspricht dem des HNPCC. Das legt den Schluss nahe, dass es sich um eine abortive Form des HNPCC oder aber um ein molekulargenetisch differentes, aber in der Manifestation mit dem HNPCC überlappendes Syndrom handeln könnte. Ob bei den so definierten Familien eine präventive Diagnostik erfolgreich ist, bedarf weiterer Studien. Solange kein einfaches molekulargenetisches Verfahren leicht und kostengünstig zur Verfügung steht, sind diese Anamnesekriterien für den klinischen Alltag und für die betroffenen Familien von außerordentlicher Bedeutung.