Refine
Year of publication
Document Type
- Article (1113)
- Doctoral Thesis (729)
- Book (46)
- Preprint (34)
- Contribution to a Periodical (14)
- Conference Proceeding (11)
- Report (11)
- Review (9)
- diplomthesis (3)
- Part of a Book (2)
Has Fulltext
- yes (1978) (remove)
Is part of the Bibliography
- no (1978)
Keywords
- crystal structure (37)
- Crystal Structure (25)
- Synthesis (15)
- ESR Spectra (14)
- RNA (14)
- NMR-Spektroskopie (12)
- hydrogen bonding (11)
- IR Spectra (10)
- NMR spectroscopy (10)
- RNS (9)
Institute
- Biochemie und Chemie (1978) (remove)
Hsp90 ist ein äußerst vielseitiges Protein, welches nicht strikt cytosolisch anzusiedeln ist. Es besitzt eine Vielzahl von Partnerproteinen zu denen stetig neue hinzukommen und deren Interaktionen längst nicht alle hinreichend untersucht und verstanden wurden. Worin der Unterschied in der Funktionalität von Hsp90 in Eukaryoten und HtpG in Prokaryoten besteht, das Hsp90 für Eukaryoten (auch einzellige) derart essentiell werden lässt, ist absolut unklar. Ein möglicher Grund könnte die Beteiligung von Hsp90 an Transportprozessen in und um den Zellkern darstellen. Der Einfluss von Hsp90 auf den Export von 60S rUE aus dem Zellkern konnte manifestiert werden. Die Einwirkung Hsp90 spezifischer Inhibitoren wie Geldanamycin, Radicicol und Novobiocin zeigten deutliche Effekte in den Transportmessungen sowohl in vitro als auch in vivo. Durch Coinjektionen von Novobiocin und Radicicol in die Oocyten von Xenopus laevis ließ sich der Export von 125J markierten 60S rUE aus dem Zellkern gegenüber den Kontrollen deutlich reduzieren. Damit konnte der mittel- oder unmittelbare Zusammenhang zwischen Hsp90 und dem Export von 60S rUE in vivo erneut bewiesen werden. Hsp90 besitzt mehrere potentielle Phosphorylierungsstellen für die Casein Kinase II. Untersuchungen zeigten, dass die Phosphorylierung von Hsp90 den Effekt auf den in vitro Export von 60S rUE aufzuheben vermag. Die Phosphorylierung von Hsp90 durch die CKII könnte somit eine potentielle Regulationsmöglichkeit von Hsp90 darstellen. Die Phosphorylierung von Hsp90 durch die CKII ließ sich durch die Zugabe von Radicicol deutlich reduzieren. Es ist durchaus möglich, dass die potentielle Phosphorylierungsstelle im Bereich der Bindungsstelle von Radicicol am N-Terminus von Hsp90 zu suchen ist, da auch die Phosphorylierung des N-terminalen Fragments über Radicicol beeinflusst werden konnte. Über Quervernetzungsversuche zwischen Hsp90 und isolierten Zellkernen, konnten Proteine der Kernmembran spezifisch markiert werden. Aufgrund der äußerst geringen Proteinausbeute war eine Analyse sehr schwierig. Lediglich eine Proteinbande konnte schließlich partiell N-terminal ansequenziert werden. Die ermittelten Sequenzen deuten auf ein zu scNup57p homologes Protein der Ratte hin, welches bisher jedoch noch nicht über eine der Proteindatenbanken ermittelbar ist. Transmissionselektronenmikrokopische Aufnahmen von isolierten Rattenleberzellkernen, welche mit einem Anti-Hsp90 Antikörper inkubiert wurden, konnten zeigen, dass Hsp90 neben Komponenten im Bereich des Kernporenkomplex auch an Bestandteile im Nukleoplasma bindet. Da aufgrund der in vitro Messungen bisher ein rein cytosolische Effekt von Hsp90 in Bezug auf den Export von 60S rUE vermutet wurde, könnte dieser Befund nahe legen, dass die Einflussnahme von Hsp90 auf den Transport von 60S rUE wesentlich früher bereits im Nukleoplasma oder in den Nukleoli einsetzen könnte. Wenn dies der Fall ist, könnte Hsp90 auch im Zusammenhang mit den ribosomalen Untereinheiten eine Begleiterfunktion zukommen, welche den Transport vom Ort der Biosynthese bis an die spätere Wirkungsstätte unter Aufrechterhaltung der Funktion gewährleistet. Hierfür könnte auch sprechen, dass Hsp90 mit den 60S rUE interagiert, wie es in Copräzipitationsversuchen gezeigt wurde. Zudem konnte Hsp90 gezielt über proteinäre Bestandteile im Transport befindlicher 60S rUE radioaktiv markiert werden. Es spricht demnach vieles dafür, dass Hsp90 unmittelbar in den Transportprozess der großen ribosomalen Untereinheiten eingreift, und hierbei der Effekt nicht lediglich in der Unterstützung bei der Translokation zu suchen wäre, sondern eventuell schon sehr viel früher im inneren des Nukleoplasmas.
Die enorme genetische Variabilität von HIV-1[14],[50] und die mangelnde Korrelation zwischen genetisch definierten Subtypen einerseits und antigener Variation[51]-[56] andererseits verhindern bisher die Entwicklung eines effizienten, breit neutralisierenden Impfstoffes. Neueren Ansätzen liegt daher das Konzept einer serologischen Klassifikation zu Grunde[61],[62], die verschiedene HIV-Subtypen nach ihrer serologischen Reaktivität und nicht nach ihrem genetischen Ursprung klassifiziert. Diese Ansätzen beruhten allerdings auf der Verwendung ausgewählter Consensus-Modellpeptide der immunodominanten V3-Region des viralen Hüllproteins gp120 und monoklonaler Antikörper weniger HIV-1-Subtypen[61]. Somit ist nicht auszuschließen, dass aus dem Einsatz weiterer Peptide und anderer Antikörper bislang unidentifizierte Serotypen resultieren. Es lag nahe, den ursprünglichen Ansatz auf eine wesentlich breitere Basis von Antikörpern und Peptiden zu stellen. Als Antikörperquelle kamen hierbei die polyklonalen Seren HIV-1-positiver Patienten in Betracht; man machte sich dabei das native HIV-spezifische Antikörperreservoir zu Nutze. Seitens der Peptide als Zielmoleküle einer Ermittlung serologischer Reaktivität bot sich ein kombinatorischer Zugang an. Ziel der vorliegenden Arbeit war demnach die Entwicklung eines immunologischen Testsystems für das Screening humaner HIV-positiver Seren gegen kombinatorisch erzeugte Peptide mit dem Hintergrund, einen minimalen Satz reaktiver Peptide zu identifizieren, die eine serologisch basierte Charakterisierung der Reaktivität verschiedener HIV-1-Subtypen erlaubt. Um Reaktivitätsmuster zwischen Seren verschiedener Subtypen ermitteln und ausschließlich signifikante, hochreaktive Sequenzen finden zu können, sollte dieses Assay zudem die Möglichkeit der mehrfachen Wiederholbarkeit mit derselben Peptidbibliothek bieten. Diese im Rahmen der vorliegenden Arbeit umgesetzten Ziele lassen sich somit wie folgt zusammenfassen: Entwicklung eines Verfahrens zur schnellen und eindeutigen massenspektrometrischen Sequenzierung von Peptiden aus kombinatorischen Bibliotheken, Entwicklung eines immunologischen Testsystems für das iterative Screening HIV-positiver Seren gegen festphasengebundene Peptide, Screening von Serenpools verschiedener genetisch bestimmter Subtypen von HIV-1 gegen eine kombinatorische Peptidbibliothek, die die genetische Variation der V3-Region von gp120 reflektiert, und Multivariate Analyse der gefundenen Peptidsequenzen mit dem Ziel einer serologischen Interpretation derselben. Das Verfahren zur schnellen und im Vergleich zum herkömmlichen Kettenabbauverfahren nach Edman weniger aufwändigen massenspektrometrischen Sequenzierung als reaktiv bestimmter Peptide basiert auf der adaptiven Einführung Kettenabbruch erzeugender Sequenzen während der Synthese der kombinatorischen Peptidbibliothek nach einer modifizierten One Bead One Peptide"-Synthese[118],[119]. Diese Codierung wird sequenztreu durch den Einsatz von Mischungen aus der Fmoc-geschützten Aminosäure, die für diese Sequenzposition vorgesehen ist, und ihres N-terminal permanent blockierten Derivats eingeführt. Das Programm Biblio optimiert das Codierungsmuster hinsichtlich minimaler Einführung von Terminationssequenzen und minimalem Einsatz Kettenabbruch erzeugender Reagenzien, um den Anteil des Hauptpeptids pro Bead nur so gering wie möglich zu vermindern. Eine MALDI-massenspektrometrische Analyse der Peptide eines betreffenden Beads liefert somit neben dem Signal des Hauptpeptids auch die Sequenz des Peptide codierenden Signale. Diese werden von Biblio zur gesuchten Peptidsequenz decodiert. Des weiteren konnte ein immunologisches Testsystem für das iterative Screening festphasengebundener Peptide entwickelt werden. Dieses beruht auf der Detektion der Bindung des Serumantikörpers an das Peptid durch einen Sekundärantikörper, der an den Primärantikörper bindet und mit einem fluoreszenten Farbstoff markiert ist. Eine Bindung ließ sich somit fluoreszenzmikroskopisch nachweisen. Um eine Wiederholbarkeit des Screenings zu gewährleisten, wurde die Peptidbibliothek mittels eines Epoxidharzklebstoffs auf der Probenunterlage fixiert. Eine Entfernung des Immunkomplexes gelingt durch mehrfache Behandlung mit pH 1. Eine 80640 Spezies umfassende Decapeptidbibliothek, die die genetische Variabilität der immunodominanten V3-Schleife der viralen Hüllproteins gp120 von HIV-1 wiedergibt, wurde gegen Serenpools verschiedener HIV-1-Subtypen gemäß diesem Verfahren iterativ gescreent. Insgesamt 36 Peptide konnten aufgrund ihrer intensiven Fluoreszenz als hochreaktiv erkannt werden; sie wurden mit MALDI-Massenspektroskopie und anschließender Decodierung durch Biblio sequenziert. Eine Auswahl von vier der 36 ermittelten Sequenzen erwies sich als ausreichend für eine Differenzierung der zugrunde liegenden HIV-1-Subtypen. Eine anschließende multivariate Analyse der gefundenen Sequenzen in bezug auf ihr Seroreaktivitätsmuster ermöglichte die Bestimmung neuer, konservierter Epitope der Bindung polyklonaler Serenantikörper von HIV-1 und die Identifikation der für diese Bindung kritischen Aminosäurepositionen der betrachteten Decapeptide. Diese Epitope könnten in nachfolgenden Studien auf ihre Bedeutung hinsichtlich ihres Neutralisationspotentials bezüglich primärer HIV-Isolate getestet werden. Das hier entwickelte Verfahren zum iterativen Screening codierter Peptidbibliotheken jedoch ist nicht auf das HIV-System beschränkt, es bietet vielmehr einen universellen Zugang zur reaktivitätsbasierten Evaluation festphasengebundener Substanzbibliotheken, die die volle genetische Variabilität ihrer biologischen Zielregion abbilden. Eine dieser Regionen könnte beispielsweise der Antigenrezeptor von B-Lymphocyten darstellen, der die B-Zellen durch Kontakt mit einem Antigen aktiviert. Diese regen die B-Zelle zur Proliferation und deren Nachkommen zur Differenzierung zu antikörpersezernierenden Zellen gegen diese Antigene an. Sie bilden damit ein interessantes Ziel, auf diesem Wege eine effektive Immunantwort hervorzurufen[146],[150].
Ziel dieser Arbeit war es, mit der Methode der NMR-Spektroskopie strukturelle und funktionelle Eigenschaften von Fettsäurebindungsproteinen zu untersuchen. NMR-Spektren von Proteinen mit hohem -Faltblattanteil, wie H-FABP, zeigen häufig eine große Dispersion mit einer typischen Verteilung tief- und hochfeldverschobener Signale. Es wurden 1D/2D 1H-NMR Spektren für den Wildtyp und mehrere Mutanten (F4E, F4S, F4S/W8E, W8E, F16E, F16S, K21I, F64S, L66G und E72S) des humanen H-FABP aufgenommen und so weit wie möglich zugeordnet. Auf diese Weise ließ sich bestimmen, ob die typische -Faßstruktur des Wildtyp bei den Mutanten noch intakt ist. Fast alle Mutanten wiesen eine Signalaufspaltung von 10,2 bis 0,4 ppm wie der Wildtyp auf, nur die W8- Mutanten W8E und F4S/W8E zeigen keine Struktur mehr. H-FABP zeigt in NMR-Spektren sogenannte Spinsystem-Heterogenitäten, die auf mehrere parallel existierende konformationelle Zustände zurückzuführen sind und im NMR- Zeitfenster ( < 200 ms) nicht untereinander austauschen. Diese Spinsystem-Heterogenitäten werden nicht direkt durch Liganden verursacht, da sie auch in delipidierten H-FABP-Spektren vorhanden sind. Noch sind sie abhängig von der Position der in räumlicher Nachbarschaft befindlichen Seitenkette des F57, da sie auch in den Spektren einer F57S-Mutante anwesend sind. Eine Relipidierung der H-FABP Proben mit unterschiedlichen Fettsäuren führte zu einer selektiven Bevorzugung einzelner Spinsysteme. So konnte gezeigt werden, daß die Ligandenbindung beim H-FABP nach einem ,,selected-fit" Mechanismus abläuft, bei dem je nach gebundenem Liganden (Palmitin-, Palmitolein-, Stearin- oder Ölsäure) unterschiedliche, schon vorher vorliegende Konformationen des Proteinrückgrates bevorzugt werden. Ein weiterer Teil der hier vorliegenden Arbeit war die Bestimmung der Lösungsstruktur des humanen B-FABP. Es wurde zur Strukturaufklärung die holo-Form des Proteins verwendetet, die ein Fettsäuregemisch endogener Fettsäuren enthielt. Durch den Einsatz mehrdimensionaler homonuklearer und 15N-editierter NMR-Experimente gelang es, nahezu alle 1H und 15N Resonanzen der Aminosäuren zuzuordnen. Lediglich für K37 konnten in den Spektren keine Signale gefunden werden. Nach einer automatisierten Zuordnung der aus den NOESY-Spektren gewonnenen Abstandsbeschränkungen wurde zur Verfeinerung der Lösungsstruktur des humanen B-FABP ein strukturgefilterter Iterationsprozeß durchlaufen. Mit 2490 Abstandsrandbedingungen zwischen Protonenpaaren sowie 106 stereospezifischen Zuordnungen wurden Torsionswinkeldynamikrechnungen mit abschließender Energieminimierung durchgeführt. Ein mittlerer globaler RMSD-Wert der Proteinrückgratatome von 0,85 ± 0,12 Å erfüllt die Ansprüche einer hochaufgelösten Struktur. Die Tertiärstruktur entspricht einem -Faß bzw. einer -Muschel. Sie besteht aus zehn antiparallelen -Faltblattsträngen und einer kurzen Helix-Turn-Helix Domäne. Die - Faltblattstränge bilden zwei nahezu orthogonale -Faltblätter von jeweils fünf Strängen. Die Lösungsstruktur ähnelt trotz teilweise niedriger Sequenzhomologie den bereits bekannten Strukturen der FABPs aus unterschiedlichsten Organismen. Eine sehr gute Übereinstimmung wurde im Vergleich mit der Lösungsstruktur des H-FABP beobachtet. Die enge Verwandtschaft beider zur Unterfamilie IV gehörenden Proteine äußert sich durch die hohe Sequenzhomologie (67%), die Ähnlichkeit der Konformation und Bindungsaffinität der Liganden, die helikale Konformation am N-Terminus (V1-F4) und ein vergleichbares Wasserstoffbrückennetzwerk innerhalb der Bindungstasche.
In der vorliegenden Arbeit wurden die pharmakologischen und elektrophysiologischen Eigenschaften des Kaliumkanals KCNQ1 und des KCNQ1/MinK (IKs) untersucht. Hierzu wurden die Kanäle in Xenopus-laevis-Oozyten und der KCNQ1/MinK (IKs) in CHO-Zellen exprimiert und in Voltage-Clamp-Experimenten untersucht. Die Blockwirkung des Chromanol-293B-Razemates und die der beiden Enantiomere wurden am KCNQ1- und KCNQ1/MinK-Kanal untersucht. Eine Enantiomerenselektivität der Chromanol 293B-Enantiomere wurde nachgewiesen. Beide Enantiomere wirken abhängig vom Zustand der KCNQ1- und IKs-Kanäle. Das 3S,4R-293B blockierte nur geschlossene Kanäle, während das andere Enantiomer 3R,4S-293B auf geschlossene und auf geöffnete Kanäle wirkte. Als Grundlage dieser Aussagen wurden kinetische Analysen der Kanalkinetiken ohne Blocker und bei partieller Blockade der Kanäle durchgeführt. Die Inhibiton des IKs
In den vergangenen Jahren wurden in der AntisenseTechnologie grundlegende Hürden genommen, die eine Arzneimittelentwicklung auf Nukleinsäurebasis ermöglichen. Hierzu zählt vor allem die Gewährleistung einer ausreichenden metabolischen Stabilität und die Synthese im technischen Maßstab. In zahlreichen klinischen Studien wurde der Wirksamkeitsnachweis am Menschen erbracht. Als sequenzspezifische Therapeutika zeichnen sich Antisense Oligonukleotide im Vergleich zu vielen anderen Wirkstoffen dadurch aus, daß sie spezifisch mit einer RNAZielsequenz hybridisieren, ohne dabei wichtige zelluläre Funktionen zu beeinträchtigen. Neben krankheitsauslösenden Genen können Antisense Oligonukleotide auch virale Gene blockieren und nach Aktivierung der Ribonuklease H hydrolysieren. Das erste Präparat auf Oligonukleotidbasis wurde 1998 zugelassen und hemmt erfolgreich die Vermehrung des Cytomegalievirus. Hepatitis C ist eine Virusinfektion, die momentan nur unzureichend therapiert werden kann. Seit Mitte der neunziger Jahre wird nach geeigneten Antisense Oligonukleotiden und Ribozymen gesucht, um die Heilungschancen bei einer chronischen HCVInfektion zu verbessern. Im Rahmen dieser Arbeit wurde durch experimentelles Screening eine potente Zielsequenz (tS13) im Bereich der internen ribosomalen Angriffsstelle (IRES) und des Startcodons für die Proteinbiosynthese des HCV gefunden (Nukleotide 326342 des HCV Genoms). Hierzu wurde die Sequenz eines bereits bekannten 23mer Antisense Oligonukleotids durch systematisches Verkürzen auf 17 Nukleotide reduziert, ohne in vitro an Inhibitionspotential einzubüßen. Erst weitere Verkürzungen führten zu einer deutlichen Abnahme der Antisense Wirkung. Eine Schwierigkeit bei der therapeutischen Anwendung von polyanionischen Antisense Oligonukleotiden ist deren begrenzte zelluläre Aufnahme. Wie in Kapitel 3 dargelegt, wurden bislang zahlreiche Methoden zur Verbesserung der Membrangängigkeit dieser Wirkstoffklasse entwickelt. Zur Evaluierung eines leberselektiven Transports (engl.: drug targeting) und zur Steigerung der hepatozellulären Aufnahme (engl.: cell uptake) wurde das antiviral wirkende 17mer Antisense Oligonukleotid tS13 mit Biomolekülen wie den Gallensäuren, die im enterohepatischen Kreislauf das Zielorgan Leber passieren, kovalent verknüpft. Die Kupplung erfolgte dabei über die für die zelluläre Aufnahme nicht essentielle 3aHydroxylgruppe der Cholsäure und Taurocholsäure. Die Gallensäuren wurden entsprechend geschützt, in die Phosphoramidite 22a/b und 27a/b überführt und im letzten Kupplungsschritt der Festphasensynthese an das 5
In der vorliegenden Arbeit wurde ein neuer Algorithmus für die automatische Optimierung einer NMR-Zuweisung des back bones in gelabelten Proteinen und seine Implementierung vorgestellt. Der Algorithmus ermöglicht eine Zuweisungsstrategie, die sich näher an der manuellen Vorgehensweise orientiert als vergleichbare Implementierungen von Lukin (LUK 11 ) [Lukin97] oder Leutner (PASTA) [Leutner98], da er die Entscheidung über konkurrierende Protospinsysteminterpretationen in die globale Optimierung der Zuweisung verlegt und die Benutzer nicht zwingt, sich vorzeitig auf eine Interpretation pro Aminosäure und Peak zu beschränken. Der Algorithmus löst daher nicht nur das Reihenfolgenproblem für einen schon vorgegebenen Satz von Protospinsystemen, sondern auch das Auswahlproblem zwischen verschiedenen, sich widersprechenden, Interpretationen der gleichen Peakgruppe. Durch das zusätzliche Auswahlproblem erhöht sich die Komplexität der Optimierungsaufgabe, der Lösungsraum wächst daher um mehrere Größenordnungen. Dies verlängert die Laufzeit für den einfachen RANDOM Algorithmus gegenüber einem vergleichbaren Reihenfolgeproblem. Es wurden daher verschiedene Methoden untersucht, um die Laufzeit wieder zu reduzieren. Die erzielten Verbesserungen führen nicht nur zu einer besseren Konvergenz, sondern ermöglichen auch erstmals eine echte parallele Implementierung des Algorithmus. Die algorithmischen Verbesserungen sind die Reduktion des Protospinsystemcaches und der GENETISCHe Algorithmus. Zusätzlich wurde eine verbesserte Konfiguration zur Kontrolle der Suboptimierer gefunden. Die Implementierung der zugrundeliegenden Datenstrukturen ermöglicht die Umsetzung zusätzlicher Nebenbedingungen für die Positionen der Protospinsysteme innerhalb der Zuweisung. Ein Beispiel für die Nebenbedingungen sind die knotenlokalen Filter und die Strukturfilter aus Kapitel 2. Ihre Effizienz wird am besten durch die Aminosäuretypenerkennung demonstriert, die die Größe des Lösungsraumes um 168 Größenordnungen für Trigger reduziert. Dadurch verringert sich die Laufzeit des RANDOM Algorithmus bis zu einem Faktor von 132. Für PASTA wurde in [Leutner98] statt dessen der umgekehrte Effekt auf die Laufzeit festgestellt. In ihrer Implementierung verlängert sich die Laufzeit auf das Doppelte. Der Unterschied kann nur durch eine unterschiedliche Nutzung der Aminosäuretypenerkennung im Protospinsystempool erklärt werden. PASTA nutzt diese Information anscheinend nicht, um den Pool und damit den Lösungsraum zu reduzieren, sondern nur bei der Bewertung der Zuweisung. Diese Konfiguration kann in RANDOM näherungsweise nachvollzogen werden, wenn man im AS-Cache jeder Aminosäure jedes Protospinsystem zuweist. Die Bewertung der Aminosäuretypen und den Austausch zwischen Pool und Individuum kann man aber nicht abschalten. Ein möglicher Nachteil der Reduktion des AS-Caches mittels der Aminosäuretypenerkennung ist die Möglichkeit, daß Aminosäuren mit untypischen Frequenzen der falschen Aminosäure zugewiesen werden oder nicht in den Cache für die theoretische Aminosäure aufgenommen werden. Um eine falsche Zuweisung durch die Reduktion auszuschließen oder zu überprüfen, kann man zuerst mit einem AS-Cache mit Typenerkennung optimieren und das Ergebnis in einer zweiten Optimierung mit einem AS-Cache ohne Typenerkennung nachoptimieren. Diese Möglichkeit wurde bei der Zuweisung von Trigger demonstriert. Für Trigger konnte durch den Wechsel des Caches gezeigt werden, daß auch mit dem reduzierten Cache eine stabile Zuweisung gefunden wird, die der Zuweisung ohne Aminosäuretypenerkennung weitgehend entspricht. Die Zuweisungen unterscheiden sich in Aminosäuren mit unsicherer Typenzuweisung. In Trigger wird nur ein Protospinsystem (Phe66,Ile67) aufgrund der Typeninformation von der Position im AS-Cache ausgeschlossen, der es in der manuellen und der Zuweisung ohne Reduktion zugewiesen wurde. In anderen Fällen führt erst die Typeninformation zur richtigen Zuweisung (zB. Thr60,Ile61), während die Zuweisung ohne Typenerkennung eine Fehlzuweisung erzeugt. Man sollte daher immer beide Versionen berechnen und dann vergleichen, da eine manuelle Zuweisung beide Defekte aufweisen kann, weil sie die Zuweisungsregeln nicht so strikt optimiert, wie es ein automatischer Algorithmus kann. Für beide Algorithmen wurde der Parameterraum untersucht und eine sowohl optimale als auch robuste Konfiguration gesucht. Dabei wurde der Einfluß jedes Parameters des Algorithmus auf die Laufzeit bis zur Konvergenz zum globalen theoretischen Maximum bestimmt. Bei RANDOM waren hauptsächlich die Zusammensetzung des Aktionsprofils und die minimale und maximale Lebenszeit der veränderten Zustände, minTTL und maxTTL, für die Laufzeit entscheidend. Alle drei kontrollieren, welche Pfade durch den Lösungsraum ab einem Zustand erlaubt sind. Die gleiche Untersuchung wurde auch für die Parameter der zu berechnenden Probleme (Proteine) durchgeführt. Für den Datensatz wurde sowohl der Einfluß der Proteingröße, des maximalen CA Abstandes zwischen den Peaks der benachbarten Aminosäuren und der Aufbereitung des Protospinsystemcaches auf die Laufzeit, als auch der Einfluß eines unvollständigen Datensatzes auf die Konvergenz untersucht. Der Algorithmus zeigte sich dabei sehr robust gegen fehlende Peaks, da bis zu 45% der theoretischen Peaks fehlen können, ohne daß die Konvergenz zum theoretischen Optimum verloren geht. Unterhalb von 55% hängt die Übereinstimmung der gefundenen Lösung mit der theoretischen Lösung von der Zusammensetzung der gebildeten Protospinsystemfragmente ab. Proteingröße und maximaler CA Abstand haben dagegen großen Einfluß auf die Laufzeit. Während die Parametrisierung des RANDOM Algorithmus sich auf die Untersuchung des Wertebereichs der Kontrollparameter beschränken kann, muß die Parametrisierung des GENETISCHen Algorithmus auch die verschiedenen Crossover Operatoren und die Kontrolle der Suboptimierer umfassen. In Kapitel 3 wurden die verschiedene Crossover Algorithmen und unterschiedliche Konfigurationsvarianten für den Suboptimierer im GENETISCHen Algorithmus untersucht. Die aus der Literatur bekannten Crossover Operatoren waren dabei den spezialisierten G Operatoren unterlegen. Auch die Varianten elitär und statistisch, die keinen genetischen Austausch zwischen verschiedenen Individuen zulassen, waren den speziellen Operatoren immer unterlegen. Selbst kleine Anteile eines Genaustausches bewirkten eine Verbesserung der Laufzeit und die Qualität der Lösung. Dabei verbesserte sich besonders die Konvergenz durch den genetischen Austausch. Die speziellen G Operatoren übertragen nur die Differenz der Eltern statt, wie im klassischen Crossover, blind irgendeinen zusammenhängenden Bereich zu kopieren. Dadurch vermeiden sie es, hauptsächlich identische Bereiche zu kopieren, sondern übertragen nur Protospinsysteme, die sich in den Eltern unterscheiden. Außerdem wurde die Effizienz der speziellen Operatoren noch weiter gesteigert, indem die übertragenen Informationen mit Hilfe von Filtern gezielt auswählt wurden. Die übertragene Differenz wird dazu aufgrund ihrer Nachbarn und der Verknüpfung mit den Nachbarn ausgewählt. Mit unterschiedlichen Filtern wurden so Bereiche mit einem unterschiedlich hohen lokalen Optimierungsgrad für die Übertragung ausgesucht. Die Laufzeituntersuchungen in Kapitel 3 zeigen, daß es eine Grenze für die Effizienzsteigerung durch die Übertragung lokal voroptimierter Bereiche gibt. Während es beim Wechsel von unkoordinierten, punktförmigen Übertragungen (s1) zur Übertragung von kurzen Strecken aus benachbarten Protospinsystemen, mit oder ohne Verknüpfung (s2), noch zu einer geringen Verbesserung der Laufzeit und der Konvergenz kommt, führt die zusätzliche Koordinierung der übertragenen Nachbarn durch die Nebenbedingung der Verknüpfung in den s3 Algorithmen sogar zu einer geringen Verschlechterung der Laufzeit. Die Gründe für die Verschlechterung konnten nicht eindeutig nachgewiesen werden. Möglicherweise verringert sich die Anzahl der kopierbaren Bereiche durch die zusätzlichen Nebenbedingungen so sehr, daß nicht genügend unterschiedliche Differenzen für die Übertragung in die neuen Individuen gebildet werden. Die neuen Individuen erhalten dann hauptsächlich die gleichen neuen Gene. Dadurch kann es zu einer Verarmung des genetischen Pools, d.h. zum Verlust der genetischen Diversität in der Population kommen. Die neuen Individuen suchen dann identische Bereiche im Lösungsraum ab und nehmen dadurch die lokale Optimierung doppelt vor. Dadurch verschwendet diese Konfiguration CPU Zeit auf schon untersuchte Bereiche. Neben der direkten Übertragung zusammenhängender Bereiche gibt es noch einen weiteren Faktor der die spezialisierten Operatoren, gegenüber dem klassischen Crossover, verbessert. Die Differenzbildung im Crossover nimmt auf die Konkurrenz um die Peaks zwischen den Protospinsystemen keine Rücksicht. Dadurch befinden sich die neuen Individuen zuerst meist im illegalen Teil des Zustandsraumes S n . Nach dem Crossover wird daher ein Teil der ursprünglichen Protospinsysteme des neuen Individuums durch den Reparaturmechanismus gelöscht und dadurch schon optimierte Bereiche zerstört. Daher kommt dem Reparaturmechanismus für illegale Zustände die entscheidende Rolle zu, denn er erzwingt die Neuberechnung der Positionen, die vor dem Crossover durch einen Konkurrenten eines übertragenen Protospinsystems belegt waren. Die ehemaligen Zuweisungen in den zerstörten Bereichen sind dabei nur über die Resourcenkonkurrenz mit den im Crossover neu injizierten korreliert. Das Crossover mit Zerstörungen erweitert dadurch den erreichbaren Lösungsraum, statt ihn, wie beim klassischen Crossover, auf den Raum zwischen den Eltern einzuschränken! Die Zerstörungen sind für die Optimierung daher von Vorteil. Außerdem zeigte sich in Kapitel 3, daß für die speziellen Operatoren eine besondere Konfiguration des Suboptimierers besonders effizient ist, die den einzelnen Individuen nur die CPU-Zeit zuteilt, die sie, effizienter als ihre Konkurrenten, zu einer Verbesserung nutzen können. Diese Verteilung der Rechenzeit wird durch die sogenannte Ratenbegrenzung erreicht. Die veränderlichsten Individuen erhalten dabei die meiste Rechenzeit. Dies sind normalerweise die Individuen, die in einem der letzten genetischen Zyklen neu erzeugt wurden. Sobald ein Individuum in ein tiefes lokales Optimum, d.h. eine Sackgasse, geraten ist, erhält es weniger Rechenzeit, da seine Verbesserungsrate unter den Schwellwert sinkt. Dadurch darf man den einzelnen Individuen eine höhere maximale Laufzeit zuteilen, da sie sie nur nutzen können, wenn sie sich währenddessen verbessern. Die Kombination "ratenbegrenzt" mit Operator Gs2p2A verbraucht trotz des komplexeren Algorithmus weniger CPU-Zeit bei gesteigerter Konvergenzwahrscheinlichkeit und geringerer paralleler Laufzeit als jede andere Konfiguration. Sie ist damit die beste bekannte Konfiguration für GENETISCH. Im Praxistest in Kapitel 5 mit dem Proteinabschnitt Trigger M bestanden zwischen den automatischen Zuordnungen und der manuellen Zuweisung nur geringe Unterschiede. Die Unterschiede zwischen den Optimierungen mit unterschiedlichen Caches entstehen hauptsächlich in den Bereichen, die an einem Ende keinen verknüpften Nachbarn haben oder bei denen die manuelle Zuweisung unsicher ist, wie im Bereich 10 - 20. Durch die automatische Zuweisung konnte die manuelle Zuweisung sogar an einigen Stellen vervollständigt werden. Sie ist daher einer manuellen Zuweisung gleichwertig. Darüber hinaus entsteht bei der automatischen Zuweisung immer eine Dokumentation über die Verwendung der Peaks, so daß man ungenutzte Spinsysteme leichter finden kann. Der genetische Algorithmus kann optimal auf einem Netzwerkcluster implementiert werden, daher bietet sich ein echte parallele Implementierung an. GENETISCH braucht dabei keine besondere Hardware, wie Vektorrechner, shared memory oder besonders schnelle Netzwerkverbindungen, sondern kann auf einer Gruppe von normalen Rechnern mit einer üblichen Ethernet100 Netzwerkverbindung implementiert werden, da nur zum Austausch der Individuen, bzw. ihrer Differenz, eine Kommunikation zwischen den Rechnern notwendig ist. Dadurch kann die Kommunikation auf wenige KB alle paar Sekunden beschränkt bleiben. GENETISCH sollte außerdem leicht zu skalieren sein, da man die Anzahl der Individuen leicht an größere Probleme anpassen kann. Eine echte parallele Implementierung erlaubt daher sowohl die Rechenzeit für komplexere Problem auf wenige Minuten zu reduzieren als auch größere und mehrdeutigere Spektren zuzuweisen. Außerdem kann man die Wahl der Prozessparameter selbst auch dem selben Optimierungsprozeß unterwerfen, der bisher für die Optimierung der Zuweisung verwendet wurde. Dadurch sollte es möglich sein, die Optimierungsparameter, analog dem Profil der Abkühlung im simulated annealing, dynamisch an die Phase der Optimierung anzupassen und den Individuen immer die optimalsten Optimierungsparameter zu bieten, ohne diese vorher von Hand suchen zu müssen. Diese Veränderung erfordert aber eine große Anzahl an Individuen und damit die echte parallele Implementierung.
Der Cytochrom b6f Komplex vermittelt den Elektronentransport zwischen Photosystem II und Photosystem I und nimmt damit eine zentrale Rolle in der Photosynthese ein. Das im Rahmen dieser Arbeit erstellte Protokoll für die Präparation des Cytochrom b6f Komplexes aus Spinat ermöglichte eine reproduzierbare Reinigung von hochaktivem Enzym. Die spektroskopischen Daten stimmen mit den publizierten Daten für den Komplex überein. SDS-PAGE zeigte alle vier großen Untereinheiten sowie eine Bande der kleinen 4 kDa Untereinheiten. Die Präparation ist mit 450 ± 60 Elektronen pro Sekunde 10 - 15 mal aktiver als in bisherigen Veröffentlichungen für Präparationen aus Pflanzenblättern beschrieben und fast doppelt so aktiv wie die besten Präparationen aus Chlamydomonas reinhardtii. Die Zuverlässigkeit des Aktivitätstests konnte durch den Wechsel des Lösungsmittels für den Elektronendonor von Ethanol zu Dimethylsulfoxid erheblich verbessert werden. Die hohe Effizienz der Proteinreinigung und die hohe Aktivität des Komplexes stellen ideale Voraussetzungen für biophysikalische und strukturelle Studien dar. Versuche zur zweidimensionalen Kristallisation des Cytochrom b6f Komplexes erbrachten Kristalle mit verschiedenen Morphologien, die unterschiedlich gut geordnet waren. Eine Projektionsdichtekarte bis zu einer Auflösung von 20 Å von mehrschichtigen Kristallen zeigte strukturelle Übereinstimmungen, aber auch Unterschiede zu dem verwandten Komplex aus der einzelligen Alge C.reinhardtii. H -ATPase Plasmamembran H -ATPasen wandeln chemische Energie (in Form von ATP) in einen elektrochemischen Gradienten um, der als Energielieferant von sekundären Transportproteinen dient. Es ist gelungen, zweidimensionale Kristalle der heterolog exprimierten und mit einem His-tag ausgestatteten Plasmamembran H -ATPase AHA2 aus Arabidopsis thaliana zu erzeugen. Zwei verschiedene Methoden wurden dabei angewandt. Zum einen wurde das Protein wurde in Proteoliposomen rekonstituiert, und die so gewonnenen Vesikelkristalle resultierten in einer Projektionsdichtekarte mit einer Auflösung von 8 Å. In einer zweiten Methode wurde eine Technik, basierend auf dem Einsatz neu entwickelter, partiell fluorierter und funktionalisierter Lipide, angewandt. Einzelschichten dieser fluorierten Lipide auf der Oberfläche eines Tropfens erwiesen sich auch in Anwesenheit von Detergenz als stabil. Die funktionalisierte Ni2 -NTA-Kopfgruppe der fluorierten Lipide ermöglichte eine Bindung des Proteins über den His-tag. Nach Detergenzentzug bildeten sich in einer Lipiddoppelmembran eingebettete 2D-Kristalle mit einem Durchmesser von bis zu 10 (m, die für die Erstellung einer Projektionsdichtekarte bis 9 Å genutzt wurden. Die beiden elektronenkristallographisch erstellten Projektionskarten waren sehr ähnlich. Sie zeigten drei voneinander abgegrenzte Domänen, die in Zusammenhang mit einer vorliegenden Struktur der verwandten Ca2 -ATPase interpretiert werden konnten. Die Technik der Oberflächenkristallisation eröffnet neue Möglichkeiten für die Kristallisation von Membranproteinen. Kristallisationsexperimente können bei Proteinkonzentrationen von nur 50-150 (g/ml durchgeführt werden und sind für alle Membranproteine, die mit einem His-tag exprimiert werden können, anwendbar. Es wurde ein Homologiemodell der Plasmamembran H -ATPase aus Neurospora crassa in Anlehnung an die atomare Struktur der verwandten Ca2 -ATPase SERCA1 erstellt. Beide Enzyme liegen in unterschiedlichen Konformationen vor, die sie während des Reaktionszyklus durchlaufen. Es konnte gezeigt werden, dass es sich dabei offenbar um die Bewegung ganzer Domänen handelt. Dabei wurde klar, dass in einem solchen Fall schon 3D-Strukturen bei einer mittleren Auflösung von ca. 8 Å, wie sie mit Hilfe der Elektronenkristallographie verhältnismäßig einfach erreicht werden können, viel zum Verstehen von Reaktionszyklen beitragen können, die große Konformationsänderungen beinhalten.
Die Hämatopoese stellt den blutbildenden Prozeß dar, der den Menschen ein Leben lang mit Blutzellen versorgt und deren Ausgangspunkt eine kleine Zahl hämatopoetischer Stammzellen ist. Diese Stammzellen besitzen einerseits die Fähigkeit zur Selbsterneuerung und sind andererseits in der Lage, durch Proliferation und terminale Differenzierung Zellen verschiedener Linien hervorzubringen. Das biologische Hauptmerkmal der Stammzelle ist die Fähigkeit die Hämatopoese zu rekonstituieren, was klinisch bei der Stammzelltransplantation genutzt wird. Überwiegend werden dabei Knochenmark und peripheres Blut als Quelle für Stammzellen genutzt, die abhängig von der Zahl der transplantierten Zellen zur völligen Rekonstitution der Blutbildung führen. Für Patienten ohne passende Spender wurde das Nabelschnurblut als Alternative in Betracht gezogen. Trotz verschiedener Vorteile der Stammzellen aus Nabelschnurblut besteht der Hauptnachteil in der sehr limitierten Zahl der Zellen mit dem erhöhten Risiko eines Transplantatversagens. Aus diesem Grund wird die ex vivo Vermehrung dieser Stammzellen derzeit zunehmend untersucht. Erforderlich sind Bedingungen zur ausreichenden Vermehrung der Zellen unter Erhalt der Stammzelleigen schaften, die die klinische Anwendung möglich machen. Diese Bedingungen waren bisher nicht erfüllt. Hauptziel dieser Arbeit war es demnach Kulturbedingungen für die Expansion von Stammzellen aus Nabelschnurblut zu etablieren, die den klinischen Anforderungen einer Transplantation genügen. Dafür wurden sowohl die determinierten Vorläuferzellen untersucht, als auch die Fähigkeit der Stammzelle in vitro Langzeithämatopoese aufrecht zu erhalten und zur Repopulierung der NOD/SCIDMaus. Die Repopulierung ist ein spezifischer Prozeß (Homing), bei dem die Migration der Zellen aus der Blutbahn durch die Endothelzellschicht der Gefäße in die spezialisierten Nischen des Knochenmarks erfolgt. Da für die Amplifikation äußere Stimuli erforderlich sind, welche die biologischen Eigenschaften der Zellen modulieren, wurden die Eigenschaften der expandierten Zellen in verschiedenen in vitro Assays wie CFU und LTCIC untersucht, die derzeit als die besten Verfahren gelten, die hämatopoetische Stammzelle zu detektieren. Zur Untersuchung der Repopulierungsfähigkeit wurde das NOD/SCIDMausmodell etabliert, in dem der Aufbau einer humanen Hämatopoese im murinen Knochenmark gemessen wird, sowie ein neues in vitro Modell entwickelt, das Stromazellsphäroid, mit dessen Hilfe die Migrationsfähigkeit untersucht wurde. Mit der Kombination der auf primitive Stammzellen wirkenden Zytokine SCF, FL, TPO und IL3 gelang eine gute und ausreichende Vermehrung der ontogenetisch unreifen und der determinierten Progenitorzellen nach Kultivierung der Zellen über 7 Tage. Das beim Einsatz in der ex vivo Expansion umstrittene Zytokin IL3 führte hierbei nicht zum befürchteten Verlust der Repopulierungsfähigkeit der expandierten Zellen. Es sorgte vielmehr durch eine starke Vermehrung der Zellen für ein Engraftment der NOD/SCIDMaus, das dem durch frische unmanipulierte Nabelschnurblutzellen vergleichbar war. Von den getesteten Kultursystemen erwies sich die statische Kultivierung im Teflonbeutel als geeignet zur Vermehrung der primitiven Progenitoren, ohne die Repopulierungsfähigkeit der expandierten Zellen zu vermindern. Durch die Wahl eines serumfreien, klinisch anwendbaren Mediums gelang somit die Etablierung eines Kultursystems zur optimierten ex vivo Expansion früher Progenitor und Stammzellen aus Nabelschnurblut ohne Verlust der Repopulierungsfähigkeit für die klinische Anwendung. Das Homing in das Knochenmark ist ein selektiver aus mehreren Einzelschritten bestehender Prozeß unter Interaktion der Zellen mit Endothelzellen und dem Knochenmarkstroma, der durch eine Vielzahl verschiedener zusammenwirkender Adhäsionsmoleküle reguliert wird. Weitere Faktoren, die das Homing beeinflussen sind Zytokine oder Chemokine. Diese Stimuli wirken über verschiedene intrazelluläre Signalwege, von denen die RhoProteinfamilie der kleinen GTPasen eine bestimmende Rolle in der Migration zugedacht wird, sowie andere Bestandteile der intrazellulären Signaltransduktion, wie Kinasen und GProteine. Die Migration in das Sphäroidmodell ist ebenso ein selektiver und gerichteter Prozeß, bei dem neben den primären CD34 Zellen aus Nabelschnurblut auch andere humane hämatopoetische Zelllinien eine gerichtete Einwanderung zeigen. Durch Zugabe eines Inhibitors von G Proteinen, Pertussis Toxin (PT), und Hemmung der kleinen GTPasen durch spezifische Toxine aus Clostridien konnte eine reproduzierbare und deutliche Verringerung der Migration in das Sphäroid erreicht werden. Die Migration hämatopoetischer Zellen in das Sphäroid erfolgt also unter Beteiligung der kleinen GTPasen, sowie PT sensitiver GProteine. Blockierungsversuche zeigten unerwarteterweise keine funktionelle Beteiligung des ChemokinRezeptorpaares SDF1/CXCR4 und des Adhäsionsmoleküls VLA4 bei der Migra- tion in das Sphäroid. Welche weiteren Mechanismen für diese Migration bedingend sind erfordert weitergehende Untersuchungen. Durch die Kultivierung von hämatopoetischen Stammzellen aus Nabelschnurblut mit den Zytokinen SCF, FL, TPO und IL3 gelang eine ausreichende Vermehrung von frühen und determinierten Progenitorzellen unter Erhalt ihrer Stammzellfähigkeiten, so daß ein klinischer Einsatz möglich wird. Dabei ergab sich durch Untersuchung der Migrationsfähigkeit im Sphäroidmodell, daß beim Homing der Zellen die Aktivierung der kleinen GTPasen und eines Pertussis Toxinsensitiven GProteins beteiligt sind.