Biochemie und Chemie
Refine
Year of publication
Document Type
- Article (1112)
- Doctoral Thesis (728)
- Book (46)
- Preprint (32)
- Contribution to a Periodical (14)
- Conference Proceeding (11)
- Report (11)
- Review (9)
- diplomthesis (3)
- Part of a Book (2)
Has Fulltext
- yes (1974)
Is part of the Bibliography
- no (1974)
Keywords
- crystal structure (37)
- Crystal Structure (25)
- Synthesis (15)
- ESR Spectra (14)
- RNA (14)
- NMR-Spektroskopie (12)
- hydrogen bonding (11)
- IR Spectra (10)
- NMR spectroscopy (10)
- RNS (9)
Institute
- Biochemie und Chemie (1974)
- Medizin (83)
- Exzellenzcluster Makromolekulare Komplexe (68)
- Biowissenschaften (64)
- Präsidium (64)
- Zentrum für Biomolekulare Magnetische Resonanz (BMRZ) (63)
- Pharmazie (52)
- MPI für Biophysik (49)
- Sonderforschungsbereiche / Forschungskollegs (48)
- Georg-Speyer-Haus (22)
Paläobotanische Untersuchungen an Euramerischen Kohlenbecken haben an der Westfal/Stefan-Grenze in früheren Arbeiten einen deutlichen, weitgehend klimatisch gesteuerten Florenwechsel erkennen lassen. Desweiteren wurden in Kohlen aus dem Saar/Nahe-Becken beginnend mit dem obersten Westfal D erstmals Diageneseprodukte von Isoarborinol bzw. Fernen/Fernenol nachgewiesen, für die Koniferen, Cordaiten oder Farnsamer als mögliche Bioproduzenten vorgeschlagen wurden. Im Rahmen der vorliegenden Arbeit konnten die Arboran-/Fernanderivate MAPH, MATH, DAPH 1 und DAPH 2 in den Gesamtextrakten von Kohlen und Sedimenten aus dem Stefan des Saar/Nahe-Beckens durchgängig identifiziert werden, während die Verbindungen im Westfal lediglich in Proben aus dem obersten Westfal D auftraten. Folglich sind die Arboran-/Fernanderivate tatsächlich in besonderem Maße dazu geeignet, den Florenwechsel an der Westfal/Stefan-Grenze auf molekularer Basis zu beschreiben. Um einzugrenzen, zu welcher Pflanzengruppe die Bioproduzenten der Ausgangsverbindungen der Arboran-/Fernanderivate gehören, wurden isolierte Makrofossilien verschiedener Pflanzengruppen aus verschiedenen Euramerischen Kohlenbecken organisch-geochemisch analysiert. Dabei konnten MATH, MAPH, DAPH 1 und DAPH 2 in nahezu allen Gesamtextrakten fossiler Cordaiten-Reste identifiziert werden. In den Extrakten von Sediment-Vergleichsproben, die in unmittelbarer Nähe der Cordaiten-Reste entnommen wurden, konnten die Verbindungen dagegen nicht bzw. nur in vergleichsweise geringen Konzentrationen identifiziert werden. Ebenso waren die Arboran-/Fernanderivate in den Gesamtextrakten fossiler Koniferen-Reste sowie in den Extrakten verschiedener Farnsamerarten (Alethopteris, Dicroidium, Lescuropteris, Macroneuropteris, Neuropteris) nicht enthalten. Lediglich in der extrahierbaren organischen Substanz einiger fossiler Odontopteris-Reste aus dem Blanzy-Montceau-Becken (Frankreich) konnten MAPH und MATH (sowie teilweise DAPH 1 und DAPH 2) identifiziert werden. Allerdings ist das Auftreten der Verbindungen in diesen Odontopteris-Extrakten wahrscheinlich auf eine Überprägung des Pflanzenmaterials durch das umgebende Sediment zurückzuführen, da die Verbindungen in den Sediment-Vergleichsproben in höheren bzw. ähnlichen Konzentrationen enthalten sind. Insgesamt sind daher in den oberkarbonischen Kohlenbecken die Cordaiten als einer, möglicherweise sogar als „die“ Bioproduzenten der Ausgangsverbindungen der Arboran-/Fernanderivate MATH, MAPH, DAPH 1 und DAPH 2 anzusehen. Die deutlich negativere Kohlenstoffisotopie (-31,68 ‰) einer Sedimentprobe aus der Bohrung Wemmetsweiler-Nord, die gleichzeitig die höchsten Arboran-/Fernanderivat-Konzentrationen enthält, weist auf eine verstärkte mikrobielle Überarbeitung des organischen Materials hin. Fluoreszenz- und Auflichtmikroskopie-Untersuchungen zeigen zudem einen erheblichen, ebenfalls auf bakterielle Aktivität hindeutenden Bituminitanteil, während Relikte von höheren Landpflanzen nur geringfügig vertreten sind. Dies legt den Schluß nahe, daß die Arboran-/Fernanderivate in dieser Probe nicht von Cordaiten, sondern alternativ von Bakterien (oder Algen) abstammen. In diesem Fall ist Isoarborinol als biologischer Vorläufer anzunehmen und es tritt eine deutliche Verschiebung der Kohlenstoffisotopie-Werte zu negativeren Werten auf. Bei den Cordaiten ist eine derartige Isotopenverschiebung dagegen nicht zu beobachten, so daß für MATH, MAPH, DAPH 1 und DAPH 2 Fernen bzw. Fernenol als biologische Vorläufer anzunehmen sind.
Die Sonne strahlt weltweit pro Tag genügend Licht ein, um den Weltenergiebedarf für ein ganzes Jahr abzudecken. Somit ist sie die Quelle aller erneuerbarer Energien, denn neben der Erzeugung von Elektrizität aus Licht (Photovoltaik) regelt sie die Gezeiten und damit auch Wind und Wellen, die bei der Windkraft und in Gezeitenkraftwerken genutzt werden. Außerdem liefert sie die Energie für die Photosynthese in nachwachsenden Rohstoffen. Es gibt diesbezüglich nur ein grundlegendes Problem: Erneuerbare Energien fi nden wir in ausreichender Menge vor allem an Stellen mit mangelnder Infrastruktur. Sonnenenergie gibt es am meisten in der Wüste, Wind auf dem Meer und Biomasse im Dschungel. An Orten hoher Industrialisierung und damit auch hoher Bevölkerungsdichte ist für die »Erneuerbaren « so gut wie kein Platz. Es gibt demnach kein Energieproblem, aber ein Problem der Energiespeicherung und des Energietransportes.
Weltweit nehmen Kohle-, Öl- und Erdgasvorräte ab, der Energiebedarf dagegen steigt dramatisch an. Regenerative Energien mindern zwar die steigenden Klimagefahren, können aber unseren zukünftigen Energiebedarf in Ballungszentren kaum decken. Nach Einschätzung zahlreicher Experten gehört dem Wasserstoff die Zukunft. Er wird aber derzeit nahezu ausschließlich aus fossilen Brennstoffen gewonnen; damit bleibt auch diese Ressource endlich - ganz zu schweigen von ihrem hohen Gefährdungspotenzial. - Das neuartige Energiekonzept einer solaren und damit kohlenstoffunabhängigen Wasserstoffwirtschaft bedarf zur technischen Realisierung eines Zwischenspeichers für regenerative Energien. Dieser zukünftige Energieträger sollte synthetisch einfach erzeugbar sein, in unbegrenztem Maß zur Verfügung stehen oder zumindest recycelbar sein, die Energie permanent speichern und gefahrlos transportierbar sein, eine hohe Energiedichte aufweisen und kein Kohlendioxid oder andere (Klima-) Schadstoffe freisetzen. - Das Element Silicium kann zu einem maßgeschneiderten Bindeglied zur Ankoppelung dezentraler regenerativer Energieerzeugung an eine ebenso dezentrale Wasserstoffwirtschaft an jedem beliebigen Ort werden. Der Transport und die Speicherung von Silicium sind - im Gegensatz zu Öl oder besonders zu Wasserstoff - ohne Gefährdungspotenzial und/oder hohe Energieverluste möglich und erfordern nur eine technische Infrastruktur, wie sie auch für Kohle benötigt wird.
Global reserves of coal, oil and natural gas are diminishing; global energy requirements however are dramatically increasing. Renewable energy sources lower the threat to the earth’s climate but are not able to meet the energy consumption in major urban areas. The opinion of many experts is that the future will be dominated by hydrogen. However, this gas is essentially totally manufactured from fossil fuels and is hence of limited abundance – not to mention the hazards involved in its utilisation. - A novel energy concept involving solar and thus carbon-independent hydrogen-based technology necessitates an intermediate storage vehicle for renewable energy. This future energy carrier should be simple to manufacture, be available to an unlimited degree or at least be suitable for recycling, be able to store and transport the energy without hazards, demonstrate a high energy density and release no carbon dioxide or other climatically detrimental substances. - Silicon successfully functions as a tailor-made intermediate linking decentrally operating renewable energy-generation technology with equally decentrally organised hydrogen-based infrastructure at any location of choice. In contrast to oil and in particular hydrogen, the transport and storage of silicon are free from potential hazards and require a simple infrastructure similar to that needed for coal.
The Na+-F1F0-ATPase operon ofAcetobacterium woodii was recently shown to contain, among eleven atp genes, those genes that encode subunita and b, a gene encoding a 16-kDa proteolipid (subunit c 1), and two genes encoding 8-kDa proteolipids (subunits c 2 andc 3). Because subunits a,b, and c 1 were not found in previous enzyme preparations, we re-determined the subunit composition of the enzyme. The genes were overproduced, and specific antibodies were raised. Western blots revealed that subunits a,b, and c 1 are produced and localized in the cytoplasmic membrane. Membrane protein complexes were solubilized by dodecylmaltoside and separated by blue native-polyacrylamide gel electrophoresis, and the ATPase subunits were resolved by SDS-polyacrylamide gel electrophoresis. N-terminal sequence analyses revealed the presence of subunitsa, c 2, c 3,b, δ, α, γ, β, and ε. Biochemical and immunological analyses revealed that subunitsc 1, c 2, andc 3 are all part of the c-oligomer, the first of a F1F0-ATPase that contains 8- and 16-kDa proteolipids.
A detailed understanding of how potassium channels function is crucial e. g. for the development of drugs, which could lead to novel therapeutic concepts for diseases ranging from diabetes to cardiac abnormalities. An improved understanding of channel structure may allow researchers to design medication that can restore proper function of these channels. This is particularly important for KCNQ channels, since four out of five family members are involved in human inherited disease. In addition to structure and function relationships the determinants which govern assembly of KCNQ subunits are decisive to understand the physiological role of the KCNQ channel family members. Many details of KCNQ channel assembly remain incompletely understood. Previous work has shown that the subunit-specific heteromerisation between KCNQ subunits is determined by a ~115 amino acid-long subunit interaction domain (si) within the C-terminus (Schwake et al., 2003). Recently, Jenke et al. (2003) proposed that the C-terminal domains in eag and erg K+ channels act as sites which drive tetramerization. From their ability to form coiled coils, these domains were referred to as tetramerizing coiled-coil (TCC) sequences. Jenke et al. also pointed out that KCNQ channels contain bipartite TCC motifs within their C-termini, exactly within the si domain, which is responsible for the subunit-specific interaction pattern. The first part of this thesis was dedicated to determine the individual role of these TCC domains on homomeric and heteromeric channel formation in order to further characterize the molecular determinants of KCNQ channel assembly. In the second part of this thesis cystein-scanning mutagenesis was employed, followed by thiol-specific modification using MTS reagents to screen more than 20 residues in the S3-S4 linker region and in the S4 transmembrane domain of the KCNQ1 channel to gain information about residue accessibility, the functional effects of thiol-modifying reagents (MTSES), and effects of crosslinking selected pairs of Cys residues by Cd+ ions, which could be used for testing model predictions based upon known Kv channel structures from the literature. According to homology modelling based on the Kv1.2 structure it was attempted to determine the proximity of individual residues from different transmembrane segments using the metal bridge approach (crosslinking by Cd+ ions). This led us to derive structural constraints for interactions between the S4 voltage sensor and adjacent transmembrane segments of KCNQ1. Similar studies have previously been performed on the Shaker K+ channel, which has served as a paradigm for structure-function research of voltage-gated K+ channels for a long time, but little is known for KCNQ channels concerning their similarity to published K+ channel structures.
A detailed analysis of the chemical constituents of a Caribbean specimen of Aiolochroia crassa was performed. Five brominated products (1 -5) were isolated and one of these was a new bromotyrosine metabolite. The structure of the new compound 1 has been established from spectral studies. Compounds 1 and 2, which are the major brominated metabolites and have not been previously identified in any Aiolochroia species, could be usefully employed as chemotaxonomic markers.
In der vorliegenden Arbeit wurden marine Schwämme der Gattungen Agelas und Stylissa von den Florida Keys und Bahamas untersucht. Dabei lag das Hauptinteresse neben der Isolierung und Strukturaufklärung der Schwamminhaltsstoffe vor allem auf der ökologischen Funktion der Sekundärstoffe. Die Chemie dieser Schwämme ist sehr charakteristisch und wird von bromierten Derivaten der Pyrrol-2-carbonsäure bestimmt. Insgesamt wurden 17 bromierte Pyrrol-Alkaloide isoliert, von denen die Verbindungen N-alpha-(4-Brompyrrolyl-2-carbonyl)-L-homoarginin (isoliert aus Agelas wiedenmayeri), Bromsceptrin (Agelas conifera), N-Methyl-dibromisophakellin (Stylissa caribica), Monobromisophakellin (Agelas sp.) und Sventrin (Agelas sventres) erstmals beschrieben wurden. Die Strukturaufklärung erfolgte mit spektroskopischen Methoden (2D NMR, MS, IR, UV, CD) und durch Vergleich mit literaturbekannten Daten. Im Fall von N-alpha-(4-Brompyrrolyl-2-carbonyl)- L-homoarginin gelang die Bestimmung der absoluten Konfiguration erst nach Synthese der Verbindung und anschließendem Vergleich der CD-Spektren von Naturstoff und synthetischer Verbindung. Insgesamt wurden die Dichlormethan/Methanol-Rohextrakte von 125 Schwämmen der Gattung Agelas, die an verschiedenen Standorten der Bahamas gesammelt wurden, mittels HPLC qualitativ untersucht und die Hauptsekundärmetaboliten quantitativ bestimmt. In sämtlichen Schwämmen konnten Brompyrrol-Alkaloide nachgewiesen werden, wobei sich drei charakteristische Inhaltsstoffmuster zeigten. Während die Rohextrakte von 71 Proben der Schwämme Agelas cervicornis, Agelas clathrodes, Agelas dispar und Agelas wiedenmayeri durch die beiden Alkaloide Oroidin und 4,5-Dibrompyrrol-2-carbonsäure gekennzeichnet sind, bestimmen dimere Pyrrol-Imidazol-Alkaloide vom Sceptrin- und Ageliferin-Typ, wobei Sceptrin stets dominiert, das Inhaltsstoffmuster von 50 untersuchten Proben der Schwämme Agelas cerebrum, Agelas conifera, Agelas dilatata und Agelas sceptrum. Ein drittes Inhaltsstoffmuster wurde für vier Proben des Schwamms Agelas sp. gefunden, welches durch bromierte Pyrrol-Alkaloide vom Phakellin- und Isophakellin-Typ charakterisiert ist. Zur Untersuchung der ökologischen Bedeutung von Brompyrrol-Alkaloiden wurde die fraßabschreckende Wirkung gegenüber Fischen getestet. In Aquarium- und Freilandversuchen konnte gezeigt werden, daß die fraßhemmende Wirkung der Rohextrakte gegenüber Fischen im Fall von Agelas conifera auf bromierte Pyrrol-Alkaloide vom Sceptrin- und Ageliferin-Typ bzw. Isophakellin-Typ für Stylissa caribica zurückzuführen ist. Erstmals wurden Reinsubstanzen vom Sceptrin-, Ageliferin- und Isophakellin-Typ getestet. Sceptrin und N-Methyl-dibromisophakellin sind bei natürlichen Konzentrationen fraßabschreckend. In weiteren ökologischen Untersuchungen konnte gezeigt werden, daß die bromierten Pyrrol-Alkaloide Oroidin, 4,5-Dibrompyrrol-2-carbonsäure und Sceptrin neben einem fraßabschreckenden Potential gegenüber Fischen auch besiedlungshemmend auf Fäulnisbakterien wirken. Bromierte Pyrrol-Alkaloide erfüllen somit mindestens zwei ökologische Funktionen, die das Überleben von Agelas-Schwämmen sichern und sie zu einer der erfolgreichsten Arten in Lebensgemeinschaften karibischer Riffe machen.
Antigenic and 3D structural characterization of soluble X4 and hybrid X4-R5 HIV-1 Env trimers
(2014)
Background: HIV-1 is decorated with trimeric glycoprotein spikes that enable infection by engaging CD4 and a chemokine coreceptor, either CCR5 or CXCR4. The variable loop 3 (V3) of the HIV-1 envelope protein (Env) is the main determinant for coreceptor usage. The predominant CCR5 using (R5) HIV-1 Env has been intensively studied in function and structure, whereas the trimeric architecture of the less frequent, but more cytopathic CXCR4 using (X4) HIV-1 Env is largely unknown, as are the consequences of sequence changes in and near V3 on antigenicity and trimeric Env structure.
Results: Soluble trimeric gp140 Env constructs were used as immunogenic mimics of the native spikes to analyze their antigenic properties in the context of their overall 3D structure. We generated soluble, uncleaved, gp140 trimers from a prototypic T-cell line-adapted (TCLA) X4 HIV-1 strain (NL4-3) and a hybrid (NL4-3/ADA), in which the V3 spanning region was substituted with that from the primary R5 isolate ADA. Compared to an ADA (R5) gp140, the NL4-3 (X4) construct revealed an overall higher antibody accessibility, which was most pronounced for the CD4 binding site (CD4bs), but also observed for mAbs against CD4 induced (CD4i) epitopes and gp41 mAbs. V3 mAbs showed significant binding differences to the three constructs, which were refined by SPR analysis. Of interest, the NL4-3/ADA construct with the hybrid NL4-3/ADA CD4bs showed impaired CD4 and CD4bs mAb reactivity despite the presence of the essential elements of the CD4bs epitope. We obtained 3D reconstructions of the NL4-3 and the NL4-3/ADA gp140 trimers via electron microscopy and single particle analysis, which indicates that both constructs inherit a propeller-like architecture. The first 3D reconstruction of an Env construct from an X4 TCLA HIV-1 strain reveals an open conformation, in contrast to recently published more closed structures from R5 Env. Exchanging the X4 V3 spanning region for that of R5 ADA did not alter the open Env architecture as deduced from its very similar 3D reconstruction.
Conclusions: 3D EM analysis showed an apparent open trimer configuration of X4 NL4-3 gp140 that is not modified by exchanging the V3 spanning region for R5 ADA.
Das Ziel der vorliegenden Arbeit war es, MALDI-Massenspektrometrie als robuste Analysenmethode für die quantitative Analyse niedermolekularer Verbindungen aus komplexen biologischen Matrizes zu etablieren. Zu Beginn der Arbeit wurden drei typische Fragestellungen im Bereich der Lebensmittelanalytik, der medizinischen Forschung und der klinischen Chemie ausgewählt, um die Methodik anhand dieser Modellsysteme zielgerichtet zu entwickeln und zu bewerten. Für jede dieser Fragestellungen wird routinemäßig ein hoher Probendurchsatz verlangt und damit werden hohe Anforderungen an die Probenvorbereitung gestellt, da diese einfach, schnell, reproduzierbar, Matrix-tolerant und automatisierbar sein muss um die Weiterentwicklung zur Hochdurchsatzanalytik zu erlauben.
Der quantitative Nachweis von Melamin und seinen Derivaten wurde aufgrund des Aufkommens von Milchprodukten, die mit diesen Verbindungen kontaminiert waren, ein wichtiger Bestandteil der Analytik dieser Lebensmittel. Insbesondere an diesem Beispiel zeigte sich der Vorteil des Einsatzes von MALDI-Massenspektrometrie zur Analyse kleiner Moleküle. Aufgrund der höheren Toleranz gegenüber Puffern und Salzen konnte die Probenvorbereitungszeit der für die FDA entwickelten Methode zur Quantifizierung von Melamin in Milchpulver mittels LC-ESI von ca. 140 min auf 90 min reduziert werden, da auf die zeitaufwendige Flüssigchromatographie verzichtet werden konnte. So wurde Melamin mit einem LLOQ von 0,5 ppm quantifiziert, was unterhalb der Vorgaben der WHO (2,5 ppm in Milichpulver und 1 ppm in Babynahrung) lag. Cyanursäure, ein Derivat von Melamin welches für die Bildung schwerlöslicher Komplexe in der Niere mitverantwortlich gemacht wird, konnte ebenfalls mit der entwickelten MALDI-MS Methode quantifiziert werden. Allerdings war die ermittelte Bestimmungsgrenze mit 15 ppm um den Faktor 30 schlechter als bei Melamin. Die Nachweisgrenze bei MALDI-MS ist stark von der MALDI-Matrix abhängig und die Verwendung von Sinapinsäure war eine gute Kompromisslösung, um die Analyten in einem Spot im positiven und negativen Reflektormodus zu analysieren. Allerdings wurde diese Matrix zur Analyse von Analyten im positiven Reflektormodus entwickelt. Bislang wurden nur wenige Matrizes für MALDI-MS im negativen Reflektormodus beschrieben, um z.B. Säuren besser nachweisen zu können. Forschung in diesem Bereich wird neue Möglichkeiten zur Detektion negativ geladener kleiner Moleküle ergeben.
Des Weiteren wurden im Rahmen dieser Arbeit auch Lösungen für klinische Fragestellungen wie etwa den Nachweis von Methylphenidat im Plasma und Gehirn von Ratten oder der Dried Blood Spot Analytik entwickelt. Bei beiden Methoden wurde jeweils nur eine einfache Flüssig-Flüssig-Extraktion zur Probenvorbereitung angewendet und sie ließen sich sehr gut auf Realproben übertragen.
Methylphenidat konnte im Plasma im Konzentrationsbereich von 0,1-40 ng/mL und im Hirnhomogenat im Konzentrationsbereich von 0,4-40 ng/mL quantifiziert werden, was gut im Konzentrationsbereich der Realproben von mit Methylphenidat gefütterten Ratten lag. Dazu standen das Plasma und die Gehirne von fünf Ratten zur Verfügung. Es wurde eine lineare Korrelation zwischen der MPH-Konzentration im Gehirnhomogenat und im Plasma gefunden, was basierend auf den bis dato bekannten Literaturergebnissen ein zu erwartendes Ergebnis war, aber zukünftig mit einer größeren Anzahl von Versuchstieren verifiziert werden sollte. Während der Methodenentwicklung war auch bei diesem Projekt die Auswahl der MALDI-Matrix ausschlaggebend für den Erfolg der Messungen. Im MALDI-Massenspektrum interferierte das Signal des Natriumaddukts von CHCA mit dem Signal von MPH. Für dieses Problem kamen zwei mögliche Lösungen in Betracht. Erstens die Quantifizierung mit ClCCA als MALDI-Matrix, da hier keine Interferenzen auftraten. In ersten Vorversuchen konnte MPH so in einem Konzentrationsbereich von 1-48 ng/mL mit einer exzellenten Linearität von R2=0,9992 quantifiziert werden. Eine zweite mögliche Problemlösung war die Verwendung von Tandem-Massenspektrometrie. Hierzu wurden Fragmentionen-Massenspektren der überlagerten Signale aufgenommen. MPH und der verwendete interne Standard MPH-d9 zeigten dabei spezifische Fragmentionensignale, über die quantifiziert wurde. Da die Sensitivität um den Faktor 100 im Vergleich zu MS-Spektren von CHCA und ClCCA gesteigert werden konnte, wurde die weitere Methodenentwicklung basierend auf der Tandem-Massenspektrometrie mit der MALDI-Matrix CHCA durchgeführt. Überdies sind MS/MS-Versuche unter Verwendung von ClCCA als MALDI-Matrix für kleine Moleküle sehr erfolgsversprechend und sollten in weiteren Forschungsarbeiten durchgeführt werden.
Die Dried Blood Spot Technik als alternative Probenvorbereitung bietet eine Reihe von Vorteilen, wie etwa den einer einfacheren Lagerung und eines einfacheren Transports einer großen Menge von Proben. Darüber hinaus werden nur wenige Mikroliter Blut verwendet, was vorteilhaft ist bei z B. klinischen Studien oder dem Therapeutic Drug Monitoring. Diese Art der Probennahme ist somit eine perfekte Ergänzung für weitere quantitative Analysen von Methylphenidat in Rattenblut. Den Ratten würden nur wenige Mikroliter Blut entnommen werden, was ihr Überleben sichert und der Transport der Proben auf dem Postweg wäre wesentlich einfacher. Um eine allgemein verwendbare DBS-MALDI-MS-Methode zu entwickeln, wurden neben Methylphenidat auch bekannte Analyten aus dem Bereich des Dopings sowie Lamotrigin, Coffein und Theophyllin als Beispiele für das Therapeutic Drug Monitoring verwendet. Es wurden verschiedene Lösungsmittel zur Extraktion eingesetzt, wobei sich eine Kombination aus Methyl-tert-Butylether und Ethanol, sowie Aceton als am besten geeignet erwies. Einige Analyten wie Coffein, Theophyllin und Lamotrigin wurden bis zu einer Konzentration von 0,5 μg/mL quantifiziert. Diese Bestimmungsgrenze ist bei Analyten aus dem Bereich des Dopings wie z.B. Salbutamol, Methylphenidat oder Clenbuterol, deren therapeutisch wirksame Plasmakonzentration im Bereich von wenigen Nanogramm pro Milliliter Blut liegt, um den Faktor 15-500 zu hoch. Diese Analyten waren bis zu einer Konzentration von 5 μg/mL im Blut mittels MALDI-MS problemlos nachweisbar. Um die Sensitivität zu erhöhen, ist es allerdings sinnvoll, die Extraktion zukünftig für die einzelnen Analyten zu optimieren, sie mittels Festphasenextraktion oder LC anzureichern und MS/MS-Spektren aufzunehmen. Für die Analyten Coffein, Theophyllin und Lamotrigin, deren therapeutisch wirksame Plasmakonzentration im ein- bis zweistelligen Mikrogramm-pro-Milliliter Bereich liegt, eignete sich die entwickelte Methode sehr gut. Es wurde eine Methodenvalidierung durchgeführt, wobei die validierten Parameter den Vorgaben der FDA entsprachen.
Da die Auswahl der MALDI-Matrix bei den verschiedenen Methodenentwicklungen jeweils ein kritischer Faktor war, wurden abschließend eine Auswahl von Analyten mit einer Molekülmasse bis ca. 600 Da mit verschiedenen MALDI-Matrizes präpariert. Ein Großteil der Analyten wurde am sensitivsten mit ClCCA nachgewiesen. Im Rahmen dieser Versuche wurde auch erstmals ein Strukturanalogon von ClCCA, und zwar ClCCA-Tetrazol, als alternative MALDI-Matrix eingesetzt, bei welchem die Carboxylgruppe durch einen Tetrazolring ausgetauscht wurde. Diese zeigte eine sehr homogene Kristallisation und für einige Analyten eine bis zu Faktor 3 höhere Signalintensität im Vergleich zu ClCCA. Außerdem war auffällig, dass einige Analyten unter bestimmten Präparationsbedingungen wie z B. der Graphite Supported Preparation sensitiver mittels MALDI-MS nachweisbar waren. Bei anderen Analyten verschlechterten sich die Analysenergebnisse. Graphit verändert stark die Kristallisation der MALDI-Matrix und es wird vermutet, dass sich dies auf den Einbau der Analyten in die Matrixkristalle auswirkt. Es konnte bislang aber noch nicht abschließend geklärt werden, wie genau die Präparation der Proben Einfluss auf den Einbau der Analyten in die Matrix nimmt. Eine Untersuchung dieser Phänomene sollte daher Gegenstand weiterer Forschungsprojekte sein.
Zusammenfassend stellt die MALDI-Massenspektrometrie eine schnelle und robuste Methode zur Quantifizierung einer Vielzahl kleiner Moleküle in komplexen biologischen Matrizes dar.
Glycin ist ein wichtiger inhibitorischer Neurotransmitter im zentralen Nervensystem. Um die glycinerge Erregungsübertragung zu sichern, muss die Glycinkonzentration an Synapsen präzise reguliert werden. Hierfür sind die Glycintransporter, GlyT1 und GlyT2, verantwortlich. Der GlyT2 ist ein präsynaptisches Protein, das in glycinergen Nervenendigungen nahe der aktiven Zone lokalisiert ist. Das über den Transporter aus dem extrazellulären Raum aufgenommene Glycin steht anschließend für die Befüllung der synaptischen Vesikel durch den vesikulären inhibitorischen Aminosäuretransporter (VIAAT) zur Verfügung. Die GlyT2-Defizienz führt in Mäusen zu einem letalen Phänotyp und verdeutlicht die Notwendigkeit eines hochaffinen Glycinaufnahmesystems in glycinergen Neuronen. Um mögliche Mechanismen zu untersuchen, die zur präzisen Lokalisation des GlyT2 in der Präsynapse führen, wurde das PDZ-Domänenbindungsmotiv (PDZ-DBM) am extremen C-Terminus bzw. die lange N-terminale Domäne dieses Transporters deletiert. Durch biochemische und pharmakologische Analysen von transfizierten HEKT-Zellen konnte gezeigt werden, dass der Verlust des PDZ-DBM oder der N-terminalen Domäne die Proteinexpression, die Glykosylierung und die Transportaktivität des GlyT2 nicht beeinflussten. Längere Deletionen des N-Terminus (ΔAA1-184) setzten jedoch die Effizienz der Glycinaufnahme herab und ergaben im Vergleich zum wt-Protein einen um 60% reduzierten vmax-Wert, während die apparente Glycinaffinität (KM-Wert) unverändert blieb. Lokalisationsstudien und Oberflächenbiotinylierungen zeigten GlyT2 wt-Immunreaktivität an der Plasmamembran, die sich qualitativ und quantitativ nicht von denen der N- und C-terminalen Mutanten unterschied. Das PDZDBM und die N-terminale Domäne spielen folglich in der Prozessierung und der Transportfunktion des GlyT2 eine untergeordnete Rolle. Möglicherweise reduziert die fast vollständige Deletion der N-terminalen Domäne jedoch die Stabilität des GlyT2. In transfizierten hippocampalen Neuronen wurde der Einfluss des PDZ-DBM und der N-terminalen Domäne hinsichtlich der GlyT2 Lokalisation analysiert. Die transfizierten Mutantenproteine zeigten eine diffuse Verteilung mit partiellen Anreicherungen von GlyT2-Immunreaktiviät. Das wt-Protein kolokalisierte mit Synaptophysin, exzitatorischen synaptischen Markern wie PSD95 und mit den inhibitorischen Markern Gephyrin und VIAAT. Nach Deletion des PDZ-DBM hingegen zeigte der GlyT2 eine um ca. 50% verminderte Kolokalisation mit allen untersuchten synaptischen Markern. Damit konnte hier erstmals eine Funktion des PDZ-DBM für die Anreicherung von GlyT2 an Synapsen gezeigt werden. Mit N-terminalen Deletionsmutanten transfizierte hippocampale Neurone wiesen kolokalisierende GlyT2ΔN-PSD95-Puncta zumeist in MAP2-positiven Neuriten auf, während das wt-Protein zumeist in MAP2-negativen Neuriten kolokalisierte. MAP2 ist ein mikrotubuli-assoziertes Protein, das in Dendriten, aber nicht in Axonen, auftritt und somit eine Unterscheidung derselben ermöglicht. Aufgrund der Überexpression in transfizierten Neuronen war die GlyT2-Immunreaktivität aber sowohl in axonalen als auch dendritischen Neuriten zu beobachten. Zusätzlich zu der in größeren Clustern gefundenen synaptischen GlyT2ΔN-Immunreaktivität war eine Färbung hauptsächlich in sehr kleinen Strukturen (<= 1 μm) nachzuweisen, die Transportvesikeln entsprechen könnten. Dies ist mit einem längeren Verbleib der Deletionsmutanten in intrazellulären Strukturen erklärbar. Im Hippocampus wird GlyT2 endogen nur sehr schwach in einer Subpopulation von putativ glycinergen Neuronen exprimiert. Um die Lokalisation der N-terminalen GlyT2-Proteine in Zellen zu untersuchen, die eine hohe endogene GlyT2-Expression aufweisen, wie spinalen Neuronen, die sich aber nur schlecht transfizieren lassen und in Kultur keine adulte GlyT2-Lokalisation aufweisen, wurden BAC-transgene Mäuse generiert, die myc-markierte GlyT2ΔN-Proteine unter Kontrolle des GlyT2-Promotors exprimieren. Der Vorteil von BAC-transgenen Mauslinien ist, dass sie aufgrund der Verwendung des endogenen Promotors das Transgen nur schwach überexprimieren. Founder-Mäuse, in denen der jeweilige modifizierte BAC-Klon (mGlyT2 wt, ΔAA14-174 oder ΔAA14-184) integriert wurde, wurden identifiziert und mit C57BL/6J-Mäusen verpaart, um so transgene Mauslinien zu etablieren und die Lokalisation der mutierten GlyT2-Proteine zu analysieren. Zusätzlich wurde eine BAC-transgene Cre-Mauslinie generiert, die die Cre-Rekombinase in GlyT2-positiven Zellen exprimiert. Durch die Verpaarung mit konditionalen oder transgenen Mauslinien soll mit diesen GlyT2/Cre-Mäusen die Funktion einzelner Genprodukte in glycinergen Zellen untersucht werden. In dieser Arbeit wurden außerdem die Glycinrezeptor (GlyR) α-Untereinheiten (UE) in GlyT2-defizienten Mäusen untersucht. GlyT2 -/- Tiere sterben in der zweiten postnatalen Woche nach der Geburt und zeigen einen starken neuromotorischen Phänotyp. Da in demselben Zeitraum ein Austausch der embryonalen α2- durch die adulte α1-UE erfolgt, wurde die Entwicklung der α1- und der Gesamt-α- Immunreaktivität in Rückenmarksschnitten von wt und GlyT2 -/- Tieren analysiert und miteinander verglichen. Die Daten zeigen, dass der α-UE-Austausch in den GlyT2-defizienten Tieren ähnlich wie in wt Tieren erfolgt. In α1-GlyRs ist die Öffnungszeit des aktivierten Kanals kürzer als bei α2-GlyRs. Zusammen mit der geringeren Ausschüttung an Glycin aufgrund der GlyT2-Defizienz lässt sich so das Auftreten des Krampf-Phänotyps der GlyT2 -/- Mäuse nach erfolgtem UE-Austausch erklären.
In the past century, scientists have realized that venoms are a source of a number of natural substances presenting a wide range of pharmacological properties and often displaying a high specificity for their targets. Thus, the field of toxinology came into being, which is defined as the study of toxic substances of biological origin. Toxins are found in a wide variety of animals, including fish, cone snails, scorpions, snakes, and even some mammals. To be classified as venom, these must contain substances, i.e. toxins, which disturb physiological processes and must be deliberately delivered to the target animal. Snakes have evolved one of the most sophisticated mechanisms for venom delivery. Envenomation by snakebite can induce and inhibit aggregation/agglutination of platelets as well as inhibit/activate hemostasis, but also disrupt other physiological functions via neurotoxins and angioneurin growth factors. Snake venoms contain a substantial amount of C-type lectin-related proteins (CLRPs) which are known to function, notably, as integrin inhibitors. CLRPs are heterodimers composed of homologous α and β subunits which can assemble either covalently or noncovalently to oligomers, resulting in αβ, (αβ)2 and (αβ)4 structures. Some of the main targets of CLRPs are membrane receptors, coagulation factors, and proteins essential to hemostasis. The platelet collagen receptors GPVI and α2β1 integrin as well as the von Willebrand factor receptor GPIb play important roles in platelet activation and aggregation and are considered main targets of antithrombotic drugs. In this thesis, the integrin α2β1 is particularly considered as it is the sole collagen-binding integrin on platelets. Reduced expression of this platelet receptor results in dysfunction of platelet responses. Equivalently, overexpression of α2β1 integrin results in an increased risk of thrombosis. As a result, selective inhibitors of the collagen-α2β1 interaction could give rise to effective antithrombotic drugs. Integrins are large receptors which mediate cell-cell contacts and the binding of cells to the extracellular matrix (ECM). Therefore, they play a role in physiological processes, e.g. hemostasis and immunity, as well as in pathological processes, e.g. tumor angiogenesis and atherosclerosis. 18 α and 8 β integrin subunits, with nine α subunits containing an additional A domain, associate non-covalently to form 24 heterodimers with distinct binding specificities. Integrin collagen receptors are a subclass of four receptors which all utilize the β1 subunit. The α2β1 integrin is a collagen-binding receptor expressed not only on platelets, but also on endothelial and epithelial cells. Consequently, this integrin is also essential for cell adhesion and migration playing a role in angiogenesis as well as tumor metastasis. To date, there are five known antagonists of α2β1 integrin: EMS16, rhodocetin, vixapatin, and most recently rhinocetin and flavocetin-A. The first four have been shown to be specific for the integrin α2A domain, the major collagen-binding domain. All these antagonists are CLRPs and present new leads for drug design. In the past few years, many insights into the structure and function of rhodocetin were obtained. Monoclonal antibodies proved to be advantageous in disclosing this information, making them not only useful as therapeutic agents, but also as tools for protein characterization. The venom of the Vipera palaestinae snake was recently shown to contain an α2β1 integrin inhibitor, which prevented the integrin from binding collagen. This inhibitor, called vixapatin, was the initial focus of this dissertation. Vixapatin’s interaction with the α2β1 integrin needed further characterization on a molecular and cellular level to assess its medical potential and monoclonal antibodies were to be used as a tool. Originally, vixapatin had been isolated by reversed-phase high-performance liquid chromatography. To avoid the stringency of this method, for this study, it was replaced with gentler chromatographic methods. First, the α2β1 integrin inhibitor was isolated from the crude snake venom with affinity chromatography using the α2A domain as bait, establishing a method to quickly screen venoms for α2β1-binding proteins which affect the collagenintegrin interaction. The applicability of this method to other snake venoms was shown by isolating an α2A domain-specific toxin from the venom of Trimeresurus flavoviridis. To allow further characterization of both these toxins, gel filtration and ion exchange chromatography were employed to purify the protein without the α2A domain. These classical protein purification methods resulted in similar separation patterns of both the V. palaestinae and T. flavoviridis venom proteins. Purified proteins exhibiting the potential of inhibiting integrinbinding to collagen were analyzed by two-dimensional gel electrophoresis. Both VP-i and flavocetin-A, the integrin inhibitors from V. palaestinae and T. flavoviridis, respectively, were shown to have more complex structures than was evident from the purification. Each consisted of four low-molecular-weight proteins which assembled into two bands (for VP-i) or one single band (for flavocetin-A) under non-reducing conditions. Mass spectrometry analyses revealed VP-i to belong to the family of CLRPs, just like vixapatin does. However, these two proteins differed in their primary sequences and only showed homology to one another. The toxin purified from T. flavoviridis revealed this toxin to be flavocetin-A, a heterodimeric CLRP which had so far only been shown to have GPIb-binding activity. At the time of flavocetin-A’s purification, flavocetin-B was co-purified; flavocetin-B consists of the same two α and β subunits, plus an additional γ subunit. As no sequence information is known to date for the γ subunit, it may be one of the additional proteins purified here, along with an additional δ subunit. Therefore, the toxin isolated here may actually consist of four different subunits forming a tetramer of two different heterodimers, generating an (αβ)2(γδ)2 structure. This proposed (αβ)2(γδ)2 flavocetin-A structure has binding sites for both α2β1 integrin and GPIb, with no sterical overlap, as shown by affinity chromatography using the α2A domain and the extracellular domain of the GPIb receptor. The potential of VP-i and flavocetin-A to inhibit integrin-binding to type I collagen was shown during purification: Both toxins efficiently bind to the integrin α2A domain; also, VP-i and vixapatin bind to the A domain with the same affinity. Surface plasmon resonance showed the interaction of flavocetin-A with the α2β1 integrin to be extremely strong and association to be very fast. Furthermore, both toxins were shown to inhibit binding of the wildtype integrin to collagen: VP-i and flavocetin-A acted antagonistically on cell adhesion and cell migration. Initially, the interaction between VP-i and α2β1 integrin was to be further characterized with the help of monoclonal antibodies. However, this proved problematic, the procedure requiring various optimizations. Although, after expert consultation, some monoclonal antibodies could be obtained, the cells were extremely sensitive and gave unsatisfactory results when tested as detection tools in Western blot and immunoassays. Concluding, two novel α2β1 integrin inhibitors were discovered: VP-i and flavocetin-A, which were purified using the same procedure and which have similar functions. Both are Ctype lectin-related proteins which effectively inhibit cell adhesion and migration. This underlines that nature has instrumentalized CLRPs to specifically inhibit α2β1 integrin. Further characterization of VP-i and flavocetin-A will be able to provide leads for future drug development.
Natrium/Protonen-Austauscher sind integrale Proteine biologischer Membranen und aufgrund ihrer funktionalen Abhängigkeit von einem elektrochemischen Gradienten der Klasse der Sekundärtransporter zugeordnet. Sie spielen eine essentielle Rolle sowohl in der Adaption von Bakterien an eine saline, alkalische Umgebung, als auch in der Regulation des intrazellulären pH- und Natriumhaushalts in Eukaryonten. Aufgrund der medizinischen Relevanz, unter anderem im Rahmen in der Behandlung des Herzinfarkts, besteht großes Interesse an der Struktur und den biochemischen Charakteristika des im Menschen ubiquitär vorkommenden Natrium/Protonen-Austauschers NHE1. Die heterologe und funktional aktive Produktion eukaryontischer Membranproteine stellt jedoch immer noch eine enorme Herausforderung dar, bei der sich das auf dem Semliki Forest Virus basierende Expressionssystem als gut geeignet erwiesen hat. Da die Überexpression von NHE1 mittels verschiedener eukaryontischer Expressionssysteme bisher kein kristallisationsfähiges Material liefern konnte, sollte in dieser Arbeit die heterologe Gewinnung von NHE1 mit dem Semliki Forest Virus Expressionssystem ermöglicht werden. Das Semliki Forest Virus Expressionssystem wurde auf Basis eines Vektorkonstrukts mit GFP zur späteren Übertragung der Parameter auf die Produktion von NHE1 etabliert. Konstrukte von NHE1 mit N- und C-terminalem Affinitäts-Tag wurden erfolgreich kloniert und zur Infektion von BHK-21 Zellkulturen eingesetzt. Dabei konnte beobachtet werden, dass der N-Terminus abgespalten wird und wahrscheinlich als Signalpeptid zum Einbau in die Membran dient. Das Protein wurde im Endoplasmatischen Retikulum lokalisiert, wo die Glykosylierung zum Transport in die Plasmamembran unterbleibt, was auf eine Interferenz mit der Virusinfektion zurückgeführt wurde. Eine Infektion der Zellen mit dem Semliki Forest Virus hat neben einem bereits bekannten massiven Anstieg des intrazellulären Natriumgehalts eine starke Alkalinisierung des Zytoplasma zur Folge. Ähnliches ist bisher über die Infektion von Zellen mit dem Poliovirus bekannt und stellt dort ein Schlüsselelement in der Sicherstellung der viralen Replikation dar, was auch für das Semliki Forest Virus zu gelten scheint. Die Expression von NHE1 konnte im 8 Liter-Maßstab optimiert und sowohl die Präparation als auch die Solubilisierung mit verschiedenen Detergenzien erfolgreich eingeführt werden. NHE1 erfährt jedoch bereits in vivo einen erheblichen proteolytischen Abbau, der sich während der Membranpräparation und Aufreinigung fortsetzt und zu einer Fragmentierung führt, die trotz des Einsatzes unterschiedlicher Kultivierungszeiten, Detergenzien, Additive oder Proteaseinhibitoren in vivo als auch in vitro nicht in einem Maße reduziert werden konnte, welches zur Gewinnung von kristallisationsfähigem Material erforderlich gewesen wäre. Es muss empfohlen werden einen in vivo Ansatz zu etablieren, um die proteolytische Degradation zu unterdrücken. Da die Virusreplikation nicht erforderlich ist, wäre Bafilomycin als Inhibitor der V-Typ ATPase geeignet, um die intrazelluläre Alkalinisierung und somit wahrscheinlich den Abbau von NHE1 zu verhindern. Ebenso erscheint der Einsatz von MG-132 zur spezifischen Inhibierung des Proteasoms Erfolg versprechend, was aber wegen hoher Kosten praktisch kaum in Frage kommt. Da man trotz individuell gelagerter Unterschiede zwischen den einzelnen Natrium/Protonen-Austauschern von einem ähnlichen Prinzip in Regulation und Transport ausgeht, wurden Strukturuntersuchungen mit Hilfe der Kryo-Elektronenmikroskopie am bakteriellen Natrium/Protonen-Antiporter NhaA aus Escherichia coli durchgeführt, um die strukturelle Basis der pH-Wahrnehmung und die Translokation von Natrium in das Periplasma besser zu verstehen. Die vorliegende Röntgen- und EM-Struktur repräsentieren den inaktiven Zustand, weshalb der eigentliche Ablauf des Transportvorgangs bisher biochemisch herzuleiten war, da bislang keine Kristalle im aktiven Zustand gezüchtet werden konnten. Durch die in situ Inkubation von 2D-Kristallen konnten aktive Zustände des Proteins direkt auf dem EM-Netz induziert und kryo-elektronenmikroskopisch festgehalten werden. Einzelne Datensätzen wiesen Reflexe bis zu 5 Å auf. Aus den angefertigten Projektionsdichte- und Differenzkarten ergaben sich pH- und Natrium-abhängige Konformationsänderungen. Die Röntgenstruktur wurde mit Hilfe des Molekularen Ersatzes in die EM-Struktur eingepasst und diente der Zuordnung und Interpretation der beobachteten Zustände als Basis. Die pH-abhängige Konformationsänderung wurde einem mit der funktional wichtigen Helix 9 assoziierten Bereich zugeordnet, welcher durch die Röntgenstruktur nicht definiert ist und wahrscheinlich die fehlenden Aminosäuren des regulatorisch relevanten N-Terminus enthält. Die beobachtete Konformationsänderung stellt das Entstehen einer besser geordneten Struktur dar und geht mit der pH-regulierten Aktivierung von NhaA zwischen pH 6 und 7 einher, weshalb dieser Bereich des Proteins zumindest als Bestandteil des sogenannten pH-Sensors betrachtet werden kann. Nach der vollständigen Aktivierung durch den pH-Wert, welche der folgenden Natrium-abhängigen Konformationsänderung vorauslaufen muss, konnte beobachtet werden, dass die Präsenz von Natrium im Rahmen der Ionentranslokation eine Bewegung des periplasmatischen Teils von Helix 4 induziert. Es wäre interessant, eine tiefergehende und genauere Charakterisierung der beobachteten Konformationsänderungen durch die Erstellung einer dreidimensionalen EM-Dichtekarte zu ermöglichen. Des Weiteren hat die eingehendere Untersuchung des röntgenkristallographischen Monomers nach der Einpassung in das physiologisch vorliegende Dimer der EM-Struktur sowohl eine für Membranproteine neuartige „Joint β-Sheet“ Dimerisierungsdomäne im Periplasma, als auch eine Verzahnung von Helix 7 und 9 an der Monomer-Monomer-Grenze aufgezeigt. Diesen Charakteristika kommt wahrscheinlich eine tragende Rolle in der Dimerisierung von NhaA zu, was durch weitere Untersuchungen im Rahmen einer Mutagenesestudie unter Einbeziehung der periplasmatischen β-Haarnadelstrukturen überprüft werden sollte.
In der vorliegenden Arbeit wurde ein neuer Algorithmus für die automatische Optimierung einer NMR-Zuweisung des back bones in gelabelten Proteinen und seine Implementierung vorgestellt. Der Algorithmus ermöglicht eine Zuweisungsstrategie, die sich näher an der manuellen Vorgehensweise orientiert als vergleichbare Implementierungen von Lukin (LUK 11 ) [Lukin97] oder Leutner (PASTA) [Leutner98], da er die Entscheidung über konkurrierende Protospinsysteminterpretationen in die globale Optimierung der Zuweisung verlegt und die Benutzer nicht zwingt, sich vorzeitig auf eine Interpretation pro Aminosäure und Peak zu beschränken. Der Algorithmus löst daher nicht nur das Reihenfolgenproblem für einen schon vorgegebenen Satz von Protospinsystemen, sondern auch das Auswahlproblem zwischen verschiedenen, sich widersprechenden, Interpretationen der gleichen Peakgruppe. Durch das zusätzliche Auswahlproblem erhöht sich die Komplexität der Optimierungsaufgabe, der Lösungsraum wächst daher um mehrere Größenordnungen. Dies verlängert die Laufzeit für den einfachen RANDOM Algorithmus gegenüber einem vergleichbaren Reihenfolgeproblem. Es wurden daher verschiedene Methoden untersucht, um die Laufzeit wieder zu reduzieren. Die erzielten Verbesserungen führen nicht nur zu einer besseren Konvergenz, sondern ermöglichen auch erstmals eine echte parallele Implementierung des Algorithmus. Die algorithmischen Verbesserungen sind die Reduktion des Protospinsystemcaches und der GENETISCHe Algorithmus. Zusätzlich wurde eine verbesserte Konfiguration zur Kontrolle der Suboptimierer gefunden. Die Implementierung der zugrundeliegenden Datenstrukturen ermöglicht die Umsetzung zusätzlicher Nebenbedingungen für die Positionen der Protospinsysteme innerhalb der Zuweisung. Ein Beispiel für die Nebenbedingungen sind die knotenlokalen Filter und die Strukturfilter aus Kapitel 2. Ihre Effizienz wird am besten durch die Aminosäuretypenerkennung demonstriert, die die Größe des Lösungsraumes um 168 Größenordnungen für Trigger reduziert. Dadurch verringert sich die Laufzeit des RANDOM Algorithmus bis zu einem Faktor von 132. Für PASTA wurde in [Leutner98] statt dessen der umgekehrte Effekt auf die Laufzeit festgestellt. In ihrer Implementierung verlängert sich die Laufzeit auf das Doppelte. Der Unterschied kann nur durch eine unterschiedliche Nutzung der Aminosäuretypenerkennung im Protospinsystempool erklärt werden. PASTA nutzt diese Information anscheinend nicht, um den Pool und damit den Lösungsraum zu reduzieren, sondern nur bei der Bewertung der Zuweisung. Diese Konfiguration kann in RANDOM näherungsweise nachvollzogen werden, wenn man im AS-Cache jeder Aminosäure jedes Protospinsystem zuweist. Die Bewertung der Aminosäuretypen und den Austausch zwischen Pool und Individuum kann man aber nicht abschalten. Ein möglicher Nachteil der Reduktion des AS-Caches mittels der Aminosäuretypenerkennung ist die Möglichkeit, daß Aminosäuren mit untypischen Frequenzen der falschen Aminosäure zugewiesen werden oder nicht in den Cache für die theoretische Aminosäure aufgenommen werden. Um eine falsche Zuweisung durch die Reduktion auszuschließen oder zu überprüfen, kann man zuerst mit einem AS-Cache mit Typenerkennung optimieren und das Ergebnis in einer zweiten Optimierung mit einem AS-Cache ohne Typenerkennung nachoptimieren. Diese Möglichkeit wurde bei der Zuweisung von Trigger demonstriert. Für Trigger konnte durch den Wechsel des Caches gezeigt werden, daß auch mit dem reduzierten Cache eine stabile Zuweisung gefunden wird, die der Zuweisung ohne Aminosäuretypenerkennung weitgehend entspricht. Die Zuweisungen unterscheiden sich in Aminosäuren mit unsicherer Typenzuweisung. In Trigger wird nur ein Protospinsystem (Phe66,Ile67) aufgrund der Typeninformation von der Position im AS-Cache ausgeschlossen, der es in der manuellen und der Zuweisung ohne Reduktion zugewiesen wurde. In anderen Fällen führt erst die Typeninformation zur richtigen Zuweisung (zB. Thr60,Ile61), während die Zuweisung ohne Typenerkennung eine Fehlzuweisung erzeugt. Man sollte daher immer beide Versionen berechnen und dann vergleichen, da eine manuelle Zuweisung beide Defekte aufweisen kann, weil sie die Zuweisungsregeln nicht so strikt optimiert, wie es ein automatischer Algorithmus kann. Für beide Algorithmen wurde der Parameterraum untersucht und eine sowohl optimale als auch robuste Konfiguration gesucht. Dabei wurde der Einfluß jedes Parameters des Algorithmus auf die Laufzeit bis zur Konvergenz zum globalen theoretischen Maximum bestimmt. Bei RANDOM waren hauptsächlich die Zusammensetzung des Aktionsprofils und die minimale und maximale Lebenszeit der veränderten Zustände, minTTL und maxTTL, für die Laufzeit entscheidend. Alle drei kontrollieren, welche Pfade durch den Lösungsraum ab einem Zustand erlaubt sind. Die gleiche Untersuchung wurde auch für die Parameter der zu berechnenden Probleme (Proteine) durchgeführt. Für den Datensatz wurde sowohl der Einfluß der Proteingröße, des maximalen CA Abstandes zwischen den Peaks der benachbarten Aminosäuren und der Aufbereitung des Protospinsystemcaches auf die Laufzeit, als auch der Einfluß eines unvollständigen Datensatzes auf die Konvergenz untersucht. Der Algorithmus zeigte sich dabei sehr robust gegen fehlende Peaks, da bis zu 45% der theoretischen Peaks fehlen können, ohne daß die Konvergenz zum theoretischen Optimum verloren geht. Unterhalb von 55% hängt die Übereinstimmung der gefundenen Lösung mit der theoretischen Lösung von der Zusammensetzung der gebildeten Protospinsystemfragmente ab. Proteingröße und maximaler CA Abstand haben dagegen großen Einfluß auf die Laufzeit. Während die Parametrisierung des RANDOM Algorithmus sich auf die Untersuchung des Wertebereichs der Kontrollparameter beschränken kann, muß die Parametrisierung des GENETISCHen Algorithmus auch die verschiedenen Crossover Operatoren und die Kontrolle der Suboptimierer umfassen. In Kapitel 3 wurden die verschiedene Crossover Algorithmen und unterschiedliche Konfigurationsvarianten für den Suboptimierer im GENETISCHen Algorithmus untersucht. Die aus der Literatur bekannten Crossover Operatoren waren dabei den spezialisierten G Operatoren unterlegen. Auch die Varianten elitär und statistisch, die keinen genetischen Austausch zwischen verschiedenen Individuen zulassen, waren den speziellen Operatoren immer unterlegen. Selbst kleine Anteile eines Genaustausches bewirkten eine Verbesserung der Laufzeit und die Qualität der Lösung. Dabei verbesserte sich besonders die Konvergenz durch den genetischen Austausch. Die speziellen G Operatoren übertragen nur die Differenz der Eltern statt, wie im klassischen Crossover, blind irgendeinen zusammenhängenden Bereich zu kopieren. Dadurch vermeiden sie es, hauptsächlich identische Bereiche zu kopieren, sondern übertragen nur Protospinsysteme, die sich in den Eltern unterscheiden. Außerdem wurde die Effizienz der speziellen Operatoren noch weiter gesteigert, indem die übertragenen Informationen mit Hilfe von Filtern gezielt auswählt wurden. Die übertragene Differenz wird dazu aufgrund ihrer Nachbarn und der Verknüpfung mit den Nachbarn ausgewählt. Mit unterschiedlichen Filtern wurden so Bereiche mit einem unterschiedlich hohen lokalen Optimierungsgrad für die Übertragung ausgesucht. Die Laufzeituntersuchungen in Kapitel 3 zeigen, daß es eine Grenze für die Effizienzsteigerung durch die Übertragung lokal voroptimierter Bereiche gibt. Während es beim Wechsel von unkoordinierten, punktförmigen Übertragungen (s1) zur Übertragung von kurzen Strecken aus benachbarten Protospinsystemen, mit oder ohne Verknüpfung (s2), noch zu einer geringen Verbesserung der Laufzeit und der Konvergenz kommt, führt die zusätzliche Koordinierung der übertragenen Nachbarn durch die Nebenbedingung der Verknüpfung in den s3 Algorithmen sogar zu einer geringen Verschlechterung der Laufzeit. Die Gründe für die Verschlechterung konnten nicht eindeutig nachgewiesen werden. Möglicherweise verringert sich die Anzahl der kopierbaren Bereiche durch die zusätzlichen Nebenbedingungen so sehr, daß nicht genügend unterschiedliche Differenzen für die Übertragung in die neuen Individuen gebildet werden. Die neuen Individuen erhalten dann hauptsächlich die gleichen neuen Gene. Dadurch kann es zu einer Verarmung des genetischen Pools, d.h. zum Verlust der genetischen Diversität in der Population kommen. Die neuen Individuen suchen dann identische Bereiche im Lösungsraum ab und nehmen dadurch die lokale Optimierung doppelt vor. Dadurch verschwendet diese Konfiguration CPU Zeit auf schon untersuchte Bereiche. Neben der direkten Übertragung zusammenhängender Bereiche gibt es noch einen weiteren Faktor der die spezialisierten Operatoren, gegenüber dem klassischen Crossover, verbessert. Die Differenzbildung im Crossover nimmt auf die Konkurrenz um die Peaks zwischen den Protospinsystemen keine Rücksicht. Dadurch befinden sich die neuen Individuen zuerst meist im illegalen Teil des Zustandsraumes S n . Nach dem Crossover wird daher ein Teil der ursprünglichen Protospinsysteme des neuen Individuums durch den Reparaturmechanismus gelöscht und dadurch schon optimierte Bereiche zerstört. Daher kommt dem Reparaturmechanismus für illegale Zustände die entscheidende Rolle zu, denn er erzwingt die Neuberechnung der Positionen, die vor dem Crossover durch einen Konkurrenten eines übertragenen Protospinsystems belegt waren. Die ehemaligen Zuweisungen in den zerstörten Bereichen sind dabei nur über die Resourcenkonkurrenz mit den im Crossover neu injizierten korreliert. Das Crossover mit Zerstörungen erweitert dadurch den erreichbaren Lösungsraum, statt ihn, wie beim klassischen Crossover, auf den Raum zwischen den Eltern einzuschränken! Die Zerstörungen sind für die Optimierung daher von Vorteil. Außerdem zeigte sich in Kapitel 3, daß für die speziellen Operatoren eine besondere Konfiguration des Suboptimierers besonders effizient ist, die den einzelnen Individuen nur die CPU-Zeit zuteilt, die sie, effizienter als ihre Konkurrenten, zu einer Verbesserung nutzen können. Diese Verteilung der Rechenzeit wird durch die sogenannte Ratenbegrenzung erreicht. Die veränderlichsten Individuen erhalten dabei die meiste Rechenzeit. Dies sind normalerweise die Individuen, die in einem der letzten genetischen Zyklen neu erzeugt wurden. Sobald ein Individuum in ein tiefes lokales Optimum, d.h. eine Sackgasse, geraten ist, erhält es weniger Rechenzeit, da seine Verbesserungsrate unter den Schwellwert sinkt. Dadurch darf man den einzelnen Individuen eine höhere maximale Laufzeit zuteilen, da sie sie nur nutzen können, wenn sie sich währenddessen verbessern. Die Kombination "ratenbegrenzt" mit Operator Gs2p2A verbraucht trotz des komplexeren Algorithmus weniger CPU-Zeit bei gesteigerter Konvergenzwahrscheinlichkeit und geringerer paralleler Laufzeit als jede andere Konfiguration. Sie ist damit die beste bekannte Konfiguration für GENETISCH. Im Praxistest in Kapitel 5 mit dem Proteinabschnitt Trigger M bestanden zwischen den automatischen Zuordnungen und der manuellen Zuweisung nur geringe Unterschiede. Die Unterschiede zwischen den Optimierungen mit unterschiedlichen Caches entstehen hauptsächlich in den Bereichen, die an einem Ende keinen verknüpften Nachbarn haben oder bei denen die manuelle Zuweisung unsicher ist, wie im Bereich 10 - 20. Durch die automatische Zuweisung konnte die manuelle Zuweisung sogar an einigen Stellen vervollständigt werden. Sie ist daher einer manuellen Zuweisung gleichwertig. Darüber hinaus entsteht bei der automatischen Zuweisung immer eine Dokumentation über die Verwendung der Peaks, so daß man ungenutzte Spinsysteme leichter finden kann. Der genetische Algorithmus kann optimal auf einem Netzwerkcluster implementiert werden, daher bietet sich ein echte parallele Implementierung an. GENETISCH braucht dabei keine besondere Hardware, wie Vektorrechner, shared memory oder besonders schnelle Netzwerkverbindungen, sondern kann auf einer Gruppe von normalen Rechnern mit einer üblichen Ethernet100 Netzwerkverbindung implementiert werden, da nur zum Austausch der Individuen, bzw. ihrer Differenz, eine Kommunikation zwischen den Rechnern notwendig ist. Dadurch kann die Kommunikation auf wenige KB alle paar Sekunden beschränkt bleiben. GENETISCH sollte außerdem leicht zu skalieren sein, da man die Anzahl der Individuen leicht an größere Probleme anpassen kann. Eine echte parallele Implementierung erlaubt daher sowohl die Rechenzeit für komplexere Problem auf wenige Minuten zu reduzieren als auch größere und mehrdeutigere Spektren zuzuweisen. Außerdem kann man die Wahl der Prozessparameter selbst auch dem selben Optimierungsprozeß unterwerfen, der bisher für die Optimierung der Zuweisung verwendet wurde. Dadurch sollte es möglich sein, die Optimierungsparameter, analog dem Profil der Abkühlung im simulated annealing, dynamisch an die Phase der Optimierung anzupassen und den Individuen immer die optimalsten Optimierungsparameter zu bieten, ohne diese vorher von Hand suchen zu müssen. Diese Veränderung erfordert aber eine große Anzahl an Individuen und damit die echte parallele Implementierung.
Verglichen mit normal progredierenden HIV-1 Infizierten weisen Langzeit Nicht-Progredierende (LTNP), trotz chronischer Infektion und ohne antivirale Therapie, keinerlei Anzeichen einer klinischen Progression sowie stabil hohe CD4+-Zellzahlen und eine geringe Viruslast auf. Für diesen ungewöhnlichen Infektionsverlauf wurden mehrere virologische, genetische und immunologische Ursachen in der Literatur beschrieben. Anhand einer gut charakterisierten LTNP-Kohorte und einer Kontrollgruppe mit vergleichbaren klinischen Markern, wurde hier der Einfluss der einzelnen Faktoren, vor allem der humoralen Immun-antwort, auf den Infektionsverlauf analysiert. Die Analyse viraler und patienteneigener Gene zeigt, dass keiner der LTNP die ccr5Delta32 Mutation aufweist und auch der Vergleich der viralen Proteine Env, Nef, Rev, Tat und Vpr ergab keine zwingende Ursache für ein Ausbleiben der Progression. So zeigt sich zwar eine Anreicherung von Insertionen in den Variablen Schleifen (v.a. V1/V2) in den Env der LTNP-Viren, die Funktionalität der viralen Hüllproteine wurde jedoch mit Hilfe HIV-1 Env-rekombinanter Reporterviren aufgezeigt. Die HIV-1 Env-rekombinanten Reporterviren der LTNP unterschieden sich weder in ihrer Infektiosität, noch in der Effizienz der frühen Replikationsschritte von den korrespondierenden Viren der HIV-1 Kontrollpatienten, was einen entscheidenden Einfluss der Hüllproteine auf den Infektionsverlauf nahezu aus-schließt. Seitens der zellulären Immunantwort wurden in einigen LTNP HLA-B Typen identifiziert, die in der Literatur mit einem verlangsamten Infektionsverlauf und einer aus-geprägten zellulären Immunantwort in Verbindung gebracht wurden. Die Untersuchung der zellulären Immunantwort der LTNP (außerhalb dieser Arbeit) ergab jedoch keine Besonder-heiten, was den Einfluss der identifizierten HLA-B Typen auf den nicht-progredierenden Infektionsverlauf relativiert. Die humorale Immunantwort der Patienten wurde in umfassen-den Neutralisationsstudien mit Hilfe der HIV-1 Env-rekombinanten Reporterviren analysiert. Hierbei zeigte sich, dass die LTNP, verglichen mit den HIV-1 Kontrollpatienten, eine signifikant bessere humorale Immunantwort besitzen. Zusammen mit den zuvor gewonnenen Erkenntnissen legt dies einen entscheidenden Einfluss neutralisierender Antikörper am Nicht-Progredieren der LTNP nahe. Durch den Einsatz HIV-1 Env-spezifischer Peptidphagen wurde die humorale Immunantwort der zwei Patientengruppen weiter untersucht, wobei einige Unterschiede zwischen der Antikörperantwort der LTNP und HIV-1 Kontrollpatienten aufgezeigt wurden. Mit Hilfe dieser Peptidphagen wurde in Versuchstieren eine HIV-1 Env-reaktive Immunant-wort induziert. Die Fusion von Myelomzellen mit den B-Zellen der immunisierten Tiere und die anschließende Selektion führten zur Isolierung HIV-1 Env-spezifischer Hybridomazellen. Um sich den Vorteil der langjährigen Antikörperreifung in den Patienten selbst zu Nutze zu machen und gezielt breit-neutralisierende Antikörper zu isolieren, wurden, ausgehend von B-Zell mRNA der LTNP, patienteneigene scFv Phagen Display Bibliotheken erstellt. Die in vitro Selektion dieser scFv Phagen Display Bibliotheken mit unterschiedlichen HIV-1 Env Varianten führte zur Isolierung einiger HIV-1 Env spezifischer scFv-Phagen. Die Untersuchung der Bindungseigenschaften des reaktivsten scFv-Phagens zeigte eine breite Reaktivität gegen unterschiedliche HIV-1 Env Varianten, die durch HIV-1 positives Serum kompetiert werden konnte. Das Epitop dieses scFv-Phagens wurde in der Variablen Schleife 3 von HIV-1 Env lokalisiert. Diese Arbeit zeigt den entscheidenden Einfluss der humoralen Immunantwort für die nicht-progredierende Infektion der hier untersuchten LTNP und gibt erste Hinweise auf mögliche Ursachen für die außergewöhnlich breite Serumreaktivität. Die Identifikation charakteristischer Eigenschaften in der humoralen Immunantwort, sowie die Identifizierung der hierfür verantwortlichen Antikörper kann bei der Entwicklung aktiver oder passiver Vakzine von entscheidendem Vorteil sein oder als Ausgangspunkt für neue therapeutische Ansätze dienen.
Qualität und Qualitätsmanagement in der universitären naturwissenschaftlichen Lehrerfortbildung
(2010)
Vor dem Hintergrund der politischen Entwicklungen in Hessen und der allgemeinen Debatte über Qualität im Bildungsbereich sollte im Lehrerfortbildungszentrum Chemie (lfbz-Chemie) der Universität Frankfurt am Main eine systematische Qualitätsentwicklung etabliert und dieses Vorhaben wissenschatflich begleitet werden. Die wissenschaftliche Arbeit besteht aus drei Säulen: - Eine erste, qualitative Studie sollte Qualitätskriterien und -indikatoren liefern. - In einer Fallstudie am lfbz-Chemie Frankfurt sollte die Einführung von Instrumenten des Qualitätsmanagements aus dem gewerblichen Weiterbildungsbereich beobachtet und bewertet werden. - Eine bundesweite Umfrage unter universitären Fortbildungsanbietern im naturwissenschaftlichen Bereich sollte sowohl die Struktur der anbietenden Institutionen als auch die allgemeine Einstellung der Befragten zum professionellen Qualitätsmanagement (QM) nach einem im gewerblichen Bereich geläufigen Modell (LQW) beleuchten. Die Qualitätsindikatoren und -kriterien fielen sehr spezifisch für die naturwissenschaftliche Lehrerfortbildung aus. Allein die drei folgenden Bereiche erfassen zwei Drittel aller Nennungen: die „Qualität der Teamer bzw. Moderatoren“, die „Fortbildungsgestaltung“ und die „Zielgruppenorientierung (Schulbezug)“. Nimmt man die Anzahl der Indikatoren und Kriterien pro Bereich als Maßstab, fokussieren die Befragten sehr stark auf Anforderungen, die die Professionalität des Personals betreffen. Zur Orientierung für die Qualitätsarbeit am lfbz-Chemie (Fallstudie) wurde das QM-Modell LQW 2 gewählt; als kleinere Instrumente kamen die Tabellen nach dem Vorbild der Balanced Scorecard (BSC) nach Kaplan und Norton sowie die Stärken-Schwächen-Analyse zum Einsatz. Als erstes Ergebnis der Fallstudie kristallisierten sich drei Arbeitsbereiche heraus: Personalorganisation, Evaluation und Innovationen. Diese Arbeitsfelder ergänzten die identifizierten Anforderungen an Fortbildung somit um Bereiche, die eher der organisatorischen Ebene zuzuordnen sind. Es ließ sich in der Fallstudie feststellen, dass ein ganzes Qualitätsmanagementmodell wie LQW 2 nur als Anregung für den einen oder anderen, als wichtig erachteten Bereich dienen konnte, während sich kleinere Instrumente eher als handhabbar erwiesen. Außerdem konnte postuliert werden, dass - ein persönlicheres Eingehen auf die Ziele und Aufgaben der einzelnen Personen im Sinne eines Total Quality Managements vermutlich zu besseren Ergebnissen geführt hätte als die Konzentration auf allgemeine Themen und die Orientierung am eher abstrakten Modell, - Erfolge sehr nachdrücklich kommuniziert werden müssen und - möglichst eine Person aus dem Stammpersonal für den Bereich Qualität verantwortlich sein sollte. Um ergänzend zur Fallstudie zu allgemeineren Schlüssen gelangen zu können, wurde eine Charakterisierung der universitären Fortbildungsanbieter mittels Clusteranalyse mit Daten der bundesweiten Umfrage durchgeführt. Sie zeigte vier Typen von Anbietern auf. Insgesamt fanden sich neben der Gruppe der großen Anbieter, zu denen auch das lfbz-Chemie gehört, nur vergleichsweise kleine Anbieter. Die in der Fallstudie erhaltenen Ergebnisse können somit nur eingeschränkt auf die meisten Anbieter übertragen werden. Insgesamt konnten Stärken und Schwächen der universitären Anbieter identifiziert werden, mit denen sich die universitäre naturwissenschaftliche Lehrerfortbildung von der gewerblichen Weiterbildung abhebt. Stärken lagen vor allem in den besonderen Kompetenzen, die an der Hochschule anzutreffen sind. Problemfelder lagen ausgerechnet hauptsächlich im Personalbereich. Als spezifische Schwächen der universitären Anbieter im Personalbereich kann z. B. die Stellung der Fortbildung als Nebenaufgabe oder der Verlust von Know-how durch die Fluktuation des Personals gelten. Auch allgemein kann ein Modell wie LQW 2 als Anregung für die Qualitätsarbeit in der universitären Lehrerfortbildung dienen, nicht jedoch umfassend umgesetzt werden. Die „kleineren“ Instrumente können dagegen eher als allgemein geeignet betrachtet werden. Während die „großen“ Anbieter durch verbesserte personelle Ressourcen für Aufgaben wie die Qualitätsarbeit unterstützt werden könnten, bietet sich für die „kleinen“ Anbieter eher die Unterstützung durch eine zentrale Stelle der Universität an, um die Fortbildungsanbieter doch noch in ein professionelles Qualitätsmanagement einbinden zu können.
Schwerpunkt der vorliegenden Arbeit war die Formulierungsentwicklung eines nanopartikulären Arzneistoffträgers für Zytostatika zur Gewinnung einer „Drug Targeting“ Zubereitung. Im Fokus der Arbeit stand dabei die Stabilität der unterschiedlichen Zubereitungen. Die untersuchten Partikel waren dabei auf Basis von humanem Serumalbumin. Mittels einer etablierten Desolvatationsmethode ließen sich reproduzierbar Nanopartikel im Größenbereich von 200 nm herstellen. Zur Partikelgrößenbestimmung bediente man sich sowohl der hotonenkorrelationsspektroskopie (PCS) als auch der Analytischen Ultrazentrifugation (AUZ). Bei der Untersuchung verschiedener HSA-Chargen, stellte sich heraus, dass das Ausgangsmaterial einen Einfluss auf die Partikelgröße besaß. Nichtsdestotrotz waren die Partikelgrößenschwankungen aufgrund von unterschiedlichen HSA-Chargen gering. Durch Einlagerung von Doxorubicin in die Partikelmatrix kam es zu einer wesentlichen Partikelvergrößerung, so dass die resultierten Partikel eine Größe von etwa 400 nm aufwiesen. Die Inkorporation des Arzneistoffs in die Partikelmatrix war reproduzierbar und stabil. Auch der Einsatz von Serumalbumin aus rekombinanter Quelle erwies sich als geeignet um Nanopartikel herstellen zu können. Allerdings waren unbeladene Partikel aus diesem Material wesentlich größer als Nanopartikel, die aus dem Standardmaterial hergestellt wurden. Doxorubicinbeladene Partikel zeigten wiederum eine vergleichbare Größe wie Partikel aus HSA. Allerdings war die Beladung der rHSA-Nanopartikel geringer als die der SA-Nanopartikel. Dies zeigte sich besonders bei der geringeren Quervernetzung von 40%. Als Fazit lässt sich sagen, dass prinzipiell eine Herstellung von sowohl Leerpartikeln als auch Doxorubicin-beladenen Partikeln möglich war. Die Biodegradierbarkeit von Nanopartikeln ist eine wichtige Voraussetzung für einen therapeutischen Einsatz kleinpartikulärer Strukturen, damit diese nicht im Körper kumulieren. Zudem könnte bei nicht abbaubaren Partikeln die Idee der intrazellulären Freigabe des eingebetteten Arzneistoffs aus der Partikelmatrix nicht verwirklicht werden. Vorversuche haben gezeigt, dass sich Nanopartikel auf Basis von HSA mit einer Reihe von Enzymen abbauen lassen. Versuche, Nanopartikel aus rHSA enzymatisch abzubauen, führten zu vergleichbaren Abbaukinetiken wie bei Partikeln aus HSA. Zu den eingesetzten nzymen zählten Proteinase K, Protease, Trypsin, Pankreatin, Pepsin und Cathepsin B, die mit Partikel aus rHSA mit den Quervernetzungen 40, 60, 80 und 100% inkubiert wurden. Alle Abbaukinetiken zeigten dabei, dass die Abbaugeschwindigkeit vom Grad der Quervernetzung abhängig war. 40% quervernetzte Nanopartikel wurden am schnellsten, 100% quervernetzte Partikel am langsamsten enzymatisch degradiert. Die Abbauversuche mit Cathepsin B bei zwei verschiedenen pH-Werten zeigten, dass die Wahl des richtigen pH-Werts entscheidend für einen effektiven Abbau ist, denn nur bei einem pH-Wert von 5,4 wurden die Nanopartikel von Cathepsin B abgebaut. Im Gegensatz dazu, wurden die Nanopartikel bei pH 6,4 kaum degradiert. Des Weiteren wurden Beladungsversuche von HSA-Nanopartikeln mit Cisplatin durchgeführt. Dabei wurden im ersten Schritt Adsorptionsversuche an gelöstes HSA durchgeführt, da viele Arzneistoffe eine hohe Plasmaeiweißbindung besitzen, wenn sie sich im Blutkreislauf des Menschen befinden. Diese Tatsache sollte bei der Herstellung von arzneistoffhaltigen Nanopartikel auf Basis von humanem Serumalbumin ausgenutzt werden. Vor dem eigentlichen Desolvatationsprozess wurden gelöstes HSA und Cisplatin bei unterschiedlichen pH-Werten und für unterschiedliche Zeitintervalle inkubiert, um eine Adsorption des Cisplatins an das Protein zu erreichen. Dadurch soll es bei der anschließenden Desolvatation zu einer effektiveren Inkorporation des Arzneistoffs kommen. Die Ergebnisse haben gezeigt, dass bei sauren pH-Werten die Adsorption schwächer ausfällt als bei einem pH-Wert von 8,0. Zudem war die Adsorption umso ausgeprägter, je länger die Inkubation stattfand. Bei einem pH-Wert von 8,0 führten steigende Konzentrationen an eingesetztem Cisplatin bei konstanter Menge an HSA, zu höheren Konzentrationen an adsorbiertem Arzneistoff. Prozentual gesehen, führten aber zunehmende Mengen an eingesetztem Cisplatin zu geringeren Adsorptionsraten. Als Fazit muss aber festgehalten werden, dass Cisplatin eine geringe Tendenz zur Adsorption an gelöstes HSA zeigte. Die Herstellung von Cisplatin-beladenen HSA-Nanopartikeln zeigte, dass die Desolvatation bei pH 8,0 zu guten Ergebnissen führte. Zum einen wiesen die erhaltenen Nanopartikel gute physikochemische Eigenschaften mit nahezu quantitativen Partikelausbeuten auf, zum anderen besaßen die Partikel eine hohe Beladungseffizienz. Dabei galt, je höher die eingesetzte Menge an Cisplatin war, umso mehr Cisplatin wurde in die Matrix der Partikel eingelagert. Die Dauer der zuvor stattfindenden Adsorption spielte dabei eine eher untergeordnete Rolle im Vergleich zu den Adsorptionsversuchen. Eine Erklärung für diese Beobachtung könnte sein, dass die Zugabe des Desolvatationsmittels Ethanol, in welchem Cisplatin sehr schwer löslich ist, zu einer verstärkten Interaktion zwischen Arzneistoff und Protein führt und diese Komponenten zusammen ausfallen, nahezu unabhängig von der zuvor stattfindenden Adsorptionsphase. Um die Idee einer „Drug Targeting“ Zubereitung umsetzen zu können, wurden mit Hilfe von Polyethylenglykol-Ketten sowohl Leerpartikel als auch arzneistoffbeladene Nanopartikel auf ihrer Oberfläche mit monoklonalen Antikörpern modifiziert. Als Verum wurde dabei Trastuzumab verwendet, als Kontrolle diente ein IgG-Antikörper von Sigma, der kein Target besitzt. Sowohl eine adsorptive Bindung als auch die kovalente Kopplung der Antikörper an die Oberfläche der nanopartikulären Strukturen konnte reproduzierbar durchgeführt werden. Dabei spielte es keine Rolle, ob die Partikel mit Arzneistoff beladen waren oder nicht. Trastuzumab zeigte ein hohes Maß an adsorptiver Bindung an die Oberfläche von HSA-Nanopartikeln, die bei dem Kontollantikörper nicht festgestellt werden konnte. Von allen Partikelpräparationen wurden die Partikelgröße, die Größenverteilung, das Zetapotential und die Partikelausbeute bestimmt. Durch das Aufbringen neuer Oberflächenstrukturen, kam es zu keiner wesentlichen Veränderung der Partikelgröße bzw. der Oberflächenladung. Durch die zahlreichen Umsetzungsschritte, die für eine Oberflächenmodifikation nötig sind, kam es bei Nanopartikeln ohne Arzneistoffbeladung zu einem Verlust an Partikelausbeute. Da die Doxorubicin-beladenen Partikel viel größer waren als Leerpartikel, ließen sie sich einfacher und effektiver abzentrifugieren, was in einem geringeren Partikelausbeuteverlust sichbar wurde. Da die Gefriertrocknung zu den Standardmethoden zählt Zubereitungen eine gute Haltbarkeit zu verleihen, wurden eine Reihe von nanopartikulären Zubereitungen der Lyophilisation unterzogen und im Hinblick auf ihre Langzeitstabilität unter verschiedenen Lagerungsbedingungen getestet. Dabei stellte sich heraus, dass es mittels Gefriertrocknung möglich war aus HSA-Nanopartikelsuspensionen einfach und reproduzierbar Lyophilisate herzustellen. Als geeignete Hilfsstoffe kristallisierten sich dabei die Zucker Sucrose, Trehalose, der Zuckeralkohol Mannitol und Emulgatoren wie Tween® 80 und Pluronic® F68 heraus. Als ungeeignet zeichnete sich der Einsatz von L-Arginin und eines Natriumphosphat-Puffers pH 8,0 ab. Larginin führte schon vor dem Gefriertrocknen zu einer Partikelvergrößerung, die nach der Lyophilisation noch ausgeprägter war. Puffer auf Basis von Natriumsalzen führen zu einem starken pH-Shift während des Gefriertrocknungsprozesses. Dies führte beim Einsatz des Phosphat-Puffers pH 8,0 zu einem starken Partikelwachstum. Gefriertrocknungsprozesse mit unterschiedlichen Geräten haben gezeigt, dass der Zusatz von Sucrose bzw. Trehalose oder Mannitol ab einer Konzentration von 2% (m/V) zu guten physikochemischen Eigenschaften der rekonstituierten Proben führte. Hilfsstoffkombinationen, wie sie in der Literatur beschrieben sind, waren für die Stabilisierung der nanopartikulären Strukturen nicht nötig. Die Langzeitlagerungsstabilitätsdaten der gefriergetrockneten HSA-Nanopartikel über 13 Wochen bei unterschiedlichen Temperatur- und Luftfeuchtigkeitsbedingungen zeigten eine Überlegenheit der Hilfsstoffe Sucrose und Trehalose im Vergleich zu Mannitol. Als geeignete Hilfsstoffkonzentration stellte sich hier ein 3%iger (m/V) Zusatz heraus. Versuchsansätze mit unterschiedlichen Gefriertrocknern und somit unterschiedlichen Prozessen zeigten, dass nicht nur die Auswahl der Hilfsstoffe, sondern auch die Bedingungen des Gefriertrocknungsprozesses Einfluss auf die Lagerungsstabilität hatten. Ein kontrollierter Prozess zeigte sich dabei gegenüber dem schnellen Einfrieren mittels Stickstoff als überlegen. Von Nanopartikelsuspensionen mit den Hilfsstoffen Trehalsoe, Sucrose und Mannitol wurden die Glasübergangstemperaturen bestimmt. Die Ergebnisse deckten sich im Wesentlichen mit den in der Literatur beschriebenen Daten, so dass schlussgefolgert werden kann, dass die HSA-Nanopartikel keinen wesentlichen Einfluß auf die Glasübergangstemperatrur hatten. Zusätzlich wurde die Restfeuchte der Lyophilisate direkt nach der Gefriertrocknung und nach 13 wöchiger Einlagerungszeit bestimmt. Die Proben wiesen direkt nach dem Prozess eine Restfeuchte von ungefähr 3% auf, durch Lagerung der Partikel bei erhöhter Luftfeuchtigkeit kam es zu einem Anstieg des Wassergehalts in den Proben. Mit den Hilfsstoffzusätzen Trehalose, Sucrose und Mannitol ließen sich auch Doxorubicin-beladene HSA-Nanopartikel gefriertrocknen. Dabei kam es nach der Rekonstitution dieser Partikel zu keinem Austreten des eingelagerten Arzneistoffs. Zusätzlich wurden oberflächenmodifizierte Partikel lyophilisiert. Dabei bestand die Modifikation zum einen aus Methoxypolyethylenglykol-Ketten. Zum anderen wurden über NHS-PEG-Mal Crosslinker kovalent monoklonale Antikörper auf die Oberfläche von HSANanopartikeln gebunden. Zusätzlich wurden auch HSA-NP in Suspension einer Untersuchung bezüglich Langzeitlagerungsstabilität unterworfen. Dabei wiesen auch HSA-Nanopartikel in Suspension bei verschiedenen Einlagerungsbedingungen eine hohe Stabilität auf. Partikel, die über einen Zeitraum von 210 Tagen eingelagert wurden, zeigten bei den Temperaturen 4°C, 20°C und 30°C im Hinblick auf Partikelgröße und Polydispersität kaum Veränderungen. Die Lagerung der Nanopartikel bei Minusgraden führte allerdings zu Mikropartikeln. Bei der Untersuchung der Partikelüberstände hinsichtlich herausgelöstem HSA zeigte sich, dass je höher die Lagerungstemperatur und je länger die Einlagerung war, umso mehr HSA löste sich aus der mittels Glutaraldehyd fixierten Matrix heraus. Bei den eingefrorenen Partikeln löste sich über die gesamte Lagerungszeit kein Protein aus den Nanopartikeln heraus. Zellkulturexperimente zeigten, dass im Gegensatz zu Kontrollzubereitungen, Nanopartikel, die an ihrer Oberfläche therapeutisch wirksame Antikörper trugen, spezifisch von Krebszellen aufgenommen wurden und im Zellinneren den eingebetteten Arzneistoff freisetzten. Daraus resultierte eine spezifische Toxizität dieser Zubereitungen gegenüber Tumorzellen. Dies ist ein erster Ansatz, um zeigen zu können, dass durch nanopartikuläre Trägersysteme die unerwünschten Nebenwirkungen der unspezifisch wirkenden Zytostatika reduziert werden können. In weiteren Versuchen, vor allem mit Hilfe von in vivo Versuchen muss gezeigt werden, dass das Partikelsystem stabil genug ist, ausreichend lang im Körper zirkulieren zu können. Nur so ist das Trägersystem in der Lage, sein Zielgewebe zu erreichen. Zudem müssen Tierversuche die in der Literatur beschriebene Anreicherung des Partikelsystems im Tumorgewebe verifizieren. Dies ist nur möglich, wenn die Nanopartikel in der Lage sind, das Gefäßsystem im Bereich des Tumorgewebes zu verlassen und anschließend in die Tumormasse einwandern können. Nur dann können die in den Zellkulturversuchen gezeigten Effekte greifen.
The synthesis of [Ph4As+]2[Cl4Re(NS)(NSCl)2-] · CH2Cl2 (4) from the reaction of S4N4, Cl4ReN, and Ph4AsCl is reported. CH2Cl2 is used as solvent. The reaction of S4N4 with Re2Cl10 similarly leads to the salt [Ph4As+][Cl2ReNS-] (5) in a smaller yield. 4 crystallizes in the triclinic space group P1̅ with Z = 2, a - 10.434(2), b = 12.1454(6), c = 21.125(2) Å, a = 81.210(6), β = 86.70(1), γ = 76.624(8)°.