Refine
Year of publication
Document Type
- Doctoral Thesis (447)
- Article (354)
- Book (46)
- Contribution to a Periodical (14)
- Report (11)
- Review (9)
- diplomthesis (3)
- Diploma Thesis (2)
- Master's Thesis (1)
- Working Paper (1)
Language
- German (888) (remove)
Has Fulltext
- yes (888)
Is part of the Bibliography
- no (888)
Keywords
- Crystal Structure (23)
- Synthesis (14)
- ESR Spectra (12)
- IR Spectra (10)
- NMR-Spektroskopie (7)
- PE Spectra (7)
- Paracoccus denitrificans (7)
- Phase Diagrams (7)
- RNS (7)
- X-Ray (7)
Institute
- Biochemie und Chemie (888) (remove)
Die Sonne strahlt weltweit pro Tag genügend Licht ein, um den Weltenergiebedarf für ein ganzes Jahr abzudecken. Somit ist sie die Quelle aller erneuerbarer Energien, denn neben der Erzeugung von Elektrizität aus Licht (Photovoltaik) regelt sie die Gezeiten und damit auch Wind und Wellen, die bei der Windkraft und in Gezeitenkraftwerken genutzt werden. Außerdem liefert sie die Energie für die Photosynthese in nachwachsenden Rohstoffen. Es gibt diesbezüglich nur ein grundlegendes Problem: Erneuerbare Energien fi nden wir in ausreichender Menge vor allem an Stellen mit mangelnder Infrastruktur. Sonnenenergie gibt es am meisten in der Wüste, Wind auf dem Meer und Biomasse im Dschungel. An Orten hoher Industrialisierung und damit auch hoher Bevölkerungsdichte ist für die »Erneuerbaren « so gut wie kein Platz. Es gibt demnach kein Energieproblem, aber ein Problem der Energiespeicherung und des Energietransportes.
Weltweit nehmen Kohle-, Öl- und Erdgasvorräte ab, der Energiebedarf dagegen steigt dramatisch an. Regenerative Energien mindern zwar die steigenden Klimagefahren, können aber unseren zukünftigen Energiebedarf in Ballungszentren kaum decken. Nach Einschätzung zahlreicher Experten gehört dem Wasserstoff die Zukunft. Er wird aber derzeit nahezu ausschließlich aus fossilen Brennstoffen gewonnen; damit bleibt auch diese Ressource endlich - ganz zu schweigen von ihrem hohen Gefährdungspotenzial. - Das neuartige Energiekonzept einer solaren und damit kohlenstoffunabhängigen Wasserstoffwirtschaft bedarf zur technischen Realisierung eines Zwischenspeichers für regenerative Energien. Dieser zukünftige Energieträger sollte synthetisch einfach erzeugbar sein, in unbegrenztem Maß zur Verfügung stehen oder zumindest recycelbar sein, die Energie permanent speichern und gefahrlos transportierbar sein, eine hohe Energiedichte aufweisen und kein Kohlendioxid oder andere (Klima-) Schadstoffe freisetzen. - Das Element Silicium kann zu einem maßgeschneiderten Bindeglied zur Ankoppelung dezentraler regenerativer Energieerzeugung an eine ebenso dezentrale Wasserstoffwirtschaft an jedem beliebigen Ort werden. Der Transport und die Speicherung von Silicium sind - im Gegensatz zu Öl oder besonders zu Wasserstoff - ohne Gefährdungspotenzial und/oder hohe Energieverluste möglich und erfordern nur eine technische Infrastruktur, wie sie auch für Kohle benötigt wird.
In der vorliegenden Arbeit wurden marine Schwämme der Gattungen Agelas und Stylissa von den Florida Keys und Bahamas untersucht. Dabei lag das Hauptinteresse neben der Isolierung und Strukturaufklärung der Schwamminhaltsstoffe vor allem auf der ökologischen Funktion der Sekundärstoffe. Die Chemie dieser Schwämme ist sehr charakteristisch und wird von bromierten Derivaten der Pyrrol-2-carbonsäure bestimmt. Insgesamt wurden 17 bromierte Pyrrol-Alkaloide isoliert, von denen die Verbindungen N-alpha-(4-Brompyrrolyl-2-carbonyl)-L-homoarginin (isoliert aus Agelas wiedenmayeri), Bromsceptrin (Agelas conifera), N-Methyl-dibromisophakellin (Stylissa caribica), Monobromisophakellin (Agelas sp.) und Sventrin (Agelas sventres) erstmals beschrieben wurden. Die Strukturaufklärung erfolgte mit spektroskopischen Methoden (2D NMR, MS, IR, UV, CD) und durch Vergleich mit literaturbekannten Daten. Im Fall von N-alpha-(4-Brompyrrolyl-2-carbonyl)- L-homoarginin gelang die Bestimmung der absoluten Konfiguration erst nach Synthese der Verbindung und anschließendem Vergleich der CD-Spektren von Naturstoff und synthetischer Verbindung. Insgesamt wurden die Dichlormethan/Methanol-Rohextrakte von 125 Schwämmen der Gattung Agelas, die an verschiedenen Standorten der Bahamas gesammelt wurden, mittels HPLC qualitativ untersucht und die Hauptsekundärmetaboliten quantitativ bestimmt. In sämtlichen Schwämmen konnten Brompyrrol-Alkaloide nachgewiesen werden, wobei sich drei charakteristische Inhaltsstoffmuster zeigten. Während die Rohextrakte von 71 Proben der Schwämme Agelas cervicornis, Agelas clathrodes, Agelas dispar und Agelas wiedenmayeri durch die beiden Alkaloide Oroidin und 4,5-Dibrompyrrol-2-carbonsäure gekennzeichnet sind, bestimmen dimere Pyrrol-Imidazol-Alkaloide vom Sceptrin- und Ageliferin-Typ, wobei Sceptrin stets dominiert, das Inhaltsstoffmuster von 50 untersuchten Proben der Schwämme Agelas cerebrum, Agelas conifera, Agelas dilatata und Agelas sceptrum. Ein drittes Inhaltsstoffmuster wurde für vier Proben des Schwamms Agelas sp. gefunden, welches durch bromierte Pyrrol-Alkaloide vom Phakellin- und Isophakellin-Typ charakterisiert ist. Zur Untersuchung der ökologischen Bedeutung von Brompyrrol-Alkaloiden wurde die fraßabschreckende Wirkung gegenüber Fischen getestet. In Aquarium- und Freilandversuchen konnte gezeigt werden, daß die fraßhemmende Wirkung der Rohextrakte gegenüber Fischen im Fall von Agelas conifera auf bromierte Pyrrol-Alkaloide vom Sceptrin- und Ageliferin-Typ bzw. Isophakellin-Typ für Stylissa caribica zurückzuführen ist. Erstmals wurden Reinsubstanzen vom Sceptrin-, Ageliferin- und Isophakellin-Typ getestet. Sceptrin und N-Methyl-dibromisophakellin sind bei natürlichen Konzentrationen fraßabschreckend. In weiteren ökologischen Untersuchungen konnte gezeigt werden, daß die bromierten Pyrrol-Alkaloide Oroidin, 4,5-Dibrompyrrol-2-carbonsäure und Sceptrin neben einem fraßabschreckenden Potential gegenüber Fischen auch besiedlungshemmend auf Fäulnisbakterien wirken. Bromierte Pyrrol-Alkaloide erfüllen somit mindestens zwei ökologische Funktionen, die das Überleben von Agelas-Schwämmen sichern und sie zu einer der erfolgreichsten Arten in Lebensgemeinschaften karibischer Riffe machen.
Das Ziel der vorliegenden Arbeit war es, MALDI-Massenspektrometrie als robuste Analysenmethode für die quantitative Analyse niedermolekularer Verbindungen aus komplexen biologischen Matrizes zu etablieren. Zu Beginn der Arbeit wurden drei typische Fragestellungen im Bereich der Lebensmittelanalytik, der medizinischen Forschung und der klinischen Chemie ausgewählt, um die Methodik anhand dieser Modellsysteme zielgerichtet zu entwickeln und zu bewerten. Für jede dieser Fragestellungen wird routinemäßig ein hoher Probendurchsatz verlangt und damit werden hohe Anforderungen an die Probenvorbereitung gestellt, da diese einfach, schnell, reproduzierbar, Matrix-tolerant und automatisierbar sein muss um die Weiterentwicklung zur Hochdurchsatzanalytik zu erlauben.
Der quantitative Nachweis von Melamin und seinen Derivaten wurde aufgrund des Aufkommens von Milchprodukten, die mit diesen Verbindungen kontaminiert waren, ein wichtiger Bestandteil der Analytik dieser Lebensmittel. Insbesondere an diesem Beispiel zeigte sich der Vorteil des Einsatzes von MALDI-Massenspektrometrie zur Analyse kleiner Moleküle. Aufgrund der höheren Toleranz gegenüber Puffern und Salzen konnte die Probenvorbereitungszeit der für die FDA entwickelten Methode zur Quantifizierung von Melamin in Milchpulver mittels LC-ESI von ca. 140 min auf 90 min reduziert werden, da auf die zeitaufwendige Flüssigchromatographie verzichtet werden konnte. So wurde Melamin mit einem LLOQ von 0,5 ppm quantifiziert, was unterhalb der Vorgaben der WHO (2,5 ppm in Milichpulver und 1 ppm in Babynahrung) lag. Cyanursäure, ein Derivat von Melamin welches für die Bildung schwerlöslicher Komplexe in der Niere mitverantwortlich gemacht wird, konnte ebenfalls mit der entwickelten MALDI-MS Methode quantifiziert werden. Allerdings war die ermittelte Bestimmungsgrenze mit 15 ppm um den Faktor 30 schlechter als bei Melamin. Die Nachweisgrenze bei MALDI-MS ist stark von der MALDI-Matrix abhängig und die Verwendung von Sinapinsäure war eine gute Kompromisslösung, um die Analyten in einem Spot im positiven und negativen Reflektormodus zu analysieren. Allerdings wurde diese Matrix zur Analyse von Analyten im positiven Reflektormodus entwickelt. Bislang wurden nur wenige Matrizes für MALDI-MS im negativen Reflektormodus beschrieben, um z.B. Säuren besser nachweisen zu können. Forschung in diesem Bereich wird neue Möglichkeiten zur Detektion negativ geladener kleiner Moleküle ergeben.
Des Weiteren wurden im Rahmen dieser Arbeit auch Lösungen für klinische Fragestellungen wie etwa den Nachweis von Methylphenidat im Plasma und Gehirn von Ratten oder der Dried Blood Spot Analytik entwickelt. Bei beiden Methoden wurde jeweils nur eine einfache Flüssig-Flüssig-Extraktion zur Probenvorbereitung angewendet und sie ließen sich sehr gut auf Realproben übertragen.
Methylphenidat konnte im Plasma im Konzentrationsbereich von 0,1-40 ng/mL und im Hirnhomogenat im Konzentrationsbereich von 0,4-40 ng/mL quantifiziert werden, was gut im Konzentrationsbereich der Realproben von mit Methylphenidat gefütterten Ratten lag. Dazu standen das Plasma und die Gehirne von fünf Ratten zur Verfügung. Es wurde eine lineare Korrelation zwischen der MPH-Konzentration im Gehirnhomogenat und im Plasma gefunden, was basierend auf den bis dato bekannten Literaturergebnissen ein zu erwartendes Ergebnis war, aber zukünftig mit einer größeren Anzahl von Versuchstieren verifiziert werden sollte. Während der Methodenentwicklung war auch bei diesem Projekt die Auswahl der MALDI-Matrix ausschlaggebend für den Erfolg der Messungen. Im MALDI-Massenspektrum interferierte das Signal des Natriumaddukts von CHCA mit dem Signal von MPH. Für dieses Problem kamen zwei mögliche Lösungen in Betracht. Erstens die Quantifizierung mit ClCCA als MALDI-Matrix, da hier keine Interferenzen auftraten. In ersten Vorversuchen konnte MPH so in einem Konzentrationsbereich von 1-48 ng/mL mit einer exzellenten Linearität von R2=0,9992 quantifiziert werden. Eine zweite mögliche Problemlösung war die Verwendung von Tandem-Massenspektrometrie. Hierzu wurden Fragmentionen-Massenspektren der überlagerten Signale aufgenommen. MPH und der verwendete interne Standard MPH-d9 zeigten dabei spezifische Fragmentionensignale, über die quantifiziert wurde. Da die Sensitivität um den Faktor 100 im Vergleich zu MS-Spektren von CHCA und ClCCA gesteigert werden konnte, wurde die weitere Methodenentwicklung basierend auf der Tandem-Massenspektrometrie mit der MALDI-Matrix CHCA durchgeführt. Überdies sind MS/MS-Versuche unter Verwendung von ClCCA als MALDI-Matrix für kleine Moleküle sehr erfolgsversprechend und sollten in weiteren Forschungsarbeiten durchgeführt werden.
Die Dried Blood Spot Technik als alternative Probenvorbereitung bietet eine Reihe von Vorteilen, wie etwa den einer einfacheren Lagerung und eines einfacheren Transports einer großen Menge von Proben. Darüber hinaus werden nur wenige Mikroliter Blut verwendet, was vorteilhaft ist bei z B. klinischen Studien oder dem Therapeutic Drug Monitoring. Diese Art der Probennahme ist somit eine perfekte Ergänzung für weitere quantitative Analysen von Methylphenidat in Rattenblut. Den Ratten würden nur wenige Mikroliter Blut entnommen werden, was ihr Überleben sichert und der Transport der Proben auf dem Postweg wäre wesentlich einfacher. Um eine allgemein verwendbare DBS-MALDI-MS-Methode zu entwickeln, wurden neben Methylphenidat auch bekannte Analyten aus dem Bereich des Dopings sowie Lamotrigin, Coffein und Theophyllin als Beispiele für das Therapeutic Drug Monitoring verwendet. Es wurden verschiedene Lösungsmittel zur Extraktion eingesetzt, wobei sich eine Kombination aus Methyl-tert-Butylether und Ethanol, sowie Aceton als am besten geeignet erwies. Einige Analyten wie Coffein, Theophyllin und Lamotrigin wurden bis zu einer Konzentration von 0,5 μg/mL quantifiziert. Diese Bestimmungsgrenze ist bei Analyten aus dem Bereich des Dopings wie z.B. Salbutamol, Methylphenidat oder Clenbuterol, deren therapeutisch wirksame Plasmakonzentration im Bereich von wenigen Nanogramm pro Milliliter Blut liegt, um den Faktor 15-500 zu hoch. Diese Analyten waren bis zu einer Konzentration von 5 μg/mL im Blut mittels MALDI-MS problemlos nachweisbar. Um die Sensitivität zu erhöhen, ist es allerdings sinnvoll, die Extraktion zukünftig für die einzelnen Analyten zu optimieren, sie mittels Festphasenextraktion oder LC anzureichern und MS/MS-Spektren aufzunehmen. Für die Analyten Coffein, Theophyllin und Lamotrigin, deren therapeutisch wirksame Plasmakonzentration im ein- bis zweistelligen Mikrogramm-pro-Milliliter Bereich liegt, eignete sich die entwickelte Methode sehr gut. Es wurde eine Methodenvalidierung durchgeführt, wobei die validierten Parameter den Vorgaben der FDA entsprachen.
Da die Auswahl der MALDI-Matrix bei den verschiedenen Methodenentwicklungen jeweils ein kritischer Faktor war, wurden abschließend eine Auswahl von Analyten mit einer Molekülmasse bis ca. 600 Da mit verschiedenen MALDI-Matrizes präpariert. Ein Großteil der Analyten wurde am sensitivsten mit ClCCA nachgewiesen. Im Rahmen dieser Versuche wurde auch erstmals ein Strukturanalogon von ClCCA, und zwar ClCCA-Tetrazol, als alternative MALDI-Matrix eingesetzt, bei welchem die Carboxylgruppe durch einen Tetrazolring ausgetauscht wurde. Diese zeigte eine sehr homogene Kristallisation und für einige Analyten eine bis zu Faktor 3 höhere Signalintensität im Vergleich zu ClCCA. Außerdem war auffällig, dass einige Analyten unter bestimmten Präparationsbedingungen wie z B. der Graphite Supported Preparation sensitiver mittels MALDI-MS nachweisbar waren. Bei anderen Analyten verschlechterten sich die Analysenergebnisse. Graphit verändert stark die Kristallisation der MALDI-Matrix und es wird vermutet, dass sich dies auf den Einbau der Analyten in die Matrixkristalle auswirkt. Es konnte bislang aber noch nicht abschließend geklärt werden, wie genau die Präparation der Proben Einfluss auf den Einbau der Analyten in die Matrix nimmt. Eine Untersuchung dieser Phänomene sollte daher Gegenstand weiterer Forschungsprojekte sein.
Zusammenfassend stellt die MALDI-Massenspektrometrie eine schnelle und robuste Methode zur Quantifizierung einer Vielzahl kleiner Moleküle in komplexen biologischen Matrizes dar.
Glycin ist ein wichtiger inhibitorischer Neurotransmitter im zentralen Nervensystem. Um die glycinerge Erregungsübertragung zu sichern, muss die Glycinkonzentration an Synapsen präzise reguliert werden. Hierfür sind die Glycintransporter, GlyT1 und GlyT2, verantwortlich. Der GlyT2 ist ein präsynaptisches Protein, das in glycinergen Nervenendigungen nahe der aktiven Zone lokalisiert ist. Das über den Transporter aus dem extrazellulären Raum aufgenommene Glycin steht anschließend für die Befüllung der synaptischen Vesikel durch den vesikulären inhibitorischen Aminosäuretransporter (VIAAT) zur Verfügung. Die GlyT2-Defizienz führt in Mäusen zu einem letalen Phänotyp und verdeutlicht die Notwendigkeit eines hochaffinen Glycinaufnahmesystems in glycinergen Neuronen. Um mögliche Mechanismen zu untersuchen, die zur präzisen Lokalisation des GlyT2 in der Präsynapse führen, wurde das PDZ-Domänenbindungsmotiv (PDZ-DBM) am extremen C-Terminus bzw. die lange N-terminale Domäne dieses Transporters deletiert. Durch biochemische und pharmakologische Analysen von transfizierten HEKT-Zellen konnte gezeigt werden, dass der Verlust des PDZ-DBM oder der N-terminalen Domäne die Proteinexpression, die Glykosylierung und die Transportaktivität des GlyT2 nicht beeinflussten. Längere Deletionen des N-Terminus (ΔAA1-184) setzten jedoch die Effizienz der Glycinaufnahme herab und ergaben im Vergleich zum wt-Protein einen um 60% reduzierten vmax-Wert, während die apparente Glycinaffinität (KM-Wert) unverändert blieb. Lokalisationsstudien und Oberflächenbiotinylierungen zeigten GlyT2 wt-Immunreaktivität an der Plasmamembran, die sich qualitativ und quantitativ nicht von denen der N- und C-terminalen Mutanten unterschied. Das PDZDBM und die N-terminale Domäne spielen folglich in der Prozessierung und der Transportfunktion des GlyT2 eine untergeordnete Rolle. Möglicherweise reduziert die fast vollständige Deletion der N-terminalen Domäne jedoch die Stabilität des GlyT2. In transfizierten hippocampalen Neuronen wurde der Einfluss des PDZ-DBM und der N-terminalen Domäne hinsichtlich der GlyT2 Lokalisation analysiert. Die transfizierten Mutantenproteine zeigten eine diffuse Verteilung mit partiellen Anreicherungen von GlyT2-Immunreaktiviät. Das wt-Protein kolokalisierte mit Synaptophysin, exzitatorischen synaptischen Markern wie PSD95 und mit den inhibitorischen Markern Gephyrin und VIAAT. Nach Deletion des PDZ-DBM hingegen zeigte der GlyT2 eine um ca. 50% verminderte Kolokalisation mit allen untersuchten synaptischen Markern. Damit konnte hier erstmals eine Funktion des PDZ-DBM für die Anreicherung von GlyT2 an Synapsen gezeigt werden. Mit N-terminalen Deletionsmutanten transfizierte hippocampale Neurone wiesen kolokalisierende GlyT2ΔN-PSD95-Puncta zumeist in MAP2-positiven Neuriten auf, während das wt-Protein zumeist in MAP2-negativen Neuriten kolokalisierte. MAP2 ist ein mikrotubuli-assoziertes Protein, das in Dendriten, aber nicht in Axonen, auftritt und somit eine Unterscheidung derselben ermöglicht. Aufgrund der Überexpression in transfizierten Neuronen war die GlyT2-Immunreaktivität aber sowohl in axonalen als auch dendritischen Neuriten zu beobachten. Zusätzlich zu der in größeren Clustern gefundenen synaptischen GlyT2ΔN-Immunreaktivität war eine Färbung hauptsächlich in sehr kleinen Strukturen (<= 1 μm) nachzuweisen, die Transportvesikeln entsprechen könnten. Dies ist mit einem längeren Verbleib der Deletionsmutanten in intrazellulären Strukturen erklärbar. Im Hippocampus wird GlyT2 endogen nur sehr schwach in einer Subpopulation von putativ glycinergen Neuronen exprimiert. Um die Lokalisation der N-terminalen GlyT2-Proteine in Zellen zu untersuchen, die eine hohe endogene GlyT2-Expression aufweisen, wie spinalen Neuronen, die sich aber nur schlecht transfizieren lassen und in Kultur keine adulte GlyT2-Lokalisation aufweisen, wurden BAC-transgene Mäuse generiert, die myc-markierte GlyT2ΔN-Proteine unter Kontrolle des GlyT2-Promotors exprimieren. Der Vorteil von BAC-transgenen Mauslinien ist, dass sie aufgrund der Verwendung des endogenen Promotors das Transgen nur schwach überexprimieren. Founder-Mäuse, in denen der jeweilige modifizierte BAC-Klon (mGlyT2 wt, ΔAA14-174 oder ΔAA14-184) integriert wurde, wurden identifiziert und mit C57BL/6J-Mäusen verpaart, um so transgene Mauslinien zu etablieren und die Lokalisation der mutierten GlyT2-Proteine zu analysieren. Zusätzlich wurde eine BAC-transgene Cre-Mauslinie generiert, die die Cre-Rekombinase in GlyT2-positiven Zellen exprimiert. Durch die Verpaarung mit konditionalen oder transgenen Mauslinien soll mit diesen GlyT2/Cre-Mäusen die Funktion einzelner Genprodukte in glycinergen Zellen untersucht werden. In dieser Arbeit wurden außerdem die Glycinrezeptor (GlyR) α-Untereinheiten (UE) in GlyT2-defizienten Mäusen untersucht. GlyT2 -/- Tiere sterben in der zweiten postnatalen Woche nach der Geburt und zeigen einen starken neuromotorischen Phänotyp. Da in demselben Zeitraum ein Austausch der embryonalen α2- durch die adulte α1-UE erfolgt, wurde die Entwicklung der α1- und der Gesamt-α- Immunreaktivität in Rückenmarksschnitten von wt und GlyT2 -/- Tieren analysiert und miteinander verglichen. Die Daten zeigen, dass der α-UE-Austausch in den GlyT2-defizienten Tieren ähnlich wie in wt Tieren erfolgt. In α1-GlyRs ist die Öffnungszeit des aktivierten Kanals kürzer als bei α2-GlyRs. Zusammen mit der geringeren Ausschüttung an Glycin aufgrund der GlyT2-Defizienz lässt sich so das Auftreten des Krampf-Phänotyps der GlyT2 -/- Mäuse nach erfolgtem UE-Austausch erklären.
Natrium/Protonen-Austauscher sind integrale Proteine biologischer Membranen und aufgrund ihrer funktionalen Abhängigkeit von einem elektrochemischen Gradienten der Klasse der Sekundärtransporter zugeordnet. Sie spielen eine essentielle Rolle sowohl in der Adaption von Bakterien an eine saline, alkalische Umgebung, als auch in der Regulation des intrazellulären pH- und Natriumhaushalts in Eukaryonten. Aufgrund der medizinischen Relevanz, unter anderem im Rahmen in der Behandlung des Herzinfarkts, besteht großes Interesse an der Struktur und den biochemischen Charakteristika des im Menschen ubiquitär vorkommenden Natrium/Protonen-Austauschers NHE1. Die heterologe und funktional aktive Produktion eukaryontischer Membranproteine stellt jedoch immer noch eine enorme Herausforderung dar, bei der sich das auf dem Semliki Forest Virus basierende Expressionssystem als gut geeignet erwiesen hat. Da die Überexpression von NHE1 mittels verschiedener eukaryontischer Expressionssysteme bisher kein kristallisationsfähiges Material liefern konnte, sollte in dieser Arbeit die heterologe Gewinnung von NHE1 mit dem Semliki Forest Virus Expressionssystem ermöglicht werden. Das Semliki Forest Virus Expressionssystem wurde auf Basis eines Vektorkonstrukts mit GFP zur späteren Übertragung der Parameter auf die Produktion von NHE1 etabliert. Konstrukte von NHE1 mit N- und C-terminalem Affinitäts-Tag wurden erfolgreich kloniert und zur Infektion von BHK-21 Zellkulturen eingesetzt. Dabei konnte beobachtet werden, dass der N-Terminus abgespalten wird und wahrscheinlich als Signalpeptid zum Einbau in die Membran dient. Das Protein wurde im Endoplasmatischen Retikulum lokalisiert, wo die Glykosylierung zum Transport in die Plasmamembran unterbleibt, was auf eine Interferenz mit der Virusinfektion zurückgeführt wurde. Eine Infektion der Zellen mit dem Semliki Forest Virus hat neben einem bereits bekannten massiven Anstieg des intrazellulären Natriumgehalts eine starke Alkalinisierung des Zytoplasma zur Folge. Ähnliches ist bisher über die Infektion von Zellen mit dem Poliovirus bekannt und stellt dort ein Schlüsselelement in der Sicherstellung der viralen Replikation dar, was auch für das Semliki Forest Virus zu gelten scheint. Die Expression von NHE1 konnte im 8 Liter-Maßstab optimiert und sowohl die Präparation als auch die Solubilisierung mit verschiedenen Detergenzien erfolgreich eingeführt werden. NHE1 erfährt jedoch bereits in vivo einen erheblichen proteolytischen Abbau, der sich während der Membranpräparation und Aufreinigung fortsetzt und zu einer Fragmentierung führt, die trotz des Einsatzes unterschiedlicher Kultivierungszeiten, Detergenzien, Additive oder Proteaseinhibitoren in vivo als auch in vitro nicht in einem Maße reduziert werden konnte, welches zur Gewinnung von kristallisationsfähigem Material erforderlich gewesen wäre. Es muss empfohlen werden einen in vivo Ansatz zu etablieren, um die proteolytische Degradation zu unterdrücken. Da die Virusreplikation nicht erforderlich ist, wäre Bafilomycin als Inhibitor der V-Typ ATPase geeignet, um die intrazelluläre Alkalinisierung und somit wahrscheinlich den Abbau von NHE1 zu verhindern. Ebenso erscheint der Einsatz von MG-132 zur spezifischen Inhibierung des Proteasoms Erfolg versprechend, was aber wegen hoher Kosten praktisch kaum in Frage kommt. Da man trotz individuell gelagerter Unterschiede zwischen den einzelnen Natrium/Protonen-Austauschern von einem ähnlichen Prinzip in Regulation und Transport ausgeht, wurden Strukturuntersuchungen mit Hilfe der Kryo-Elektronenmikroskopie am bakteriellen Natrium/Protonen-Antiporter NhaA aus Escherichia coli durchgeführt, um die strukturelle Basis der pH-Wahrnehmung und die Translokation von Natrium in das Periplasma besser zu verstehen. Die vorliegende Röntgen- und EM-Struktur repräsentieren den inaktiven Zustand, weshalb der eigentliche Ablauf des Transportvorgangs bisher biochemisch herzuleiten war, da bislang keine Kristalle im aktiven Zustand gezüchtet werden konnten. Durch die in situ Inkubation von 2D-Kristallen konnten aktive Zustände des Proteins direkt auf dem EM-Netz induziert und kryo-elektronenmikroskopisch festgehalten werden. Einzelne Datensätzen wiesen Reflexe bis zu 5 Å auf. Aus den angefertigten Projektionsdichte- und Differenzkarten ergaben sich pH- und Natrium-abhängige Konformationsänderungen. Die Röntgenstruktur wurde mit Hilfe des Molekularen Ersatzes in die EM-Struktur eingepasst und diente der Zuordnung und Interpretation der beobachteten Zustände als Basis. Die pH-abhängige Konformationsänderung wurde einem mit der funktional wichtigen Helix 9 assoziierten Bereich zugeordnet, welcher durch die Röntgenstruktur nicht definiert ist und wahrscheinlich die fehlenden Aminosäuren des regulatorisch relevanten N-Terminus enthält. Die beobachtete Konformationsänderung stellt das Entstehen einer besser geordneten Struktur dar und geht mit der pH-regulierten Aktivierung von NhaA zwischen pH 6 und 7 einher, weshalb dieser Bereich des Proteins zumindest als Bestandteil des sogenannten pH-Sensors betrachtet werden kann. Nach der vollständigen Aktivierung durch den pH-Wert, welche der folgenden Natrium-abhängigen Konformationsänderung vorauslaufen muss, konnte beobachtet werden, dass die Präsenz von Natrium im Rahmen der Ionentranslokation eine Bewegung des periplasmatischen Teils von Helix 4 induziert. Es wäre interessant, eine tiefergehende und genauere Charakterisierung der beobachteten Konformationsänderungen durch die Erstellung einer dreidimensionalen EM-Dichtekarte zu ermöglichen. Des Weiteren hat die eingehendere Untersuchung des röntgenkristallographischen Monomers nach der Einpassung in das physiologisch vorliegende Dimer der EM-Struktur sowohl eine für Membranproteine neuartige „Joint β-Sheet“ Dimerisierungsdomäne im Periplasma, als auch eine Verzahnung von Helix 7 und 9 an der Monomer-Monomer-Grenze aufgezeigt. Diesen Charakteristika kommt wahrscheinlich eine tragende Rolle in der Dimerisierung von NhaA zu, was durch weitere Untersuchungen im Rahmen einer Mutagenesestudie unter Einbeziehung der periplasmatischen β-Haarnadelstrukturen überprüft werden sollte.
In der vorliegenden Arbeit wurde ein neuer Algorithmus für die automatische Optimierung einer NMR-Zuweisung des back bones in gelabelten Proteinen und seine Implementierung vorgestellt. Der Algorithmus ermöglicht eine Zuweisungsstrategie, die sich näher an der manuellen Vorgehensweise orientiert als vergleichbare Implementierungen von Lukin (LUK 11 ) [Lukin97] oder Leutner (PASTA) [Leutner98], da er die Entscheidung über konkurrierende Protospinsysteminterpretationen in die globale Optimierung der Zuweisung verlegt und die Benutzer nicht zwingt, sich vorzeitig auf eine Interpretation pro Aminosäure und Peak zu beschränken. Der Algorithmus löst daher nicht nur das Reihenfolgenproblem für einen schon vorgegebenen Satz von Protospinsystemen, sondern auch das Auswahlproblem zwischen verschiedenen, sich widersprechenden, Interpretationen der gleichen Peakgruppe. Durch das zusätzliche Auswahlproblem erhöht sich die Komplexität der Optimierungsaufgabe, der Lösungsraum wächst daher um mehrere Größenordnungen. Dies verlängert die Laufzeit für den einfachen RANDOM Algorithmus gegenüber einem vergleichbaren Reihenfolgeproblem. Es wurden daher verschiedene Methoden untersucht, um die Laufzeit wieder zu reduzieren. Die erzielten Verbesserungen führen nicht nur zu einer besseren Konvergenz, sondern ermöglichen auch erstmals eine echte parallele Implementierung des Algorithmus. Die algorithmischen Verbesserungen sind die Reduktion des Protospinsystemcaches und der GENETISCHe Algorithmus. Zusätzlich wurde eine verbesserte Konfiguration zur Kontrolle der Suboptimierer gefunden. Die Implementierung der zugrundeliegenden Datenstrukturen ermöglicht die Umsetzung zusätzlicher Nebenbedingungen für die Positionen der Protospinsysteme innerhalb der Zuweisung. Ein Beispiel für die Nebenbedingungen sind die knotenlokalen Filter und die Strukturfilter aus Kapitel 2. Ihre Effizienz wird am besten durch die Aminosäuretypenerkennung demonstriert, die die Größe des Lösungsraumes um 168 Größenordnungen für Trigger reduziert. Dadurch verringert sich die Laufzeit des RANDOM Algorithmus bis zu einem Faktor von 132. Für PASTA wurde in [Leutner98] statt dessen der umgekehrte Effekt auf die Laufzeit festgestellt. In ihrer Implementierung verlängert sich die Laufzeit auf das Doppelte. Der Unterschied kann nur durch eine unterschiedliche Nutzung der Aminosäuretypenerkennung im Protospinsystempool erklärt werden. PASTA nutzt diese Information anscheinend nicht, um den Pool und damit den Lösungsraum zu reduzieren, sondern nur bei der Bewertung der Zuweisung. Diese Konfiguration kann in RANDOM näherungsweise nachvollzogen werden, wenn man im AS-Cache jeder Aminosäure jedes Protospinsystem zuweist. Die Bewertung der Aminosäuretypen und den Austausch zwischen Pool und Individuum kann man aber nicht abschalten. Ein möglicher Nachteil der Reduktion des AS-Caches mittels der Aminosäuretypenerkennung ist die Möglichkeit, daß Aminosäuren mit untypischen Frequenzen der falschen Aminosäure zugewiesen werden oder nicht in den Cache für die theoretische Aminosäure aufgenommen werden. Um eine falsche Zuweisung durch die Reduktion auszuschließen oder zu überprüfen, kann man zuerst mit einem AS-Cache mit Typenerkennung optimieren und das Ergebnis in einer zweiten Optimierung mit einem AS-Cache ohne Typenerkennung nachoptimieren. Diese Möglichkeit wurde bei der Zuweisung von Trigger demonstriert. Für Trigger konnte durch den Wechsel des Caches gezeigt werden, daß auch mit dem reduzierten Cache eine stabile Zuweisung gefunden wird, die der Zuweisung ohne Aminosäuretypenerkennung weitgehend entspricht. Die Zuweisungen unterscheiden sich in Aminosäuren mit unsicherer Typenzuweisung. In Trigger wird nur ein Protospinsystem (Phe66,Ile67) aufgrund der Typeninformation von der Position im AS-Cache ausgeschlossen, der es in der manuellen und der Zuweisung ohne Reduktion zugewiesen wurde. In anderen Fällen führt erst die Typeninformation zur richtigen Zuweisung (zB. Thr60,Ile61), während die Zuweisung ohne Typenerkennung eine Fehlzuweisung erzeugt. Man sollte daher immer beide Versionen berechnen und dann vergleichen, da eine manuelle Zuweisung beide Defekte aufweisen kann, weil sie die Zuweisungsregeln nicht so strikt optimiert, wie es ein automatischer Algorithmus kann. Für beide Algorithmen wurde der Parameterraum untersucht und eine sowohl optimale als auch robuste Konfiguration gesucht. Dabei wurde der Einfluß jedes Parameters des Algorithmus auf die Laufzeit bis zur Konvergenz zum globalen theoretischen Maximum bestimmt. Bei RANDOM waren hauptsächlich die Zusammensetzung des Aktionsprofils und die minimale und maximale Lebenszeit der veränderten Zustände, minTTL und maxTTL, für die Laufzeit entscheidend. Alle drei kontrollieren, welche Pfade durch den Lösungsraum ab einem Zustand erlaubt sind. Die gleiche Untersuchung wurde auch für die Parameter der zu berechnenden Probleme (Proteine) durchgeführt. Für den Datensatz wurde sowohl der Einfluß der Proteingröße, des maximalen CA Abstandes zwischen den Peaks der benachbarten Aminosäuren und der Aufbereitung des Protospinsystemcaches auf die Laufzeit, als auch der Einfluß eines unvollständigen Datensatzes auf die Konvergenz untersucht. Der Algorithmus zeigte sich dabei sehr robust gegen fehlende Peaks, da bis zu 45% der theoretischen Peaks fehlen können, ohne daß die Konvergenz zum theoretischen Optimum verloren geht. Unterhalb von 55% hängt die Übereinstimmung der gefundenen Lösung mit der theoretischen Lösung von der Zusammensetzung der gebildeten Protospinsystemfragmente ab. Proteingröße und maximaler CA Abstand haben dagegen großen Einfluß auf die Laufzeit. Während die Parametrisierung des RANDOM Algorithmus sich auf die Untersuchung des Wertebereichs der Kontrollparameter beschränken kann, muß die Parametrisierung des GENETISCHen Algorithmus auch die verschiedenen Crossover Operatoren und die Kontrolle der Suboptimierer umfassen. In Kapitel 3 wurden die verschiedene Crossover Algorithmen und unterschiedliche Konfigurationsvarianten für den Suboptimierer im GENETISCHen Algorithmus untersucht. Die aus der Literatur bekannten Crossover Operatoren waren dabei den spezialisierten G Operatoren unterlegen. Auch die Varianten elitär und statistisch, die keinen genetischen Austausch zwischen verschiedenen Individuen zulassen, waren den speziellen Operatoren immer unterlegen. Selbst kleine Anteile eines Genaustausches bewirkten eine Verbesserung der Laufzeit und die Qualität der Lösung. Dabei verbesserte sich besonders die Konvergenz durch den genetischen Austausch. Die speziellen G Operatoren übertragen nur die Differenz der Eltern statt, wie im klassischen Crossover, blind irgendeinen zusammenhängenden Bereich zu kopieren. Dadurch vermeiden sie es, hauptsächlich identische Bereiche zu kopieren, sondern übertragen nur Protospinsysteme, die sich in den Eltern unterscheiden. Außerdem wurde die Effizienz der speziellen Operatoren noch weiter gesteigert, indem die übertragenen Informationen mit Hilfe von Filtern gezielt auswählt wurden. Die übertragene Differenz wird dazu aufgrund ihrer Nachbarn und der Verknüpfung mit den Nachbarn ausgewählt. Mit unterschiedlichen Filtern wurden so Bereiche mit einem unterschiedlich hohen lokalen Optimierungsgrad für die Übertragung ausgesucht. Die Laufzeituntersuchungen in Kapitel 3 zeigen, daß es eine Grenze für die Effizienzsteigerung durch die Übertragung lokal voroptimierter Bereiche gibt. Während es beim Wechsel von unkoordinierten, punktförmigen Übertragungen (s1) zur Übertragung von kurzen Strecken aus benachbarten Protospinsystemen, mit oder ohne Verknüpfung (s2), noch zu einer geringen Verbesserung der Laufzeit und der Konvergenz kommt, führt die zusätzliche Koordinierung der übertragenen Nachbarn durch die Nebenbedingung der Verknüpfung in den s3 Algorithmen sogar zu einer geringen Verschlechterung der Laufzeit. Die Gründe für die Verschlechterung konnten nicht eindeutig nachgewiesen werden. Möglicherweise verringert sich die Anzahl der kopierbaren Bereiche durch die zusätzlichen Nebenbedingungen so sehr, daß nicht genügend unterschiedliche Differenzen für die Übertragung in die neuen Individuen gebildet werden. Die neuen Individuen erhalten dann hauptsächlich die gleichen neuen Gene. Dadurch kann es zu einer Verarmung des genetischen Pools, d.h. zum Verlust der genetischen Diversität in der Population kommen. Die neuen Individuen suchen dann identische Bereiche im Lösungsraum ab und nehmen dadurch die lokale Optimierung doppelt vor. Dadurch verschwendet diese Konfiguration CPU Zeit auf schon untersuchte Bereiche. Neben der direkten Übertragung zusammenhängender Bereiche gibt es noch einen weiteren Faktor der die spezialisierten Operatoren, gegenüber dem klassischen Crossover, verbessert. Die Differenzbildung im Crossover nimmt auf die Konkurrenz um die Peaks zwischen den Protospinsystemen keine Rücksicht. Dadurch befinden sich die neuen Individuen zuerst meist im illegalen Teil des Zustandsraumes S n . Nach dem Crossover wird daher ein Teil der ursprünglichen Protospinsysteme des neuen Individuums durch den Reparaturmechanismus gelöscht und dadurch schon optimierte Bereiche zerstört. Daher kommt dem Reparaturmechanismus für illegale Zustände die entscheidende Rolle zu, denn er erzwingt die Neuberechnung der Positionen, die vor dem Crossover durch einen Konkurrenten eines übertragenen Protospinsystems belegt waren. Die ehemaligen Zuweisungen in den zerstörten Bereichen sind dabei nur über die Resourcenkonkurrenz mit den im Crossover neu injizierten korreliert. Das Crossover mit Zerstörungen erweitert dadurch den erreichbaren Lösungsraum, statt ihn, wie beim klassischen Crossover, auf den Raum zwischen den Eltern einzuschränken! Die Zerstörungen sind für die Optimierung daher von Vorteil. Außerdem zeigte sich in Kapitel 3, daß für die speziellen Operatoren eine besondere Konfiguration des Suboptimierers besonders effizient ist, die den einzelnen Individuen nur die CPU-Zeit zuteilt, die sie, effizienter als ihre Konkurrenten, zu einer Verbesserung nutzen können. Diese Verteilung der Rechenzeit wird durch die sogenannte Ratenbegrenzung erreicht. Die veränderlichsten Individuen erhalten dabei die meiste Rechenzeit. Dies sind normalerweise die Individuen, die in einem der letzten genetischen Zyklen neu erzeugt wurden. Sobald ein Individuum in ein tiefes lokales Optimum, d.h. eine Sackgasse, geraten ist, erhält es weniger Rechenzeit, da seine Verbesserungsrate unter den Schwellwert sinkt. Dadurch darf man den einzelnen Individuen eine höhere maximale Laufzeit zuteilen, da sie sie nur nutzen können, wenn sie sich währenddessen verbessern. Die Kombination "ratenbegrenzt" mit Operator Gs2p2A verbraucht trotz des komplexeren Algorithmus weniger CPU-Zeit bei gesteigerter Konvergenzwahrscheinlichkeit und geringerer paralleler Laufzeit als jede andere Konfiguration. Sie ist damit die beste bekannte Konfiguration für GENETISCH. Im Praxistest in Kapitel 5 mit dem Proteinabschnitt Trigger M bestanden zwischen den automatischen Zuordnungen und der manuellen Zuweisung nur geringe Unterschiede. Die Unterschiede zwischen den Optimierungen mit unterschiedlichen Caches entstehen hauptsächlich in den Bereichen, die an einem Ende keinen verknüpften Nachbarn haben oder bei denen die manuelle Zuweisung unsicher ist, wie im Bereich 10 - 20. Durch die automatische Zuweisung konnte die manuelle Zuweisung sogar an einigen Stellen vervollständigt werden. Sie ist daher einer manuellen Zuweisung gleichwertig. Darüber hinaus entsteht bei der automatischen Zuweisung immer eine Dokumentation über die Verwendung der Peaks, so daß man ungenutzte Spinsysteme leichter finden kann. Der genetische Algorithmus kann optimal auf einem Netzwerkcluster implementiert werden, daher bietet sich ein echte parallele Implementierung an. GENETISCH braucht dabei keine besondere Hardware, wie Vektorrechner, shared memory oder besonders schnelle Netzwerkverbindungen, sondern kann auf einer Gruppe von normalen Rechnern mit einer üblichen Ethernet100 Netzwerkverbindung implementiert werden, da nur zum Austausch der Individuen, bzw. ihrer Differenz, eine Kommunikation zwischen den Rechnern notwendig ist. Dadurch kann die Kommunikation auf wenige KB alle paar Sekunden beschränkt bleiben. GENETISCH sollte außerdem leicht zu skalieren sein, da man die Anzahl der Individuen leicht an größere Probleme anpassen kann. Eine echte parallele Implementierung erlaubt daher sowohl die Rechenzeit für komplexere Problem auf wenige Minuten zu reduzieren als auch größere und mehrdeutigere Spektren zuzuweisen. Außerdem kann man die Wahl der Prozessparameter selbst auch dem selben Optimierungsprozeß unterwerfen, der bisher für die Optimierung der Zuweisung verwendet wurde. Dadurch sollte es möglich sein, die Optimierungsparameter, analog dem Profil der Abkühlung im simulated annealing, dynamisch an die Phase der Optimierung anzupassen und den Individuen immer die optimalsten Optimierungsparameter zu bieten, ohne diese vorher von Hand suchen zu müssen. Diese Veränderung erfordert aber eine große Anzahl an Individuen und damit die echte parallele Implementierung.
Verglichen mit normal progredierenden HIV-1 Infizierten weisen Langzeit Nicht-Progredierende (LTNP), trotz chronischer Infektion und ohne antivirale Therapie, keinerlei Anzeichen einer klinischen Progression sowie stabil hohe CD4+-Zellzahlen und eine geringe Viruslast auf. Für diesen ungewöhnlichen Infektionsverlauf wurden mehrere virologische, genetische und immunologische Ursachen in der Literatur beschrieben. Anhand einer gut charakterisierten LTNP-Kohorte und einer Kontrollgruppe mit vergleichbaren klinischen Markern, wurde hier der Einfluss der einzelnen Faktoren, vor allem der humoralen Immun-antwort, auf den Infektionsverlauf analysiert. Die Analyse viraler und patienteneigener Gene zeigt, dass keiner der LTNP die ccr5Delta32 Mutation aufweist und auch der Vergleich der viralen Proteine Env, Nef, Rev, Tat und Vpr ergab keine zwingende Ursache für ein Ausbleiben der Progression. So zeigt sich zwar eine Anreicherung von Insertionen in den Variablen Schleifen (v.a. V1/V2) in den Env der LTNP-Viren, die Funktionalität der viralen Hüllproteine wurde jedoch mit Hilfe HIV-1 Env-rekombinanter Reporterviren aufgezeigt. Die HIV-1 Env-rekombinanten Reporterviren der LTNP unterschieden sich weder in ihrer Infektiosität, noch in der Effizienz der frühen Replikationsschritte von den korrespondierenden Viren der HIV-1 Kontrollpatienten, was einen entscheidenden Einfluss der Hüllproteine auf den Infektionsverlauf nahezu aus-schließt. Seitens der zellulären Immunantwort wurden in einigen LTNP HLA-B Typen identifiziert, die in der Literatur mit einem verlangsamten Infektionsverlauf und einer aus-geprägten zellulären Immunantwort in Verbindung gebracht wurden. Die Untersuchung der zellulären Immunantwort der LTNP (außerhalb dieser Arbeit) ergab jedoch keine Besonder-heiten, was den Einfluss der identifizierten HLA-B Typen auf den nicht-progredierenden Infektionsverlauf relativiert. Die humorale Immunantwort der Patienten wurde in umfassen-den Neutralisationsstudien mit Hilfe der HIV-1 Env-rekombinanten Reporterviren analysiert. Hierbei zeigte sich, dass die LTNP, verglichen mit den HIV-1 Kontrollpatienten, eine signifikant bessere humorale Immunantwort besitzen. Zusammen mit den zuvor gewonnenen Erkenntnissen legt dies einen entscheidenden Einfluss neutralisierender Antikörper am Nicht-Progredieren der LTNP nahe. Durch den Einsatz HIV-1 Env-spezifischer Peptidphagen wurde die humorale Immunantwort der zwei Patientengruppen weiter untersucht, wobei einige Unterschiede zwischen der Antikörperantwort der LTNP und HIV-1 Kontrollpatienten aufgezeigt wurden. Mit Hilfe dieser Peptidphagen wurde in Versuchstieren eine HIV-1 Env-reaktive Immunant-wort induziert. Die Fusion von Myelomzellen mit den B-Zellen der immunisierten Tiere und die anschließende Selektion führten zur Isolierung HIV-1 Env-spezifischer Hybridomazellen. Um sich den Vorteil der langjährigen Antikörperreifung in den Patienten selbst zu Nutze zu machen und gezielt breit-neutralisierende Antikörper zu isolieren, wurden, ausgehend von B-Zell mRNA der LTNP, patienteneigene scFv Phagen Display Bibliotheken erstellt. Die in vitro Selektion dieser scFv Phagen Display Bibliotheken mit unterschiedlichen HIV-1 Env Varianten führte zur Isolierung einiger HIV-1 Env spezifischer scFv-Phagen. Die Untersuchung der Bindungseigenschaften des reaktivsten scFv-Phagens zeigte eine breite Reaktivität gegen unterschiedliche HIV-1 Env Varianten, die durch HIV-1 positives Serum kompetiert werden konnte. Das Epitop dieses scFv-Phagens wurde in der Variablen Schleife 3 von HIV-1 Env lokalisiert. Diese Arbeit zeigt den entscheidenden Einfluss der humoralen Immunantwort für die nicht-progredierende Infektion der hier untersuchten LTNP und gibt erste Hinweise auf mögliche Ursachen für die außergewöhnlich breite Serumreaktivität. Die Identifikation charakteristischer Eigenschaften in der humoralen Immunantwort, sowie die Identifizierung der hierfür verantwortlichen Antikörper kann bei der Entwicklung aktiver oder passiver Vakzine von entscheidendem Vorteil sein oder als Ausgangspunkt für neue therapeutische Ansätze dienen.
Qualität und Qualitätsmanagement in der universitären naturwissenschaftlichen Lehrerfortbildung
(2010)
Vor dem Hintergrund der politischen Entwicklungen in Hessen und der allgemeinen Debatte über Qualität im Bildungsbereich sollte im Lehrerfortbildungszentrum Chemie (lfbz-Chemie) der Universität Frankfurt am Main eine systematische Qualitätsentwicklung etabliert und dieses Vorhaben wissenschatflich begleitet werden. Die wissenschaftliche Arbeit besteht aus drei Säulen: - Eine erste, qualitative Studie sollte Qualitätskriterien und -indikatoren liefern. - In einer Fallstudie am lfbz-Chemie Frankfurt sollte die Einführung von Instrumenten des Qualitätsmanagements aus dem gewerblichen Weiterbildungsbereich beobachtet und bewertet werden. - Eine bundesweite Umfrage unter universitären Fortbildungsanbietern im naturwissenschaftlichen Bereich sollte sowohl die Struktur der anbietenden Institutionen als auch die allgemeine Einstellung der Befragten zum professionellen Qualitätsmanagement (QM) nach einem im gewerblichen Bereich geläufigen Modell (LQW) beleuchten. Die Qualitätsindikatoren und -kriterien fielen sehr spezifisch für die naturwissenschaftliche Lehrerfortbildung aus. Allein die drei folgenden Bereiche erfassen zwei Drittel aller Nennungen: die „Qualität der Teamer bzw. Moderatoren“, die „Fortbildungsgestaltung“ und die „Zielgruppenorientierung (Schulbezug)“. Nimmt man die Anzahl der Indikatoren und Kriterien pro Bereich als Maßstab, fokussieren die Befragten sehr stark auf Anforderungen, die die Professionalität des Personals betreffen. Zur Orientierung für die Qualitätsarbeit am lfbz-Chemie (Fallstudie) wurde das QM-Modell LQW 2 gewählt; als kleinere Instrumente kamen die Tabellen nach dem Vorbild der Balanced Scorecard (BSC) nach Kaplan und Norton sowie die Stärken-Schwächen-Analyse zum Einsatz. Als erstes Ergebnis der Fallstudie kristallisierten sich drei Arbeitsbereiche heraus: Personalorganisation, Evaluation und Innovationen. Diese Arbeitsfelder ergänzten die identifizierten Anforderungen an Fortbildung somit um Bereiche, die eher der organisatorischen Ebene zuzuordnen sind. Es ließ sich in der Fallstudie feststellen, dass ein ganzes Qualitätsmanagementmodell wie LQW 2 nur als Anregung für den einen oder anderen, als wichtig erachteten Bereich dienen konnte, während sich kleinere Instrumente eher als handhabbar erwiesen. Außerdem konnte postuliert werden, dass - ein persönlicheres Eingehen auf die Ziele und Aufgaben der einzelnen Personen im Sinne eines Total Quality Managements vermutlich zu besseren Ergebnissen geführt hätte als die Konzentration auf allgemeine Themen und die Orientierung am eher abstrakten Modell, - Erfolge sehr nachdrücklich kommuniziert werden müssen und - möglichst eine Person aus dem Stammpersonal für den Bereich Qualität verantwortlich sein sollte. Um ergänzend zur Fallstudie zu allgemeineren Schlüssen gelangen zu können, wurde eine Charakterisierung der universitären Fortbildungsanbieter mittels Clusteranalyse mit Daten der bundesweiten Umfrage durchgeführt. Sie zeigte vier Typen von Anbietern auf. Insgesamt fanden sich neben der Gruppe der großen Anbieter, zu denen auch das lfbz-Chemie gehört, nur vergleichsweise kleine Anbieter. Die in der Fallstudie erhaltenen Ergebnisse können somit nur eingeschränkt auf die meisten Anbieter übertragen werden. Insgesamt konnten Stärken und Schwächen der universitären Anbieter identifiziert werden, mit denen sich die universitäre naturwissenschaftliche Lehrerfortbildung von der gewerblichen Weiterbildung abhebt. Stärken lagen vor allem in den besonderen Kompetenzen, die an der Hochschule anzutreffen sind. Problemfelder lagen ausgerechnet hauptsächlich im Personalbereich. Als spezifische Schwächen der universitären Anbieter im Personalbereich kann z. B. die Stellung der Fortbildung als Nebenaufgabe oder der Verlust von Know-how durch die Fluktuation des Personals gelten. Auch allgemein kann ein Modell wie LQW 2 als Anregung für die Qualitätsarbeit in der universitären Lehrerfortbildung dienen, nicht jedoch umfassend umgesetzt werden. Die „kleineren“ Instrumente können dagegen eher als allgemein geeignet betrachtet werden. Während die „großen“ Anbieter durch verbesserte personelle Ressourcen für Aufgaben wie die Qualitätsarbeit unterstützt werden könnten, bietet sich für die „kleinen“ Anbieter eher die Unterstützung durch eine zentrale Stelle der Universität an, um die Fortbildungsanbieter doch noch in ein professionelles Qualitätsmanagement einbinden zu können.