Refine
Year of publication
Document Type
- Doctoral Thesis (5737) (remove)
Language
- German (3642)
- English (2066)
- French (9)
- Latin (5)
- Spanish (5)
- Portuguese (4)
- Italian (3)
- Multiple languages (2)
- mis (1)
Is part of the Bibliography
- no (5737)
Keywords
- Deutschland (15)
- Gentherapie (14)
- HIV (13)
- Apoptosis (12)
- Membranproteine (12)
- NMR-Spektroskopie (11)
- RNA (11)
- RNS (10)
- Schmerz (10)
- ALICE (9)
Institute
- Medizin (1530)
- Biowissenschaften (834)
- Biochemie und Chemie (729)
- Physik (597)
- Pharmazie (329)
- Biochemie, Chemie und Pharmazie (311)
- Geowissenschaften (139)
- Neuere Philologien (115)
- Gesellschaftswissenschaften (111)
- Psychologie (97)
Entmachtete Gegenstände? : Zur Kommerzialisierung sakraler Masken bei den Piaroa in Venezuela
(2004)
Mit dem murinen monoklonalen Antikörper MAb 425 ist prinzipiell die immunszintigraphische Lokalisationsdiagnostik und die Rezeptorbestimmung in vivo bei EGF-Rezeptor überexprimierenden gynäkolgischen Tumoren möglich. In der durchgeführten Studie in der 17 Patientinnen mit gynäkologischen Tumoren untersucht wurden, konnte in einigen Fällen der Primärtumor/ bzw. das Lokalrezidiv und auch Metastasen nachgewiesen werden. Bei 6 von 11 Patientinnen mit Primärtumor und/oder Lokalrezidiv konnte mit der EGF-Rezeptorszintigraphie der Tumor nachgewiesen werden, bei paraaortaler Lymphknotenmetastasierung waren es 5 von 8 Patientinnen. Insbesondere bei Patientinnen mit undifferenzierten, fortgeschrittenen Plattenepithel-Karzinomen, v. a. mit Zervix-Karzinom (und evtl. paraaortaler Lymphknotenmetastasierung) scheint eine Überexpression häufiger vorzukommen und damit die Möglichkeit gegeben den Tumor und/oder die Metastasen mit dieser Methode nachzuweisen. Auch in den Fällen, bei denen im Vorfeld die EGFR-Überexpression mittels immunhistologischer Verfahren nachgewiesen wurde, besteht mit der anti-EGF-Rezeptorszintigraphie ein sinnvoller Ansatz eine Lokalisationsdiagnostik vorzunehmen. Die Sensitivität dieser Methode ist aber zu gering, um sie als Staging-Verfahren bei diesen Tumoren zu verwenden. Bei den biokinetischen Messungen zeigte sich für den verwendeten Antikörper eine 3-Phasen Kinetik mit einer schnellen Elimination aus dem Blutpool (T ½ = 6,5 min.), einer Verteilung (T ½ = 53 min.) und einer weiteren Distribution und gleichzeitige Elimination (T ½ = 21,9 h). Diese Ergebnisse decken sich mit den Daten von anderen Arbeitsgruppen und können als Grundlage für dosimetrische Berechnungen für radioimmuntherapeutische Ansätze mit dem genannten Antikörper dienen. Hervorzuheben ist die Tatsache, dass mit der antiEGFRezeptorszintigraphie der EGF-Rezeptorstatus in vivo bestimmt werden kann. Dies könnte in Zukunft Implikationen haben für die Selektion von Patientinnen für bestimmte Therapieformen deren Zielstruktur der Rezeptor selbst (wie z.B. Cetuximab/Erbitux®) oder dessen Signaltransduktions-Kaskade (wie z. B. Gefitinib/Iressa® oder Erlotinib/Tarceva®) darstellt. Prinzipiell ist auch eine mögliche Änderung der Rezeptorexpression im Verlauf einer solchen Therapie nachweisbar, was Auswirkungen auf die Therapiestrategie haben könnte. Dies müsste in weiteren Studien näher untersucht werden.
A detailed understanding of how potassium channels function is crucial e. g. for the development of drugs, which could lead to novel therapeutic concepts for diseases ranging from diabetes to cardiac abnormalities. An improved understanding of channel structure may allow researchers to design medication that can restore proper function of these channels. This is particularly important for KCNQ channels, since four out of five family members are involved in human inherited disease. In addition to structure and function relationships the determinants which govern assembly of KCNQ subunits are decisive to understand the physiological role of the KCNQ channel family members. Many details of KCNQ channel assembly remain incompletely understood. Previous work has shown that the subunit-specific heteromerisation between KCNQ subunits is determined by a ~115 amino acid-long subunit interaction domain (si) within the C-terminus (Schwake et al., 2003). Recently, Jenke et al. (2003) proposed that the C-terminal domains in eag and erg K+ channels act as sites which drive tetramerization. From their ability to form coiled coils, these domains were referred to as tetramerizing coiled-coil (TCC) sequences. Jenke et al. also pointed out that KCNQ channels contain bipartite TCC motifs within their C-termini, exactly within the si domain, which is responsible for the subunit-specific interaction pattern. The first part of this thesis was dedicated to determine the individual role of these TCC domains on homomeric and heteromeric channel formation in order to further characterize the molecular determinants of KCNQ channel assembly. In the second part of this thesis cystein-scanning mutagenesis was employed, followed by thiol-specific modification using MTS reagents to screen more than 20 residues in the S3-S4 linker region and in the S4 transmembrane domain of the KCNQ1 channel to gain information about residue accessibility, the functional effects of thiol-modifying reagents (MTSES), and effects of crosslinking selected pairs of Cys residues by Cd+ ions, which could be used for testing model predictions based upon known Kv channel structures from the literature. According to homology modelling based on the Kv1.2 structure it was attempted to determine the proximity of individual residues from different transmembrane segments using the metal bridge approach (crosslinking by Cd+ ions). This led us to derive structural constraints for interactions between the S4 voltage sensor and adjacent transmembrane segments of KCNQ1. Similar studies have previously been performed on the Shaker K+ channel, which has served as a paradigm for structure-function research of voltage-gated K+ channels for a long time, but little is known for KCNQ channels concerning their similarity to published K+ channel structures.
Mit immer komplexeren Experimenten erhöhen sich die Anforderungen an die Detektoren und diese Arbeit ist ein neuer Beitrag für eine weiterentwickelte technologische Lösung. In der vorliegenden Dissertation wurde eine nichtinvasive optische Strahldiagnose für intensive Ionenstrahlen in starken Magnetfeldern entwickelt. Das optische System besteht aus miniaturisierten Einplatinen CMOS-Kameras. Sowohl die hardwareseitige Entwicklung als auch die softwareseitige Implementierung der Algorithmen zur Kamerakalibrierung, Netzwerksteuerung und Strahlrekonstruktion wurden in dieser Arbeit entwickelt. Die Leistungsstärke dieses neuartigen Diagnosesystems wurde dann experimentell an einem Teststand demonstriert. Dabei wurde das optische System ins Vakuumstrahlrohr eingebettet. Ein Wasserstoffionenstrahl mit einer Energie von 7keV bis 10keV und einem Strahlstrom bis 1mA wurde in einer Stickstoffatmosphäre bis 1E-5 mbar untersucht. Dabei wurde der Ionenstrahl entlang des Strahlrohres des Toroidsegmentmagnetes mit einer Bogenlänge von 680mm mit einem xy-Kamerasystem beobachtet.
Der Strahlschwerpunkt und die Breite des Strahlprofils wurden im Ortsraum rekonstruiert. Die analytisch berechnete und in anderen Arbeiten simulierte Gyrationsbewegung sowie der RxB-Drift des Strahlschwerpunktes konnte experimentell bestätigt werden.
Afyonkarahisar ist eine der größeren Städte im westlichen Kleinasien, die auf eine sehr alte wie auch reiche Geschichte zurückblicken kann. Schon im Altertum ist Akroinon (Ακροϊνόν), wie Afyon damals von den Griechen genannt wurde, ein reges kulturelles Zentrum. Diese Stellung hat der Ort sich bis heute bewahrt als Hauptstadt der gleichnamigen türkischen Provinz Afyonkarahisar (Afyonkarahisar İli). Gemeinhin rechnet man deren Territorium dem ägäischen Raum zu. Genau genommen erstreckt es sich jedoch über drei geographische Zonen: Der größte Teil gehört in der Tat der Ägäischen Zone (Ege Bölgesi) an. Der die Distrikte (İlçe) von Başmakçı, Dinar, Dazkırı und Evciler umfassende Südzipfel macht Teil der Mediterranen Zone (Akdeniz Bölgesi) aus während einige Landstriche im Nordosten und Osten bereits zu Inneranatolien (İçanadolu Bölgesi) gehören. ...
In dieser Arbeit, deren Hauptanliegen die Erstellung eines pflanzensoziologischen Systems war, wurde die Segetalvegetation der Sudanzone Westafrikas durch vegetationskundliche Aufnahmen erfasst. Zu den Aufnahmen wurden Bodenproben entnommen und Befragungen über die Anbaumethoden sowie Nutzung der Segetalarten durchgeführt. Um ein repräsentatives Bild der Segetalvegetation zu erreichen, wurden Regionen in Burkina Faso, Nigeria, Benin, Senegal und Mali zur Analyse ausgewählt, die in der Süd-, Nordsudanzone sowie in angrenzenden Gebieten der Sahelzone lagen. 601 Arten aus 70 Familien wurden identifiziert. Vier Familien, nämlich Poaceae, Leguminosae- Papilionaceae, Cyperaceae und Asteraceae dominieren in der Segetalflora und stellen die Hälfte der Arten, während die übrigen Familien, mit oft nur einem Vertreter, weniger repräsentiert sind. Corchorus tridens, Mitracarpus scaber und Leucas martinicensis, die drei häufigsten Segetalarten in der Sudanzone stammen jedoch nicht aus den vier oben genannten Familien. Die meisten Arten sind Therophyten und haben eine in den Tropen eingeschränkte Verbreitung. Es sind entweder pantropische (42 %), afrikanische Arten (32) oder paläeotropische Arten (20 %). Aus den 1120 Aufnahmen wurden 65 Gesellschaften beschrieben. Ein Vergleich dieser Gesellschaften führte zur Erarbeitung einer synoptischen Tabelle, deren Einheiten zur Herausarbeitung von pflanzensoziologischen Syntaxa dienten. Dabei wurden die bis dato beschriebenen Einheiten der Segetal- sowie Ruderalvegetation in den Tropen zum Vergleich einbezogen. Ein pflanzensoziologisches System der Segetalvegetation in der Sudanzone wurde erstellt. Zwei neue Klassen wurden definiert: die Leucetea martinicensis und die Caperonietea palustris. Die Leucetea martinicensis kommen auf den trockenen Böden vor und enthalten zwei Ordnungen: die Commelinietalia benghalensis auf gedüngten und die Polycarpeaetalia corymbosae auf ungedüngten Feldern. Die Commelinietalia benghalensis bestehen aus zwei Verbänden, dem Celosion trigynae und dem Tridaxion procumbentis. Der erste Verband ist sowohl in der Nord- als in der Südsudanzone anzutreffen, während der zweite nur in der Südsudanzone zu beobachten ist. Die Polycarpeaetalia corymbosae beinhalten drei Verbände: das Brachiarion distichophyllae, das Merremion tridentatae und das Jacquemontion tamnifoliae. Das Brachiarion distichophyllae kommt überall in der Sudanzone vor und bevorzugt die häufigen pisolithenreichen Böden. Das Merremion tridentatae ist auch in der gesamten Sudanzone verbreitet. Es ist überwiegend auf ausgesprochen sandigen Böden zu finden. Das Jacquemontion tamnifoliae hat einen eindeutigen Schwerpunkt in der Sahelzone und den Übergangsgebieten zur Sudanzone. Das ist der Verband, der auf den Hirsefeldern der Dünen in der Sahelzone wächst. Die Caperonietea palustris sind eine edaphisch stark geprägte Klasse. Sie wachsen auf den extrem tonreichen Vertisolen. Da diese eine Seltenheit in der Sudanzone sind, stellen die Caperonietea palustris eine ganz besondere Vegetation in der Sudanzone dar. Darin wurden zwei Assoziationen beschrieben: das Sorghetum arundinaceum und das Hygrophiletum auriculatae. Die Segetalvegetation auf den Reisfeldern in den Senken gehört zur neuen Ordnung Melochietalia corchorifoliae, die den Phragmitetea TÜXEN
In der vorliegenden Arbeit wurden marine Schwämme der Gattungen Agelas und Stylissa von den Florida Keys und Bahamas untersucht. Dabei lag das Hauptinteresse neben der Isolierung und Strukturaufklärung der Schwamminhaltsstoffe vor allem auf der ökologischen Funktion der Sekundärstoffe. Die Chemie dieser Schwämme ist sehr charakteristisch und wird von bromierten Derivaten der Pyrrol-2-carbonsäure bestimmt. Insgesamt wurden 17 bromierte Pyrrol-Alkaloide isoliert, von denen die Verbindungen N-alpha-(4-Brompyrrolyl-2-carbonyl)-L-homoarginin (isoliert aus Agelas wiedenmayeri), Bromsceptrin (Agelas conifera), N-Methyl-dibromisophakellin (Stylissa caribica), Monobromisophakellin (Agelas sp.) und Sventrin (Agelas sventres) erstmals beschrieben wurden. Die Strukturaufklärung erfolgte mit spektroskopischen Methoden (2D NMR, MS, IR, UV, CD) und durch Vergleich mit literaturbekannten Daten. Im Fall von N-alpha-(4-Brompyrrolyl-2-carbonyl)- L-homoarginin gelang die Bestimmung der absoluten Konfiguration erst nach Synthese der Verbindung und anschließendem Vergleich der CD-Spektren von Naturstoff und synthetischer Verbindung. Insgesamt wurden die Dichlormethan/Methanol-Rohextrakte von 125 Schwämmen der Gattung Agelas, die an verschiedenen Standorten der Bahamas gesammelt wurden, mittels HPLC qualitativ untersucht und die Hauptsekundärmetaboliten quantitativ bestimmt. In sämtlichen Schwämmen konnten Brompyrrol-Alkaloide nachgewiesen werden, wobei sich drei charakteristische Inhaltsstoffmuster zeigten. Während die Rohextrakte von 71 Proben der Schwämme Agelas cervicornis, Agelas clathrodes, Agelas dispar und Agelas wiedenmayeri durch die beiden Alkaloide Oroidin und 4,5-Dibrompyrrol-2-carbonsäure gekennzeichnet sind, bestimmen dimere Pyrrol-Imidazol-Alkaloide vom Sceptrin- und Ageliferin-Typ, wobei Sceptrin stets dominiert, das Inhaltsstoffmuster von 50 untersuchten Proben der Schwämme Agelas cerebrum, Agelas conifera, Agelas dilatata und Agelas sceptrum. Ein drittes Inhaltsstoffmuster wurde für vier Proben des Schwamms Agelas sp. gefunden, welches durch bromierte Pyrrol-Alkaloide vom Phakellin- und Isophakellin-Typ charakterisiert ist. Zur Untersuchung der ökologischen Bedeutung von Brompyrrol-Alkaloiden wurde die fraßabschreckende Wirkung gegenüber Fischen getestet. In Aquarium- und Freilandversuchen konnte gezeigt werden, daß die fraßhemmende Wirkung der Rohextrakte gegenüber Fischen im Fall von Agelas conifera auf bromierte Pyrrol-Alkaloide vom Sceptrin- und Ageliferin-Typ bzw. Isophakellin-Typ für Stylissa caribica zurückzuführen ist. Erstmals wurden Reinsubstanzen vom Sceptrin-, Ageliferin- und Isophakellin-Typ getestet. Sceptrin und N-Methyl-dibromisophakellin sind bei natürlichen Konzentrationen fraßabschreckend. In weiteren ökologischen Untersuchungen konnte gezeigt werden, daß die bromierten Pyrrol-Alkaloide Oroidin, 4,5-Dibrompyrrol-2-carbonsäure und Sceptrin neben einem fraßabschreckenden Potential gegenüber Fischen auch besiedlungshemmend auf Fäulnisbakterien wirken. Bromierte Pyrrol-Alkaloide erfüllen somit mindestens zwei ökologische Funktionen, die das Überleben von Agelas-Schwämmen sichern und sie zu einer der erfolgreichsten Arten in Lebensgemeinschaften karibischer Riffe machen.
Die vorliegende Arbeit thematisiert den Vergleich der Bildqualität von Liegend-Röntgen-Thorax-Aufnahmen von Patienten auf der Intensivstation des Universitätsklinikums Frankfurt unter Verwendung einerseits eines parallelen und andererseits eines virtuellen Streustrahlenrasters (=Bildverarbeitungssoftware). Es wurde untersucht, ob mit dem virtuellen Raster eine mindestens gleichwertige Bildqualität wie mit dem parallelen Raster erreicht und gleichzeitig Strahlendosis eingespart werden kann.
Insgesamt wurden 378 Röntgen-Thorax-Aufnahmen von 126 Patienten, die jeweils einmal mit parallelem Raster, mit virtuellem Raster und mit dem gleichen virtuellen Raster mit Dosisreduktion durchgeführt wurden, in die Studie eingeschlossen. Das virtuelle Raster ahmt das parallele Raster in der Streustrahlenreduktion nach. Das Übergewicht der Patienten als Einschlusskriterium der Studie rechtfertigte den Einsatz des parallelen Rasters. Jeder Patient wurde nur nach klinischer Indikationsstellung geröntgt, sodass der zeitliche Abstand zwischen zwei Röntgen-Thorax-Aufnahmen unterschiedlicher Aufnahmetechniken desselben Patienten variierte. Für alle Röntgen-Thorax-Aufnahmen wurde derselbe indirekte Flachdetektor verwendet. Die Röhrenspannung betrug konstant 125 kV, das Strom-Zeit-Produkt 1,4 mAs (für das parallele und virtuelle Raster) bzw. 1,0 mAs (für das virtuelle Raster mit Dosisreduktion). Für jeden Röntgen-Thorax wurde das Dosisflächenprodukt bestimmt. Vier Radiologen evaluierten die Bildqualität hinsichtlich sechs Kriterien (Lungenparenchym, Weichteile, thorakale Wirbelsäule, Fremdkörper, Pathologien und Gesamtqualität) anhand einer 9-Punkte-Skala. Der Friedman-Test (p < 0,05: signifikant) wurde angewendet. Die Übereinstimmung der Radiologen wurde über Intraklassenkorrelationskoeffizienten berechnet.
Das virtuelle Raster ohne/mit Dosisreduktion wurde insgesamt von allen vier Radiologen für die Weichteile, die thorakale Wirbelsäule, die Fremdkörper und die Gesamtbildqualität signifikant besser bewertet als das parallele Streustrahlenraster (p ≤ 0,018).
Für das Lungenparenchym und die Pathologien resultierten sowohl signifikante als auch nicht-signifikante Ergebnisse, wobei bei signifikanten Ergebnissen ebenfalls das virtuelle Raster ohne/mit Dosisreduktion besser bewertet wurde als das parallele Streustrahlenraster (p ≤ 0,002). Einzige Ausnahme stellten die Evaluationen der Bildqualität bez. des Lungenparenchyms eines Radiologen dar, der das virtuelle Raster ohne/mit Dosisreduktion signifikant schlechter bewertete als das parallele Raster (p < 0,0001). Insgesamt wurde das virtuelle Raster mit Dosisreduktion für die folgenden Kriterien am besten in absteigender Reihenfolge im Vergleich zum parallelen Raster bewertet: Fremdkörper, thorakale Wirbelsäule, Weichteile, Gesamtbildqualität, Pathologien und Lungenparenchym. Die Übereinstimmung der vier Radiologen in ihren Bildqualitätsbewertungen war maximal gering. Mit dem virtuellen Raster wurde im Durchschnitt etwa 28,7% des Dosisflächenprodukts im Vergleich zum parallelen Streustrahlenraster eingespart (p < 0,0001).
Bisher haben nur vier Studien Streustrahlenreduktionssoftwares an Liegend-Röntgen-Thorax-Aufnahmen untersucht, davon zwei an lebenden Menschen. Limitationen der vorliegenden Studie sind die Subjektivität der Bewertungen der Radiologen, die mögliche Identifizierung der Röntgen-Thorax-Aufnahmen, die mit dem parallelen Streustrahlenraster als gängige Aufnahmetechnik in der Radiologie des Universitätsklinikums Frankfurt durchgeführt wurden, die Konstanz der Expositionsparameter unabhängig des BMI der Patienten und die eingeschränkte Vergleichbarkeit der Röntgen-Thorax-Aufnahmen desselben Patienten aufgrund von Veränderungen der Pathologien, Fremdkörper, etc. bei (großem) zeitlichem Abstand zwischen den Röntgen-Thorax-Aufnahmen.
Das virtuelle Raster erzielte teils eine gleichwertige, teils eine bessere Bildqualität wie/als das parallele Raster bei gleichzeitiger Dosisreduktion von 28,7% und kann es somit bei Liegend-Röntgen-Thorax-Aufnahmen ersetzen. Weitere Studien sollten den Einsatz des virtuellen Rasters bei Röntgenaufnahmen des Thorax (stehend und liegend) und anderer Körperpartien im Hinblick auf die Bildqualität, (höhere) Dosiseinsparungen und den Workflow untersuchen.
In dieser klinischen Studie wurden 10 normalgewichtige und 10 übergewichtige Patienten mit Diabetes mellitus 2 und einer unbehandelten diabetischen Polyneuropathie über vier Wochen mit a-Liponsäure 1200 mg/die per os behandelt. Vor und nach der Therapie wurde ein intravenöser Glucosebelastungstest bei jedem Patienten durchgeführt und die ermittelten Glucose-, Insulin-, Pyruvat- und Lactatspiegel mit einer Kontrollgruppe (10 normalgewichtige und 10 übergewichtige normoglykämische Kontrollpersonen) verglichen. Die SI und SG Werte wurden mit Hilfe der Minimalmodeling Technik ermittelt. In dieser Studie wurden folgende Ergebnisse erzielt: 1. Die SI- und SG-Werte waren bei der normalgewichtigen Kontrollgruppe höher als bei den übergewichtigen Kontrollpersonen. 2. Die SI und SG waren bei beiden diabetischen Gruppen verglichen mit den Kontrollgruppen vermindert. 3. Die SI-Verminderung in beiden diabetischen Gruppen deutet auf eine primäre Insulinresistenz hin, die für die Entwicklung der Erkrankung entscheidend ist. 4. Bei den Kontrollgruppen waren die Nüchternpyruvatspiegel bei den Über-gewichtigen höher als bei den Normalgewichtigen, wobei die Steigerung der Lactat- und Pyruvatspiegel und damit die errechnete AUC für Pyruvat und Lactat unter dem Glucosebelastungstest keine signifikanten Unterschiede in beiden Gruppen zeigte. 5. Die Nüchternlactatspiegel waren sowohl bei normal- als auch bei übergewichtigen Patienten mit Diabetes mellitus 2, verglichen mit der jeweiligen Kontrollgruppe, deutlich erhöht. Die Nüchternpyruvatspiegel waren bei übergewichtigen Diabetikern jedoch deutlich höher als bei normalgewichtigen Diabetikern. 6. Die deutlich erhöhten Lactat- und Pyruvatspiegel im Nüchternzustand bei diabetischen Patienten weisen auf eine beeinträchtigte basale Glucoseoxidation hin. 7. Unter intravenöser Glucosebelastung stiegen die Pyruvatspiegel stärker als die Lactatspiegel an und waren vor allem bei übergewichtigen Diabetikern deutlich erhöht. Dieser starke Anstieg belegt die verminderte Glucoseoxidation bei Diabetikern. 8. Die vierwöchige a-Liponsäuretherapie verbessert signifikant die SG sowohl bei normalgewichtigen- (** P<0.01) als auch bei übergewichtigen Diabetikern (* P<0.05). Der Therapieeffekt von a-Liponsäure auf die SI war bei normalgewichtigen Patienten deutlich höher als bei übergewichtigen Patienten. Der SG- und SI-Effekt auf die Glucose-Wiederaufbaurate war nach der Therapie verbessert. 9. Bei normalgewichtigen Patienten führte eine vierwöchige a-Liponsäuretherapie zu einer verbesserten Glucoseverstoffwechselung. Der weniger ausgeprägte Therapieeffekt von a-Liponsäure bei übergewichtigen Diabetikern mag wohl auf der Schwere der Stoffwechselentgleisung in dieser Patientengruppe beruhen. 10. a-Liponsäure führte zu einer deutlichen Abnahme der AUC für Pyruvat und Lactat in beiden Gruppen. Dieses Ergebnis deutet darauf hin, dass a-Liponsäure wahrscheinlich über eine Stimulation auf dem Niveau des Pyruvat-Dehydrogenasekomplexes wirkt. a.Liponsäure scheint also sowohl im Nüchternzustand als auch unter Glucosebelastung die Glucoseoxidation bzw. den Pyruvatmetabolismus zu verbessern. Bei Patienten mit Diabetes mellitus 2 ist die Glucoseabbaurate durch eine verminderte aerobe und anaerobe Glucoseoxidation gehemmt. Grund dafür ist wahrscheinlich eine PDH Aktivitätsabnahme. Die ständige Hyperglycämie führt zu einer Zunahme der Pyruvat- und Lactatkonzentration und einer Abnahme der SI und SG. Die orale Einnahme von a-Liponsäure beschleunigt anscheinend den intrazellulären Glucosemetabolismus durch Stimulation der PDH und erhöht das intrazelluläre Redox- potential. Es kommt dadurch wahrscheinlich zu einer Verbesserung der Energiegewinnung aus Phosphaten und mobilisiert den Glucosetransporter, wodurch sich der Glucosetransport in die Muskelgewebe verbessert. Damit führt a-Liponsäure zu einer verbesserten Glucoseutilisation bei Patienten mit Diabetes mellitus 2.
Die vorliegende Arbeit mit dem Titel Multiphoton Processes and Photocontrol of Biochemical Reaction Pathways befasst sich mit verschiedenen Strategien zur Implementierung von optischer Kontrolle in biochemisch relevanten Systemen. Auf systemischer Ebene wurde einerseits die Licht-getriebene Natriumpumpe Krokinobacter Eikastus Rhodopsin 2 (KR2) vor dem Hintergrund optogenetischer Anwendungen untersucht, und andererseits die Optimierung der wichtigsten photochemischen Parameter von photolabilen Schutzgruppen (PPG, engl. photolabile protecting group) angestrebt. Von der technisch-photophysikalischen Seite wurde ein weiterer Fokus auf den Aktivierungs- und Deaktivierungsschritt gelegt. Hierbei wurden vor allem Mehrphotonen-Prozesse betrachtet, die entweder durch simultane Absorption zweier Photonen zu einer spezifischen hoch-energetischen Anregung führen, oder durch sequentielle Absorption eine sukzessive Aktivierung und Deaktivierung eines Systems bewerkstelligen können. Auch wenn der Schwerpunkt dieser schriftlichen Arbeit auf den spektroskopischen Ergebnissen liegt, waren alle hier diskutierten Projekte stark kollaborativ und umfassten eine große Bandbreite verschiedener Techniken. Dies spiegelt den interdisziplinären Charakter vieler aktueller Fragestellungen in der photochemischen Forschung wider, die - in vielen Fällen - letztlich auf medizinische oder pharmazeutische Fortschritte abzielen.
Zunächst wurde die lichtgetriebene Natriumpumpe KR2 untersucht, die durch ihre mögliche Anwendung als optogenetisches Werkzeug bekannt wurde. In einer vergleichenden Studie der Natrium- und Protonenpumpmodi von KR2 konnten wichtige mechanistische Prinzipien für die Funktionalität des Proteins identifiziert werden. Dazu gehört die direkte Beteiligung spezifischer Strukturmerkmale wie die Aminosäure N112 und/oder der ECL1-Domäne am Ionen-Translokationsweg, sowie das enge Zusammenspiel zwischen dem Retinal und seinem Gegenion D116. Gleichzeitig bot diese IR-Studie einen der ersten mechanistischen Einblicke in den Protonenpump-Photozyklus in KR2, der deutlich weniger erforscht war. In Zusammenarbeit mit dem Arbeitskreis Glaubitz wurden die strukturellen Veränderungen des Chromophors und seiner Umgebung während der verschiedenen Photointermediate mittels DNP-verstärkter Festkörper-NMR und optischer Spektroskopie näher untersucht. Hier trugen zeitaufgelöste IR-Messungen in der HOOP (engl. hydrogen out of plane)-Moden-Region dazu bei, die dynamischen Veränderungen der Chromophorkonfiguration und -Verdrillung zu verfolgen. Es konnte gezeigt werden, dass Retinal im O-Intermediat tatsächlich zu seiner all-trans-Konfiguration reisomerisiert wird, aber im Vergleich zu seiner Dunkelzustandskonfiguration deutlich stärker verdreht vorliegt.
Dies wurde auch durch die Ergebnisse im nahen UV-Bereich bestätigt, welcher bei der Charakterisierung von mikrobiellen Rhodopsinen oft ausgelassen wird. Die neu gefundene Signatur erwies sich als SBS (engl. second bright state) der 13-cis-Konfiguration des Retinals, die mit der Bildung des O-Intermediats in KR2 verschwindet. Neben der offensichtlichen Verwendung als spektraler Marker wurde der SBS-Übergang auch bezüglich seiner Anwendbarkeit für optische Kontrollexperimente untersucht. Ähnlich wie beim BLQ (engl. blue light quenching)-Effekt war es möglich, den KR2-Dunkelzustand durch Anwendung von fs-Pulsen im nahen UV - ausgehend von einem photostationären Zustand - zu regenerieren. Durch Variation der Probenbedingungen war es möglich, gezielt K (pH~5) oder M (pH~9) anzusteuern, was sich auch in unterschiedlichen Deaktivierungs-Dynamiken äußerte. Diese Ergebnisse können zusammen mit dem hier vorgeschlagenen experimentellen Konzept als Grundlage für komplexere Multiphotonen-Sequenzen im Zusammenhang optogenetischer Fragestellungen verwendet werden.
Im Gegensatz zu den recht großen und komplexen Photorezeptoren bieten unter anderem PPGs einen feineren Weg, um biochemische Reaktionen gezielt zu steuern und auszulesen. In diesem Zusammenhang sind zwei Eigenschaften von großer Bedeutung: Einerseits die Fähigkeit der PPG, Photonen bestimmter Wellenlängen zu absorbieren, und andererseits die Effizienz der gewünschten photochemischen Reaktion. Der letztgenannte Aspekt wurde unter der Hypothese untersucht, dass die Verringerung der konkurrierenden Deaktivierungskanäle in PPGs zu einer höheren Quantenffizienz der Freisetzung führt. Dies wurde an DEACM-basierten Modellverbindungen getestet, die systematisch modifiziert wurden, um verschiedene Deaktivierungsprozesse des angeregten Zustands zu identifizieren. Durch das Hinzufügen eines zusätzlichen sechsgliedrigen Rings wurde die Freisetzungsausbeute im Vergleich zu DEACM um das 2- bis 3-fache erhöht. Dies konnte durch eine weitere Planarisierung des Systems mit einer zusätzlichen Doppelbindung an der C6-Position sogar noch weiter verbessert werden (bis zu einem Faktor von 5-6). Die Anregung des Cumarin-Rückgrats führt zu einem lokal-angeregten Zustand, der sich im Gleichgewicht mit einem Ladungstransferzustand befindet. In Abhängigkeit der lokalen Umgebung, die vor allem durch die Protizität und Polarität des Lösungsmittels bestimmt wird, wird der Ladungstransfercharakter eher stabilisiert oder gar destabilisiert. Die Ladungsverschiebung führt auch zu einer Abschwächung der spaltbaren C-C-Bindung, die eine Voraussetzung für die Freisetzungsreaktion ist. Darüber hinaus wurde gezeigt, dass der mit der Freisetzungsreaktion verbundene zusätzliche Zerfallskanal zu einer mehr als 2-fachen Verringerung der Lebensdauer des angeregten Zustands in den funktionalisierten PPGs führt. Diese Eigenschaft ist ein vielversprechender photophysikalischer Indikator für die Freisetzung der Abgangsgruppe, der durch spektroskopische oder - mit zusätzlicher räumlicher Auflösung - auch durch mikroskopische Techniken wie in der Fluoreszenzlebensdauer-Mikroskopie ausgelesen werden könnte...
P2X receptor subunits assemble in the ER of Xenopus oocytes to homomultimeric or heteromultimeric complexes that appear as ATP-gated cation channels at the cell surface. In this work it was intended to investigate the posttranslational modifications such as N-linked glycosylation and disulfide bond formation that is undergone by P2X1 receptors. In addition, the aim of this study was to examine the expression and the quaternary structure of selected P2X receptor isoforms in Xenopus oocytes. The investigation of the quaternary structure of the metabolically or surface labeled His-P2X2 receptor by BN-PAGE revealed that, while the protein complex is only partially assembling in oocytes, the plasma membrane form of the His-P2X2 receptor assembled into trimeric and even hexameric complex as was shown by the BN-PAGE analysis. Besides this finding, it is shown that the His-P2X5 protein that was purified from metabolically or surface labeled oocytes appeared as one single band corresponding to a trimer when analyzed by BN-PAGE. The present study signified that His-P2X6 alone does not reach a defined assembly status and possibly needs the hetero-polymerisation with other P2X subunits to assemble properly for insertion into the plasma membrane. Another finding of this study is that the P2X1 and P2X2 subunits could exist as heteromultimeric protein complexes in the plasma membrane of cells. Purification of surface expressed His-P2X2 subunit allowed the detection of co-injected P2X1 subunit and vice versa in Xenopus oocytes. Incubation with glutardialdehyde led to the cross-linking of P2X2 and P2X1 subunits to dimers and trimers. BN-PAGE analysis of the P2X2/P2X1 complex isolated under nondenaturing conditions from surface-labeled oocytes yielded one distinct band corresponding to a trimeric complex. The analysis of a C-terminally GFP tagged His-P2X1 fusion protein by confocal fluorescence microscopy revealed small clusters of the protein complexes, approximately 4-6 µm in diameter from a diffuse distribution of the protein in the plasma membranes of Xenopus oocytes. The cross-linking or BN-PAGE analysis of the fusion protein resulted in proteins that migrated quantitatively as trimers when purified in digitonin. The analysis of some chimeric constructs confirmed the results of others, which showed that desensitization can be removed from the P2X1 or P2X3 receptor by providing the N-domain from the P2X2 receptor (Werner et al., 1996) The exchange of this domain did not alter the quaternary structure of the chimeras, which showed to be present as trimers when expressed in oocytes. In addition, glycan minus mutants of His-P2X1 receptor were analyzed to examine whether carbohydrate side chains are important for P2X1 subunit assembly, surface expression, or ligand recognition. SDS-PAGE analysis of glycan minus mutants carrying Q instead of N at five individual NXT/S sequons reveals that 284N remains unused because of a proline in the 4 position. The four other sites (153Asn, 184N, 210N, and 300N) carry N-glycans, but solely 300N acquires complex-type carbohydrates. Like parent P2X1 receptor, glycan minus mutants migrate as homotrimers when resolved by blue native PAGE. Recording of ATP-gated currents revealed that elimination of 153N or 210N diminishes or increases functional expression levels, respectively. In addition, elimination of 210N causes a 3-fold reduction of the potency for ATP. If three or all four N-glycosylation sites are simultaneously eliminated, formation of P2X1 receptors is severely impaired or abolished, respectively. It is concluded that at least one N-glycan per subunit of either position is absolutely required for the formation of P2X1 receptors. The SDS-PAGE analysis of surface-labeled His-P2X2 and His-P2X5 receptors revealed that, while the His-P2X2 subunit acquires three complex-type carbohydrates, in case of His-P2X5 polypeptide, only two of the three N-glycans could obtain complex-type carbohydrates during transit of the Golgi apparatus. Furthermore, it was shown that DTT treatment blocked the appearance of newly made His-P2X1 at the plasma membranes of Xenopus oocytes. Also, it was revealed that the effects of DTT on His-P2X1 biogenesis are fully reversible. Removal of the reducing agent leads to subsequent folding and assembly into His-P2X1 receptor complex, followed by transport to the cell surface. The characterization of cysteine minus mutants by SDS PAGE and BN-PAGE demonstrated that, the cysteine substitution in the first cysteine rich domain (C1 - C6) does not have a major effect on assembly for the mutant receptors. In contrast, the replacement of the four cysteine residues (C7 - C10) from the second cysteine rich domain demonstrate a critical importance of this domain for the functional surface expression of P2X1 receptor. The investigations of several double cysteine mutants revealed that according to a similarity in the sensitivity to ATP, the C1 and C6, as well as C2 and C4 and finally C3 and C5 are pairs forming two disulfide bonds in each P2X1 subunit.
Aim of the present study was the characterization of the RORa receptor (Retinoidrelated Orphan Receptor a). RORa is a member of the nuclear receptor family and is involved into the differentiation of Purkinje cells, inflammation, arteriosclerosis, and bone mineralization. Nuclear receptors are transcription factors and mediate biological responses within target cells to outer signals such as lipophilic hormones. They are involved in development, growth, differentiation, proliferation, apoptosis, and maintenance of homeostasis. Ligand binding, posttranslational modifications, and cofactor recruitment control their activity. Nearly all nuclear receptors share a common modular structure with an Nterminal A/B region, a DNA-binding domain (DBD) that is composed of two zinc finger motifs, a hinge region, and a C-terminal ligand-binding domain (LBD). The RORs comprise the subtypes RORa, RORb, and RORg, which are encoded by different genes. All isoforms of the respective subtypes only differ in their A/B domain. This study focused mainly on the exploration of the gene structure, expression, and subcellular distribution of RORa...
Immortalisierte HaCaT Keratinozyten sind im Gegensatz zu primären epidermalen Keratinozyten in der Lage, nach Exposition durch UV A Licht den hauptsächlichen Angiogenesefaktor der Haut, den vaskulären endothelialen Wachstumsfaktor VEGF/VPF, überzuexprimieren. Da VEGFNPF nicht nur angiogene Eigenschaften entfaltet, sondern auch den malignen Phänotyp von Tumorzellen verstärken kann, war es das Ziel der Arbeit, die molekularen Mechanismen der UV A-vermittelten VEGF/VPF Genexpression in HaCaT Zellen zu bestimmen, welche als präneoplastische Zelllinie in einem frühen Stadium der Transformierung dienten. Zusammenfassend konnten diese Untersuchungen eine AP-2 Transaktivierung als einen wesentlichen Mechanismus der UV A-induzierten VEGF/VPF Gentranskription in HaCaT Zellen identifizieren. Als funktionell wichtiges Reaktionselement wurde eine GC-reiche Region in unmittelbarer Nähe zum TranSkriptionsstart (bp -88/-70) ausgemacht. Ein kritischer Nukleotidaustausch innerhalb dieser Sequenz verhindert die UVA-induzierte VEGFNPF Gentranskription. Damit untermauern diese Befunde die zentrale Rolle von AP-2 Transkripiionsfaktor in der UVA-vermittelten Genexpression in immortalisierten HaCaT Keratinozyten. Der hemmende Einfluß potenter Singulett-Sauerstoff Quencher legt den Schluß nahe, dass die UVA-induzierte AP-2 Aktivierung an den VEGFNPF Promotor über die Generierung von Singulett-Sauerstoff vermittelt wird. Zusätzlich zeigen die vorgestellten Daten zum ersten Mal, dass den MKK1I2 und den nachgeschalteten p42/p44 MAP Kinasen in der UVA-vermittelten AP-2 Aktivierung eine besondere Bedeutung zukommt. Die gewonnenen Daten deuten auf einen potentiellen Mechanismus hin, durch den prämaligne Keratinozyten durch wiederholte UVA-induzierte VEGFNPF Expression möglicherweise einen malignen Phänotyp annehmen könnten.
Hepatitis E virus (HEV) is a positive-stranded RNA virus with a 7.2 kb genome that is capped and polyadenylated. The virus is currently unclassified : the organisation of the genome resembles that of the Caliciviridae but sequence analyses suggest that it is more closely related to the Togaviridae. HEV is an enterically transmitted virus that causes both epidemics and sporadic cases of acute hepatitis in many countries of Asia and Africa but only rarely causes disease in more industrialised countries. Initially the virus was believed to have a limited geographical distribution. However, serological studies suggest that that HEV may be endemic also in the United states and Europe even though it infrequently causes overt disease in these countries. Many different animal species worldwide recently have been shown to have antibodies to HEV suggesting that hepatitis E may be zoonotic. Although two related strains have been experimentally transmitted between species, direct transmission from animal to a human has not been documented. Our main objective in this study is to evaluate the suitability of current available HEV antibody assays for use in low-endemicity areas such as in Germany. Methods: We selected sera on the basis of at least borderline reactivity in the routinely used Abbot EIA. Most were tested as part of routine screening of long-term expatriates in endemic countries. The following assays (recombinant antigens : ORF2 and ORF3) were used: Abbot EIA, Genelabs ELISA, Mikrogen recomBlot and a 'Prototype' DSL-ELISA. We observed a wide range of sensitivity ( average of 56.8%) and specificity ( an average of 61.4%) in these used assays. These results implies that , these assays might be unreliable for detection of HEV infection in areas where hepatitis E is not endemic. However, most anti- HEV assays have not been correlated with the HEV RNA determined by reverse transcription. Many of these unexpected results and discrepancies can be alluded to the following reasons: I. The choice and the size of the HEV antigen. II. Duration of the antibody persistence III. A cross reactivity with different agent IV. Due to geographic species V. A low sensitivity of the available assays. VI. And infection with non-pathogenic HEV strain. (zoonotic strain?). We therefore suggest that, further studies will be required to improve the sensitivity and specificity of the available commercial assays on the market.
Random ordinary differential equations (RODEs) are ordinary differential equations (ODEs) which have a stochastic process in their vector field functions. RODEs have been used in a wide range of applications such as biology, medicine, population dynamics and engineering and play an important role in the theory of random dynamical systems, however, they have been long overshadowed by stochastic differential equations.
Typically, the driving stochastic process has at most Hoelder continuous sample paths and the resulting vector field is, thus, at most Hoelder continuous in time, no matter how smooth the vector function is in its original variables, so the sample paths of the solution are certainly continuously differentiable, but their derivatives are at most Hoelder continuous in time. Consequently, although the classical numerical schemes for ODEs can be applied pathwise to RODEs, they do not achieve their traditional orders.
Recently, Gruene and Kloeden derived the explicit averaged Euler scheme by taking the average of the noise within the vector field. In addition, new forms of higher order Taylor-like schemes for RODEs are derived systematically by Jentzen and Kloeden.
However, it is still important to build higher order numerical schemes and computationally less expensive schemes as well as numerically stable schemes and this is the motivation of this thesis. The schemes by Gruene and Kloeden and Jentzen and Kloeden are very general, so RODEs with special structure, i.e., RODEs with Ito noise and RODEs with affine structure, are focused and numerical schemes which exploit these special structures are investigated.
The developed numerical schemes are applied to several mathematical models in biology and medicine. In order to see the performance of the numerical schemes, trajectories of solutions are illustrated. In addition, the error vs. step sizes as well as the computational costs are compared among newly developed schemes and the schemes in literature.
RNAs are key players in life as they connect the genetic code (DNA) with all cellular processes dominated by proteins. The dynamics study of RNA modifications has become an important part of epitranscriptomics field, as they are reversible and dynamically regulated far more than originally thought. Several evidences portrait a catalog of RNA modifications and their links to neurological disorders, cancers, and other diseases. Therefore, a deeper investigation of RNA modifications dynamics including their specific profile, biosynthesis, maturation and degradation is required for pioneering disease diagnostics and potential therapeutics development.
Mammalian tissues reveal diverse physiology and functions, despite sharing identical genomes and overlapping transcription profiles. So far, most research on this diversity were referred to variable transcriptomic processing among tissues and differential post-translational modifications that tune the activity of ubiquitous proteins to each tissue’s needs. However, study of epitranscriptome dynamics relevance to tissues’ functions is not yet revealed. There are a few reports on mouse RNA modification profiles, which are focused on only one type of RNA and limited types of modifications. The first part of my dissertation aims to generate a comprehensive tissue-specific as well as RNA species-specific investigation of all existing RNA modifications, as well as investigating potential codon as an effector of translation diversity among tissues. Using isotope dilution mass spectrometry, I created a library including absolute quantification of 24 tRNA modifications, and up to 22 rRNA modifications. I find an almost identical pattern of modifications in 28S- and 18S-rRNA subunits, but different levels of most modifications in 5.8S-rRNA or tRNA among highly metabolic active organs to e.g. heart or spleen. The findings suggest a high degree of similarity between quantities of modifications between presented data to all previous literature, confirming that it is a suitable model to study the tissue-based RNA modification patterns.
The most noticeable difference exhibited was tRNA modifications, which suggests a discerning tRNA engagement in translation between different organs. This can be a good start for investigation of codon bias in enriched genes of specific tRNA modifications among different tissues that may cause differential translation pattern, causing organs diversity. Moreover, 5.8S rRNA data showed an organ-specific pattern, which proposes functional diversity of this rRNA subunit among different organs. Future studies must investigate the possible implications of organ-specific 5.8S rRNA modifications functions, to elucidate the core of the observed variations.
Abundance of RNA modifications is carefully regulated in cells. Part of this regulation is achieved by activity of enzymes removing RNA modifications, named RNA erasers. Literature has provided proof of demethylation activity of AlkBH family on different types of RNA. For instance, AlkBH5 is known to remove m6A in mRNA, and both AlkBH3 and AlkBH1 are reported to demethylate m1A and m3C in tRNA. So far, RNA erasers are mainly studied in vitro and direct in vivo studies are missing.
Mass spectrometry is a promising approach in the identification and quantification of many RNA modifications. However, mass spectrometric analysis by nature, offers only a static view of nucleic acid modifications, and fails to account for their cellular dynamics. Nucleic Acid Isotope Labeling coupled Mass Spectrometry (NAIL-MS) was developed as a powerful technique which differentiates among remaining, co-transcriptional and post-transcriptional incorporation of a target RNA modification. This temporal resolution captures the dynamic nature of RNA modifications, and offers absolute and relative quantification of all existing nucleosides in any given RNA sequence, including different isotopologues and isotopomers.
The objective of this study was to uncover the first “direct” iv vivo data on AlkBH1, 3 and 5 activities in demethylating each of their specific substrates. I investigated the RNA modification changes through pulse-chase experiments in collaboration with my colleagues Dr. Kayla Borland and Dr. Felix Hagelskamp. A remarkable observation was that AlkBH3 protein -but not AlkBH1- was overexpressed under methylating reagent treatment in vivo. These findings suggest that AlkBH3 -but not AlkBH1- is a methylation damage induced enzyme, that potentially triggers ASCC-AlkBH3 alkylation repair complex after aberrant methylation damage by MMS treatment. However, using NAIL-MS method, we could not detect any significant effect on demethylation activity of the enzymes in tRNA, rRNA or mRNA towards the possible substrates m6A, m1A, m3C, m5C and m7G in vivo. These distinct outcomes can be partially explained by probable existence of other unidentified demethylases that compensate for AlkBHs demethylation activity; or more probably, demethylation may still arise by remaining active AlkBHs to restore the original levels of the observed RNA modifications, since a stronger KD or a complete knockout of AlkBHs genes was not possible. Further research on fully knocked out AlkBHs genes can provide stronger evidence on unidentified demethylation activities in HEK cells.
In der vorliegenden Arbeit wird untersucht, wie das Gehirn Bewusstsein erzeugt. Diese Frage wird als eines der größten Rätsel der heutigen Wissenschaft angesehen: Wie kann es sein, dass aus der Aktivität der Nervenzellen unsere subjektive Welt entsteht? Es ist offensichtlich nicht einfach, diese Frage wissenschaftlich zu untersuchen. Eine der vorgeschlagenen Strategien für die Untersuchung von Bewusstsein behauptet, dass man zunächst die neuronalen Korrelate des Bewusstseins finden sollte (Koch, 2004). Einer Definition zufolge sind die neuronalen Korrelate des Bewusstseins die kleinste Menge neuronaler Prozesse, die hinreichend für eine bestimmte bewusste Erfahrung sind (zum Beispiel für die bewusste Erfahrung des Blaubeergeschmacks). Manche behaupteten, die Entdeckung der neuronalen Korrelate des Bewusstseins würde es erlauben, dem Rätsel des Bewusstseins näher zu kommen (Crick & Koch, 1990). Nur wie soll man die neuronalen Korrelate des Bewusstseins finden? Eine relativ einfache Strategie dafür wurde schon vor mehr als 20 Jahren beschrieben. Es sollten einfach experimentelle Bedingungen erschaffen werden, in welchen ein Reiz manchmal bewusst wahrgenommen wird und manchmal nicht (Baars, 1989). Solche Analysen, die Bedingungen mit und ohne bewusste Wahrnehmung vergleichen, werden als „Kontrastierungsanalyse“ bezeichnet (da zwei Bedingungen miteinander kontrastiert werden). Es existieren viele verschiedene experimentelle Paradigmen, bei welchen man den Reiz unter denselben Bedingungen präsentieren kann, so dass er bei manchen Versuchsdurchgängen bewusst wahrgenommen wird, bei anderen nicht (Kim & Blake, 2005). Mit solchen experimentellen Paradigmen kann man angeblich die neuronalen Korrelate des Bewusstseins finden, wenn man a) bei jedem Durchgang die Versuchsperson fragt, ob oder was die Versuchsperson bei dem Durchgang wahrgenommen hat und b) gleichzeitig die neuronalen Prozesse misst (zum Beispiel mit EEG, MEG oder fMRT). Anschließend kann man die erhobenen neuronalen Daten unter den Bedingungen mit und ohne bewusste Wahrnehmung vergleichen.
Mittlerweile gibt es viele Studien, in denen solche experimentelle Paradigmen – und damit die Kontrastierungsanalyse – angewendet wurden. Insofern könnte man glauben, die neuronalen Korrelate des Bewusstseins seien schon gefunden worden. Allerdings ist dies nicht der Fall. Es existiert in der Literatur weiterhin Uneinigkeit darüber, ob die Korrelate des Bewusstseins früh oder spät in der Zeit liegen, und ob die Korrelate in sensorischen Arealen oder eher im hierarchisch höheren fronto-parietalen Kortex zu finden sind.
Nach unserer Meinung sind die experimentellen Paradigmen, die üblicherweise zum Auffinden der neuronalen Korrelate des Bewusstseins verwendet werden, nicht spezifisch genug, um diese eindeutig zu lokalisieren. Eher glauben wir, dass die klassische Kontrastierungsanalyse auch andere Prozesse als Ergebnisse hervorbringt und uns deshalb prinzipiell nicht zu den neuronalen Korrelaten des Bewusstseins führen kann.
Im Kapitel 2 wird erklärt, wieso die typischen experimentellen Paradigmen nicht die neuronalen Korrelate des Bewusstseins ausfindig machen können. Wir behaupten, dass der Vergleich neuronaler Daten aus experimentellen Bedingungen mit und ohne bewusste Wahrnehmung auch die neuronalen Prozesse widerspiegeln könnte, die bewussten Wahrnehmungen entweder vorausgehen oder folgen. Es ist beispielsweise bekannt, dass neuronale Prozesse vor Auftreten des Reizes darüber bestimmen können, ob der Reiz bewusst wahrgenommen wird oder nicht (Busch, Dubois, & VanRullen, 2009; Mathewson, Gratton, Fabiani, Beck, & Ro, 2009). Wenn man experimentelle Bedingungen mit und ohne bewusster Wahrnehmung miteinander vergleicht, werden auch solche Prozesse als Ergebnis auftauchen, obwohl diese zeitlich klar vor dem Reiz stattfinden und deshalb keine neuronalen Korrelate des Bewusstseins sein können. Es ist natürlich einfach zu entscheiden, dass diese Prozesse, die schon vor dem Reiz stattfinden, der bewussten Wahrnehmung vorausgehen müssen, aber es ist unmöglich zu sagen, ob ein neuronaler Prozess 100 oder 200 Millisekunden nach der Präsentation des Reizes immer noch ein Vorläuferprozess ist schon ein neuronales Korrelat des Bewusstseins darstellt. Deshalb ist die typische Kontrastierungsanalyse nicht spezifisch genug und wir wissen nicht, ob neuronale Prozesse, die durch die Kontrastierungsanalyse aufgedeckt werden, direkt die neuronalen Korrelate des Bewusstseins oder eher Prozesse vor der bewussten Wahrnehmung widerspiegeln.
Nicht nur die Vorläuferprozesse der bewussten Warnehmung stellen ein Problem dar. Auch Konsequenzen der bewussten Verarbeitung werden durch die Kontrastierungsanalyse gefunden. Beispielsweise wurden im medialen Temporallappen Neurone gefunden, die nur dann feuern, wenn ein Patient eine Person auf einem Bild bewusst erkennt, aber nicht feuern, wenn der Patient die Person auf dem Bild nicht bewusst wahrnimmt (Quiroga, Mukamel, Isham, Malach, & Fried, 2008). So könnte man vorerst meinen, dass das Feuern dieser Neurone das neuronale Korrelat des Bewusstseins sein könnte. Nach einer Läsion, sprich neuronalen Schädigung des medialen Temporallappens kann man die Welt jedoch weiterhin bewusst wahrnehmen (man hat jedoch Probleme mit dem Gedächtnis und Wiedererkennen). Insofern kann das Feuern dieser Neurone nicht das neuronale Korrelat des Bewusstseins sein und ist eher ein Beispiel für die Konsequenz der bewussten Verarbeitung. Wir behaupten, dass es noch viele andere solcher Vorläuferprozesse und Konsequenzen gibt, die notwendigerweise als Ergebnis bei der Kontrastierungsanalyse auftauchen, und also ist die typische Kontrastierungsanalyse extrem unspezifisch bezüglich der neuronalen Korrelate des Bewusstseins. In anderen Worten: Die typische Kontrastierungsanalyse, bei welcher man experimentelle Bedingungen mit und ohne bewusste Wahrnehmung miteinander vergleicht, wird uns nicht helfen die neuronalen Korrelate des Bewusstseins zu finden.
Wir glauben, dass neue experimentelle Paradigmen entwickelt werden sollten, um die neuronalen Korrelate des Bewusstseins ausfindig zu machen. Wahrscheinlich gibt es kein einfaches Experiment, mit dem man die Vorläuferprozesse und Konsequenzen vollständig vermeiden kann, um damit direkt die neuronalen Korrelate des Bewusstseins zu bestimmen. Eher braucht man viele verschiedene Experimente, die Schritt für Schritt unser Wissen über die neuronalen Korrelate des Bewusstseins erweitern.
In der vorliegenden Arbeit (in Kapiteln 3, 4 und 5) wird ein neues experimentelles Paradigma angewandt. Dieses Paradigma wird nicht alle oben erwähnten Probleme lösen, wird aber hoffentlich erlauben, einige Vorläuferprozesse der bewussten Wahrnehmung von den neuronalen Korrelaten des Bewusstseins auseinanderzuhalten. Der Vorteil unseres experimentellen Paradigmas besteht darin, dass die bewusste Wahrnehmung durch zwei verschiedene Vorläuferprozesse beeinflusst wird. Die Versuchspersonen müssen auf schnell präsentierten und mittels Rauschens undeutlich gemachten Bildern eine Person detektieren. Die experimentellen Bedingungen sind derart gestaltet, dass die Versuchspersonen nicht bei jedem Durchgang die Person auf dem Bild wahrnehmen können. Damit können wir den Wahrnehmungsprozess manipulieren. Bei einer Manipulation variieren wir den Anteil des Rauschens auf dem Bild und damit die sensorische Evidenz. Je weniger Rauschen, desto besser können die Versuchspersonen die Bilder wahrnehmen und desto öfter sehen sie auch bewusst die Person auf dem Bild. Bei der anderen experimentellen Manipulation der Wahrnehmung werden einige Bilder den Versuchspersonen vorher klar und ohne Rauschen gezeigt. Damit erschafft man Wissen über bestimmte Bilder, die später mit Rauschen präsentiert werden. Man kann zeigen, dass solch bestehendes Wissen tatsächlich die Wahrnehmung beeinflusst. Wenn die Versuchspersonen bestehendes Wissen über ein Bild haben, ist es wahrscheinlicher, dass sie die Person auf dem Bild bewusst wahrnehmen. Damit haben wir zwei verschiedene Vorläuferprozesse – sensorische Evidenz und bestehendes Wissen, die beide die bewusste Wahrnehmung beeinflussen. Beide Vorläuferprozesse erhöhen den Anteil der Durchgänge, in welchen die Versuchspersonen die Person auf dem Bild bewusst wahrnehmen.
Mit diesem experimentellen Paradigma möchten wir einige Aussagen über die neuronalen Korrelate des Bewusstseins testen. Wenn über einen neuronalen Prozess behauptet wird, dass er einem neuronalen Korrelat des Bewusstseins entspricht, müsste dieser Prozess von den beiden manipulierten Vorläuferprozessen in ähnlicher Weise beeinflusst werden, da bewusste Wahrnehmung durch beide manipulierten Vorläuferprozessen in ähnlicher Weise erleichtert wird. Wenn aber der Prozess, über den behauptet wird, er sei ein neuronales Korrelat des Bewusstseins, nicht durch beide Manipulationen geändert wird, kann dieser Prozess kein neuronales Korrelat des Bewusstseins sein, da er nicht beeinflusst wird, obwohl die bewusste Wahrnehmung geändert wurde.
Mit diesem experimentellen Paradigma und dieser Logik haben wir zwei unterschiedliche neuronale Prozesse getestet, von denen behauptet wird, dass sie den neuronalen Korrelaten des Bewusstseins entsprechen könnten. In Kapitel 3 wurde untersucht, ob lokale kategorienspezifische Gammabandaktivität die neuronalen Korrelate des Bewusstseins reflektieren könnte. In Kapitel 4 wurde mit diesem experimentellen Paradigma untersucht, ob die neuronale Synchronisierung dem neuronalen Korrelat des Bewusstseins entsprechen könnte.
Unsere Arbeit im Kapitel 3 baut auf der von Fisch und Kollegen (2009) auf. Fisch und Kollegen (2009) zogen aus ihrer experimentellen Arbeit den Schluss, dass lokale kategorienspezifische Gammabandaktivität die neuronalen Korrelate des Bewusstseins reflektieren könnte. Sie hatten Elektroden auf dem visuellen Kortex von Epilepsiepatienten implantiert und von diesen Elektroden die Gammabandaktivität abgeleitet. Im ersten Schritt suchten sie nach Elektroden, die kategorienspezifische Antworten zeigen. Bei den kategorienspezifischen Elektroden ist die Gammabandaktivität abhängig vom präsentierten Stimulusmaterial. Zum Beispiel kann man bei einer Elektrode auf dem Fusiform Face Area starke Gammabandaktivität nur dann messen, wenn ein Gesicht auf dem Bild zu sehen ist. Die Autoren benutzten solche kategorienspezifischen Elektroden, um nach den neuronalen Korrelaten des Bewusstseins zu suchen. Sie zeigten den Patienten Bilder von Gesichtern, Häusern und Objekten, die direkt nach der kurzen Präsentation maskiert wurden, so dass die Patienten nur bei manchen Durchgängen erkannten, was auf dem Bild war, bei anderen Durchgängen nicht. Dies entspricht der typischen Kontrastierungsanalyse. Die Ergebnisse haben klar gezeigt, dass bei diesen kategorienspezifischen Elektroden die Gammabandaktivität erhöht wurde, als die Patienten bewusst wahrnahmen, was auf dem Bild zu sehen war. Aus diesen Ergebnissen zogen die Autoren den Schluss, dass lokale kategorienspezifische Gammabandaktivität dem neuronalen Korrelat des Bewusstseins entspricht. Diese Aussage wollten wir mit unserem experimentellen Paradigma testen.
Um diese Behauptung zu untersuchen, erhoben wir sehr ähnliche Daten wie Fisch et al. (2009) und analysierten die Daten auf ähnliche Weise. Unsere experimentelle Frage war, ob die lokale kategorienspezifische Gammabandaktivität durch unsere beiden Manipulationen – sensorische Evidenz und bestehendes Wissen – in ähnlicher Weise erhöht wird. Dies sollte der Fall sein, wenn die lokale kategorienspezifische Gammabandaktivität dem neuronalen Korrelat des Bewusstseins entspricht, da sensorische Evidenz und bestehendes Wissen beide den Anteil der Durchgänge, in welchen die Versuchsperson die Person auf dem Bild bewusst wahrnimmt, erhöhen. Dieses Ergebnis wurde nicht gefunden. Stattdessen fanden wir, dass die lokale kategorien-spezifische Gammabandaktivität nur durch sensorische Evidenz erhöht wurde, bestehendes Wissen aber keinen Effekt auf diese Aktivierung hatte. Da bestehendes Wissen auch den Anteil der Durchgänge mit bewusster Wahrnehmung erhöht, die kategorienspezifische Gammabandaktivität aber nicht durch bestehendes Wissen erhöht wurde, kann man schlussfolgern, dass die kategorienspezifische Gammabandaktivität nicht die neuronalen Korrelate des Bewusstseins reflektieren kann.
Als nächstes (Kapitel 4) haben wir die Hypothese getestet, dass Synchronizität dem neuronalen Korrelat des Bewusstseins entspricht. Um diese Idee zu testen, maßen wir mittels Magnetoenzephalographie die magnetischen Felder des Gehirns, schätzten aus diesen Daten mittels Beamforming die neuronalen Aktivitätsquellen und quantifizierten die Synchronizität zwischen diesen Quellen. Wenn die interareale Synchronizität dem neuronalen Korrelat des Bewusstseins entspräche, sollte die Synchronizität für Bedingungen mit mehr sensorischer Evidenz und mit bestehendem Wissen erhöht sein. Dies wurde nicht beobachtet. Wir fanden, dass Synchronizität (gemittelt über die Quellen) nur bei den Bildern erhöht war, für die bestehendes Wissen vorlag. Ein ähnlicher Effekt für sensorische Evidenz wurde nicht gefunden. Insofern können wir sagen, dass unsere Befunde dagegen sprechen, dass neuronale Synchronizität den Mechanismus für Bewusstsein darstellt. Allerdings können wir das in diesem Fall auch nicht völlig ausschließen, denn Synchronizität könnte die Informationsverarbeitung auf einem kleineren Maßstab koordinieren als wir es mit dem MEG messen können (Singer, in press).
Im Kapitel 5 untersuchten wir, wie schnell bestehendes Wissen bewusste Verarbeitung beeinflussen kann. Um dies herauszufinden machten wir uns die intraindividuellen Unterschiede der perzeptuellen Leistung zu Nutze. Wir fanden, dass bestehendes Wissen bewusste Verarbeitung schon innerhalb der ersten 100 Millisekunden nach der Präsentation des Reizes beeinflusst. Wir beobachteten auch, dass ein größerer perzeptueller Effekt des bestehenden Wissens in geringerer neuronaler Aktivität in Durchgängen mit bestehendem Wissen hervorruft. Diese Ergebnisse sind im Einklang mit Theorien, die besagen, dass unsere Wahrnehmung bestehendes Wissen nutzt, um vorherzusagen, wie die visuelle Welt sich ändert und um die neuronalen Antworten zu verringern (Friston, 2010).
In der vorliegenden Arbeit wurde diskutiert, warum die typische Kontrastierungsanalyse uns nicht zu den neuronalen Korrelaten des Bewusstseins führen kann. Wir schlugen vor, dass neue experimentelle Paradigmen nötig sind, um näher an die neuronalen Korrelate des Bewusstseins heranzukommen. Es wurde ein neues Paradigma benutzt, um zwischen Vorläuferprozessen und neuronalen Korrelate des Bewusstseins zu unterscheiden. Mit diesem Paradigma wurden zwei sehr unterschiedliche Hypothesen getestet und gefunden, dass die kategorienspezifische Gammabandaktivität nicht die neuronalen Korrelate des Bewusstseins widerspiegeln kann. Wir hoffen, dass unsere Experimente eine Entwicklung von vielen weiteren und besseren experimentellen Paradigmen stimuliert, die zwischen den Vorläuferprozessen, den Konsequenzen und den eigentlichen Korrelaten des Bewusstseins unterscheiden können. Wenn man über die Kontrastierungsanalyse hinausgeht, kann man die gegenwärtigen Theorien des Bewusstseins testen und damit Schritt für Schritt näher an die neuronalen Grundlagen des Bewusstseins kommen.
Top-down and bottom-up approaches are the general methods used to analyse proteomic samples today, however, the bottom-up approach has been dominant in the last decade. Establishing a bottom-up method involves not only the choice of adequate instruments and the optimisation of the experimental parameters, but also choosing the right experimental conditions and sample preparation steps. LC-ESI MS/MS has widely been used in this field due to its advanced automation. The primary objective of the present study was to establish a sensitive high-throughput nLC-MALDI MS/MS method for the identification and characterisation of proteins in biological samples. The method establishment included optimisation and validation of parameters such as the capillaries in the HPLC systems, gradient slopes, column temperature, spotting frequencies or the MS and MS/MS acquisition methods. The optimisation was performed using two HPLC-systems (Agilent 1100 series and Proxeon Easy nLC system), three spotters and the 4800 MALDI-TOF/TOF analyzer. Furthermore, samples preparation protocols were modified to fit to the established nLCMALDI- TOF/TOF-platform. The potentials of this method was demonstrated by the successful analysis of complex protein samples isolated from lipid particles, pre-adipocytes/adipocytes tissues, membrane proteins and proteins pulled-down from protein-proteins interaction studies. Despite the small amount of proteins in the lipid particles or oil bodies, and the challenges encountered in studying such proteins, 41(6 novel + 14 mammal specific + 21 visceral specific) proteins were added to the already existing proteins of the secretome of human subcutaneous (pre)adipocytes and 6 novel proteins localised in the yeast lipid particles. Protein-protein interaction studies present another area of application. Here the analytical challenges are mostly due to the loss of binding partner upon sample clean-up and to differentiate from non-specific background. Novel interaction partners for AF4•MLL and AF4 protein complex were identified. Furthermore, a novel sample protocol for the analysis of membrane proteins, based on the less specific protease, elastase, was established. Compared to trypsin, a higher sequence coverage and higher coverage of the transmembrane domains were achieved. The use of this enzyme in proteomics has been limited because of its non specific cleavage. However, from the results obtained in these studies, elastase was found to cleave preferentially at the C-terminal site of the amino acids AVLIST. The advantage of the established protocol over conventional protocols is that the same enzyme can be used for shaving of the soluble dormains of intact proteins in membranes and the digestion of the hydrophobic domain after solubilisation. Furthermore, the solvents used are compatible with the nLC-MALDI method setup. In addition, it was also shown that for less specific enzymes, a higher mass accuracy is required to reduce the rate of false positive identifications, since current search engines are not perfectly adapted for these types of enzymes. A brief statistical analysis of the MS/MS data obtained from the LC-MALDI TOF/TOF system showed that for less specific enzymes, under high-energy collision conditions, approximately 43 % of the fragment ions could not be matched to the known y- b type ions and their resultant internal fragments. This limitation greatly influenced the search results. However, this limitation can be overcome by modifying the N-terminal amino acids with basic moieties such as TMT. The use of elastase as a digestion enzyme in proteomic workflow further increased the complexity of the sample. Therefore, orthogonal multidimensional separation was necessary. Offgel-IEF was used as the separation technique for the first dimension. Here peptides are separated according to the pI. However, the acquired samples could not be loaded to the nLC due to the high viscosity of the concentrated samples when using the standard protocol. In order to achieve compatibility of the Offgel-IEF to the nLC-MALDI-TOF/TOF-platform, the separation protocol of the Offgel-IEF was modified by omitting the glycerol, which was the cause of the viscous solution. The novel glycerol free protocol is advantageous over the conventional method because the samples could directly be picked-up and loaded onto the pre-column without resulting in an increase in back pressure or a subsequent pre-column clogging. The glycerol free protocol was then assessed using purple membrane and membrane fraction of C. glutamicum. The results obtained were comparable to those applied in published reports. Therefore, the absence of glycerol did not affect the separation efficiency of the Offgel-IEF. In addition the applicability of elastase and the glycerol free Offgel-IEF for quantitation of membrane proteins was assessed. Most of the unique peptides identified were in the acidic region and 85 % were focused only into one fraction and approximately 95 % in only two fractions. These results are in accordance with previously published results (Lengqvist et al., 2007). When compared with theoretical digests of the proteins identified in this study, it can be concluded that basic moiety (TMT) on the peptide backbone, did not affect the separation efficiency of the Offgel-IEF. In an applied study, changes in the protein content of yeast strain grown in two different media were relatively quantified. For example, prominent proteins, such as the hexose tranporter proteins responsible for transporting glucose accross the membrane, were successfully quantified. Last but not least, the nLC-MALDI-TOF/TOF platform also served as a basis for the development of a high-throughput method for the identification of protein phosphorylation. The establishment of such a method using MALDI has been challenging due to the lack of sensitive matrices, such as CHCA for non-modified peptides, which exhibit a homogenous crystallisation and thus yield stable signal intensity over a long period of time in an automated setup. The first step of this method was the establishment of a matrix/matrix mixture with better crystal morphology and higher analyte signal intensity than the matrix of choice, i.e. DHB. From MS and MS/MS measurements of standard phosphopeptides, a combination of FCCA and CHAC in a 3:1 ratio and 3 mM NH4H2PO4 facilitated high analyte signal intensities and good fragmentation behaviour. Combining a custom-packed biphasic column for the enrichment of phosphopeptides, the applicability of the matrix mixture was assessed in anautomated phosphopeptide analysis using standard phosphopeptides spiked to a 20-fold excess BSA digest. These analyses showed that this method is reproducibile and both flow throughs can be analysed. Applying the method to the analysis of 2 standard phosphoproteins, alpha/beta-casein, and a leukemia related protein, ENL, 13 phosphopeptides from both alpha/beta-Casein and 13 phosphopeptides with 6 phosphorylation sites from the ENL were identified. As a general conclusion, it can be stated that the nLC-MALDI-TOF/TOF method established here in various modifications for different analytical purposes is a robust platform for proteomic analyses.
Das Ziel der vorliegenden Arbeit war es, MALDI-Massenspektrometrie als robuste Analysenmethode für die quantitative Analyse niedermolekularer Verbindungen aus komplexen biologischen Matrizes zu etablieren. Zu Beginn der Arbeit wurden drei typische Fragestellungen im Bereich der Lebensmittelanalytik, der medizinischen Forschung und der klinischen Chemie ausgewählt, um die Methodik anhand dieser Modellsysteme zielgerichtet zu entwickeln und zu bewerten. Für jede dieser Fragestellungen wird routinemäßig ein hoher Probendurchsatz verlangt und damit werden hohe Anforderungen an die Probenvorbereitung gestellt, da diese einfach, schnell, reproduzierbar, Matrix-tolerant und automatisierbar sein muss um die Weiterentwicklung zur Hochdurchsatzanalytik zu erlauben.
Der quantitative Nachweis von Melamin und seinen Derivaten wurde aufgrund des Aufkommens von Milchprodukten, die mit diesen Verbindungen kontaminiert waren, ein wichtiger Bestandteil der Analytik dieser Lebensmittel. Insbesondere an diesem Beispiel zeigte sich der Vorteil des Einsatzes von MALDI-Massenspektrometrie zur Analyse kleiner Moleküle. Aufgrund der höheren Toleranz gegenüber Puffern und Salzen konnte die Probenvorbereitungszeit der für die FDA entwickelten Methode zur Quantifizierung von Melamin in Milchpulver mittels LC-ESI von ca. 140 min auf 90 min reduziert werden, da auf die zeitaufwendige Flüssigchromatographie verzichtet werden konnte. So wurde Melamin mit einem LLOQ von 0,5 ppm quantifiziert, was unterhalb der Vorgaben der WHO (2,5 ppm in Milichpulver und 1 ppm in Babynahrung) lag. Cyanursäure, ein Derivat von Melamin welches für die Bildung schwerlöslicher Komplexe in der Niere mitverantwortlich gemacht wird, konnte ebenfalls mit der entwickelten MALDI-MS Methode quantifiziert werden. Allerdings war die ermittelte Bestimmungsgrenze mit 15 ppm um den Faktor 30 schlechter als bei Melamin. Die Nachweisgrenze bei MALDI-MS ist stark von der MALDI-Matrix abhängig und die Verwendung von Sinapinsäure war eine gute Kompromisslösung, um die Analyten in einem Spot im positiven und negativen Reflektormodus zu analysieren. Allerdings wurde diese Matrix zur Analyse von Analyten im positiven Reflektormodus entwickelt. Bislang wurden nur wenige Matrizes für MALDI-MS im negativen Reflektormodus beschrieben, um z.B. Säuren besser nachweisen zu können. Forschung in diesem Bereich wird neue Möglichkeiten zur Detektion negativ geladener kleiner Moleküle ergeben.
Des Weiteren wurden im Rahmen dieser Arbeit auch Lösungen für klinische Fragestellungen wie etwa den Nachweis von Methylphenidat im Plasma und Gehirn von Ratten oder der Dried Blood Spot Analytik entwickelt. Bei beiden Methoden wurde jeweils nur eine einfache Flüssig-Flüssig-Extraktion zur Probenvorbereitung angewendet und sie ließen sich sehr gut auf Realproben übertragen.
Methylphenidat konnte im Plasma im Konzentrationsbereich von 0,1-40 ng/mL und im Hirnhomogenat im Konzentrationsbereich von 0,4-40 ng/mL quantifiziert werden, was gut im Konzentrationsbereich der Realproben von mit Methylphenidat gefütterten Ratten lag. Dazu standen das Plasma und die Gehirne von fünf Ratten zur Verfügung. Es wurde eine lineare Korrelation zwischen der MPH-Konzentration im Gehirnhomogenat und im Plasma gefunden, was basierend auf den bis dato bekannten Literaturergebnissen ein zu erwartendes Ergebnis war, aber zukünftig mit einer größeren Anzahl von Versuchstieren verifiziert werden sollte. Während der Methodenentwicklung war auch bei diesem Projekt die Auswahl der MALDI-Matrix ausschlaggebend für den Erfolg der Messungen. Im MALDI-Massenspektrum interferierte das Signal des Natriumaddukts von CHCA mit dem Signal von MPH. Für dieses Problem kamen zwei mögliche Lösungen in Betracht. Erstens die Quantifizierung mit ClCCA als MALDI-Matrix, da hier keine Interferenzen auftraten. In ersten Vorversuchen konnte MPH so in einem Konzentrationsbereich von 1-48 ng/mL mit einer exzellenten Linearität von R2=0,9992 quantifiziert werden. Eine zweite mögliche Problemlösung war die Verwendung von Tandem-Massenspektrometrie. Hierzu wurden Fragmentionen-Massenspektren der überlagerten Signale aufgenommen. MPH und der verwendete interne Standard MPH-d9 zeigten dabei spezifische Fragmentionensignale, über die quantifiziert wurde. Da die Sensitivität um den Faktor 100 im Vergleich zu MS-Spektren von CHCA und ClCCA gesteigert werden konnte, wurde die weitere Methodenentwicklung basierend auf der Tandem-Massenspektrometrie mit der MALDI-Matrix CHCA durchgeführt. Überdies sind MS/MS-Versuche unter Verwendung von ClCCA als MALDI-Matrix für kleine Moleküle sehr erfolgsversprechend und sollten in weiteren Forschungsarbeiten durchgeführt werden.
Die Dried Blood Spot Technik als alternative Probenvorbereitung bietet eine Reihe von Vorteilen, wie etwa den einer einfacheren Lagerung und eines einfacheren Transports einer großen Menge von Proben. Darüber hinaus werden nur wenige Mikroliter Blut verwendet, was vorteilhaft ist bei z B. klinischen Studien oder dem Therapeutic Drug Monitoring. Diese Art der Probennahme ist somit eine perfekte Ergänzung für weitere quantitative Analysen von Methylphenidat in Rattenblut. Den Ratten würden nur wenige Mikroliter Blut entnommen werden, was ihr Überleben sichert und der Transport der Proben auf dem Postweg wäre wesentlich einfacher. Um eine allgemein verwendbare DBS-MALDI-MS-Methode zu entwickeln, wurden neben Methylphenidat auch bekannte Analyten aus dem Bereich des Dopings sowie Lamotrigin, Coffein und Theophyllin als Beispiele für das Therapeutic Drug Monitoring verwendet. Es wurden verschiedene Lösungsmittel zur Extraktion eingesetzt, wobei sich eine Kombination aus Methyl-tert-Butylether und Ethanol, sowie Aceton als am besten geeignet erwies. Einige Analyten wie Coffein, Theophyllin und Lamotrigin wurden bis zu einer Konzentration von 0,5 μg/mL quantifiziert. Diese Bestimmungsgrenze ist bei Analyten aus dem Bereich des Dopings wie z.B. Salbutamol, Methylphenidat oder Clenbuterol, deren therapeutisch wirksame Plasmakonzentration im Bereich von wenigen Nanogramm pro Milliliter Blut liegt, um den Faktor 15-500 zu hoch. Diese Analyten waren bis zu einer Konzentration von 5 μg/mL im Blut mittels MALDI-MS problemlos nachweisbar. Um die Sensitivität zu erhöhen, ist es allerdings sinnvoll, die Extraktion zukünftig für die einzelnen Analyten zu optimieren, sie mittels Festphasenextraktion oder LC anzureichern und MS/MS-Spektren aufzunehmen. Für die Analyten Coffein, Theophyllin und Lamotrigin, deren therapeutisch wirksame Plasmakonzentration im ein- bis zweistelligen Mikrogramm-pro-Milliliter Bereich liegt, eignete sich die entwickelte Methode sehr gut. Es wurde eine Methodenvalidierung durchgeführt, wobei die validierten Parameter den Vorgaben der FDA entsprachen.
Da die Auswahl der MALDI-Matrix bei den verschiedenen Methodenentwicklungen jeweils ein kritischer Faktor war, wurden abschließend eine Auswahl von Analyten mit einer Molekülmasse bis ca. 600 Da mit verschiedenen MALDI-Matrizes präpariert. Ein Großteil der Analyten wurde am sensitivsten mit ClCCA nachgewiesen. Im Rahmen dieser Versuche wurde auch erstmals ein Strukturanalogon von ClCCA, und zwar ClCCA-Tetrazol, als alternative MALDI-Matrix eingesetzt, bei welchem die Carboxylgruppe durch einen Tetrazolring ausgetauscht wurde. Diese zeigte eine sehr homogene Kristallisation und für einige Analyten eine bis zu Faktor 3 höhere Signalintensität im Vergleich zu ClCCA. Außerdem war auffällig, dass einige Analyten unter bestimmten Präparationsbedingungen wie z B. der Graphite Supported Preparation sensitiver mittels MALDI-MS nachweisbar waren. Bei anderen Analyten verschlechterten sich die Analysenergebnisse. Graphit verändert stark die Kristallisation der MALDI-Matrix und es wird vermutet, dass sich dies auf den Einbau der Analyten in die Matrixkristalle auswirkt. Es konnte bislang aber noch nicht abschließend geklärt werden, wie genau die Präparation der Proben Einfluss auf den Einbau der Analyten in die Matrix nimmt. Eine Untersuchung dieser Phänomene sollte daher Gegenstand weiterer Forschungsprojekte sein.
Zusammenfassend stellt die MALDI-Massenspektrometrie eine schnelle und robuste Methode zur Quantifizierung einer Vielzahl kleiner Moleküle in komplexen biologischen Matrizes dar.
This dissertation provides an analysis of Finnish prosody, with a focus on the sentence or phrase level. The thesis analyses Finnish as a phrase language. Thus, it accounts for prosodic variation through prosodic phrasing and explains intonational differences in terms of phrase tones.
Finnish intonation has traditionally been described in terms of accents associated with stressed syllables, i.e. similarly as prototypical intonation languages like English or German. However, accents are usually described as uniform instead of forming an inventory of contrasting accent types. The present thesis confirms the uniformity of Finnish tonal contours and explains it as based on realisations of tones associated with prosodic phrases instead of accents. Two levels of phrasing are discussed: Prosodic phrases (p-phrases) and intonational phrases (i-phrases). Most prominently, the p-phrase is marked by a high tone associated with its beginning and a low tone associated with its end; realisations of these tones form the rise-fall contours traditionally analysed as accents. The i-phrase is associated with a final tone that is either low or high and additionally marked by voice quality and final lengthening. While the tonal specifications of these phrases are thus predominantly invariant, variation arises from different distributions of phrases.
This analysis is based on three studies, two production experiments and one perception study. The first production study investigated systematic variation in information structure, first syllable vowel quantity and the target word's position in the sentence, while the second production experiment induced variation in information structure, first and second syllable type and number of syllables. In addition to fundamental frequency, the materials were analysed regarding duration, the occurrence of pauses and voice quality. The perception study investigated the interpretation of compound/noun phrase minimal pairs with manipulated fundamental frequency contours using a two-alternative forced-choice picture selection task. Additionally, a pilot perception study on variation in peak height and timing supported the assumption of uniform tonal contours.
Eine möglichst realistische Abschätzung von Strahlenschäden ist von entscheidender Bedeutung im Strahlenschutz und für die Strahlentherapie. Die primären Strahlenschäden an der DNS werden heute mit Monte-Carlo-Codes berechnet. Diese Codes benötigen möglichst genaue Fragmentierungsquerschnitte verschiedenster biomolekularer Systeme als Eingangsparameter. Im Rahmen der vorliegenden Arbeit wurde ein Experiment aufgebaut, welches die Bestimmung der Fragmentierungsquerschnitte von Biomolekülen ermöglicht. Die einzelnen Baugruppen des Aufbaus wurden vor dem Beginn des Experimentes bezüglich ihrer Eigenschaften, die die Genauigkeit der Messergebnisse beeinflussen können, charakterisiert. Die Resultate dieser Experimente werden als Eingangsdaten für die Berechnung von primären strahleninduzierten Schäden in der DNS mit Hilfe von Monte-Carlo-Codes eingesetzt.
Eine besondere Herausforderung stellte die Präparation eines Überschallgasstrahls für biomolekulare Substanzen dar. Für die Präparation müssen die Targetsubstanzen zunächst in die Gasphase überführt werden. Im Falle von Biomolekülen ist diese Überführung auf Grund ihrer niedrigen Dampfdrücke bei Raumtemperatur und chemischen Reaktivität mit technischen Problemen verbunden. Die Probleme wurden mittels einer speziellen Konstruktion der Präparationseinrichtung, welche eine direkte Einleitung der Probensubstanzen in die vom Trägergas durchströmte Mischkammer ermöglicht, gelöst. Für die Genauigkeit der gemessenen Fragmentierungsquerschnitte spielen mehrere Faktoren eine Rolle. Neben dem Bewegungsprofil des Überschallgasstrahls, den kinetischen Energien der Fragmentionen und den ionenoptischen Eigenschaften des Flugzeitspektrometers beeinflusst die geometrische Beschaffenheit der Detektionszone maßgeblich die Genauigkeit des Experimentes. Die Position und Ausdehnung des sichtbaren Volumens sind nicht nur durch den Überlappungsbereich zwischen dem Elektronen- und dem Überschallgasstrahl bestimmt, sondern hängen auch von der kinetischen Energie der Fragmente ab. Für dessen Ermittlung wurden daher auch die Trajektorien der Fragmente simuliert. Bei den Experimenten an der PTB-Apparatur ist die frei wählbare Zeitdifferenz zwischen dem Auslösen eines Elektronenpulses und dem Absaugen der Fragmentionen ein wichtiger Messparameter. Ihr Einfluss auf die Messergebnisse wurde ebenfalls neben der Nachweiswahrscheinlichkeit des verwendeten Ionendetektors untersucht. Die Kalibrierung der Flugzeitspektren, d. h. die Umwandlung der Flugzeitspektren in Massenspektren erfolgte anhand der bekannten Flugzeitspektren von Edelgasen und Wasserstoff.
Nach der Charakterisierung der Einflussfaktoren und Kalibrierung der Flugzeitspektren wurden die energieabhängigen Fragmentierungsquerschnitte für Elektronenstoß von mehreren organischen Molekülen, darunter die von Modellmolekülen für die DNS-Bausteine gemessen. Die Flugzeitspektren von THF wurden mit der PTB-Apparatur für einige kinetische Energien der Elektronen in Abhängigkeit von der Zeitdifferenz zwischen dem Auslösen des Elektronenpulses und dem Starten der Analyse durchgeführt. Messungen von Pyrimidin wurden sowohl an der PTB-Apparatur als auch mit COLTRIMS durchgeführt. Die mit COLTRIMS gewonnenen Ergebnisse liefern wichtige Zusatzinformationen über die Fragmentierungsprozesse. COLTRIMS ermöglicht die Messung der zeitlichen Korrelationen zwischen den auftretenden Fragmentionen und damit tiefere Einblicke in die bei der Entstehung der Fragmente beteiligten Reaktionskanäle. Der Vorteil der PTB-Apparatur besteht darin, dass die relativen Auftrittswahrscheinlichkeiten aller Fragmentionen genauer bestimmt werden können.
Glycin ist ein wichtiger inhibitorischer Neurotransmitter im zentralen Nervensystem. Um die glycinerge Erregungsübertragung zu sichern, muss die Glycinkonzentration an Synapsen präzise reguliert werden. Hierfür sind die Glycintransporter, GlyT1 und GlyT2, verantwortlich. Der GlyT2 ist ein präsynaptisches Protein, das in glycinergen Nervenendigungen nahe der aktiven Zone lokalisiert ist. Das über den Transporter aus dem extrazellulären Raum aufgenommene Glycin steht anschließend für die Befüllung der synaptischen Vesikel durch den vesikulären inhibitorischen Aminosäuretransporter (VIAAT) zur Verfügung. Die GlyT2-Defizienz führt in Mäusen zu einem letalen Phänotyp und verdeutlicht die Notwendigkeit eines hochaffinen Glycinaufnahmesystems in glycinergen Neuronen. Um mögliche Mechanismen zu untersuchen, die zur präzisen Lokalisation des GlyT2 in der Präsynapse führen, wurde das PDZ-Domänenbindungsmotiv (PDZ-DBM) am extremen C-Terminus bzw. die lange N-terminale Domäne dieses Transporters deletiert. Durch biochemische und pharmakologische Analysen von transfizierten HEKT-Zellen konnte gezeigt werden, dass der Verlust des PDZ-DBM oder der N-terminalen Domäne die Proteinexpression, die Glykosylierung und die Transportaktivität des GlyT2 nicht beeinflussten. Längere Deletionen des N-Terminus (ΔAA1-184) setzten jedoch die Effizienz der Glycinaufnahme herab und ergaben im Vergleich zum wt-Protein einen um 60% reduzierten vmax-Wert, während die apparente Glycinaffinität (KM-Wert) unverändert blieb. Lokalisationsstudien und Oberflächenbiotinylierungen zeigten GlyT2 wt-Immunreaktivität an der Plasmamembran, die sich qualitativ und quantitativ nicht von denen der N- und C-terminalen Mutanten unterschied. Das PDZDBM und die N-terminale Domäne spielen folglich in der Prozessierung und der Transportfunktion des GlyT2 eine untergeordnete Rolle. Möglicherweise reduziert die fast vollständige Deletion der N-terminalen Domäne jedoch die Stabilität des GlyT2. In transfizierten hippocampalen Neuronen wurde der Einfluss des PDZ-DBM und der N-terminalen Domäne hinsichtlich der GlyT2 Lokalisation analysiert. Die transfizierten Mutantenproteine zeigten eine diffuse Verteilung mit partiellen Anreicherungen von GlyT2-Immunreaktiviät. Das wt-Protein kolokalisierte mit Synaptophysin, exzitatorischen synaptischen Markern wie PSD95 und mit den inhibitorischen Markern Gephyrin und VIAAT. Nach Deletion des PDZ-DBM hingegen zeigte der GlyT2 eine um ca. 50% verminderte Kolokalisation mit allen untersuchten synaptischen Markern. Damit konnte hier erstmals eine Funktion des PDZ-DBM für die Anreicherung von GlyT2 an Synapsen gezeigt werden. Mit N-terminalen Deletionsmutanten transfizierte hippocampale Neurone wiesen kolokalisierende GlyT2ΔN-PSD95-Puncta zumeist in MAP2-positiven Neuriten auf, während das wt-Protein zumeist in MAP2-negativen Neuriten kolokalisierte. MAP2 ist ein mikrotubuli-assoziertes Protein, das in Dendriten, aber nicht in Axonen, auftritt und somit eine Unterscheidung derselben ermöglicht. Aufgrund der Überexpression in transfizierten Neuronen war die GlyT2-Immunreaktivität aber sowohl in axonalen als auch dendritischen Neuriten zu beobachten. Zusätzlich zu der in größeren Clustern gefundenen synaptischen GlyT2ΔN-Immunreaktivität war eine Färbung hauptsächlich in sehr kleinen Strukturen (<= 1 μm) nachzuweisen, die Transportvesikeln entsprechen könnten. Dies ist mit einem längeren Verbleib der Deletionsmutanten in intrazellulären Strukturen erklärbar. Im Hippocampus wird GlyT2 endogen nur sehr schwach in einer Subpopulation von putativ glycinergen Neuronen exprimiert. Um die Lokalisation der N-terminalen GlyT2-Proteine in Zellen zu untersuchen, die eine hohe endogene GlyT2-Expression aufweisen, wie spinalen Neuronen, die sich aber nur schlecht transfizieren lassen und in Kultur keine adulte GlyT2-Lokalisation aufweisen, wurden BAC-transgene Mäuse generiert, die myc-markierte GlyT2ΔN-Proteine unter Kontrolle des GlyT2-Promotors exprimieren. Der Vorteil von BAC-transgenen Mauslinien ist, dass sie aufgrund der Verwendung des endogenen Promotors das Transgen nur schwach überexprimieren. Founder-Mäuse, in denen der jeweilige modifizierte BAC-Klon (mGlyT2 wt, ΔAA14-174 oder ΔAA14-184) integriert wurde, wurden identifiziert und mit C57BL/6J-Mäusen verpaart, um so transgene Mauslinien zu etablieren und die Lokalisation der mutierten GlyT2-Proteine zu analysieren. Zusätzlich wurde eine BAC-transgene Cre-Mauslinie generiert, die die Cre-Rekombinase in GlyT2-positiven Zellen exprimiert. Durch die Verpaarung mit konditionalen oder transgenen Mauslinien soll mit diesen GlyT2/Cre-Mäusen die Funktion einzelner Genprodukte in glycinergen Zellen untersucht werden. In dieser Arbeit wurden außerdem die Glycinrezeptor (GlyR) α-Untereinheiten (UE) in GlyT2-defizienten Mäusen untersucht. GlyT2 -/- Tiere sterben in der zweiten postnatalen Woche nach der Geburt und zeigen einen starken neuromotorischen Phänotyp. Da in demselben Zeitraum ein Austausch der embryonalen α2- durch die adulte α1-UE erfolgt, wurde die Entwicklung der α1- und der Gesamt-α- Immunreaktivität in Rückenmarksschnitten von wt und GlyT2 -/- Tieren analysiert und miteinander verglichen. Die Daten zeigen, dass der α-UE-Austausch in den GlyT2-defizienten Tieren ähnlich wie in wt Tieren erfolgt. In α1-GlyRs ist die Öffnungszeit des aktivierten Kanals kürzer als bei α2-GlyRs. Zusammen mit der geringeren Ausschüttung an Glycin aufgrund der GlyT2-Defizienz lässt sich so das Auftreten des Krampf-Phänotyps der GlyT2 -/- Mäuse nach erfolgtem UE-Austausch erklären.
Cognitive flexibility and cognitive stability : neural and behavioral correlates in men and mice
(2014)
The ability to flexibly adjust behavior according to a changing environment is crucial to ensure a species' survival. However, the successful pursuit of goals also requires the stable maintenance of behavior in the face of potential distractors. Thus, cognitive flexibility and cognitive stability are important processes for the cognitive control of behavior. There is a large body of behavioral and neuroimaging research concerning cognitive control in general, but also specifically on cognitive flexibility and cognitive stability, albeit most often assessed in separate task paradigms. Nevertheless, whether cognitive flexibility and cognitive stability depend upon separate or shared neuronal bases is still a matter of debate. Complementing empirical research, computational models have become an important strategy in neuroscientific research, as they have the potential of providing mechanistic explanations of empirical observations, for example by allowing for the direct manipulation of molecular parameters in simulated neural networks. The computational model underlying the so-called Dual-State Theory contains specific hypotheses with respect to cognitive flexibility and cognitive stability. The neural networks simulated by this model exhibit multiple stable firing states, i.e., the neural network can maintain a high firing state also without continuing external input due to a network architecture consisting of recurrently connected neurons. Transitions between such network states, also called attractor states, can be induced by external input, and represent working memory contents or active task rules. Simulations showed that the stability of these attractor states, and thus of task rule representations, depend on the dopamine state of the system and can consequently vary between persons. The Dual-State Theory predicts an antagonistic relationship between cognitive flexibility and cognitive stability, as robust attractor states would facilitate the inhibition of distractors, but impair efficient task switching, while rather unstable attractor states would promote efficient transitions between representations but would also come at the cost of increased distractibility.
Based on the Dual-State Theory, a task paradigm was designed allowing for the simultaneous assessment of cognitive flexibility, in the sense of rule-based task switching, and cognitive stability, in the sense of inhibiting irrelevant distractors. Furthermore, a behavioral measure was developed to assess the individual attractor state stability, named spontaneous switching rate (SSR). In the first study of this work, this paradigm was tested in a sample of healthy human subjects using functional magnetic resonance imaging (fMRI). An overlapping fronto-parietal network was activated for both cognitive flexibility and cognitive stability. Furthermore, behavioral as well as neuroimaging results are in favor of an antagonistic relationship between cognitive flexibility and cognitive stability. A specific prefrontal region, the inferior frontal junction (IFJ), was implied to potentially contain the relevant neural networks mediating the transitions between attractor states, i.e., task rule representations, as its activity was modulated by the SSR such that persons with rather unstable attractor states activated it less during task switching while showing better performance. Most importantly, functional connectivity of the IFJ was antagonistically modulated by the SSR: more flexible persons connected it less to another prefrontal area during task switching, while showing higher functional connectivity during distractor inhibition.
In a second study, a larger human sample was assessed and further hypotheses derived from the Dual-State Theory on variability of neural processing were tested: we hypothesized that persons with high brain signal variability should have less stable network states and thus benefit on tasks requiring cognitive flexibility but suffer from it when the task requires a higher degree of cognitive stability. Furthermore, recent fMRI-research on brain signal variability revealed beneficial effects of higher brain signal variability on cognitive performance in general. Using a novel customized analysis pipeline to measure trial-to-trial fMRI-signal variability, we indeed found differential effects of brain signal variability: higher levels of brain signal variability were found to be beneficial for effectiveness, i.e., performance in terms of error rates, for both cognitive flexibility and stability. However, brain signal variability impaired the efficiency in terms of response times of inhibiting distractors, i.e., cognitive stability.
Due to further predictions of the Dual-State Theory concerning schizophrenia and the dopaminergic system, it was considered valuable to pursue a translational approach and thus allowing for the employment of animal models of psychiatric diseases. Consequently, in a first step the human paradigm was translated for a murine population using an innovative touchscreen approach. Results showed analogous behavioral effects in wildtype mice as before in healthy humans: the antagonistic relation between cognitive flexibility and cognitive stability was replicated and also for mice, a behavioral measure for the individual attractor stability was established and validated, named the individual spontaneous switching score.
To conclude, we established a novel paradigm assessing both cognitive flexibility and stability simultaneously showing an antagonistic relationship between these two cognitive functions on the behavioral level in two different species, which supports predictions from the Dual-State Theory. This was further underlined by evidence on the activation, functional connectivity and signal variability level in the human brain.
In the past century, scientists have realized that venoms are a source of a number of natural substances presenting a wide range of pharmacological properties and often displaying a high specificity for their targets. Thus, the field of toxinology came into being, which is defined as the study of toxic substances of biological origin. Toxins are found in a wide variety of animals, including fish, cone snails, scorpions, snakes, and even some mammals. To be classified as venom, these must contain substances, i.e. toxins, which disturb physiological processes and must be deliberately delivered to the target animal. Snakes have evolved one of the most sophisticated mechanisms for venom delivery. Envenomation by snakebite can induce and inhibit aggregation/agglutination of platelets as well as inhibit/activate hemostasis, but also disrupt other physiological functions via neurotoxins and angioneurin growth factors. Snake venoms contain a substantial amount of C-type lectin-related proteins (CLRPs) which are known to function, notably, as integrin inhibitors. CLRPs are heterodimers composed of homologous α and β subunits which can assemble either covalently or noncovalently to oligomers, resulting in αβ, (αβ)2 and (αβ)4 structures. Some of the main targets of CLRPs are membrane receptors, coagulation factors, and proteins essential to hemostasis. The platelet collagen receptors GPVI and α2β1 integrin as well as the von Willebrand factor receptor GPIb play important roles in platelet activation and aggregation and are considered main targets of antithrombotic drugs. In this thesis, the integrin α2β1 is particularly considered as it is the sole collagen-binding integrin on platelets. Reduced expression of this platelet receptor results in dysfunction of platelet responses. Equivalently, overexpression of α2β1 integrin results in an increased risk of thrombosis. As a result, selective inhibitors of the collagen-α2β1 interaction could give rise to effective antithrombotic drugs. Integrins are large receptors which mediate cell-cell contacts and the binding of cells to the extracellular matrix (ECM). Therefore, they play a role in physiological processes, e.g. hemostasis and immunity, as well as in pathological processes, e.g. tumor angiogenesis and atherosclerosis. 18 α and 8 β integrin subunits, with nine α subunits containing an additional A domain, associate non-covalently to form 24 heterodimers with distinct binding specificities. Integrin collagen receptors are a subclass of four receptors which all utilize the β1 subunit. The α2β1 integrin is a collagen-binding receptor expressed not only on platelets, but also on endothelial and epithelial cells. Consequently, this integrin is also essential for cell adhesion and migration playing a role in angiogenesis as well as tumor metastasis. To date, there are five known antagonists of α2β1 integrin: EMS16, rhodocetin, vixapatin, and most recently rhinocetin and flavocetin-A. The first four have been shown to be specific for the integrin α2A domain, the major collagen-binding domain. All these antagonists are CLRPs and present new leads for drug design. In the past few years, many insights into the structure and function of rhodocetin were obtained. Monoclonal antibodies proved to be advantageous in disclosing this information, making them not only useful as therapeutic agents, but also as tools for protein characterization. The venom of the Vipera palaestinae snake was recently shown to contain an α2β1 integrin inhibitor, which prevented the integrin from binding collagen. This inhibitor, called vixapatin, was the initial focus of this dissertation. Vixapatin’s interaction with the α2β1 integrin needed further characterization on a molecular and cellular level to assess its medical potential and monoclonal antibodies were to be used as a tool. Originally, vixapatin had been isolated by reversed-phase high-performance liquid chromatography. To avoid the stringency of this method, for this study, it was replaced with gentler chromatographic methods. First, the α2β1 integrin inhibitor was isolated from the crude snake venom with affinity chromatography using the α2A domain as bait, establishing a method to quickly screen venoms for α2β1-binding proteins which affect the collagenintegrin interaction. The applicability of this method to other snake venoms was shown by isolating an α2A domain-specific toxin from the venom of Trimeresurus flavoviridis. To allow further characterization of both these toxins, gel filtration and ion exchange chromatography were employed to purify the protein without the α2A domain. These classical protein purification methods resulted in similar separation patterns of both the V. palaestinae and T. flavoviridis venom proteins. Purified proteins exhibiting the potential of inhibiting integrinbinding to collagen were analyzed by two-dimensional gel electrophoresis. Both VP-i and flavocetin-A, the integrin inhibitors from V. palaestinae and T. flavoviridis, respectively, were shown to have more complex structures than was evident from the purification. Each consisted of four low-molecular-weight proteins which assembled into two bands (for VP-i) or one single band (for flavocetin-A) under non-reducing conditions. Mass spectrometry analyses revealed VP-i to belong to the family of CLRPs, just like vixapatin does. However, these two proteins differed in their primary sequences and only showed homology to one another. The toxin purified from T. flavoviridis revealed this toxin to be flavocetin-A, a heterodimeric CLRP which had so far only been shown to have GPIb-binding activity. At the time of flavocetin-A’s purification, flavocetin-B was co-purified; flavocetin-B consists of the same two α and β subunits, plus an additional γ subunit. As no sequence information is known to date for the γ subunit, it may be one of the additional proteins purified here, along with an additional δ subunit. Therefore, the toxin isolated here may actually consist of four different subunits forming a tetramer of two different heterodimers, generating an (αβ)2(γδ)2 structure. This proposed (αβ)2(γδ)2 flavocetin-A structure has binding sites for both α2β1 integrin and GPIb, with no sterical overlap, as shown by affinity chromatography using the α2A domain and the extracellular domain of the GPIb receptor. The potential of VP-i and flavocetin-A to inhibit integrin-binding to type I collagen was shown during purification: Both toxins efficiently bind to the integrin α2A domain; also, VP-i and vixapatin bind to the A domain with the same affinity. Surface plasmon resonance showed the interaction of flavocetin-A with the α2β1 integrin to be extremely strong and association to be very fast. Furthermore, both toxins were shown to inhibit binding of the wildtype integrin to collagen: VP-i and flavocetin-A acted antagonistically on cell adhesion and cell migration. Initially, the interaction between VP-i and α2β1 integrin was to be further characterized with the help of monoclonal antibodies. However, this proved problematic, the procedure requiring various optimizations. Although, after expert consultation, some monoclonal antibodies could be obtained, the cells were extremely sensitive and gave unsatisfactory results when tested as detection tools in Western blot and immunoassays. Concluding, two novel α2β1 integrin inhibitors were discovered: VP-i and flavocetin-A, which were purified using the same procedure and which have similar functions. Both are Ctype lectin-related proteins which effectively inhibit cell adhesion and migration. This underlines that nature has instrumentalized CLRPs to specifically inhibit α2β1 integrin. Further characterization of VP-i and flavocetin-A will be able to provide leads for future drug development.
Einleitung: Die allgemeine Häufigkeit der Hernien liegt bei 2 bis 4% der Bevölkerung, wobei etwa 75% Leistenhernien sind. Ziel dieser Studie war die Beschreibung der Morbidität nach standardisierter modifizierter Operation nach Lichtenstein mit Verwendung eines selbsthaftenden Netzes. Der Vergleich dieses Kollektivs mit Daten aus der Literatur, in welchen zur Behandlung einer Leistenhernie die herkömmliche Technik nach Lichtenstein angewandt wurde, stellte das sekundäre Studienziel dar. Material und Methoden: Ein von Juli 2007 bis Dezember 2007 therapiertes Patientengut aus 100 Männern und 11 Frauen des Herz-Jesu-Krankenhauses in Fulda wurde detailliert retrospektiv aufgearbeitet und mit den Ergebnissen anderer Arbeitsgruppen verglichen. Die Patienten wurden einmal nach sechs sowie ein weiteres Mal nach 12 Monaten einbestellt, untersucht und mittels standardisiertem Fragebogen zu ihrem postoperativen Verlauf befragt. Die Altersgrenzen zum Zeitpunkt der operativen Versorgung lagen bei 20 und 91 Jahren, der Altersmedian betrug 59. Die Operation nach Lichtenstein ist eines der bevorzugten Verfahren in der Leistenhernienchirurgie. Ergebnisse: Intraoperativ wurde bei 88 Patienten (79,3 %) der Nervus genitofemoralis geschont, bei 23 Patienten (20,7 %) wurde er durchtrennt. Die postoperativen Komplikationen wurden im eigenen Kollektiv unterteilt nach perioperativen (in den ersten 7 Tagen postoperativ), frühen (7. bis 28. Tag postoperativ) und späten Komplikationen (28. Tag bis 12. Monat postoperativ) erfasst. Nur bei einem Patienten kam es auf Grund eines behandlungspflichtigen Hämatoms zu einer unmittelbaren Komplikation. Kein Patient beklagte eine frühe Komplikation, jedoch kam es bei fünf Patienten zu späten Komplikationen. Vier Patienten klagten über ein Rezidiv. Die Diagnose Nervenkompressionssyndrom wurde bei insgesamt drei Patienten gestellt. Die Verbindung zu einer Durchtrennung des Nervus genitofemoralis konnte bei einem Patienten hergestellt werden. Der Median der Operationsdauer lag bei 35 Minuten. Durchschnitt (Mittelwert) betrug die Krankenhausverweildauer 2,2 Tage. Kein Patient verstarb im postoperativen Verlauf. Schlussfolgerung: Die in dieser Arbeit beschriebene modifizierte Lichtenstein-Technik ist eine Innovation der Hernienchirurgie. Der Einsatz eines teilresorbierbaren und selbstfixierenden Zweikomponenten-Maschengewebe aus monofilem Polypropylen und Polylaktatsäure stellt eine kleine Revolution der operativen Versorgung von Leistenhernien dar. Die ersten Ergebnisse zeigen im Vergleich mit Literaturangaben, dass insgesamt mit einer ähnlichen perioperativen Komplikationsrate zu rechnen ist. Momentan liegen erst Einjahreszahlen vor, daher muss auf eine abschließende Beurteilung, vor allem der postoperativen Schmerzsymptomatik sowie Rezidivrate, zum jetzigen Zeitpunkt verzichtet werden. Erfreulich ist das Fehlen von intraoperativen Komplikationen im eigenen Krankengut. Auch erscheint eine deutliche Reduktion der Operationsdauer bei mit der Technik vertrauten Operateuren möglich zu sein. Eine statistisch signifikante Reduktion der Rezidivhäufigkeit nach Lichtenstein-Eingriff konnte durch die neue Technik noch nicht beobachtet werden. Zur Zeit sind die in der Literatur beschriebenen Rezidivraten noch auf einem ähnlichen Niveau. Abschließend zeigt die Beurteilung der selbst erhobenen Daten und ihr Vergleich mit den angeführten Studien, dass der Einsatz eines selbsthaftenden Netzes bedenkenlos als Alternative zur Fixierung mittels Fibrinkleber, Naht- oder Klammermaterial empfohlen werden kann.
Nukleäre Rezeptoren (NRs) sind ligandengesteuerte Transkriptionsfaktoren, die sich aus einer Superfamilie von 48 humanen Mitgliedern zusammensetzt. Seit vielen Jahrzehnten stellen sie ein attraktives Forschungsgebiet für die Arzneistoffentwicklung dar, da sie eine bedeutende Rolle in zahlreichen Prozessen unseres Körpers spielen. Das Ziel dieser Forschungsarbeit bestand darin, neue innovative Liganden für den Peroxisomen-Proliferator-aktivierter-Rezeptor γ (PPARγ) sowie die Waisenrezeptoren Nervenwachtumsfaktor induzierter Klon B (Nur77) und Neuronen-abgeleiteter Waisenrezeptor (NOR-1) zu identifizieren.
Bei den Rezeptoren Nur77 und NOR-1 handelt es sich um noch unzureichend erforschte NRs der NR4A-Familie. Es fehlt insbesondere an Modulatoren dieser Rezeptoren als Werkzeuge, um ihr zum Teil noch unentdecktes Potential zu erforschen. Um diese Lücke zu schließen, wurde ein in vitro Screening durchgeführt und eine Arzneistoff-Fragment-Bibliothek mit 480 Fragmenten, die aus bekannten strukturellen Motiven zugelassener Arzneimittel stammen, auf ihre modulatorische Aktivität an Nur77 und NOR-1 gescreent. Durch das Screening und weitere Testungen konnten jeweils für Nur77 und für NOR-1 drei Verbindungen als Liganden identifiziert werden. Bei der weiteren Charakterisierung stellte sich insbesondere 41 als besonders vielversprechenden Ausgangspunkt für die Entwicklung von Liganden für Nur77 und NOR-1 heraus, der ein besseres Verständnis für die invers agonistische Aktivität lieferte und die Möglichkeit für eine agonistische Modulation aufzeigte. Zudem konnte durch ein weiteres Screening mit Computer-gestützten Verfahren auf Nur77 der Chemotyp von 41 noch weiter optimiert werden und führte zur Identifizierung von Verbindung 68 (EC50 = 2 ± 1 μM). Diese zeichnete sich durch eine hohe Potenz aus, die zu einer beachtenswerten Aktivierung von Nur77 (169 ± 18% maximale Aktivierung) führte. Die Untersuchung der strukturellen Erweiterung von 43 (IC50 = 47 ± 8 μM) führte zur Verbindung 75, die eine 3,5-fache Steigerung des inversen Agonismus auf NOR-1 zeigte. Die Erkenntnisse dieser Entdeckung ermöglichte den Rückschluss, dass das Einführen von voluminösen Resten, wie Brom oder Phenyl eine invers agonistische Potenz im unteren mikromolaren Bereich bewirkte. Die Identifizierung der Verbindungen 41 und 68 für Nur77 sowie 43 und 76 für NOR-1 könnten dazu beitragen, ein tieferes Verständnis der molekularen Mechanismen hinter der Aktivierung von Nur77 und NOR-1 zu erlangen und einen vielversprechenden chemischen Ausgangspunkt für die Entwicklung von noch wirksameren und selektiveren Liganden bieten.
Im anderen Teil dieser Forschungsarbeit stand die Synthese eines selektiven allosterischen PPARγ-Liganden im Fokus, um mit diesem die allosterische Modulation von PPARγ zu charakterisieren. Den Ursprung der Idee lieferte Garcinolsäure, dass in der Lage ist, PPARγ orthosterisch und allosterisch zu binden. Aufgrund der komplexen biologischen Effekte und der geringen synthetischen Zugänglichkeit konnte 37 nicht als Ausgangspunkt für dieses Vorhaben dienen. Auf der Suche nach einer geeigneten Ausgangsverbindung wurde durch ein in vitro Screening mit einer hauseigenen Sammlung von synthetischen PPARγ-Modulatoren, bei dem die orthosterische Bindungsstelle von PPARγ durch den irreversiblen Antagonisten GW9662 blockiert wurde, Verbindung 39 identifiziert. Diese ist wie 37 in der Lage PPARγ ortho- und allosterisch zu binden, weist aber eine bessere synthetische Zugänglichkeit auf. Die Co-Kristallisation von 39 mit der PPARγ-Ligandenbindungsdomäne zeigte, dass die orthosterische Bindungstasche (BT) keinen Platz für eine Verlängerung des Moleküls bietet, die allosterische BT ist dagegen Lösungsmittel exponiert, wodurch eine Verlängerung möglich schien. Daraufhin wurde die Hypothese aufgestellt, dass eine Verlängerung von 39 eine orthosterische Bindung verhinderte und dadurch eine selektive allosterische Bindung ermöglichen könnte. Aus diesem Grund wurde eine modifizierte Struktur von 39 verwendet, um eine einfache Einbringung eines Linkers in das Molekül zu ermöglichen. Durch verschiedenste Modifikationen und Anpassungen wurde 104 als potenzieller selektiver allosterischer Ligand synthetisiert. Die Testung von 104 im Reportergenassay zeigte eine schwache Aktivierung von PPARγ allein, jedoch offenbarte sich bei der Kombination mit dem orthosterischen Agonisten Pioglitazon eine dosisabhängige Steigerung der Aktivität von PPARγ. Diese Ergebnisse deuteten darauf hin, dass trotz der Bindung von 104 eine Bindung von 33 in die orthosterische BT immer noch möglich war. Diese Annahme konnte anschließend auch durch zellfreie Experimente (Isotherme Titrationskalorimetrie, MS-basierte-PPARγ-Ligandenbindungs-Assay) bestätigt werden. Der eindeutige Beweis für die selektive allosterische Bindung von 104 lieferte die Co-Kristallisation von 104 mit der PPARγ-LBD. Zusätzlich offenbarte sich, durch den strukturellen Vergleich der Bindungsmodi von anderen PPARγ-Liganden, der außergewöhnliche Bindungsmodus von 104, da 104 im Vergleich zu anderen Liganden selektiv die allosterische BT, ohne Überlappung in die orthosterische BT, besetzte. Weitere Untersuchungen, wie der Einfluss von 104 auf die Rekrutierung von Co-Regulatoren, die Differenzierung von adipozytären Stammzellen und die Genexpression zeigten eine bisher einmalige Modulation von PPARγ, die auf die selektive allosterische Modulation zurückzuführen war. Mit 104 wurde ein innovatives und vielfältig einsetzbares Werkzeug zur Erforschung der allosterischen Modulation von PPARγ entdeckt, dessen Geschichte an diesem Punkt noch nicht zu Ende ist.
Die supratentorielle dekompressive Kraniektomie mit Eröffnung und Erweiterungsplastik der Dura mater ist heutzutage eine wichtige Therapiemaßnahme in der Behandlung des konservativ nicht kontrollierbaren Hirndrucks. Unter Kranioplastik versteht man den chirurgischen Verschluss des entstandenen Knochendefekts zum Schutz des direkt unter der Kopfhaut liegenden Gehirns, zur ästhetischen Wiederherstellung der Konturen sowie zur Verbesserung einer neurologischen Symptomatik („syndrome of the trephined“).
In der vorliegenden Arbeit werden die Daten von insgesamt 242 Patienten, die einer Kranioplastik unterzogen worden waren, retrospektiv analysiert. Die Patienten wurden im Zeitraum 2001-2008 in der neurochirurgischen Abteilung der Städtischen Kliniken Frankfurt am Main-Höchst operiert. Um Aufschluss über das postoperative, funktionelle und kosmetische Ergebnis zu erhalten, wurde im Anschluss an die Aktenauswertung bei diesen Patienten eine telefonische Befragung durchgeführt.
Ziel der Arbeit war es, die bisherigen Erfahrungen der Kalottenplastik und insbesondere der autogenen orthotopen Knochendeckelreimplantation im Hinblick auf die verschiedenen Kranioplastik Zeitpunkte zu untersuchen und unter klinischen Aspekten zu bewerten.
Die Frage des Kranioplastik Zeitpunktes ist essentiell für die Therapieplanung.
Das autologe Schädelknochentransplantat hat bessere Eigenschaften und Qualitäten als alle anderen alloplastischen Materialien. In Anbetracht der perfekten Histokompatibilität, der optimalen biomechanischen Eigenschaften, der guten anatomischen Fusion mit dem umgebenden Knochen und der Möglichkeit der partiellen oder totalen Revitalisation des Transplantats, besteht kein Zweifel, dass der autologe Knochen immer zu verwenden ist, wenn die Möglichkeit dazu besteht.
Die Analyse der Patientengruppen ergab, dass die ultra frühe Kranioplastik der Patienten mit großen Defekten nach dekompressiver Kraniektomie ein besseres Outcome im langfristigen Follow-up hat. Diese Patienten hatten keine gesteigerte Infektions- oder andere Komplikationsraten. Das Timing der Kranioplastik spielt eine Rolle in der Komplikationsrate nur bei den Patienten, die sekundär eine Komplikation erlitten haben. Patienten, die nach der Kraniektomie eine Nachblutung, einen Infarkt oder eine Infektion erlitten haben, hatten eine signifikant höhere Infektionsrate bei ultra früher Kranioplastik. Insbesondere soll betont werden, dass der Trend einer Häufung von Wundheilungsstörungen und Infektionen mit der Folge einer erneuten Explantation des Knochendeckels bei Patienten nach autogener Knochendeckelreimplantation mit mehr als 2 Risikofaktoren und bei Patienten mit kompliziertem Verlauf nach Kraniektomie festgestellt wurde.
Gemäß den Ergebnissen dieser Patientenserie kann die ultra frühe Kranioplastik bei ausgewählten Patienten mittels Reimplantation des Eigenknochens als ein sicheres und hilfreiches Verfahren für die schnellere Rehabilitation und Besserung der neurologischen Funktion und der Prognose bewertet werden. Ähnlich gute Ergebnisse zeigten die Pantienten in der Gruppe 1 der ultra frühen Kranioplastik die aufgrund einer Liquorzirkulationsstörung ein VP Shunt System als kombinierte Therapie in der gleichen Sitzung erhalten haben.
Somit kann zusammenfassend festgehalten werden:
Die Ergebnisse dieser Arbeit bestätigen, dass die Kranioplastik nach einer supratentoriellen dekompressiven Kraniektomie mit Reimplantation des eigenen Schädelknochens zum frühesten möglichen Zeitpunkt ein sicheres und effektives Verfahren darstellt und bei ausgewählten Patienten sogar bessere Ergebnisse als die späte Kranioplastik haben kann. Eine mögliche Erklärung dafür könnte das Auftreten und die Persistenz von neurologischen Defiziten im Rahmen des „syndrome of the trephined“ bei Patienten bieten, bei denen eine späte Kranioplastik durchgeführt wurde. In diesem Patientengut hatten die Patienten mit ultra-früher Kranioplastik das beste neurologische Outcome, die Komplikationsrate war in allen Gruppen vergleichbar.
Um Komplikationen zu vermeiden, sollten Patienten mit einer vorausgegangenen lokalen Infektion spät kranioplastiert werden.
Das neurologische Outcome der Patienten, bei denen ein kombiniertes Verfahren Kranioplastik –VP Shunt durchgeführt wurde, war vergleichbar mit anderen Patientengruppen. Somit ist eine Kranioplastik bei Patienten mit konvexen, über Kalottenniveau prolabierten Kraniektomielappen aufgrund eines Hydrocephalus keine Kontraindikation.
Dissecting the complexities of mammalian heart development and regenerative capacity require thorough understanding of the underlying molecular mechanisms through the expression pattern of proteins and post-translational modifications. To obtain insights intoactivated signaling pathways that control the cellular phenotype during postnatal heart development, we generated a comprehensive map of phosphorylation sites. In total we identified 21,261 phosphorylation sites and 8985 proteins in developing mouse hearts by mass spectrometry. The in-vivo SILAC (stable isotope labeling of amino acids in cell culture) approach allowed robust quantification of phosphorylation sites and proteins, which are regulated during heart development. We found several activated pathways involved in cell cycle regulation and detected numerous kinases and transcription factors to be regulated on protein and phosphopeptide level. Most strikingly, we identified a novel mitochondrial protein, known previously as Perm1, as a highly phosphorylated factor regulated during heart development. We renamed Perm1 as MICOS complex subunit Mic85 since it shows robust physical interaction with MICOS complex subunits, including Mitofilin (Mic60), Chchd3 (Mic19), Chchd6 (Mic25) and the outer membrane protein Samm50. Moreover, Mic85 is localized to the mitochondrial inner membrane facing the intermembrane space and the dynamics of Mic85 protein expression is regulated by the ubiquitin-proteasomal system through phosphorylation of casein kinase 2 on its PEST motif. Silencing of Mic85 in cultured neonatal cardiomyocytes impairs mitochondrial morphology and compromises oxidative capacity. Our findings support a clear role for Mic85 in the maintenance of mitochondrial architecture and in its contribution to enhanced energetics during developing and adult mouse cardiomyocytes. The transgenic Mic85 knockout mouse generated with a GFP knock-in will support future in vivo investigations on the integrity of mitochondria and the function of Mic85 in cardiac development.
Il presente lavoro ha come oggetto d'esame lo scontro del filosofo neo-idealista Giovanni Gentile (1875-1944) col Modernismo cattolico. Obiettivo del lavoro è offrire per la prima volta un esame completo della controversa, durata sei anni, dal 1903 al 1909, attraverso una constestualizzazione storico ecclesiastica e storico filosofica di essa. Il tutto basandosi sulla pubblicazione di inediti fonti d'archivio.
Mit der Bereitstellung des 208Pb-Strahls durch das CERN-SPS können seit Herbst 1994 Kollisionen schwerster Kerne bei den höchsten zur Zeit in Schwerionenbeschleunigern erreichten Einschußenergien untersucht werden.
Ziel dieser Arbeit ist die Untersuchung der raumzeitlichen Entwicklung von zentralen Pb-Pb-Kollisionen bei 158 GeV/Nukleon. Diese Untersuchung wurde im Rahmen des Experimentes NA49 durchgefüuhrt und stützt sich auf die Analyse von Bose-Einstein-Korrelationen identischer Pionen. Die Auswertung von rund 40000 zentralen Ereignissen, die in zwei verschiedenen Magnetfeldkonfigurationen mit der zweiten Vertex-Spurendriftkammer des NA49-Experimentes aufgezeichnet wurden, erlaubt hierbei eine annähernd vollständige Untersuchung des pionischen Phasenraumes zwischen zentraler Rapidität und der Projektilhemisphäre.
Auf der experimentellen Seite stellt der Nachweis von mehreren hundert geladenen Teilchen pro Ereignis eine große Herausforderung dar. Daher werden in dieser Arbeit die Optimierung von Spurendriftkammern sowie die verwendeten Analyseverfahren und die erreichte experimentelle Auflösung ausführlich diskutiert. Dabei zeigt sich, daß der systematische Einfluß der erreichten Impuls- und Zweispurauflösung auf die Bestimmung der Bose-Einstein-Observablen vernachlässigbar ist.
Die Messung von Korrelationen ungleich geladener Teilchen bestätigt die Beobachtungen früherer Untersuchungen, wonach die Gamowfunktion als Coulombkorrektur der Bose-Einstein-Korrelationsfunktionen in Schwerionenexperimenten nicht geeignet ist. Ein Vergleich mit einem Modell zeigt, daß diese Messungen konsistent sind mit der Annahme einer endlichen Ausdehnung der Pionenquelle von rund 6 fm. In dieser Arbeitwird zur Korrektur daher eine Parametrisierung der gemessenen Korrelationsstärke ungleich geladener Teilchen benutzt, wodurch die systematischen Unsicherheiten bei der Auswertung der Bose-Einstein-Korrelationsfunktionen erheblich reduziert werden konnten.
Die Auswertung der Bose-Einstein-Korrelationen im Rahmen des Yano-Koonin-Podgoretskii-Formalismus erlaubt eine differentielle Bestimmung der longitudinalen Expansionsgeschwindigkeit. Dabei ergibt sich das Bild eines vornehmlich in longitudinaler Richtung expandierenden Systems, wie es bereits in Schwefel-Kern-Reaktionen bei vergleichbaren Einschußenergien beobachtet wurde. Die Transversalimpulsabhängigkeit der transversalen Radiusparameter ist moderat und verträglich mit einer mäßigen radialen Expansion, deren quantitative Bestätigung allerdings im Rahmen von Modellrechnungen erfolgen muß.
Im Rahmen eines einfachen hydrodynamischen Modells kann die Lebensdauer des Systems zu 7-9 fm/c bei schwacher Abhängigkeit von der Rapidität bestimmt werden. Die Zeitdauer der Pionenemission beträgt etwa 3-4 fm/c und wird damit erstmals in ultrarelativistischen Schwerionenreaktionen als signifikant von Null verschieden beobachtet.
Die Auswertung der Korrelationsfunktion unter Verwendung der Bertsch-Pratt-Parametrisierung liefert Ergebnisse, die mit denen der Yano-Koonin-Podgoretskii-Parametrisierung konsistent sind. Dasselbe gilt für den Vergleich der Analyse positiv und negativ geladener Teilchenpaare sowie unter Verwendung verschiedener Bezugssysteme.
Ein Vergleich mit den Ergebnissen von Schwefel-Kern-Reaktionen deutet an, daß die in Pb-Pb ermittelten Ausfriervolumina nicht mit dem einfachen Bild eines Ausfrierens bei konstanter Teilchendichte vereinbar sind. Vielmehr scheint das Pb-Pb-System bei niedrigerer Dichte auszufrieren. Dies läßt darauf schließen, daß die Ausfrierdichte über die mittlere freie Weglänge mit der Größe des Systems zum Zeitpunkt der letzten Wechselwirkung verknüpft ist.
Resistenzen gegenüber Carbapenemen sind eine Bedrohung für die globale Gesundheit mit wenigen verbleibenden Therapieoptionen. Ceftazidim/Avibavtam (CZA) ist die Kombination aus einem Cephalosporin und einem Diazabicyclooctan, mit der Eigenschaft eine Vielzahl von Carbapenemasen der Ambler Klasse A und D zu inhibieren. Resistenzen gegenüber Carbapenemen in gramnegativen Bakterien sind in Kolumbien und anderen Ländern Lateinamerikas weit verbreitet. In den hier vorgestellten Arbeiten wurden 2.235 Enterobakterien und 492 P. aeruginosa Isolate aus fünf Lateinamerikanischen Ländern auf ihre Empfindlichkeit gegenüber CZA und anderen klinisch verfügbaren Antibiotika untersucht. Die CZA-resistenten Isolate wurden mittels PCR und Genomsequenzierung auf die zugrundeliegenden Resistenzmechanismen hin analysiert. CZA zeigte Aktivitäten gegenüber 99,2% (2.217/2.235) aller untersuchten Enterobacterales und 77,8% (383/492) aller P. aeruginosa Isolate. Als plausible Erklärung für die Resistenz gegen CZA konnte mittels qPCR bei allen Enterobakterien und bei 38,5% (42/109) der P. aeruginosa Isolate ein Metallo-β-Laktamase (MBL)-kodierendes Gen nachgewiesen werden. Die verbleibenden P. aeruginosa Isolate wurden einer Genomsequenzierung unterzogen, dabei zeigten sich Mutationen in Genen, die zuvor mit einer verringerten Empfindlichkeit gegen CZA assoziiert wurden, wie z.B. Genen die mit der Überexpression von MexAB-OprM und AmpC (PDC) in Verbindung stehen, sowie Genen, die PoxB (blaOXA-50-like), FtsI (PBP3), DacB (PBP4) und OprD kodieren. Unsere Ergebnisse unterstreichen die Notwendigkeit von Therapieoptionen gegenüber MBL-produzierenden und anderen Carbapenem-resistenten Mikroorganismen. Des Weiteren sind diese Studien eine Momentaufnahme der Empfindlichkeit gegen CZA vor dessen Verfügbarkeit in Lateinamerika und dienen deswegen als Ausgangspunkt um die Entwicklung von Resistenzen in dieser Region zu verfolgen.
Natrium/Protonen-Austauscher sind integrale Proteine biologischer Membranen und aufgrund ihrer funktionalen Abhängigkeit von einem elektrochemischen Gradienten der Klasse der Sekundärtransporter zugeordnet. Sie spielen eine essentielle Rolle sowohl in der Adaption von Bakterien an eine saline, alkalische Umgebung, als auch in der Regulation des intrazellulären pH- und Natriumhaushalts in Eukaryonten. Aufgrund der medizinischen Relevanz, unter anderem im Rahmen in der Behandlung des Herzinfarkts, besteht großes Interesse an der Struktur und den biochemischen Charakteristika des im Menschen ubiquitär vorkommenden Natrium/Protonen-Austauschers NHE1. Die heterologe und funktional aktive Produktion eukaryontischer Membranproteine stellt jedoch immer noch eine enorme Herausforderung dar, bei der sich das auf dem Semliki Forest Virus basierende Expressionssystem als gut geeignet erwiesen hat. Da die Überexpression von NHE1 mittels verschiedener eukaryontischer Expressionssysteme bisher kein kristallisationsfähiges Material liefern konnte, sollte in dieser Arbeit die heterologe Gewinnung von NHE1 mit dem Semliki Forest Virus Expressionssystem ermöglicht werden. Das Semliki Forest Virus Expressionssystem wurde auf Basis eines Vektorkonstrukts mit GFP zur späteren Übertragung der Parameter auf die Produktion von NHE1 etabliert. Konstrukte von NHE1 mit N- und C-terminalem Affinitäts-Tag wurden erfolgreich kloniert und zur Infektion von BHK-21 Zellkulturen eingesetzt. Dabei konnte beobachtet werden, dass der N-Terminus abgespalten wird und wahrscheinlich als Signalpeptid zum Einbau in die Membran dient. Das Protein wurde im Endoplasmatischen Retikulum lokalisiert, wo die Glykosylierung zum Transport in die Plasmamembran unterbleibt, was auf eine Interferenz mit der Virusinfektion zurückgeführt wurde. Eine Infektion der Zellen mit dem Semliki Forest Virus hat neben einem bereits bekannten massiven Anstieg des intrazellulären Natriumgehalts eine starke Alkalinisierung des Zytoplasma zur Folge. Ähnliches ist bisher über die Infektion von Zellen mit dem Poliovirus bekannt und stellt dort ein Schlüsselelement in der Sicherstellung der viralen Replikation dar, was auch für das Semliki Forest Virus zu gelten scheint. Die Expression von NHE1 konnte im 8 Liter-Maßstab optimiert und sowohl die Präparation als auch die Solubilisierung mit verschiedenen Detergenzien erfolgreich eingeführt werden. NHE1 erfährt jedoch bereits in vivo einen erheblichen proteolytischen Abbau, der sich während der Membranpräparation und Aufreinigung fortsetzt und zu einer Fragmentierung führt, die trotz des Einsatzes unterschiedlicher Kultivierungszeiten, Detergenzien, Additive oder Proteaseinhibitoren in vivo als auch in vitro nicht in einem Maße reduziert werden konnte, welches zur Gewinnung von kristallisationsfähigem Material erforderlich gewesen wäre. Es muss empfohlen werden einen in vivo Ansatz zu etablieren, um die proteolytische Degradation zu unterdrücken. Da die Virusreplikation nicht erforderlich ist, wäre Bafilomycin als Inhibitor der V-Typ ATPase geeignet, um die intrazelluläre Alkalinisierung und somit wahrscheinlich den Abbau von NHE1 zu verhindern. Ebenso erscheint der Einsatz von MG-132 zur spezifischen Inhibierung des Proteasoms Erfolg versprechend, was aber wegen hoher Kosten praktisch kaum in Frage kommt. Da man trotz individuell gelagerter Unterschiede zwischen den einzelnen Natrium/Protonen-Austauschern von einem ähnlichen Prinzip in Regulation und Transport ausgeht, wurden Strukturuntersuchungen mit Hilfe der Kryo-Elektronenmikroskopie am bakteriellen Natrium/Protonen-Antiporter NhaA aus Escherichia coli durchgeführt, um die strukturelle Basis der pH-Wahrnehmung und die Translokation von Natrium in das Periplasma besser zu verstehen. Die vorliegende Röntgen- und EM-Struktur repräsentieren den inaktiven Zustand, weshalb der eigentliche Ablauf des Transportvorgangs bisher biochemisch herzuleiten war, da bislang keine Kristalle im aktiven Zustand gezüchtet werden konnten. Durch die in situ Inkubation von 2D-Kristallen konnten aktive Zustände des Proteins direkt auf dem EM-Netz induziert und kryo-elektronenmikroskopisch festgehalten werden. Einzelne Datensätzen wiesen Reflexe bis zu 5 Å auf. Aus den angefertigten Projektionsdichte- und Differenzkarten ergaben sich pH- und Natrium-abhängige Konformationsänderungen. Die Röntgenstruktur wurde mit Hilfe des Molekularen Ersatzes in die EM-Struktur eingepasst und diente der Zuordnung und Interpretation der beobachteten Zustände als Basis. Die pH-abhängige Konformationsänderung wurde einem mit der funktional wichtigen Helix 9 assoziierten Bereich zugeordnet, welcher durch die Röntgenstruktur nicht definiert ist und wahrscheinlich die fehlenden Aminosäuren des regulatorisch relevanten N-Terminus enthält. Die beobachtete Konformationsänderung stellt das Entstehen einer besser geordneten Struktur dar und geht mit der pH-regulierten Aktivierung von NhaA zwischen pH 6 und 7 einher, weshalb dieser Bereich des Proteins zumindest als Bestandteil des sogenannten pH-Sensors betrachtet werden kann. Nach der vollständigen Aktivierung durch den pH-Wert, welche der folgenden Natrium-abhängigen Konformationsänderung vorauslaufen muss, konnte beobachtet werden, dass die Präsenz von Natrium im Rahmen der Ionentranslokation eine Bewegung des periplasmatischen Teils von Helix 4 induziert. Es wäre interessant, eine tiefergehende und genauere Charakterisierung der beobachteten Konformationsänderungen durch die Erstellung einer dreidimensionalen EM-Dichtekarte zu ermöglichen. Des Weiteren hat die eingehendere Untersuchung des röntgenkristallographischen Monomers nach der Einpassung in das physiologisch vorliegende Dimer der EM-Struktur sowohl eine für Membranproteine neuartige „Joint β-Sheet“ Dimerisierungsdomäne im Periplasma, als auch eine Verzahnung von Helix 7 und 9 an der Monomer-Monomer-Grenze aufgezeigt. Diesen Charakteristika kommt wahrscheinlich eine tragende Rolle in der Dimerisierung von NhaA zu, was durch weitere Untersuchungen im Rahmen einer Mutagenesestudie unter Einbeziehung der periplasmatischen β-Haarnadelstrukturen überprüft werden sollte.
Ziel dieser Studie ist eine videobasierte Analyse von Aufgaben im Unterricht zur Erklärung von Variationen des Beteiligungsverhaltens der Schüler/innen im Unterrichtsprozess. In der empirischen Unterrichtsforschung kommt dem Beteiligungsverhalten der Schüler/innen im Unterricht die Rolle einer Schlüsselvariable für die Wirksamkeit von Unterrichtsprozessen zu. Obwohl in theoretischen Modellen effektiven Unterrichts sowie in einer Reihe empirischer Untersuchungen die Qualität des Aufgabenangebots im Unterrichtsprozess als ein wichtiger Einflussfaktor für das Beteiligungsverhalten genannt wird, liegen kaum prozess-sensible Analysen zum Zusammenhang zwischen diesen beiden Geschehenskomponenten des Unterrichts vor. Die vorliegende, primär explorativ ausgerichtete Arbeit nimmt diesen Zusammenhang mittels videobasierter, quantitativ orientierter Verfahren systematischer Beobachtung in den Blick. Dazu wurden in sechs Klassen der 6. Jahrgangsstufe unterschiedlicher Schulformen jeweils vier Unterrichtsstunden des Faches Englisch videographiert. Im Vorfeld wurde mit den Schüler(inne)n (n=145) ein schriftlicher Leistungstest im Unterrichtsfach inklusive Fragen zur Person (Geschlecht und familiärer Sprachhintergrund) durchgeführt, sodass eine Differenzierung der im Unterrichtsprozess untersuchten Effekte nach unterschiedlichen Untergruppen möglich ist. Das Schülerbeteiligungsverhalten, operationalisiert als time on task, wurde mit einem niedrig-inferenten Beobachtungssystem im Intervallkodierungsverfahren erhoben, welches ein zeitlich vollständiges, individualisiertes Verlaufsprofil des Unterrichtsverhaltens aller Schüler/innen in der Klasse erlaubt. Die mittels Ereigniskodierverfahren erfassten Aufgaben wurden mit einem mehrdimensionalen, auf bestehenden Analyseinstrumentarien basierenden Kategoriensystem beschrieben.
In den Ergebnissen zeigt das Geschlecht als einzige Hintergrundvariable der Schüler/innen einen Einfluss auf die individuelle durchschnittliche Verhaltenstendenz im Unterricht. Bezogen auf die Hauptfrage der Studie lassen sich mit Blick in den Unterrichtsverlauf, das heißt auf Ebene der Einzelaufgabe, kaum belastbare Effekte von Variationen der erfassten Aufgabenmerkmale auf das Beteiligungsverhalten der Schüler/innen identifizieren. Bei Betrachtung des Aufgabenangebots auf Stundenebene sind hingegen eine Reihe schwacher bis mittlerer Zusammenhängen zwischen der stundenspezifischen Variabilität der Aufgabenmerkmale und dem durchschnittlichen on task-Niveau in der Klasse feststellbar, wobei sich die meisten dieser Effekte bei Berücksichtung von Untergruppen in der Klasse ausdifferenzieren. Insgesamt ergibt sich aus den vorliegenden Ergebnissen kein eindeutiges Bild zum Zusammenhang zwischen Eigenschaften des Aufgabenangebots im Unterricht und dem Beteiligungsverhalten der Schüler/innen. Die Befunde deuten vielmehr auf die Notwendigkeit zur Fokussierung einzelner Teilaspekte unter Schärfung der Analyseinstrumentarien sowie in Teilen der fokussierten Konstrukte hin. Die vorgelegten Ergebnisse bieten dafür zahlreiche Anschlussstellen und zeigen gleichzeitig Perspektiven zur Weiterentwicklung untersuchungs- bzw. auswertungsmethodischer Vorgehensweisen auf.
In der vorliegenden Arbeit wurde ein neuer Algorithmus für die automatische Optimierung einer NMR-Zuweisung des back bones in gelabelten Proteinen und seine Implementierung vorgestellt. Der Algorithmus ermöglicht eine Zuweisungsstrategie, die sich näher an der manuellen Vorgehensweise orientiert als vergleichbare Implementierungen von Lukin (LUK 11 ) [Lukin97] oder Leutner (PASTA) [Leutner98], da er die Entscheidung über konkurrierende Protospinsysteminterpretationen in die globale Optimierung der Zuweisung verlegt und die Benutzer nicht zwingt, sich vorzeitig auf eine Interpretation pro Aminosäure und Peak zu beschränken. Der Algorithmus löst daher nicht nur das Reihenfolgenproblem für einen schon vorgegebenen Satz von Protospinsystemen, sondern auch das Auswahlproblem zwischen verschiedenen, sich widersprechenden, Interpretationen der gleichen Peakgruppe. Durch das zusätzliche Auswahlproblem erhöht sich die Komplexität der Optimierungsaufgabe, der Lösungsraum wächst daher um mehrere Größenordnungen. Dies verlängert die Laufzeit für den einfachen RANDOM Algorithmus gegenüber einem vergleichbaren Reihenfolgeproblem. Es wurden daher verschiedene Methoden untersucht, um die Laufzeit wieder zu reduzieren. Die erzielten Verbesserungen führen nicht nur zu einer besseren Konvergenz, sondern ermöglichen auch erstmals eine echte parallele Implementierung des Algorithmus. Die algorithmischen Verbesserungen sind die Reduktion des Protospinsystemcaches und der GENETISCHe Algorithmus. Zusätzlich wurde eine verbesserte Konfiguration zur Kontrolle der Suboptimierer gefunden. Die Implementierung der zugrundeliegenden Datenstrukturen ermöglicht die Umsetzung zusätzlicher Nebenbedingungen für die Positionen der Protospinsysteme innerhalb der Zuweisung. Ein Beispiel für die Nebenbedingungen sind die knotenlokalen Filter und die Strukturfilter aus Kapitel 2. Ihre Effizienz wird am besten durch die Aminosäuretypenerkennung demonstriert, die die Größe des Lösungsraumes um 168 Größenordnungen für Trigger reduziert. Dadurch verringert sich die Laufzeit des RANDOM Algorithmus bis zu einem Faktor von 132. Für PASTA wurde in [Leutner98] statt dessen der umgekehrte Effekt auf die Laufzeit festgestellt. In ihrer Implementierung verlängert sich die Laufzeit auf das Doppelte. Der Unterschied kann nur durch eine unterschiedliche Nutzung der Aminosäuretypenerkennung im Protospinsystempool erklärt werden. PASTA nutzt diese Information anscheinend nicht, um den Pool und damit den Lösungsraum zu reduzieren, sondern nur bei der Bewertung der Zuweisung. Diese Konfiguration kann in RANDOM näherungsweise nachvollzogen werden, wenn man im AS-Cache jeder Aminosäure jedes Protospinsystem zuweist. Die Bewertung der Aminosäuretypen und den Austausch zwischen Pool und Individuum kann man aber nicht abschalten. Ein möglicher Nachteil der Reduktion des AS-Caches mittels der Aminosäuretypenerkennung ist die Möglichkeit, daß Aminosäuren mit untypischen Frequenzen der falschen Aminosäure zugewiesen werden oder nicht in den Cache für die theoretische Aminosäure aufgenommen werden. Um eine falsche Zuweisung durch die Reduktion auszuschließen oder zu überprüfen, kann man zuerst mit einem AS-Cache mit Typenerkennung optimieren und das Ergebnis in einer zweiten Optimierung mit einem AS-Cache ohne Typenerkennung nachoptimieren. Diese Möglichkeit wurde bei der Zuweisung von Trigger demonstriert. Für Trigger konnte durch den Wechsel des Caches gezeigt werden, daß auch mit dem reduzierten Cache eine stabile Zuweisung gefunden wird, die der Zuweisung ohne Aminosäuretypenerkennung weitgehend entspricht. Die Zuweisungen unterscheiden sich in Aminosäuren mit unsicherer Typenzuweisung. In Trigger wird nur ein Protospinsystem (Phe66,Ile67) aufgrund der Typeninformation von der Position im AS-Cache ausgeschlossen, der es in der manuellen und der Zuweisung ohne Reduktion zugewiesen wurde. In anderen Fällen führt erst die Typeninformation zur richtigen Zuweisung (zB. Thr60,Ile61), während die Zuweisung ohne Typenerkennung eine Fehlzuweisung erzeugt. Man sollte daher immer beide Versionen berechnen und dann vergleichen, da eine manuelle Zuweisung beide Defekte aufweisen kann, weil sie die Zuweisungsregeln nicht so strikt optimiert, wie es ein automatischer Algorithmus kann. Für beide Algorithmen wurde der Parameterraum untersucht und eine sowohl optimale als auch robuste Konfiguration gesucht. Dabei wurde der Einfluß jedes Parameters des Algorithmus auf die Laufzeit bis zur Konvergenz zum globalen theoretischen Maximum bestimmt. Bei RANDOM waren hauptsächlich die Zusammensetzung des Aktionsprofils und die minimale und maximale Lebenszeit der veränderten Zustände, minTTL und maxTTL, für die Laufzeit entscheidend. Alle drei kontrollieren, welche Pfade durch den Lösungsraum ab einem Zustand erlaubt sind. Die gleiche Untersuchung wurde auch für die Parameter der zu berechnenden Probleme (Proteine) durchgeführt. Für den Datensatz wurde sowohl der Einfluß der Proteingröße, des maximalen CA Abstandes zwischen den Peaks der benachbarten Aminosäuren und der Aufbereitung des Protospinsystemcaches auf die Laufzeit, als auch der Einfluß eines unvollständigen Datensatzes auf die Konvergenz untersucht. Der Algorithmus zeigte sich dabei sehr robust gegen fehlende Peaks, da bis zu 45% der theoretischen Peaks fehlen können, ohne daß die Konvergenz zum theoretischen Optimum verloren geht. Unterhalb von 55% hängt die Übereinstimmung der gefundenen Lösung mit der theoretischen Lösung von der Zusammensetzung der gebildeten Protospinsystemfragmente ab. Proteingröße und maximaler CA Abstand haben dagegen großen Einfluß auf die Laufzeit. Während die Parametrisierung des RANDOM Algorithmus sich auf die Untersuchung des Wertebereichs der Kontrollparameter beschränken kann, muß die Parametrisierung des GENETISCHen Algorithmus auch die verschiedenen Crossover Operatoren und die Kontrolle der Suboptimierer umfassen. In Kapitel 3 wurden die verschiedene Crossover Algorithmen und unterschiedliche Konfigurationsvarianten für den Suboptimierer im GENETISCHen Algorithmus untersucht. Die aus der Literatur bekannten Crossover Operatoren waren dabei den spezialisierten G Operatoren unterlegen. Auch die Varianten elitär und statistisch, die keinen genetischen Austausch zwischen verschiedenen Individuen zulassen, waren den speziellen Operatoren immer unterlegen. Selbst kleine Anteile eines Genaustausches bewirkten eine Verbesserung der Laufzeit und die Qualität der Lösung. Dabei verbesserte sich besonders die Konvergenz durch den genetischen Austausch. Die speziellen G Operatoren übertragen nur die Differenz der Eltern statt, wie im klassischen Crossover, blind irgendeinen zusammenhängenden Bereich zu kopieren. Dadurch vermeiden sie es, hauptsächlich identische Bereiche zu kopieren, sondern übertragen nur Protospinsysteme, die sich in den Eltern unterscheiden. Außerdem wurde die Effizienz der speziellen Operatoren noch weiter gesteigert, indem die übertragenen Informationen mit Hilfe von Filtern gezielt auswählt wurden. Die übertragene Differenz wird dazu aufgrund ihrer Nachbarn und der Verknüpfung mit den Nachbarn ausgewählt. Mit unterschiedlichen Filtern wurden so Bereiche mit einem unterschiedlich hohen lokalen Optimierungsgrad für die Übertragung ausgesucht. Die Laufzeituntersuchungen in Kapitel 3 zeigen, daß es eine Grenze für die Effizienzsteigerung durch die Übertragung lokal voroptimierter Bereiche gibt. Während es beim Wechsel von unkoordinierten, punktförmigen Übertragungen (s1) zur Übertragung von kurzen Strecken aus benachbarten Protospinsystemen, mit oder ohne Verknüpfung (s2), noch zu einer geringen Verbesserung der Laufzeit und der Konvergenz kommt, führt die zusätzliche Koordinierung der übertragenen Nachbarn durch die Nebenbedingung der Verknüpfung in den s3 Algorithmen sogar zu einer geringen Verschlechterung der Laufzeit. Die Gründe für die Verschlechterung konnten nicht eindeutig nachgewiesen werden. Möglicherweise verringert sich die Anzahl der kopierbaren Bereiche durch die zusätzlichen Nebenbedingungen so sehr, daß nicht genügend unterschiedliche Differenzen für die Übertragung in die neuen Individuen gebildet werden. Die neuen Individuen erhalten dann hauptsächlich die gleichen neuen Gene. Dadurch kann es zu einer Verarmung des genetischen Pools, d.h. zum Verlust der genetischen Diversität in der Population kommen. Die neuen Individuen suchen dann identische Bereiche im Lösungsraum ab und nehmen dadurch die lokale Optimierung doppelt vor. Dadurch verschwendet diese Konfiguration CPU Zeit auf schon untersuchte Bereiche. Neben der direkten Übertragung zusammenhängender Bereiche gibt es noch einen weiteren Faktor der die spezialisierten Operatoren, gegenüber dem klassischen Crossover, verbessert. Die Differenzbildung im Crossover nimmt auf die Konkurrenz um die Peaks zwischen den Protospinsystemen keine Rücksicht. Dadurch befinden sich die neuen Individuen zuerst meist im illegalen Teil des Zustandsraumes S n . Nach dem Crossover wird daher ein Teil der ursprünglichen Protospinsysteme des neuen Individuums durch den Reparaturmechanismus gelöscht und dadurch schon optimierte Bereiche zerstört. Daher kommt dem Reparaturmechanismus für illegale Zustände die entscheidende Rolle zu, denn er erzwingt die Neuberechnung der Positionen, die vor dem Crossover durch einen Konkurrenten eines übertragenen Protospinsystems belegt waren. Die ehemaligen Zuweisungen in den zerstörten Bereichen sind dabei nur über die Resourcenkonkurrenz mit den im Crossover neu injizierten korreliert. Das Crossover mit Zerstörungen erweitert dadurch den erreichbaren Lösungsraum, statt ihn, wie beim klassischen Crossover, auf den Raum zwischen den Eltern einzuschränken! Die Zerstörungen sind für die Optimierung daher von Vorteil. Außerdem zeigte sich in Kapitel 3, daß für die speziellen Operatoren eine besondere Konfiguration des Suboptimierers besonders effizient ist, die den einzelnen Individuen nur die CPU-Zeit zuteilt, die sie, effizienter als ihre Konkurrenten, zu einer Verbesserung nutzen können. Diese Verteilung der Rechenzeit wird durch die sogenannte Ratenbegrenzung erreicht. Die veränderlichsten Individuen erhalten dabei die meiste Rechenzeit. Dies sind normalerweise die Individuen, die in einem der letzten genetischen Zyklen neu erzeugt wurden. Sobald ein Individuum in ein tiefes lokales Optimum, d.h. eine Sackgasse, geraten ist, erhält es weniger Rechenzeit, da seine Verbesserungsrate unter den Schwellwert sinkt. Dadurch darf man den einzelnen Individuen eine höhere maximale Laufzeit zuteilen, da sie sie nur nutzen können, wenn sie sich währenddessen verbessern. Die Kombination "ratenbegrenzt" mit Operator Gs2p2A verbraucht trotz des komplexeren Algorithmus weniger CPU-Zeit bei gesteigerter Konvergenzwahrscheinlichkeit und geringerer paralleler Laufzeit als jede andere Konfiguration. Sie ist damit die beste bekannte Konfiguration für GENETISCH. Im Praxistest in Kapitel 5 mit dem Proteinabschnitt Trigger M bestanden zwischen den automatischen Zuordnungen und der manuellen Zuweisung nur geringe Unterschiede. Die Unterschiede zwischen den Optimierungen mit unterschiedlichen Caches entstehen hauptsächlich in den Bereichen, die an einem Ende keinen verknüpften Nachbarn haben oder bei denen die manuelle Zuweisung unsicher ist, wie im Bereich 10 - 20. Durch die automatische Zuweisung konnte die manuelle Zuweisung sogar an einigen Stellen vervollständigt werden. Sie ist daher einer manuellen Zuweisung gleichwertig. Darüber hinaus entsteht bei der automatischen Zuweisung immer eine Dokumentation über die Verwendung der Peaks, so daß man ungenutzte Spinsysteme leichter finden kann. Der genetische Algorithmus kann optimal auf einem Netzwerkcluster implementiert werden, daher bietet sich ein echte parallele Implementierung an. GENETISCH braucht dabei keine besondere Hardware, wie Vektorrechner, shared memory oder besonders schnelle Netzwerkverbindungen, sondern kann auf einer Gruppe von normalen Rechnern mit einer üblichen Ethernet100 Netzwerkverbindung implementiert werden, da nur zum Austausch der Individuen, bzw. ihrer Differenz, eine Kommunikation zwischen den Rechnern notwendig ist. Dadurch kann die Kommunikation auf wenige KB alle paar Sekunden beschränkt bleiben. GENETISCH sollte außerdem leicht zu skalieren sein, da man die Anzahl der Individuen leicht an größere Probleme anpassen kann. Eine echte parallele Implementierung erlaubt daher sowohl die Rechenzeit für komplexere Problem auf wenige Minuten zu reduzieren als auch größere und mehrdeutigere Spektren zuzuweisen. Außerdem kann man die Wahl der Prozessparameter selbst auch dem selben Optimierungsprozeß unterwerfen, der bisher für die Optimierung der Zuweisung verwendet wurde. Dadurch sollte es möglich sein, die Optimierungsparameter, analog dem Profil der Abkühlung im simulated annealing, dynamisch an die Phase der Optimierung anzupassen und den Individuen immer die optimalsten Optimierungsparameter zu bieten, ohne diese vorher von Hand suchen zu müssen. Diese Veränderung erfordert aber eine große Anzahl an Individuen und damit die echte parallele Implementierung.
Ziel der vorliegenden Arbeit war es, ausgewählte Gruppen der Dekapoden (brachyure Krabben, Einsiedler und Porzellankrebse) des PersischArabischen Golfes und des Golfes von Oman taxo nomischfaunistisch zu erfassen, eine Abschätzung des Artenreichtums und der Faunenzusam mensetzung vorzunehmen und die zoogeographischen Beziehungen innerhalb der Golfregion und zu anderen Teilen des westlichen Indischen Ozeans zu analysieren. Die Dekapodenfauna der Golfregion war -- im Gegensatz zur sehr viel besser untersuchten des Roten Meeres -- bislang Gegenstand vergleichsweise weniger wissenschaftlicher Arbeiten, und der faunistischtaxonomische Kenntnisstand stellte sich als entsprechend lückenhaft dar. Dies erwies sich einerseits als Problem bei der Beurteilung des Zustands von Lebensgemeinschaften und Folgeschäden nach der Ölkatastrophe von 1991, andererseits als Hindernis für Faunen vergleiche und zoogeographische Studien. Um vor allem die bislang wenig bearbeiteten eulitoralen Lebensräume wie Watten und Man groven, aber auch Korallenriffe, intensiv zu beproben, wurden Sammelreisen in verschiedene Teile des PersischArabischen Golfes und den Golf von Oman durchgeführt. Daneben wurde umfangreiches Museumsmaterial der bedeutenden Sammlungen aus der Golfregion taxonomisch untersucht, mit Material aus anderen Regionen verglichen und neu bewertet. Insgesamt konnte für den PersischArabischen Golf das Vorkommen von 188 Arten brachy urer Krabben, 20 Pagurideen (Einsiedlerkrebse) und 18 Porcellaniden (Porzellankrebse) eindeutig belegt werden; 43 Arten (37 Brachyuren, 4 Pagurideen und 2 Porcellaniden) wurden erstmals für den Golf nachgewiesen. Bei 11 dieser Neunachweise handelt es sich um bislang unbeschriebene Arten. Ein faunistischer Vergleich zu anderen Teilen des Indischen Ozeans zeigt, daß der Golf für die untersuchten Taxa insgesamt deutlich artenärmer als das Rote Meer oder die ostafrikanische Küste ist. Dies ist vor allem auf die geringere Ausdehnung und schlechtere Entwicklung von Korallenriffen sowie das Fehlen von Tiefwasserhabitaten, aber auch auf das Vorherrschen extre mer ökologischer Bedingungen in weiten Teilen des Golfes zurückzuführen. Zwischen verschie denen systematischen und ökologischen Gruppen bestehen allerdings große Unterschiede hinsichtlich des Artenreichtums. Während hartboden und korallenassoziierte Gruppen im Golf deutlich unterrepräsentiert sind, findet sich bei weichbodenbewohnenden Taxa eine vergleichs weise artenreiche Fauna. Besonders auffallend ist dabei der Artenreichtum der eulitoralen Ocypodidae, die mit 23 Arten im Golf eine weitaus höhere Artendiversität erreichen als im Roten Meer oder an der ostafrikanischen Küste und gemeinsam mit den ebenfalls vorwiegend in der Gezeitenzone leben den Grapsiden einen Schwerpunkt der Arbeit bildeten. Innerhalb der Golfregion zeigten sich für diese Familien große Unterschiede hinsichtlich des Artenreichtums und der Faunenzusammen setzung. Die Wattgebiete und Mangroven des nördlichen und des südöstlichen PersischArabi schen Golfes sowie des Golfes von Oman fallen dabei durch ihre sehr diverse Fauna auf. Stark verarmt ist dagegen die eulitorale Fauna des südwestlichen und westlichen Teils des Persisch Arabischen Golfes. Der Grund für diese Verarmung ist dabei vor allem im hohen Salzgehalt des küstennahen Wasserkörpers zu sehen. Die Ergebnisse der faunistischtaxonomischen Auswertungen ermöglichten eine zoogeogra phische Analyse, bei der die Dekapodenfauna sowohl auf ihre Homogenität innerhalb der Golf region, als auch auf ihre Beziehungen zu der aus anderen Teilen des Indischen Ozeans untersucht wurde. Hierzu wurden Endemismusraten und Verbreitungsmuster der aus dem Golf nachgewie senen Arten betrachtet sowie Faunenähnlichkeiten mit Hilfe multivariater statistischer Methoden analysiert. Zoogeographisch stellt sich die Dekapodenfauna der Golfregion als Mischung unterschied licher zoogeographischer Elemente dar. Dies reflektiert die Lage des Golfes am Übergang zwischen westlichem Indischen Ozean und indischer bzw. indomalaiischer Region. Die Endemis musraten liegen bei 6 % für Porcellaniden, 7 % für Brachyuren und rund 10 % für Pagurideen. Für keine der Gruppen läßt sich daraus eine Begründung für eine eigene Faunenprovinz oder ein Endemismuszentrum ableiten. Neben den Endemiten beinhaltet die Fauna Arten unterschied licher geographischer Beziehungen. Den größten Anteil stellen weit verbreitete Arten, die je nach Gruppe zwischen der Hälfte und zwei Dritteln der im Golf vorkommenden Arten ausmachen. Für die Einsiedlerkrebse sind daneben vor allem Arten aus dem Roten Meer und dem Golf von Aden von Bedeutung, was auf eine enge Beziehung der Pagurideenfauna zu diesen Gebieten hin weist. Dagegen sind für die Brachyuren indopakistanische und indomalaiische Arten von weit aus größerer Bedeutung, was eine größere Ähnlichkeit der Krabbenfauna zu der Pakistans und Indiens andeutet. Innerhalb der Golfregion ergaben sich für die Brachyurenfauna, insbesondere für Ocypodi den, deutliche Unterschiede hinsichtlich der zoogeographischen Beziehungen. Während der von östlichen Faunenelementen dominierte nördliche und östliche Golf kaum westliche Faunen elemente aufweist, stellen diese im südlichen Golf und vor allem im westlichen Teil des Golfes von Oman einen erheblichen Anteil an der Gesamtfauna. Getrennt werden diese beiden Gebiete durch die Bereiche des südlichen und westlichen Golfes, in denen die extrem hohen Salzgehalte eine wirksame Verbreitungsbarriere darstellen. Zumindest für einige Taxa ist demnach die Golf region nicht als einheitliche faunistischzoogeographische Region zu betrachten. Während der nördliche und östliche Teil des PersischArabischen Golfes zoogeographisch eng mit Pakistan verbunden sind, zeigen sein südlicher Teil und der westliche Golf von Oman engere Beziehungen zum Golf von Aden und dem Roten Meer. Aufgrund der vergleichsweise guten Dokumentation der Faunenzusammensetzung in ver schiedenen Teilen des Indischen Ozeans ließ sich für Ocypodiden und Grapsiden ein überregio naler Faunenvergleich mit Hilfe multivariater Analysenmethoden durchführen und eine zoogeo graphische Unterteilung des Indischen Ozeans vornehmen. Innerhalb des westlichen Teils des Indischen Ozeans lassen sich dabei drei Regionen aufgrund ihrer Faunenähnlichkeit voneinander abgrenzen. Dies sind -- eine ost/südostafrikanische Region, die von der Nordostküste Südafrikas bis nach Somalia reicht -- eine west/südarabische Region bestehend aus Rotem Meer, Golf von Aden, der südarabi schen Küste und dem westlichen Golf von Oman, die auch in den südöstlichen Persisch Arabischen Golf hineinzieht -- eine ostarabischpakistanische oder iranischpakistanische Region, die den nördlichen und östlichen Teil des PersischArabischen Golfes, den östlichen Golf von Oman sowie Pakistan und Nordwestindien umfaßt Hinsichtlich der Besiedlungsgeschichte des PersischArabischen Golfes zeigen die Ergebnisse, daß eine Besiedlung durch eulitorale Krabben zum größten Teil von der indischen Seite aus entlang der iranischen Küste stattgefunden haben muß, während später eingewanderte westliche Elemente aufgrund der massiven Salinitätsbarriere und der Strömungsverhältnisse auf den süd östlichsten Teil beschränkt blieben. Vor allem die Gezeitenzonen des PersischArabischen Golfes weisen teilweise sehr diverse Lebensgemeinschaften auf, deren Artenzusammensetzung in ihrer Mischung unterschiedlicher zoogeographischer Elemente einzigartig ist und den Einfluß verschiedener Wasserkörper auf den Golf anzeigt. Für die Ocypodiden führt dies zu einer hohen regionalen oder gammaDiversität sowie einer über reine Artendiversität hinausgehenden Diversität der Lebensgemeinschaften. Während sich die Folgen des Golfkriegs als weniger gravierend als ursprünglich befürchtet erwiesen haben, könnten Habitatzerstörung und schleichende Verschmutzung die Lebensgemein schaften des PersischArabischen Golfes irreparabel schädigen.
Aortic valve (AV) and root replacement with composite graft and re-implantation of coronary arteries described first by Bentall and de Bono in 1968, is considered as a standard operation for treatment of different pathologies of the AV and aortic root. In centres where aortic valve and root repair techniques and Ross operation are well established, generally severely diseased patients remain indicated for this procedure. The aim of this study was to evaluate the early and long-term outcomes after Bentall-De Bono (BD) procedures in high-risk population with complex pathologies and multiple comorbidities.
Between 2005 and 2018, a total of 273 consecutive patients (median age 66 years; 23 % female) underwent AV and root replacement with composite-graft in so called button technique. We divided our population in the following groups: 1. acute type A aortic dissection group (ATAAD) (n = 48), 2. endocarditis group (n = 99) and 3. all other pathologies group (n = 126). The surgery has been per- formed emergent/urgent in 131 patients (49 %) and in 109 cases (40%) as a reoperation. Concomitant surgery was required in 97 patients (58%) and 167 pa- tients (61%) received a biological composite-graft.
Follow-up was completed in 96% (10 patients lost to follow-up) with a mean of 8.6 years (range 0.1-15.7 years), counting a total of 1450 patient-years. Thirty- day mortality was 17% (46 patients). The overall estimated survival in 5 and 10 years was 64% ± 3%) and 46% ±4 %). Group comparison showed a significant difference in favour of patient from the dissection group (p = 0.008). Implantation of a biological valve graft was associated with lower survival probability (p < 0.001). There was no significant difference in the freedom of reoperation rate between the groups. The same applies for freedom of postoperative endocarditis, thromboembolic events, and aortic prosthesis dysfunction. According to the uni- variate and multivariate logistic regression analysis primarily postoperative neu- rological dysfunction (OR 5.45), hypertension (OR 4.8) peripheral artery disease (OR 4.4), re-exploration for bleeding (OR 3.37) and postoperative renal replace- ment therapy (OR 3.09) were identified as leading predictors of mortality.
In conclusion, the BD operation can be performed with acceptable short- and long-term results in high-risk patients with complex aortic pathologies in a centre with well-established AV repair and Ross operation program.
Verglichen mit normal progredierenden HIV-1 Infizierten weisen Langzeit Nicht-Progredierende (LTNP), trotz chronischer Infektion und ohne antivirale Therapie, keinerlei Anzeichen einer klinischen Progression sowie stabil hohe CD4+-Zellzahlen und eine geringe Viruslast auf. Für diesen ungewöhnlichen Infektionsverlauf wurden mehrere virologische, genetische und immunologische Ursachen in der Literatur beschrieben. Anhand einer gut charakterisierten LTNP-Kohorte und einer Kontrollgruppe mit vergleichbaren klinischen Markern, wurde hier der Einfluss der einzelnen Faktoren, vor allem der humoralen Immun-antwort, auf den Infektionsverlauf analysiert. Die Analyse viraler und patienteneigener Gene zeigt, dass keiner der LTNP die ccr5Delta32 Mutation aufweist und auch der Vergleich der viralen Proteine Env, Nef, Rev, Tat und Vpr ergab keine zwingende Ursache für ein Ausbleiben der Progression. So zeigt sich zwar eine Anreicherung von Insertionen in den Variablen Schleifen (v.a. V1/V2) in den Env der LTNP-Viren, die Funktionalität der viralen Hüllproteine wurde jedoch mit Hilfe HIV-1 Env-rekombinanter Reporterviren aufgezeigt. Die HIV-1 Env-rekombinanten Reporterviren der LTNP unterschieden sich weder in ihrer Infektiosität, noch in der Effizienz der frühen Replikationsschritte von den korrespondierenden Viren der HIV-1 Kontrollpatienten, was einen entscheidenden Einfluss der Hüllproteine auf den Infektionsverlauf nahezu aus-schließt. Seitens der zellulären Immunantwort wurden in einigen LTNP HLA-B Typen identifiziert, die in der Literatur mit einem verlangsamten Infektionsverlauf und einer aus-geprägten zellulären Immunantwort in Verbindung gebracht wurden. Die Untersuchung der zellulären Immunantwort der LTNP (außerhalb dieser Arbeit) ergab jedoch keine Besonder-heiten, was den Einfluss der identifizierten HLA-B Typen auf den nicht-progredierenden Infektionsverlauf relativiert. Die humorale Immunantwort der Patienten wurde in umfassen-den Neutralisationsstudien mit Hilfe der HIV-1 Env-rekombinanten Reporterviren analysiert. Hierbei zeigte sich, dass die LTNP, verglichen mit den HIV-1 Kontrollpatienten, eine signifikant bessere humorale Immunantwort besitzen. Zusammen mit den zuvor gewonnenen Erkenntnissen legt dies einen entscheidenden Einfluss neutralisierender Antikörper am Nicht-Progredieren der LTNP nahe. Durch den Einsatz HIV-1 Env-spezifischer Peptidphagen wurde die humorale Immunantwort der zwei Patientengruppen weiter untersucht, wobei einige Unterschiede zwischen der Antikörperantwort der LTNP und HIV-1 Kontrollpatienten aufgezeigt wurden. Mit Hilfe dieser Peptidphagen wurde in Versuchstieren eine HIV-1 Env-reaktive Immunant-wort induziert. Die Fusion von Myelomzellen mit den B-Zellen der immunisierten Tiere und die anschließende Selektion führten zur Isolierung HIV-1 Env-spezifischer Hybridomazellen. Um sich den Vorteil der langjährigen Antikörperreifung in den Patienten selbst zu Nutze zu machen und gezielt breit-neutralisierende Antikörper zu isolieren, wurden, ausgehend von B-Zell mRNA der LTNP, patienteneigene scFv Phagen Display Bibliotheken erstellt. Die in vitro Selektion dieser scFv Phagen Display Bibliotheken mit unterschiedlichen HIV-1 Env Varianten führte zur Isolierung einiger HIV-1 Env spezifischer scFv-Phagen. Die Untersuchung der Bindungseigenschaften des reaktivsten scFv-Phagens zeigte eine breite Reaktivität gegen unterschiedliche HIV-1 Env Varianten, die durch HIV-1 positives Serum kompetiert werden konnte. Das Epitop dieses scFv-Phagens wurde in der Variablen Schleife 3 von HIV-1 Env lokalisiert. Diese Arbeit zeigt den entscheidenden Einfluss der humoralen Immunantwort für die nicht-progredierende Infektion der hier untersuchten LTNP und gibt erste Hinweise auf mögliche Ursachen für die außergewöhnlich breite Serumreaktivität. Die Identifikation charakteristischer Eigenschaften in der humoralen Immunantwort, sowie die Identifizierung der hierfür verantwortlichen Antikörper kann bei der Entwicklung aktiver oder passiver Vakzine von entscheidendem Vorteil sein oder als Ausgangspunkt für neue therapeutische Ansätze dienen.
Die vorliegende Arbeit untersucht den Übergang von Mitarbeitenden zu Führungskräften. Der Fokus der Arbeit ist nicht die Konzeption der Führungskräfteentwicklung aus der Perspektive der Unternehmen, sondern die Untersuchung der Entstehung und Gestaltung dieses Übergangs durch die Mitarbeitenden innerhalb ihrer beruflichen Rahmenbedingungen. Die Ergebnisse dieser Arbeit zeigen, dass sich in der Gestaltung dieses Übergangs von Mitarbeitenden zur Führungskräften individuelle und organisatorische Aspekte verbinden – bzw. diese durch das Subjekt in eine Verbindung gebracht werden. Durch leitfadengestützte Interviews mit (berufs-) biografischem Schwerpunkt ließen sich die individuellen, wie auch die sozialen und organisatorischen Aspekte der Gestaltung des Übergangs von Mitarbeitenden zur Führungskräften rekonstruieren. Die Stichprobe dieser Arbeit umfasst neun Interviews aus unterschiedlichsten Branchen und beinhaltet sowohl öffentliche als auch privatwirtschaftliche Arbeitgeber. Die dadurch gewonnenen Erkenntnisse ermöglichen Einsichten in die Formen und Bedingungen der Gestaltung dieses Übergangs und können auch eine Grundlage für (organisations-)pädagogische Konzepte zur Unterstützung der Mitarbeitenden bei diesem Übergang bilden.
Die Arbeit „Zwischen Kooperation und Wetteifer – Interaktionen und mediale Organisation von Kreativität am Beispiel des koopetitiven Ideennetzwerks jovoto“ untersucht internetbasierte Kokreativität – die gemeinsame Ideenentwicklung im Mediennetzwerk. Im Unterschied zu vorangegangen Untersuchungen, die sich mit den Motiven für die häufig unentgeltlichen kokreativen Aktivitäten und dem Innovationspotential dieser Organisationsform beschäftigten, liegt der Fokus dieser Studie auf der Kommunikation der Akteure untereinander während der Kokreation. Als Fallbeispiel wird die Design-Ideenplattform jovoto ausgewählt, die Kreativität auf der Basis von Koopetition – der Gleichzeitigkeit von Kooperation und Wettbewerb – unter den Teilnehmern fördert. Die Ideenautoren im Netzwerk von jovoto entwickeln kreative Lösungen in den Bereichen Produktdesign, Kampagnen, Innovation und Architektur. Die Teilnehmer treten mit ihren Ideen im Wettbewerb gegeneinander an; gleichzeitig kommentieren und bewerten sie sich gegenseitig im Prozess der Ideenentwicklung. Aus den Bewertungen der Community ergeben sich die Gewinner des ausgeschriebenen Preisgeldes. Aus dieser Gleichzeitigkeit von Wettbewerb und Kooperation ergibt sich die Forschungsfrage dieser Untersuchung: Wie ist das Verhältnis zwischen Kooperation und Wettbewerb im Kokreationsnetzwerk jovoto bestimmt, und wie wirkt dies auf Kreativität? Um diese Frage zu beantworten, untersuche ich die auf der Plattform dokumentierten Interaktionen (Kommentar-Threads) zwischen den Ideenentwicklern und anderen Community-Mitgliedern mit qualitativen und quantitativen Methoden und analysiere zwanzig von mir geführte halbstrukturierte Leitfaden-Interviews mit den Ideenautoren auf jovoto. Zur theoretischen Einordnung der beobachteten Phänomene stütze ich mich sowohl auf Kultur- und Kommunikationstheorien des radikal-konstruktivistischen Erkenntnismodells als auch auf die kulturellen Spieltheorien von Johan Huizinga und Roger Caillois. Ich beziehe zudem Ansätze ein, die Kokreativität als eine Form der kulturellen Produktivität beschreiben. Einen weiteren Anhaltspunkt bilden Studien, die sich mit der produktiven Beziehung zwischen Kooperation und Wettbewerb auseinandersetzen. Ergänzt werden diese Erkenntnisse bspw. durch die These zur Intelligenz der Crowd in heterogenen Gruppen von Entscheidern und durch Untersuchungen zum positiven Einfluss von Differenzen und Konflikten auf die Gruppenkreativität. Ich führe diese Vorarbeiten zu einer Modellvorstellung zusammen: In dieser verknüpft der koopetitive Handlungskontext ein Kooperationsspiel mit einem Wettbewerbsspiel, und zwar mithilfe von Kreativität: Diese ermöglicht, dass der Fokus im Spiel – von der Betonung und Vergrößerung des Gemeinsamen zwischen den Teilnehmern zur Betonung ihrer Differenzen – wechseln kann. Hieraus leite ich Hypothesen ab, die ich empirisch überprüfe: Während einer sechsmonatigen Beobachtung des Plattformgeschehens habe ich Daten zu 135 Wettbewerben auf jovoto erhoben. Die Analyse von über 2.400 Kommentaren ergibt, dass die beiden Leitkategorien „Bestätigung“ und „Herausforderung“ das kokreative Kommunikationsgeschehen charakterisieren. Hiervon ausgehende qualitative und quantitative Untersuchungen zu 54 Diskussions-Threads ergeben: In der Platzierung erfolgreiche Ideen werden von intensiveren Diskussionen begleitet als weniger erfolgreiche. Bemerkenswert ist, dass sie nicht nur eine größere Zahl bestätigender Kommentare erhalten, sondern auch mehr Herausforderungen. Die im Schnitt höchste Punktzahl geht mit einem Verhältnis von rund acht Bestätigungen je Herausforderung einher. Dieses Ergebnis bestätigt die Ausgangshypothese, dass es sich bei den Ideenwettbewerben um ein Kommunikationsspiel mit kooperativer, wetteifernder und kreativer Komponente handelt: In den Interaktionen zu den Ideenbeiträgen, insbesondere den erfolgreichen, herrscht ein Wechsel zwischen Bestätigungen und Herausforderungen vor. Aus den Aussagen der Ideenautoren in den geführten Interviews wird ein zentraler Konflikt deutlich: Die Tätigkeit bringt einen hohen Aufwand und wenig Aussicht auf Gewinn mit sich. Unterm Strich scheint sie jedoch lohnenswert, da die Akteure wichtige Lernerfahrungen im Netzwerk sammeln können und die eigenen Fähigkeiten einzuschätzen lernen. Dass die kreativen Beiträge anderer Wettbewerbsteilnehmer von anderen rege diskutiert werden, belegt den Erfolg des Organisationsmodells der Kokreation. Dieser verhält sich konträr zu den Vorhersagen herkömmlicher ökonomischer Theorie, die rein eigennützige Akteure annimmt, und deutet auf die Relevanz von Theorien hin, die wechselseitiges Feedback und dessen Gratifikationen als Faktoren in der netzwerkbasierte Produktion zentral berücksichtigen.
Qualität und Qualitätsmanagement in der universitären naturwissenschaftlichen Lehrerfortbildung
(2010)
Vor dem Hintergrund der politischen Entwicklungen in Hessen und der allgemeinen Debatte über Qualität im Bildungsbereich sollte im Lehrerfortbildungszentrum Chemie (lfbz-Chemie) der Universität Frankfurt am Main eine systematische Qualitätsentwicklung etabliert und dieses Vorhaben wissenschatflich begleitet werden. Die wissenschaftliche Arbeit besteht aus drei Säulen: - Eine erste, qualitative Studie sollte Qualitätskriterien und -indikatoren liefern. - In einer Fallstudie am lfbz-Chemie Frankfurt sollte die Einführung von Instrumenten des Qualitätsmanagements aus dem gewerblichen Weiterbildungsbereich beobachtet und bewertet werden. - Eine bundesweite Umfrage unter universitären Fortbildungsanbietern im naturwissenschaftlichen Bereich sollte sowohl die Struktur der anbietenden Institutionen als auch die allgemeine Einstellung der Befragten zum professionellen Qualitätsmanagement (QM) nach einem im gewerblichen Bereich geläufigen Modell (LQW) beleuchten. Die Qualitätsindikatoren und -kriterien fielen sehr spezifisch für die naturwissenschaftliche Lehrerfortbildung aus. Allein die drei folgenden Bereiche erfassen zwei Drittel aller Nennungen: die „Qualität der Teamer bzw. Moderatoren“, die „Fortbildungsgestaltung“ und die „Zielgruppenorientierung (Schulbezug)“. Nimmt man die Anzahl der Indikatoren und Kriterien pro Bereich als Maßstab, fokussieren die Befragten sehr stark auf Anforderungen, die die Professionalität des Personals betreffen. Zur Orientierung für die Qualitätsarbeit am lfbz-Chemie (Fallstudie) wurde das QM-Modell LQW 2 gewählt; als kleinere Instrumente kamen die Tabellen nach dem Vorbild der Balanced Scorecard (BSC) nach Kaplan und Norton sowie die Stärken-Schwächen-Analyse zum Einsatz. Als erstes Ergebnis der Fallstudie kristallisierten sich drei Arbeitsbereiche heraus: Personalorganisation, Evaluation und Innovationen. Diese Arbeitsfelder ergänzten die identifizierten Anforderungen an Fortbildung somit um Bereiche, die eher der organisatorischen Ebene zuzuordnen sind. Es ließ sich in der Fallstudie feststellen, dass ein ganzes Qualitätsmanagementmodell wie LQW 2 nur als Anregung für den einen oder anderen, als wichtig erachteten Bereich dienen konnte, während sich kleinere Instrumente eher als handhabbar erwiesen. Außerdem konnte postuliert werden, dass - ein persönlicheres Eingehen auf die Ziele und Aufgaben der einzelnen Personen im Sinne eines Total Quality Managements vermutlich zu besseren Ergebnissen geführt hätte als die Konzentration auf allgemeine Themen und die Orientierung am eher abstrakten Modell, - Erfolge sehr nachdrücklich kommuniziert werden müssen und - möglichst eine Person aus dem Stammpersonal für den Bereich Qualität verantwortlich sein sollte. Um ergänzend zur Fallstudie zu allgemeineren Schlüssen gelangen zu können, wurde eine Charakterisierung der universitären Fortbildungsanbieter mittels Clusteranalyse mit Daten der bundesweiten Umfrage durchgeführt. Sie zeigte vier Typen von Anbietern auf. Insgesamt fanden sich neben der Gruppe der großen Anbieter, zu denen auch das lfbz-Chemie gehört, nur vergleichsweise kleine Anbieter. Die in der Fallstudie erhaltenen Ergebnisse können somit nur eingeschränkt auf die meisten Anbieter übertragen werden. Insgesamt konnten Stärken und Schwächen der universitären Anbieter identifiziert werden, mit denen sich die universitäre naturwissenschaftliche Lehrerfortbildung von der gewerblichen Weiterbildung abhebt. Stärken lagen vor allem in den besonderen Kompetenzen, die an der Hochschule anzutreffen sind. Problemfelder lagen ausgerechnet hauptsächlich im Personalbereich. Als spezifische Schwächen der universitären Anbieter im Personalbereich kann z. B. die Stellung der Fortbildung als Nebenaufgabe oder der Verlust von Know-how durch die Fluktuation des Personals gelten. Auch allgemein kann ein Modell wie LQW 2 als Anregung für die Qualitätsarbeit in der universitären Lehrerfortbildung dienen, nicht jedoch umfassend umgesetzt werden. Die „kleineren“ Instrumente können dagegen eher als allgemein geeignet betrachtet werden. Während die „großen“ Anbieter durch verbesserte personelle Ressourcen für Aufgaben wie die Qualitätsarbeit unterstützt werden könnten, bietet sich für die „kleinen“ Anbieter eher die Unterstützung durch eine zentrale Stelle der Universität an, um die Fortbildungsanbieter doch noch in ein professionelles Qualitätsmanagement einbinden zu können.
Das Leben aller Organismen wird grundlegend durch den tages- und jahreszeitlich bedingten Wechsel der Beleuchtungsverhältnisse geprägt. Die Anpassung der Stoffwechselprozesse und Verhaltensweisen an diese Oszillationen erfolgt nicht passiv, sondern wird durch eine innere Uhr gesteuert. Tageszeitliche Rhythmen, die auch ohne den Einfluss äußerer, periodisch verlaufender Umgebungsreize (Zeitgeber) ablaufen, werden als zirkadiane Rhythmen bezeichnet. Im Säugetier steuert ein endogener Rhythmusgenerator im Nucleus suprachiasmaticus (SCN) zirkadiane Rhythmen, indem er periphere Oszillatoren miteinander synchronisiert. Auf molekularer Ebene besteht dieser endogener Rhythmusgenerator aus Aktivatoren (BMAL1 und CLOCK/NPAS2) und Inhibitoren (PER1/2 und Cry1/2), die in Rückkopplungsschleifen die Grundlage für die Rhythmogenese steuern. Die Synchronisation dieses molekularen Uhrwerkes an die Umgebungszeit erfolgt durch Licht, das in der Retina wahrgenommen und an das SCN weitergeleitet wird. Die Signaltransduktionskaskaden nach einem Lichtpuls in der frühen und der späten Nacht unterscheiden sich dabei wesentlich: Ein Lichtpuls während der frühen Nacht führt zu einer erhöhten Freisetzung von Ca2+-Ionen über Ryanodin Rezeptoren (RYR), während ein Lichtpuls während der späten Nacht zu einer erhöhten Guanylylcyclase Aktivität führt. Um zu untersuchen, wie der endogene Rhythmusgenerator seinen Lichteingang reguliert, wurde die Licht-vermittelte Phasenverzögerung in BMAL1+/+- (profizienten) und BMAL1-/-- (defizienten) Mäusen untersucht. Die Befunde aus den in-situ Hybridisierungsstudien, RTQ-PCR und immunhistochemischen Untersuchungen dieser Arbeit zeigten, dass in BMAL1-/--Mäusen die Licht-induzierte mPer-Expression während der frühen Nacht selektiv beeinträchtigt ist. Zudem konnte gezeigt werden, dass die mRNA- und Proteinmengen von RYRs in BMAL1-/--Mäusen dramatisch reduziert waren. Ryr1:: und Ryr2::Luciferase-Reportersstudien zeigten darüber hinaus, dass die Ryr-Expression durch CLOCK/BMAL1 aktiviert und durch CRY1inhibiert werden kann. Diese Ergebnisse liefern den ersten Beweis dafür, dass der endogene Rhythmusgenerator des Säugers die Signalübertragung seines eigenen Lichteingangs regulieren kann. Weiterhin wurde in dieser Arbeit die ontogenetische Entwicklung des endogenen Rhythmusgenerators im SCN und in einem Melatonin-abhängigen peripheren Oszillator, der PT, untersucht und miteinander verglichen. Dazu wurden die Uhrengenproteine im fetalen (E18), postnatalen (P2 & P10) und adulten SCN und in der PT von C3H-Mäusen zu vier verschiedenen zirkadianen Zeitpunkten mittels Immunhistochemie untersucht. Die Anzahl immunreaktiver SCN-Zellen gegen alle untersuchten Uhrengenproteine (außer BMAL1) war im Fetus signifikant niedriger, als in der adulten Maus. Auch im SCN neonataler (P2) Mäuse erreichte die Anzahl immunreaktiver Zellen noch nicht das Niveau der adulten Maus. Erst 10 Tage nach der Geburt (P10) zeigen alle Uhrengenproteine im SCN ein adultes Verteilungsmuster. Offenbar reift das Uhrwerk im SCN von Mäusen graduell während der postnatalen Entwicklungsphase. Dabei besteht eine zeitliche Korrelation zwischen der Reifung des endogenen Rhythmusgenerators im SCN und der Ausbildung von inter-suprachiasmatischen und retino-suprachiaamatischen neuronalen Kontakten. Im Gegensatz zum SCN zeigte der Melatonin-abhängigen Oszilllator in der PT bereits im Fetus einen nahezu vollständig ausgeprägten Rhythmus der Uhrengenproteine. Da das fetale Pinealorgan noch nicht zur rhythmischen Melatonin-Synthese fähig ist, liegt es nahe, dass das mütterliche Melatonin die rhythmische Expression der Uhrengene in der fetalen PT reguliert. Wie in vitro Untersuchungen an PER2::LUCIFERASE-Mäusen zeigten, hat das mütterliche Melatonin offenbar auch einen modulierenden Einfluss auf den fetalen SCN. Bei diesen Mäusen konnte im fetalen und postnatalen SCN ein zirkadianer Rhythmus in der PER2-Synthese nachgewiesen werden, der eine relativ lange Periodenlänge aufwies und nach 3 Tagen zum Erliegen kam. Eine Stimulation mit Melatonin führte zu einer deutlichen Verkürzung der Periodenlänge im PER2-Rhythmus. Folglich scheint das mütterliche Melatonin eine wichtige Quelle für Informationen der Umgebungszeit im Fetus zu sein. Um die Uhrengenexpression während der Maus-Ontogenese in vitro auf zellulärer Ebene darzustellen, wurde in dieser Arbeit zudem ein vom murinen Per2-Promoter angetriebenes DsRed- Reportersystem etabliert und der Versuch begonnen, eine darauf basierende transgene Maus zu generieren.
Landwirtschaft ist der Hauptmotor der westafrikanischen Wirtschaft und Kleinbauern liefern fast 70 % des Nahrungsmittelbedarfs. Traditionell wird hauptsächlich Regenfeldbau betrieben, der durch geringen Agrarinput und die Nutzung von einfachen Werkzeugen wie Hacke und Buschmesser gekennzeichnet ist. Die Ernteerträge sind gering und die Bodenfruchtbarkeit sinkt schnell nach einigen Anbaujahren. Infolgedessen werden Wald- und Weidefläche gerodet und die Landdegradation wird beschleunigt. Dies hat direkte Auswirkungen auf die landwirtschaftliche Produktivität und die Ernährungssicherheit der Kleinbauern.
Die vorliegende Arbeit hat sich das Ziel gesetzt, sozio-ökonomische und geo-ökologische Faktoren, die den Landnutzungswandel in zwei Agrarökosystemen der Atakora Gebirgskette steuern, aufzudecken. Schließlich sollen ortsangepasste Maßnahmen vorgeschlagen werden, um die Agrarökosysteme wiederherzustellen und ihre Dienstleistungen für Kleinbauern zu erhalten.
Haushaltsbefragungen und Gruppendiskussionen wurden während Geländeaufenthalten in den Jahren 2014 und 2015 in den Dörfern der beiden Ethnien durchgeführt. Die Landnutzung und ihr Wandel werden über knapp 30 Jahre anhand von Bildern des Satellitensystems LANDSAT aus den Jahren 1987, 2001 und 2015 ausgewertet. Eine überwachte Klassifikation nach dem „Maximum Likelihood“-Klassifkationsalgorithmus und Veränderungs-analysen wurden durchgeführt. Zum Erfassen der Variabilität der Agrarparameter der Böden wurden Bodenprofile nach dem Catena-Prinzip gegraben. Bodenproben wurden aus jedem Horizont genommen. Anschließend wurden einige physische Parameter und die Nährstoffgehalte vom Fachpersonal des bodenkundlichen Labors des Instituts für Physische Geographie (Geowissenschaften) bestimmt.
Innerhalb der knapp letzten dreißig Jahre (1987-2015) ist die natürliche Vegetation bei den beiden Ethnien zugunsten der Landwirtschaft und der bebauten bzw. vegetationsfreien Flächen zurückgegangen. Über die analysierten Zeiträume liegen mehr Flächen bei den Ditamari (47,24%) unter einer negativen Dynamik als bei den Éwé (36,41%). Die Untersuchung der Steuerungsfaktoren des Landnutzungswandels bringt heraus, dass der höhere Anteil an positiv veränderten Flächen bei den Éwé ist nicht durch bessere Landnutzungsstrategien begründet. Vielmehr stellt das Relief der begrenzende Faktor für die Ausdehnung der Ackerflächen und damit die bessere Erhaltung der natürlichen Vegetation bei den Éwé dar.
Die erste Annahme, dass Veränderungen in der Landnutzung die Landdegradation zur Folge haben, wird in den beiden Untersuchungsgebieten bestätigt. Die abnehmende Dichte der Vegetationsdecke begünstigt Prozesse der Flächen-, Rillen- und Rinnenspülung. Zudem werden die ökologischen Bodenfunktionen vermindert. Erscheinungen der Landdegradation bei den Ditamari sind die Ausdehnung von oberflächlich verkrusteten Arealen und die Verbreitung des Unkrautes Striga hermontica. Bei den Éwés tritt eine starke Profilverkürzung der Böden ein und das anstehende Gestein wird an mehreren Stellen freigelegt.
Die zweite Hypothese wird in Hinsicht auf die räumliche und ethnische Differenzierung der Folgen der Landdegradation bestätigt. Allerdings sind nicht, wie vermutet, die Ditamari verletzbarer als die Éwés. Die beiden Ethnien betreiben eine intensive Subsistenzwirtschaft und die Éwé entwickeln weniger Anpassungsstrategien als die Ditamari. Im Hinblick auf die globale Erwärmung könnte die Landdegradation in den beiden Gebieten fortschreiten und die Folgen auf der Landschaft und den Kleinbauern verschärfen. Die Éwé wären, anders als vermutet, verletzbarer als die Ditamari. Eine Fortschreitung der Landdegradation könnte bei den Kleinbauern Éwés langfristig den Zusammenbruch des Agrarökosystemen hervorrufen. Sie könnten langfristig die Grundlage ihrer Existenzsicherung verlieren.
Die Studie zeigt auf, dass traditionell, zurückgezogen lebende Völker wie die Ditamari das Agrarökosystem nachhaltiger bewirtschaften und angesichts der Landdegradation anpassungsfähiger sind als tief umgewandelte Gesellschaften wie die Éwés. Sie bringt heraus, dass Kleinbauern Westafrikas keinesfalls als eine Einheit betrachtet werden sollten. Jede Ethnie ist durch Merkmale gekennzeichnet, die ihre Gestaltung der Landschaft beeinflussen. Diese Vielfältigkeit und Besonderheiten der kleinbäuerlichen Gesellschaften müssen in der Entwicklungszusammenarbeit stärker berücksichtigt werden.
Across the entire animal kingdom, sociality, i.e. the tendency of individual animals to form a group with conspecifics, is a common trait. Environmental changes have to be met with corresponding, quick adaptations. For social species, the presence of conspecifics is important for survival and if social animals are deprived of access to conspecifics, this can lead to strong and lasting changes on a physiological level as well as behaviour. Gene expression changes responsible for these adaptations have so far not been understood in detail. As social isolation leads to changes on a neuronal level, it is important to investigate the gene expression changes that are induced in the brain. In this thesis, next-generation RNA-sequencing was applied to zebrafish, a well-established model organism characterized by its high degree of companionship. Within the entire brain, gene expression was analysed in zebrafish that were raised either with conspecifis or in isolation, ranging from 5 to 21 days post fertilization. Using this approach, several genes were identified that were downregulated by social isolation. In this thesis, I focused on one of these consistently downregulated genes, parathyroid hormone 2 (pth2). The expression of pth2 was demonstrated to be bidirectionally regulated by the number of conspecifics present and to be responsive to changes in the social environment within 30 minutes. Regulation of pth2 does not occur by visual or chemosensory access to conspecifcs, but is mediated by mechanosensory perception of other fish via the lateral line. In an experiment using an artificial mechanical stimulation paradigm, it was shown that the features necessary to elicit pth2 transcription closely mimick the locomotion of actual zebrafish. Other, similar stimulation paradigms are not capable to induce this transcriptional response.
Hintergrund: Geschlechtsunterschiede in der kardialen Repolarisation und der korrigierten QT-Zeit sind seit der Beschreibung von Bazett in den 1920er Jahren bekannt. Gesunde Frauen haben längere QT-Zeiten und werden öfter durch medikamenteninduzierte Arrhythmien betroffen als Männer. Patientinnen, die unter der erblichen Form des Langen QT-Syndroms (LQTS) leiden, weisen ein niedrigeres Risiko für kardiale Ereignisse während der Schwangerschaft auf. Dies ist nach einer Schwangerschaft deutlich erhöht. Weibliche Geschlechtshormone könnten eine wichtige Rolle spielen; ihr Einfluss ist aber noch unklar. Hypothese: Veränderungen von Östrogen, Progesteron und dem Östrogen/Progesteron Quotienten sind mit einer Veränderung der QTc-Zeit assoziiert. Methoden: Diese Studie gliedert sich in einen klinischen und einen experimentellen Teil. Im klinischen Teil wurden die Geschlechtshormone und die QTc-Zeiten von insgesamt 21 Frauen untersucht. Drei LQTS2-Patientinnen (heterozygote Trägerinnen der HERG-Mutante R752P) und zwei Genotyp negativen weiblichen Familienmitgliedern wurden während des Menstruationszyklus gemessen (inklusive Elektrolytbestimmung). Die zweite Gruppe bestand aus elf gesunden Frauen, die während einer hormonalen Stimulationstherapie gemessen wurden. Eine letzte Gruppe bestand aus fünf gesunden Frauen, die vor, während und nach einer Schwangerschaft untersucht wurden. Im experimentellen Teil wurde die Wirkung von Östradiol (E2) auf Zellkulturen, die mit HERG-DNA (Wildtyp oder R752P), Östrogenrezeptor-DNA (ERalpha oder ERbeta) oder beidem transfiziert waren, mittels konfokaler Mikroskopie untersucht. Ergebnisse: Im klinischen Teil der Studie zeigte sich, dass E2 mit steigender Serum-Konzentration (in allen drei Gruppen) die QTc-Zeit verkürzte (p <= 0,001). Dieser Effekt ist als elektrolyt-unabhängig zu werten. Einen signifikanten Effekt von Progesteron oder dem E2/Progesteron Quotienten konnten wir nicht nachweisen. Als zugrunde liegender zellulärer Mechanismus zeigte sich eine ERalpha-abhängige Zunahme von HERG-Kaliumkanälen an der Plasmamembran. Dieser Effekt war bei der Mutante (R752P) nicht nachweisbar und konnte für ERbeta oder ohne ER nicht gezeigt werden. Ob die Zunahme durch vermehrtes "Trafficking", eine vermehrte Transkription oder einen anderen Mechanismus bedingt ist, kann noch nicht abschließend beurteilt werden. Schlussfolgerung: Eine Zunahme der E2-Serumkonzentration führt in Abhängigkeit von ERalpha zu vermehrter HERG-Lokalisation an der äußeren Zellmembran und erklärt so die Verkürzung der QTc-Zeit. Für die Zukunft könnte man erwägen, LQTS-Patientinnen in der Postpartal-Periode mit E2 zu behandeln, um so möglichen kardialen Ereignissen durch tachykarde Rhythmusstörungen vorzubeugen. Weiterhin wäre zu erwägen, Patientinnen mit erworbenem LQTS ebenso zu behandeln.
This thesis aims to analyse in a first step the physical and chemical properties of soil profiles along pedomorphological transects in different land used conditions (protected, partly protected as well as cultivated and pastured areas) in North West Benin and in South East Burkina Faso. The information about soils, which are carried out in consideration of the pedogenesis processes like weathering types, saprolitisation, formation of laterite crusts and denudation within the planation surfaces are therefore correlated in a second step with the structure and dynamic of woody plant around individual soil profiles. The relationship soil properties and woody plant is investigated in order to assess the reciprocal influence between the diversity of woody plants and soil characteristics within a small scale study and under different land use conditions.
A common vertical and lateral differentiation of physical and chemical properties regardless of the partly protected, protected and cultivated status of the sites can be noticed. Thus, in the cultivated site of Kikideni and in the partly protected zone of Natiabouani (South East Burkina Faso) sandy loam and sandy clay loam soil surfaces are widespread because of the occurrence of similar erosion processes like sheet wash, rill and gully erosion while in the central part of the Pendjari National Park loamy soil textures are prevailing. In fact, the steepness of the relief and the length of the slopes in the Pendjari Park seem to limit the development of some erosion forms as gully. Furthermore, the classification of soils reflects the variation of pedological processes along the transects and thus the occurrence of different soil types. The status of the sites may play an insignificant role in the differentiation of soil properties within the scale of small pedomorphological transects. A direct comparison of the vegetation type in the land use respectively partly protected and in the total protected sites (National Park of Pendjari) reveals a transition from the shrub savanna to the tree savanna. In conclusion it is important to insist on the fact that the variations of soil parameters within small slopes and the different sites are more conditioned by varying erosion processes and drainage conditions than the status protected or land use sites while the composition and diversity of plants is influenced by the status of the sites, the prevailing management tools, the pedogenetic conditions as well as the presence of wild animals like elephants. The ordination diagram shows that the organic matter is better correlated to the subgroup representing principally the sites of the hunting zone of the Pendjari Park and might be an explaining factor to the distribution of these sample sites groups. CEC ratios in the partly protected site of Natiabouani represent the highest measured in all sites. Nevertheless, statistical analysis of the CCA (canonical correspondence analysis) indicates generally a low correlation. This tendency is consolidated by the Monte Carlo test (p=0.14) which is a good indicator of species and environmental conditions. The detailed analysis of soil properties and the vegetation dynamic as well as their relationship within small pedomorphological transects represent an important pedological and botanical data collection involving different compartments. This thesis contributes to the better understanding of the savanna landscapes of West Africa and may provide essential scientific background for each development project directed towards interdisciplinary and integrative researches.
Schwerpunkt der vorliegenden Arbeit war die Formulierungsentwicklung eines nanopartikulären Arzneistoffträgers für Zytostatika zur Gewinnung einer „Drug Targeting“ Zubereitung. Im Fokus der Arbeit stand dabei die Stabilität der unterschiedlichen Zubereitungen. Die untersuchten Partikel waren dabei auf Basis von humanem Serumalbumin. Mittels einer etablierten Desolvatationsmethode ließen sich reproduzierbar Nanopartikel im Größenbereich von 200 nm herstellen. Zur Partikelgrößenbestimmung bediente man sich sowohl der hotonenkorrelationsspektroskopie (PCS) als auch der Analytischen Ultrazentrifugation (AUZ). Bei der Untersuchung verschiedener HSA-Chargen, stellte sich heraus, dass das Ausgangsmaterial einen Einfluss auf die Partikelgröße besaß. Nichtsdestotrotz waren die Partikelgrößenschwankungen aufgrund von unterschiedlichen HSA-Chargen gering. Durch Einlagerung von Doxorubicin in die Partikelmatrix kam es zu einer wesentlichen Partikelvergrößerung, so dass die resultierten Partikel eine Größe von etwa 400 nm aufwiesen. Die Inkorporation des Arzneistoffs in die Partikelmatrix war reproduzierbar und stabil. Auch der Einsatz von Serumalbumin aus rekombinanter Quelle erwies sich als geeignet um Nanopartikel herstellen zu können. Allerdings waren unbeladene Partikel aus diesem Material wesentlich größer als Nanopartikel, die aus dem Standardmaterial hergestellt wurden. Doxorubicinbeladene Partikel zeigten wiederum eine vergleichbare Größe wie Partikel aus HSA. Allerdings war die Beladung der rHSA-Nanopartikel geringer als die der SA-Nanopartikel. Dies zeigte sich besonders bei der geringeren Quervernetzung von 40%. Als Fazit lässt sich sagen, dass prinzipiell eine Herstellung von sowohl Leerpartikeln als auch Doxorubicin-beladenen Partikeln möglich war. Die Biodegradierbarkeit von Nanopartikeln ist eine wichtige Voraussetzung für einen therapeutischen Einsatz kleinpartikulärer Strukturen, damit diese nicht im Körper kumulieren. Zudem könnte bei nicht abbaubaren Partikeln die Idee der intrazellulären Freigabe des eingebetteten Arzneistoffs aus der Partikelmatrix nicht verwirklicht werden. Vorversuche haben gezeigt, dass sich Nanopartikel auf Basis von HSA mit einer Reihe von Enzymen abbauen lassen. Versuche, Nanopartikel aus rHSA enzymatisch abzubauen, führten zu vergleichbaren Abbaukinetiken wie bei Partikeln aus HSA. Zu den eingesetzten nzymen zählten Proteinase K, Protease, Trypsin, Pankreatin, Pepsin und Cathepsin B, die mit Partikel aus rHSA mit den Quervernetzungen 40, 60, 80 und 100% inkubiert wurden. Alle Abbaukinetiken zeigten dabei, dass die Abbaugeschwindigkeit vom Grad der Quervernetzung abhängig war. 40% quervernetzte Nanopartikel wurden am schnellsten, 100% quervernetzte Partikel am langsamsten enzymatisch degradiert. Die Abbauversuche mit Cathepsin B bei zwei verschiedenen pH-Werten zeigten, dass die Wahl des richtigen pH-Werts entscheidend für einen effektiven Abbau ist, denn nur bei einem pH-Wert von 5,4 wurden die Nanopartikel von Cathepsin B abgebaut. Im Gegensatz dazu, wurden die Nanopartikel bei pH 6,4 kaum degradiert. Des Weiteren wurden Beladungsversuche von HSA-Nanopartikeln mit Cisplatin durchgeführt. Dabei wurden im ersten Schritt Adsorptionsversuche an gelöstes HSA durchgeführt, da viele Arzneistoffe eine hohe Plasmaeiweißbindung besitzen, wenn sie sich im Blutkreislauf des Menschen befinden. Diese Tatsache sollte bei der Herstellung von arzneistoffhaltigen Nanopartikel auf Basis von humanem Serumalbumin ausgenutzt werden. Vor dem eigentlichen Desolvatationsprozess wurden gelöstes HSA und Cisplatin bei unterschiedlichen pH-Werten und für unterschiedliche Zeitintervalle inkubiert, um eine Adsorption des Cisplatins an das Protein zu erreichen. Dadurch soll es bei der anschließenden Desolvatation zu einer effektiveren Inkorporation des Arzneistoffs kommen. Die Ergebnisse haben gezeigt, dass bei sauren pH-Werten die Adsorption schwächer ausfällt als bei einem pH-Wert von 8,0. Zudem war die Adsorption umso ausgeprägter, je länger die Inkubation stattfand. Bei einem pH-Wert von 8,0 führten steigende Konzentrationen an eingesetztem Cisplatin bei konstanter Menge an HSA, zu höheren Konzentrationen an adsorbiertem Arzneistoff. Prozentual gesehen, führten aber zunehmende Mengen an eingesetztem Cisplatin zu geringeren Adsorptionsraten. Als Fazit muss aber festgehalten werden, dass Cisplatin eine geringe Tendenz zur Adsorption an gelöstes HSA zeigte. Die Herstellung von Cisplatin-beladenen HSA-Nanopartikeln zeigte, dass die Desolvatation bei pH 8,0 zu guten Ergebnissen führte. Zum einen wiesen die erhaltenen Nanopartikel gute physikochemische Eigenschaften mit nahezu quantitativen Partikelausbeuten auf, zum anderen besaßen die Partikel eine hohe Beladungseffizienz. Dabei galt, je höher die eingesetzte Menge an Cisplatin war, umso mehr Cisplatin wurde in die Matrix der Partikel eingelagert. Die Dauer der zuvor stattfindenden Adsorption spielte dabei eine eher untergeordnete Rolle im Vergleich zu den Adsorptionsversuchen. Eine Erklärung für diese Beobachtung könnte sein, dass die Zugabe des Desolvatationsmittels Ethanol, in welchem Cisplatin sehr schwer löslich ist, zu einer verstärkten Interaktion zwischen Arzneistoff und Protein führt und diese Komponenten zusammen ausfallen, nahezu unabhängig von der zuvor stattfindenden Adsorptionsphase. Um die Idee einer „Drug Targeting“ Zubereitung umsetzen zu können, wurden mit Hilfe von Polyethylenglykol-Ketten sowohl Leerpartikel als auch arzneistoffbeladene Nanopartikel auf ihrer Oberfläche mit monoklonalen Antikörpern modifiziert. Als Verum wurde dabei Trastuzumab verwendet, als Kontrolle diente ein IgG-Antikörper von Sigma, der kein Target besitzt. Sowohl eine adsorptive Bindung als auch die kovalente Kopplung der Antikörper an die Oberfläche der nanopartikulären Strukturen konnte reproduzierbar durchgeführt werden. Dabei spielte es keine Rolle, ob die Partikel mit Arzneistoff beladen waren oder nicht. Trastuzumab zeigte ein hohes Maß an adsorptiver Bindung an die Oberfläche von HSA-Nanopartikeln, die bei dem Kontollantikörper nicht festgestellt werden konnte. Von allen Partikelpräparationen wurden die Partikelgröße, die Größenverteilung, das Zetapotential und die Partikelausbeute bestimmt. Durch das Aufbringen neuer Oberflächenstrukturen, kam es zu keiner wesentlichen Veränderung der Partikelgröße bzw. der Oberflächenladung. Durch die zahlreichen Umsetzungsschritte, die für eine Oberflächenmodifikation nötig sind, kam es bei Nanopartikeln ohne Arzneistoffbeladung zu einem Verlust an Partikelausbeute. Da die Doxorubicin-beladenen Partikel viel größer waren als Leerpartikel, ließen sie sich einfacher und effektiver abzentrifugieren, was in einem geringeren Partikelausbeuteverlust sichbar wurde. Da die Gefriertrocknung zu den Standardmethoden zählt Zubereitungen eine gute Haltbarkeit zu verleihen, wurden eine Reihe von nanopartikulären Zubereitungen der Lyophilisation unterzogen und im Hinblick auf ihre Langzeitstabilität unter verschiedenen Lagerungsbedingungen getestet. Dabei stellte sich heraus, dass es mittels Gefriertrocknung möglich war aus HSA-Nanopartikelsuspensionen einfach und reproduzierbar Lyophilisate herzustellen. Als geeignete Hilfsstoffe kristallisierten sich dabei die Zucker Sucrose, Trehalose, der Zuckeralkohol Mannitol und Emulgatoren wie Tween® 80 und Pluronic® F68 heraus. Als ungeeignet zeichnete sich der Einsatz von L-Arginin und eines Natriumphosphat-Puffers pH 8,0 ab. Larginin führte schon vor dem Gefriertrocknen zu einer Partikelvergrößerung, die nach der Lyophilisation noch ausgeprägter war. Puffer auf Basis von Natriumsalzen führen zu einem starken pH-Shift während des Gefriertrocknungsprozesses. Dies führte beim Einsatz des Phosphat-Puffers pH 8,0 zu einem starken Partikelwachstum. Gefriertrocknungsprozesse mit unterschiedlichen Geräten haben gezeigt, dass der Zusatz von Sucrose bzw. Trehalose oder Mannitol ab einer Konzentration von 2% (m/V) zu guten physikochemischen Eigenschaften der rekonstituierten Proben führte. Hilfsstoffkombinationen, wie sie in der Literatur beschrieben sind, waren für die Stabilisierung der nanopartikulären Strukturen nicht nötig. Die Langzeitlagerungsstabilitätsdaten der gefriergetrockneten HSA-Nanopartikel über 13 Wochen bei unterschiedlichen Temperatur- und Luftfeuchtigkeitsbedingungen zeigten eine Überlegenheit der Hilfsstoffe Sucrose und Trehalose im Vergleich zu Mannitol. Als geeignete Hilfsstoffkonzentration stellte sich hier ein 3%iger (m/V) Zusatz heraus. Versuchsansätze mit unterschiedlichen Gefriertrocknern und somit unterschiedlichen Prozessen zeigten, dass nicht nur die Auswahl der Hilfsstoffe, sondern auch die Bedingungen des Gefriertrocknungsprozesses Einfluss auf die Lagerungsstabilität hatten. Ein kontrollierter Prozess zeigte sich dabei gegenüber dem schnellen Einfrieren mittels Stickstoff als überlegen. Von Nanopartikelsuspensionen mit den Hilfsstoffen Trehalsoe, Sucrose und Mannitol wurden die Glasübergangstemperaturen bestimmt. Die Ergebnisse deckten sich im Wesentlichen mit den in der Literatur beschriebenen Daten, so dass schlussgefolgert werden kann, dass die HSA-Nanopartikel keinen wesentlichen Einfluß auf die Glasübergangstemperatrur hatten. Zusätzlich wurde die Restfeuchte der Lyophilisate direkt nach der Gefriertrocknung und nach 13 wöchiger Einlagerungszeit bestimmt. Die Proben wiesen direkt nach dem Prozess eine Restfeuchte von ungefähr 3% auf, durch Lagerung der Partikel bei erhöhter Luftfeuchtigkeit kam es zu einem Anstieg des Wassergehalts in den Proben. Mit den Hilfsstoffzusätzen Trehalose, Sucrose und Mannitol ließen sich auch Doxorubicin-beladene HSA-Nanopartikel gefriertrocknen. Dabei kam es nach der Rekonstitution dieser Partikel zu keinem Austreten des eingelagerten Arzneistoffs. Zusätzlich wurden oberflächenmodifizierte Partikel lyophilisiert. Dabei bestand die Modifikation zum einen aus Methoxypolyethylenglykol-Ketten. Zum anderen wurden über NHS-PEG-Mal Crosslinker kovalent monoklonale Antikörper auf die Oberfläche von HSANanopartikeln gebunden. Zusätzlich wurden auch HSA-NP in Suspension einer Untersuchung bezüglich Langzeitlagerungsstabilität unterworfen. Dabei wiesen auch HSA-Nanopartikel in Suspension bei verschiedenen Einlagerungsbedingungen eine hohe Stabilität auf. Partikel, die über einen Zeitraum von 210 Tagen eingelagert wurden, zeigten bei den Temperaturen 4°C, 20°C und 30°C im Hinblick auf Partikelgröße und Polydispersität kaum Veränderungen. Die Lagerung der Nanopartikel bei Minusgraden führte allerdings zu Mikropartikeln. Bei der Untersuchung der Partikelüberstände hinsichtlich herausgelöstem HSA zeigte sich, dass je höher die Lagerungstemperatur und je länger die Einlagerung war, umso mehr HSA löste sich aus der mittels Glutaraldehyd fixierten Matrix heraus. Bei den eingefrorenen Partikeln löste sich über die gesamte Lagerungszeit kein Protein aus den Nanopartikeln heraus. Zellkulturexperimente zeigten, dass im Gegensatz zu Kontrollzubereitungen, Nanopartikel, die an ihrer Oberfläche therapeutisch wirksame Antikörper trugen, spezifisch von Krebszellen aufgenommen wurden und im Zellinneren den eingebetteten Arzneistoff freisetzten. Daraus resultierte eine spezifische Toxizität dieser Zubereitungen gegenüber Tumorzellen. Dies ist ein erster Ansatz, um zeigen zu können, dass durch nanopartikuläre Trägersysteme die unerwünschten Nebenwirkungen der unspezifisch wirkenden Zytostatika reduziert werden können. In weiteren Versuchen, vor allem mit Hilfe von in vivo Versuchen muss gezeigt werden, dass das Partikelsystem stabil genug ist, ausreichend lang im Körper zirkulieren zu können. Nur so ist das Trägersystem in der Lage, sein Zielgewebe zu erreichen. Zudem müssen Tierversuche die in der Literatur beschriebene Anreicherung des Partikelsystems im Tumorgewebe verifizieren. Dies ist nur möglich, wenn die Nanopartikel in der Lage sind, das Gefäßsystem im Bereich des Tumorgewebes zu verlassen und anschließend in die Tumormasse einwandern können. Nur dann können die in den Zellkulturversuchen gezeigten Effekte greifen.
Die kutane Wundheilung hat die funktionelle Wiederherstellung der Gewebeintegrität nach Schädigung zum Ziel. Sie erfolgt im Sinne einer gesteuerten Kaskade von sequentiellen Ereignissen. Diese umfassen die Hämostase, die Inflammation, die Granulation, die Reepithelialisierung und das Remodeling. Die zugrundeliegenden Prozesse werden von einer Vielzahl proinflammatorischer Zytokine und Wachstumsfaktoren reguliert. Neben diesen Proteinmediatoren ist eine Beteiligung löslicher Kleinmoleküle, wie dem Stickstoffmonoxid (NO), für die Regulation der Wundheilung bekannt.
NO ist ein flüchtiges Radikal, welches enzymatisch durch die Isoformen der Stickstoffmonoxidsynthasen (NOS) aus der Aminosäure L-Arginin synthetisiert wird. NO entfaltet ein breites Spektrum physiologischer und pathophysiologischer Effekte. Dabei ist für die induzierbare NOS (iNOS) eine relevante Beteiligung an epithelialen Prozessen hinreichend dokumentiert. FRANK et al. [1998] konnten eine starke Induktion der iNOS während der kutanen Wundheilung sowie einen funktionellen Zusammenhang zu den NO-Wirkungen auf Keratinozyten zeigen, die in Verbindung mit der enzymatischen Funktion der iNOS stehen.
Eine gestörte kutane Wundheilung wurde auch für Mäuse mit Defizienz der endothelialen NOS (eNOS) beschrieben. Die Beteiligung der eNOS an der Wundheilung war bislang jedoch weitgehend unklar. Die vorliegende Arbeit hatte zum Ziel, die Expressionsmuster der eNOS im Wundheilungsverlauf in gesunden und diabetischen Mäusen aufzuzeigen.
In einem kutanen Wundheilungsmodell in Mäusen konnte die Expression von eNOS mRNA und Protein gezeigt werden. Die Expressionskinetik zeigte eine moderate Induktion der eNOS in den frühen Wundheilungsphasen. Diese ließ sich nicht mit einer endothelialen Expressionsänderung erklären, wie es Untersuchungen mit CD31 als pan-endothelialem Marker nahe legten.
Immunhistochemisch konnten Gefäßendothelien des Granulationsgewebes, Keratinozyten der Wundränder, das sich ausbildende Neo-Epithel und Haarfollikel als zusätzliche Quellen der eNOS Proteinexpression in Wunden identifiziert werden. Die eNOS Färbung zeigte sich dabei begrenzt auf die suprabasal gelegenen Keratinozyten der benannten Epithelien. Die Expression der eNOS in Keratinozyten konnte schließlich auch in kultivierten primären humanen Keratinozyten und HaCaT Keratinozyten auf mRNA-Ebene bestätigt werden.
Darüber hinaus zeigte sich ein funktioneller Zusammenhang zwischen eNOS Expression und epithelialer Proliferation: So bildeten eNOS-defiziente Mäuse deutlich reduzierte Wundrandepithelien aus, die durch eine verminderte Proliferation der Keratinozyten charakterisiert waren. Untersuchungen an diabetischen Mäusen (db/db) stützten diesen funktionellen Zusammenhang. In den Expressionskinetiken in diabetischen Tieren zeigte sich eine deutlich reduzierte Expression von eNOS mRNA und Protein vor allem in den späten Wundheilungsphasen.
In der vorliegenden Arbeit werden die zeitliche Expression der eNOS, die Detektion der eNOS in Wunden sowie deren Alteration in diabetischen Mäusen mit Bezug auf ihre funktionelle Bedeutung in der kutanen Wundheilung abschließend diskutiert.