Refine
Year of publication
Document Type
- Doctoral Thesis (3623) (remove)
Language
- German (3623) (remove)
Has Fulltext
- yes (3623)
Is part of the Bibliography
- no (3623)
Keywords
- Gentherapie (12)
- HIV (12)
- Deutschland (11)
- Schmerz (10)
- Nanopartikel (8)
- Apoptosis (7)
- Genexpression (7)
- Mitochondrium (7)
- Paracoccus denitrificans (7)
- RNS (7)
Institute
- Medizin (1388)
- Biochemie und Chemie (446)
- Biowissenschaften (408)
- Pharmazie (237)
- Physik (216)
- Biochemie, Chemie und Pharmazie (98)
- Gesellschaftswissenschaften (95)
- Neuere Philologien (67)
- Psychologie (66)
- Kulturwissenschaften (65)
Eine möglichst realistische Abschätzung von Strahlenschäden ist von entscheidender Bedeutung im Strahlenschutz und für die Strahlentherapie. Die primären Strahlenschäden an der DNS werden heute mit Monte-Carlo-Codes berechnet. Diese Codes benötigen möglichst genaue Fragmentierungsquerschnitte verschiedenster biomolekularer Systeme als Eingangsparameter. Im Rahmen der vorliegenden Arbeit wurde ein Experiment aufgebaut, welches die Bestimmung der Fragmentierungsquerschnitte von Biomolekülen ermöglicht. Die einzelnen Baugruppen des Aufbaus wurden vor dem Beginn des Experimentes bezüglich ihrer Eigenschaften, die die Genauigkeit der Messergebnisse beeinflussen können, charakterisiert. Die Resultate dieser Experimente werden als Eingangsdaten für die Berechnung von primären strahleninduzierten Schäden in der DNS mit Hilfe von Monte-Carlo-Codes eingesetzt.
Eine besondere Herausforderung stellte die Präparation eines Überschallgasstrahls für biomolekulare Substanzen dar. Für die Präparation müssen die Targetsubstanzen zunächst in die Gasphase überführt werden. Im Falle von Biomolekülen ist diese Überführung auf Grund ihrer niedrigen Dampfdrücke bei Raumtemperatur und chemischen Reaktivität mit technischen Problemen verbunden. Die Probleme wurden mittels einer speziellen Konstruktion der Präparationseinrichtung, welche eine direkte Einleitung der Probensubstanzen in die vom Trägergas durchströmte Mischkammer ermöglicht, gelöst. Für die Genauigkeit der gemessenen Fragmentierungsquerschnitte spielen mehrere Faktoren eine Rolle. Neben dem Bewegungsprofil des Überschallgasstrahls, den kinetischen Energien der Fragmentionen und den ionenoptischen Eigenschaften des Flugzeitspektrometers beeinflusst die geometrische Beschaffenheit der Detektionszone maßgeblich die Genauigkeit des Experimentes. Die Position und Ausdehnung des sichtbaren Volumens sind nicht nur durch den Überlappungsbereich zwischen dem Elektronen- und dem Überschallgasstrahl bestimmt, sondern hängen auch von der kinetischen Energie der Fragmente ab. Für dessen Ermittlung wurden daher auch die Trajektorien der Fragmente simuliert. Bei den Experimenten an der PTB-Apparatur ist die frei wählbare Zeitdifferenz zwischen dem Auslösen eines Elektronenpulses und dem Absaugen der Fragmentionen ein wichtiger Messparameter. Ihr Einfluss auf die Messergebnisse wurde ebenfalls neben der Nachweiswahrscheinlichkeit des verwendeten Ionendetektors untersucht. Die Kalibrierung der Flugzeitspektren, d. h. die Umwandlung der Flugzeitspektren in Massenspektren erfolgte anhand der bekannten Flugzeitspektren von Edelgasen und Wasserstoff.
Nach der Charakterisierung der Einflussfaktoren und Kalibrierung der Flugzeitspektren wurden die energieabhängigen Fragmentierungsquerschnitte für Elektronenstoß von mehreren organischen Molekülen, darunter die von Modellmolekülen für die DNS-Bausteine gemessen. Die Flugzeitspektren von THF wurden mit der PTB-Apparatur für einige kinetische Energien der Elektronen in Abhängigkeit von der Zeitdifferenz zwischen dem Auslösen des Elektronenpulses und dem Starten der Analyse durchgeführt. Messungen von Pyrimidin wurden sowohl an der PTB-Apparatur als auch mit COLTRIMS durchgeführt. Die mit COLTRIMS gewonnenen Ergebnisse liefern wichtige Zusatzinformationen über die Fragmentierungsprozesse. COLTRIMS ermöglicht die Messung der zeitlichen Korrelationen zwischen den auftretenden Fragmentionen und damit tiefere Einblicke in die bei der Entstehung der Fragmente beteiligten Reaktionskanäle. Der Vorteil der PTB-Apparatur besteht darin, dass die relativen Auftrittswahrscheinlichkeiten aller Fragmentionen genauer bestimmt werden können.
Glycin ist ein wichtiger inhibitorischer Neurotransmitter im zentralen Nervensystem. Um die glycinerge Erregungsübertragung zu sichern, muss die Glycinkonzentration an Synapsen präzise reguliert werden. Hierfür sind die Glycintransporter, GlyT1 und GlyT2, verantwortlich. Der GlyT2 ist ein präsynaptisches Protein, das in glycinergen Nervenendigungen nahe der aktiven Zone lokalisiert ist. Das über den Transporter aus dem extrazellulären Raum aufgenommene Glycin steht anschließend für die Befüllung der synaptischen Vesikel durch den vesikulären inhibitorischen Aminosäuretransporter (VIAAT) zur Verfügung. Die GlyT2-Defizienz führt in Mäusen zu einem letalen Phänotyp und verdeutlicht die Notwendigkeit eines hochaffinen Glycinaufnahmesystems in glycinergen Neuronen. Um mögliche Mechanismen zu untersuchen, die zur präzisen Lokalisation des GlyT2 in der Präsynapse führen, wurde das PDZ-Domänenbindungsmotiv (PDZ-DBM) am extremen C-Terminus bzw. die lange N-terminale Domäne dieses Transporters deletiert. Durch biochemische und pharmakologische Analysen von transfizierten HEKT-Zellen konnte gezeigt werden, dass der Verlust des PDZ-DBM oder der N-terminalen Domäne die Proteinexpression, die Glykosylierung und die Transportaktivität des GlyT2 nicht beeinflussten. Längere Deletionen des N-Terminus (ΔAA1-184) setzten jedoch die Effizienz der Glycinaufnahme herab und ergaben im Vergleich zum wt-Protein einen um 60% reduzierten vmax-Wert, während die apparente Glycinaffinität (KM-Wert) unverändert blieb. Lokalisationsstudien und Oberflächenbiotinylierungen zeigten GlyT2 wt-Immunreaktivität an der Plasmamembran, die sich qualitativ und quantitativ nicht von denen der N- und C-terminalen Mutanten unterschied. Das PDZDBM und die N-terminale Domäne spielen folglich in der Prozessierung und der Transportfunktion des GlyT2 eine untergeordnete Rolle. Möglicherweise reduziert die fast vollständige Deletion der N-terminalen Domäne jedoch die Stabilität des GlyT2. In transfizierten hippocampalen Neuronen wurde der Einfluss des PDZ-DBM und der N-terminalen Domäne hinsichtlich der GlyT2 Lokalisation analysiert. Die transfizierten Mutantenproteine zeigten eine diffuse Verteilung mit partiellen Anreicherungen von GlyT2-Immunreaktiviät. Das wt-Protein kolokalisierte mit Synaptophysin, exzitatorischen synaptischen Markern wie PSD95 und mit den inhibitorischen Markern Gephyrin und VIAAT. Nach Deletion des PDZ-DBM hingegen zeigte der GlyT2 eine um ca. 50% verminderte Kolokalisation mit allen untersuchten synaptischen Markern. Damit konnte hier erstmals eine Funktion des PDZ-DBM für die Anreicherung von GlyT2 an Synapsen gezeigt werden. Mit N-terminalen Deletionsmutanten transfizierte hippocampale Neurone wiesen kolokalisierende GlyT2ΔN-PSD95-Puncta zumeist in MAP2-positiven Neuriten auf, während das wt-Protein zumeist in MAP2-negativen Neuriten kolokalisierte. MAP2 ist ein mikrotubuli-assoziertes Protein, das in Dendriten, aber nicht in Axonen, auftritt und somit eine Unterscheidung derselben ermöglicht. Aufgrund der Überexpression in transfizierten Neuronen war die GlyT2-Immunreaktivität aber sowohl in axonalen als auch dendritischen Neuriten zu beobachten. Zusätzlich zu der in größeren Clustern gefundenen synaptischen GlyT2ΔN-Immunreaktivität war eine Färbung hauptsächlich in sehr kleinen Strukturen (<= 1 μm) nachzuweisen, die Transportvesikeln entsprechen könnten. Dies ist mit einem längeren Verbleib der Deletionsmutanten in intrazellulären Strukturen erklärbar. Im Hippocampus wird GlyT2 endogen nur sehr schwach in einer Subpopulation von putativ glycinergen Neuronen exprimiert. Um die Lokalisation der N-terminalen GlyT2-Proteine in Zellen zu untersuchen, die eine hohe endogene GlyT2-Expression aufweisen, wie spinalen Neuronen, die sich aber nur schlecht transfizieren lassen und in Kultur keine adulte GlyT2-Lokalisation aufweisen, wurden BAC-transgene Mäuse generiert, die myc-markierte GlyT2ΔN-Proteine unter Kontrolle des GlyT2-Promotors exprimieren. Der Vorteil von BAC-transgenen Mauslinien ist, dass sie aufgrund der Verwendung des endogenen Promotors das Transgen nur schwach überexprimieren. Founder-Mäuse, in denen der jeweilige modifizierte BAC-Klon (mGlyT2 wt, ΔAA14-174 oder ΔAA14-184) integriert wurde, wurden identifiziert und mit C57BL/6J-Mäusen verpaart, um so transgene Mauslinien zu etablieren und die Lokalisation der mutierten GlyT2-Proteine zu analysieren. Zusätzlich wurde eine BAC-transgene Cre-Mauslinie generiert, die die Cre-Rekombinase in GlyT2-positiven Zellen exprimiert. Durch die Verpaarung mit konditionalen oder transgenen Mauslinien soll mit diesen GlyT2/Cre-Mäusen die Funktion einzelner Genprodukte in glycinergen Zellen untersucht werden. In dieser Arbeit wurden außerdem die Glycinrezeptor (GlyR) α-Untereinheiten (UE) in GlyT2-defizienten Mäusen untersucht. GlyT2 -/- Tiere sterben in der zweiten postnatalen Woche nach der Geburt und zeigen einen starken neuromotorischen Phänotyp. Da in demselben Zeitraum ein Austausch der embryonalen α2- durch die adulte α1-UE erfolgt, wurde die Entwicklung der α1- und der Gesamt-α- Immunreaktivität in Rückenmarksschnitten von wt und GlyT2 -/- Tieren analysiert und miteinander verglichen. Die Daten zeigen, dass der α-UE-Austausch in den GlyT2-defizienten Tieren ähnlich wie in wt Tieren erfolgt. In α1-GlyRs ist die Öffnungszeit des aktivierten Kanals kürzer als bei α2-GlyRs. Zusammen mit der geringeren Ausschüttung an Glycin aufgrund der GlyT2-Defizienz lässt sich so das Auftreten des Krampf-Phänotyps der GlyT2 -/- Mäuse nach erfolgtem UE-Austausch erklären.
Einleitung: Die allgemeine Häufigkeit der Hernien liegt bei 2 bis 4% der Bevölkerung, wobei etwa 75% Leistenhernien sind. Ziel dieser Studie war die Beschreibung der Morbidität nach standardisierter modifizierter Operation nach Lichtenstein mit Verwendung eines selbsthaftenden Netzes. Der Vergleich dieses Kollektivs mit Daten aus der Literatur, in welchen zur Behandlung einer Leistenhernie die herkömmliche Technik nach Lichtenstein angewandt wurde, stellte das sekundäre Studienziel dar. Material und Methoden: Ein von Juli 2007 bis Dezember 2007 therapiertes Patientengut aus 100 Männern und 11 Frauen des Herz-Jesu-Krankenhauses in Fulda wurde detailliert retrospektiv aufgearbeitet und mit den Ergebnissen anderer Arbeitsgruppen verglichen. Die Patienten wurden einmal nach sechs sowie ein weiteres Mal nach 12 Monaten einbestellt, untersucht und mittels standardisiertem Fragebogen zu ihrem postoperativen Verlauf befragt. Die Altersgrenzen zum Zeitpunkt der operativen Versorgung lagen bei 20 und 91 Jahren, der Altersmedian betrug 59. Die Operation nach Lichtenstein ist eines der bevorzugten Verfahren in der Leistenhernienchirurgie. Ergebnisse: Intraoperativ wurde bei 88 Patienten (79,3 %) der Nervus genitofemoralis geschont, bei 23 Patienten (20,7 %) wurde er durchtrennt. Die postoperativen Komplikationen wurden im eigenen Kollektiv unterteilt nach perioperativen (in den ersten 7 Tagen postoperativ), frühen (7. bis 28. Tag postoperativ) und späten Komplikationen (28. Tag bis 12. Monat postoperativ) erfasst. Nur bei einem Patienten kam es auf Grund eines behandlungspflichtigen Hämatoms zu einer unmittelbaren Komplikation. Kein Patient beklagte eine frühe Komplikation, jedoch kam es bei fünf Patienten zu späten Komplikationen. Vier Patienten klagten über ein Rezidiv. Die Diagnose Nervenkompressionssyndrom wurde bei insgesamt drei Patienten gestellt. Die Verbindung zu einer Durchtrennung des Nervus genitofemoralis konnte bei einem Patienten hergestellt werden. Der Median der Operationsdauer lag bei 35 Minuten. Durchschnitt (Mittelwert) betrug die Krankenhausverweildauer 2,2 Tage. Kein Patient verstarb im postoperativen Verlauf. Schlussfolgerung: Die in dieser Arbeit beschriebene modifizierte Lichtenstein-Technik ist eine Innovation der Hernienchirurgie. Der Einsatz eines teilresorbierbaren und selbstfixierenden Zweikomponenten-Maschengewebe aus monofilem Polypropylen und Polylaktatsäure stellt eine kleine Revolution der operativen Versorgung von Leistenhernien dar. Die ersten Ergebnisse zeigen im Vergleich mit Literaturangaben, dass insgesamt mit einer ähnlichen perioperativen Komplikationsrate zu rechnen ist. Momentan liegen erst Einjahreszahlen vor, daher muss auf eine abschließende Beurteilung, vor allem der postoperativen Schmerzsymptomatik sowie Rezidivrate, zum jetzigen Zeitpunkt verzichtet werden. Erfreulich ist das Fehlen von intraoperativen Komplikationen im eigenen Krankengut. Auch erscheint eine deutliche Reduktion der Operationsdauer bei mit der Technik vertrauten Operateuren möglich zu sein. Eine statistisch signifikante Reduktion der Rezidivhäufigkeit nach Lichtenstein-Eingriff konnte durch die neue Technik noch nicht beobachtet werden. Zur Zeit sind die in der Literatur beschriebenen Rezidivraten noch auf einem ähnlichen Niveau. Abschließend zeigt die Beurteilung der selbst erhobenen Daten und ihr Vergleich mit den angeführten Studien, dass der Einsatz eines selbsthaftenden Netzes bedenkenlos als Alternative zur Fixierung mittels Fibrinkleber, Naht- oder Klammermaterial empfohlen werden kann.
Nukleäre Rezeptoren (NRs) sind ligandengesteuerte Transkriptionsfaktoren, die sich aus einer Superfamilie von 48 humanen Mitgliedern zusammensetzt. Seit vielen Jahrzehnten stellen sie ein attraktives Forschungsgebiet für die Arzneistoffentwicklung dar, da sie eine bedeutende Rolle in zahlreichen Prozessen unseres Körpers spielen. Das Ziel dieser Forschungsarbeit bestand darin, neue innovative Liganden für den Peroxisomen-Proliferator-aktivierter-Rezeptor γ (PPARγ) sowie die Waisenrezeptoren Nervenwachtumsfaktor induzierter Klon B (Nur77) und Neuronen-abgeleiteter Waisenrezeptor (NOR-1) zu identifizieren.
Bei den Rezeptoren Nur77 und NOR-1 handelt es sich um noch unzureichend erforschte NRs der NR4A-Familie. Es fehlt insbesondere an Modulatoren dieser Rezeptoren als Werkzeuge, um ihr zum Teil noch unentdecktes Potential zu erforschen. Um diese Lücke zu schließen, wurde ein in vitro Screening durchgeführt und eine Arzneistoff-Fragment-Bibliothek mit 480 Fragmenten, die aus bekannten strukturellen Motiven zugelassener Arzneimittel stammen, auf ihre modulatorische Aktivität an Nur77 und NOR-1 gescreent. Durch das Screening und weitere Testungen konnten jeweils für Nur77 und für NOR-1 drei Verbindungen als Liganden identifiziert werden. Bei der weiteren Charakterisierung stellte sich insbesondere 41 als besonders vielversprechenden Ausgangspunkt für die Entwicklung von Liganden für Nur77 und NOR-1 heraus, der ein besseres Verständnis für die invers agonistische Aktivität lieferte und die Möglichkeit für eine agonistische Modulation aufzeigte. Zudem konnte durch ein weiteres Screening mit Computer-gestützten Verfahren auf Nur77 der Chemotyp von 41 noch weiter optimiert werden und führte zur Identifizierung von Verbindung 68 (EC50 = 2 ± 1 μM). Diese zeichnete sich durch eine hohe Potenz aus, die zu einer beachtenswerten Aktivierung von Nur77 (169 ± 18% maximale Aktivierung) führte. Die Untersuchung der strukturellen Erweiterung von 43 (IC50 = 47 ± 8 μM) führte zur Verbindung 75, die eine 3,5-fache Steigerung des inversen Agonismus auf NOR-1 zeigte. Die Erkenntnisse dieser Entdeckung ermöglichte den Rückschluss, dass das Einführen von voluminösen Resten, wie Brom oder Phenyl eine invers agonistische Potenz im unteren mikromolaren Bereich bewirkte. Die Identifizierung der Verbindungen 41 und 68 für Nur77 sowie 43 und 76 für NOR-1 könnten dazu beitragen, ein tieferes Verständnis der molekularen Mechanismen hinter der Aktivierung von Nur77 und NOR-1 zu erlangen und einen vielversprechenden chemischen Ausgangspunkt für die Entwicklung von noch wirksameren und selektiveren Liganden bieten.
Im anderen Teil dieser Forschungsarbeit stand die Synthese eines selektiven allosterischen PPARγ-Liganden im Fokus, um mit diesem die allosterische Modulation von PPARγ zu charakterisieren. Den Ursprung der Idee lieferte Garcinolsäure, dass in der Lage ist, PPARγ orthosterisch und allosterisch zu binden. Aufgrund der komplexen biologischen Effekte und der geringen synthetischen Zugänglichkeit konnte 37 nicht als Ausgangspunkt für dieses Vorhaben dienen. Auf der Suche nach einer geeigneten Ausgangsverbindung wurde durch ein in vitro Screening mit einer hauseigenen Sammlung von synthetischen PPARγ-Modulatoren, bei dem die orthosterische Bindungsstelle von PPARγ durch den irreversiblen Antagonisten GW9662 blockiert wurde, Verbindung 39 identifiziert. Diese ist wie 37 in der Lage PPARγ ortho- und allosterisch zu binden, weist aber eine bessere synthetische Zugänglichkeit auf. Die Co-Kristallisation von 39 mit der PPARγ-Ligandenbindungsdomäne zeigte, dass die orthosterische Bindungstasche (BT) keinen Platz für eine Verlängerung des Moleküls bietet, die allosterische BT ist dagegen Lösungsmittel exponiert, wodurch eine Verlängerung möglich schien. Daraufhin wurde die Hypothese aufgestellt, dass eine Verlängerung von 39 eine orthosterische Bindung verhinderte und dadurch eine selektive allosterische Bindung ermöglichen könnte. Aus diesem Grund wurde eine modifizierte Struktur von 39 verwendet, um eine einfache Einbringung eines Linkers in das Molekül zu ermöglichen. Durch verschiedenste Modifikationen und Anpassungen wurde 104 als potenzieller selektiver allosterischer Ligand synthetisiert. Die Testung von 104 im Reportergenassay zeigte eine schwache Aktivierung von PPARγ allein, jedoch offenbarte sich bei der Kombination mit dem orthosterischen Agonisten Pioglitazon eine dosisabhängige Steigerung der Aktivität von PPARγ. Diese Ergebnisse deuteten darauf hin, dass trotz der Bindung von 104 eine Bindung von 33 in die orthosterische BT immer noch möglich war. Diese Annahme konnte anschließend auch durch zellfreie Experimente (Isotherme Titrationskalorimetrie, MS-basierte-PPARγ-Ligandenbindungs-Assay) bestätigt werden. Der eindeutige Beweis für die selektive allosterische Bindung von 104 lieferte die Co-Kristallisation von 104 mit der PPARγ-LBD. Zusätzlich offenbarte sich, durch den strukturellen Vergleich der Bindungsmodi von anderen PPARγ-Liganden, der außergewöhnliche Bindungsmodus von 104, da 104 im Vergleich zu anderen Liganden selektiv die allosterische BT, ohne Überlappung in die orthosterische BT, besetzte. Weitere Untersuchungen, wie der Einfluss von 104 auf die Rekrutierung von Co-Regulatoren, die Differenzierung von adipozytären Stammzellen und die Genexpression zeigten eine bisher einmalige Modulation von PPARγ, die auf die selektive allosterische Modulation zurückzuführen war. Mit 104 wurde ein innovatives und vielfältig einsetzbares Werkzeug zur Erforschung der allosterischen Modulation von PPARγ entdeckt, dessen Geschichte an diesem Punkt noch nicht zu Ende ist.
Die supratentorielle dekompressive Kraniektomie mit Eröffnung und Erweiterungsplastik der Dura mater ist heutzutage eine wichtige Therapiemaßnahme in der Behandlung des konservativ nicht kontrollierbaren Hirndrucks. Unter Kranioplastik versteht man den chirurgischen Verschluss des entstandenen Knochendefekts zum Schutz des direkt unter der Kopfhaut liegenden Gehirns, zur ästhetischen Wiederherstellung der Konturen sowie zur Verbesserung einer neurologischen Symptomatik („syndrome of the trephined“).
In der vorliegenden Arbeit werden die Daten von insgesamt 242 Patienten, die einer Kranioplastik unterzogen worden waren, retrospektiv analysiert. Die Patienten wurden im Zeitraum 2001-2008 in der neurochirurgischen Abteilung der Städtischen Kliniken Frankfurt am Main-Höchst operiert. Um Aufschluss über das postoperative, funktionelle und kosmetische Ergebnis zu erhalten, wurde im Anschluss an die Aktenauswertung bei diesen Patienten eine telefonische Befragung durchgeführt.
Ziel der Arbeit war es, die bisherigen Erfahrungen der Kalottenplastik und insbesondere der autogenen orthotopen Knochendeckelreimplantation im Hinblick auf die verschiedenen Kranioplastik Zeitpunkte zu untersuchen und unter klinischen Aspekten zu bewerten.
Die Frage des Kranioplastik Zeitpunktes ist essentiell für die Therapieplanung.
Das autologe Schädelknochentransplantat hat bessere Eigenschaften und Qualitäten als alle anderen alloplastischen Materialien. In Anbetracht der perfekten Histokompatibilität, der optimalen biomechanischen Eigenschaften, der guten anatomischen Fusion mit dem umgebenden Knochen und der Möglichkeit der partiellen oder totalen Revitalisation des Transplantats, besteht kein Zweifel, dass der autologe Knochen immer zu verwenden ist, wenn die Möglichkeit dazu besteht.
Die Analyse der Patientengruppen ergab, dass die ultra frühe Kranioplastik der Patienten mit großen Defekten nach dekompressiver Kraniektomie ein besseres Outcome im langfristigen Follow-up hat. Diese Patienten hatten keine gesteigerte Infektions- oder andere Komplikationsraten. Das Timing der Kranioplastik spielt eine Rolle in der Komplikationsrate nur bei den Patienten, die sekundär eine Komplikation erlitten haben. Patienten, die nach der Kraniektomie eine Nachblutung, einen Infarkt oder eine Infektion erlitten haben, hatten eine signifikant höhere Infektionsrate bei ultra früher Kranioplastik. Insbesondere soll betont werden, dass der Trend einer Häufung von Wundheilungsstörungen und Infektionen mit der Folge einer erneuten Explantation des Knochendeckels bei Patienten nach autogener Knochendeckelreimplantation mit mehr als 2 Risikofaktoren und bei Patienten mit kompliziertem Verlauf nach Kraniektomie festgestellt wurde.
Gemäß den Ergebnissen dieser Patientenserie kann die ultra frühe Kranioplastik bei ausgewählten Patienten mittels Reimplantation des Eigenknochens als ein sicheres und hilfreiches Verfahren für die schnellere Rehabilitation und Besserung der neurologischen Funktion und der Prognose bewertet werden. Ähnlich gute Ergebnisse zeigten die Pantienten in der Gruppe 1 der ultra frühen Kranioplastik die aufgrund einer Liquorzirkulationsstörung ein VP Shunt System als kombinierte Therapie in der gleichen Sitzung erhalten haben.
Somit kann zusammenfassend festgehalten werden:
Die Ergebnisse dieser Arbeit bestätigen, dass die Kranioplastik nach einer supratentoriellen dekompressiven Kraniektomie mit Reimplantation des eigenen Schädelknochens zum frühesten möglichen Zeitpunkt ein sicheres und effektives Verfahren darstellt und bei ausgewählten Patienten sogar bessere Ergebnisse als die späte Kranioplastik haben kann. Eine mögliche Erklärung dafür könnte das Auftreten und die Persistenz von neurologischen Defiziten im Rahmen des „syndrome of the trephined“ bei Patienten bieten, bei denen eine späte Kranioplastik durchgeführt wurde. In diesem Patientengut hatten die Patienten mit ultra-früher Kranioplastik das beste neurologische Outcome, die Komplikationsrate war in allen Gruppen vergleichbar.
Um Komplikationen zu vermeiden, sollten Patienten mit einer vorausgegangenen lokalen Infektion spät kranioplastiert werden.
Das neurologische Outcome der Patienten, bei denen ein kombiniertes Verfahren Kranioplastik –VP Shunt durchgeführt wurde, war vergleichbar mit anderen Patientengruppen. Somit ist eine Kranioplastik bei Patienten mit konvexen, über Kalottenniveau prolabierten Kraniektomielappen aufgrund eines Hydrocephalus keine Kontraindikation.
Mit der Bereitstellung des 208Pb-Strahls durch das CERN-SPS können seit Herbst 1994 Kollisionen schwerster Kerne bei den höchsten zur Zeit in Schwerionenbeschleunigern erreichten Einschußenergien untersucht werden.
Ziel dieser Arbeit ist die Untersuchung der raumzeitlichen Entwicklung von zentralen Pb-Pb-Kollisionen bei 158 GeV/Nukleon. Diese Untersuchung wurde im Rahmen des Experimentes NA49 durchgefüuhrt und stützt sich auf die Analyse von Bose-Einstein-Korrelationen identischer Pionen. Die Auswertung von rund 40000 zentralen Ereignissen, die in zwei verschiedenen Magnetfeldkonfigurationen mit der zweiten Vertex-Spurendriftkammer des NA49-Experimentes aufgezeichnet wurden, erlaubt hierbei eine annähernd vollständige Untersuchung des pionischen Phasenraumes zwischen zentraler Rapidität und der Projektilhemisphäre.
Auf der experimentellen Seite stellt der Nachweis von mehreren hundert geladenen Teilchen pro Ereignis eine große Herausforderung dar. Daher werden in dieser Arbeit die Optimierung von Spurendriftkammern sowie die verwendeten Analyseverfahren und die erreichte experimentelle Auflösung ausführlich diskutiert. Dabei zeigt sich, daß der systematische Einfluß der erreichten Impuls- und Zweispurauflösung auf die Bestimmung der Bose-Einstein-Observablen vernachlässigbar ist.
Die Messung von Korrelationen ungleich geladener Teilchen bestätigt die Beobachtungen früherer Untersuchungen, wonach die Gamowfunktion als Coulombkorrektur der Bose-Einstein-Korrelationsfunktionen in Schwerionenexperimenten nicht geeignet ist. Ein Vergleich mit einem Modell zeigt, daß diese Messungen konsistent sind mit der Annahme einer endlichen Ausdehnung der Pionenquelle von rund 6 fm. In dieser Arbeitwird zur Korrektur daher eine Parametrisierung der gemessenen Korrelationsstärke ungleich geladener Teilchen benutzt, wodurch die systematischen Unsicherheiten bei der Auswertung der Bose-Einstein-Korrelationsfunktionen erheblich reduziert werden konnten.
Die Auswertung der Bose-Einstein-Korrelationen im Rahmen des Yano-Koonin-Podgoretskii-Formalismus erlaubt eine differentielle Bestimmung der longitudinalen Expansionsgeschwindigkeit. Dabei ergibt sich das Bild eines vornehmlich in longitudinaler Richtung expandierenden Systems, wie es bereits in Schwefel-Kern-Reaktionen bei vergleichbaren Einschußenergien beobachtet wurde. Die Transversalimpulsabhängigkeit der transversalen Radiusparameter ist moderat und verträglich mit einer mäßigen radialen Expansion, deren quantitative Bestätigung allerdings im Rahmen von Modellrechnungen erfolgen muß.
Im Rahmen eines einfachen hydrodynamischen Modells kann die Lebensdauer des Systems zu 7-9 fm/c bei schwacher Abhängigkeit von der Rapidität bestimmt werden. Die Zeitdauer der Pionenemission beträgt etwa 3-4 fm/c und wird damit erstmals in ultrarelativistischen Schwerionenreaktionen als signifikant von Null verschieden beobachtet.
Die Auswertung der Korrelationsfunktion unter Verwendung der Bertsch-Pratt-Parametrisierung liefert Ergebnisse, die mit denen der Yano-Koonin-Podgoretskii-Parametrisierung konsistent sind. Dasselbe gilt für den Vergleich der Analyse positiv und negativ geladener Teilchenpaare sowie unter Verwendung verschiedener Bezugssysteme.
Ein Vergleich mit den Ergebnissen von Schwefel-Kern-Reaktionen deutet an, daß die in Pb-Pb ermittelten Ausfriervolumina nicht mit dem einfachen Bild eines Ausfrierens bei konstanter Teilchendichte vereinbar sind. Vielmehr scheint das Pb-Pb-System bei niedrigerer Dichte auszufrieren. Dies läßt darauf schließen, daß die Ausfrierdichte über die mittlere freie Weglänge mit der Größe des Systems zum Zeitpunkt der letzten Wechselwirkung verknüpft ist.
Resistenzen gegenüber Carbapenemen sind eine Bedrohung für die globale Gesundheit mit wenigen verbleibenden Therapieoptionen. Ceftazidim/Avibavtam (CZA) ist die Kombination aus einem Cephalosporin und einem Diazabicyclooctan, mit der Eigenschaft eine Vielzahl von Carbapenemasen der Ambler Klasse A und D zu inhibieren. Resistenzen gegenüber Carbapenemen in gramnegativen Bakterien sind in Kolumbien und anderen Ländern Lateinamerikas weit verbreitet. In den hier vorgestellten Arbeiten wurden 2.235 Enterobakterien und 492 P. aeruginosa Isolate aus fünf Lateinamerikanischen Ländern auf ihre Empfindlichkeit gegenüber CZA und anderen klinisch verfügbaren Antibiotika untersucht. Die CZA-resistenten Isolate wurden mittels PCR und Genomsequenzierung auf die zugrundeliegenden Resistenzmechanismen hin analysiert. CZA zeigte Aktivitäten gegenüber 99,2% (2.217/2.235) aller untersuchten Enterobacterales und 77,8% (383/492) aller P. aeruginosa Isolate. Als plausible Erklärung für die Resistenz gegen CZA konnte mittels qPCR bei allen Enterobakterien und bei 38,5% (42/109) der P. aeruginosa Isolate ein Metallo-β-Laktamase (MBL)-kodierendes Gen nachgewiesen werden. Die verbleibenden P. aeruginosa Isolate wurden einer Genomsequenzierung unterzogen, dabei zeigten sich Mutationen in Genen, die zuvor mit einer verringerten Empfindlichkeit gegen CZA assoziiert wurden, wie z.B. Genen die mit der Überexpression von MexAB-OprM und AmpC (PDC) in Verbindung stehen, sowie Genen, die PoxB (blaOXA-50-like), FtsI (PBP3), DacB (PBP4) und OprD kodieren. Unsere Ergebnisse unterstreichen die Notwendigkeit von Therapieoptionen gegenüber MBL-produzierenden und anderen Carbapenem-resistenten Mikroorganismen. Des Weiteren sind diese Studien eine Momentaufnahme der Empfindlichkeit gegen CZA vor dessen Verfügbarkeit in Lateinamerika und dienen deswegen als Ausgangspunkt um die Entwicklung von Resistenzen in dieser Region zu verfolgen.
Natrium/Protonen-Austauscher sind integrale Proteine biologischer Membranen und aufgrund ihrer funktionalen Abhängigkeit von einem elektrochemischen Gradienten der Klasse der Sekundärtransporter zugeordnet. Sie spielen eine essentielle Rolle sowohl in der Adaption von Bakterien an eine saline, alkalische Umgebung, als auch in der Regulation des intrazellulären pH- und Natriumhaushalts in Eukaryonten. Aufgrund der medizinischen Relevanz, unter anderem im Rahmen in der Behandlung des Herzinfarkts, besteht großes Interesse an der Struktur und den biochemischen Charakteristika des im Menschen ubiquitär vorkommenden Natrium/Protonen-Austauschers NHE1. Die heterologe und funktional aktive Produktion eukaryontischer Membranproteine stellt jedoch immer noch eine enorme Herausforderung dar, bei der sich das auf dem Semliki Forest Virus basierende Expressionssystem als gut geeignet erwiesen hat. Da die Überexpression von NHE1 mittels verschiedener eukaryontischer Expressionssysteme bisher kein kristallisationsfähiges Material liefern konnte, sollte in dieser Arbeit die heterologe Gewinnung von NHE1 mit dem Semliki Forest Virus Expressionssystem ermöglicht werden. Das Semliki Forest Virus Expressionssystem wurde auf Basis eines Vektorkonstrukts mit GFP zur späteren Übertragung der Parameter auf die Produktion von NHE1 etabliert. Konstrukte von NHE1 mit N- und C-terminalem Affinitäts-Tag wurden erfolgreich kloniert und zur Infektion von BHK-21 Zellkulturen eingesetzt. Dabei konnte beobachtet werden, dass der N-Terminus abgespalten wird und wahrscheinlich als Signalpeptid zum Einbau in die Membran dient. Das Protein wurde im Endoplasmatischen Retikulum lokalisiert, wo die Glykosylierung zum Transport in die Plasmamembran unterbleibt, was auf eine Interferenz mit der Virusinfektion zurückgeführt wurde. Eine Infektion der Zellen mit dem Semliki Forest Virus hat neben einem bereits bekannten massiven Anstieg des intrazellulären Natriumgehalts eine starke Alkalinisierung des Zytoplasma zur Folge. Ähnliches ist bisher über die Infektion von Zellen mit dem Poliovirus bekannt und stellt dort ein Schlüsselelement in der Sicherstellung der viralen Replikation dar, was auch für das Semliki Forest Virus zu gelten scheint. Die Expression von NHE1 konnte im 8 Liter-Maßstab optimiert und sowohl die Präparation als auch die Solubilisierung mit verschiedenen Detergenzien erfolgreich eingeführt werden. NHE1 erfährt jedoch bereits in vivo einen erheblichen proteolytischen Abbau, der sich während der Membranpräparation und Aufreinigung fortsetzt und zu einer Fragmentierung führt, die trotz des Einsatzes unterschiedlicher Kultivierungszeiten, Detergenzien, Additive oder Proteaseinhibitoren in vivo als auch in vitro nicht in einem Maße reduziert werden konnte, welches zur Gewinnung von kristallisationsfähigem Material erforderlich gewesen wäre. Es muss empfohlen werden einen in vivo Ansatz zu etablieren, um die proteolytische Degradation zu unterdrücken. Da die Virusreplikation nicht erforderlich ist, wäre Bafilomycin als Inhibitor der V-Typ ATPase geeignet, um die intrazelluläre Alkalinisierung und somit wahrscheinlich den Abbau von NHE1 zu verhindern. Ebenso erscheint der Einsatz von MG-132 zur spezifischen Inhibierung des Proteasoms Erfolg versprechend, was aber wegen hoher Kosten praktisch kaum in Frage kommt. Da man trotz individuell gelagerter Unterschiede zwischen den einzelnen Natrium/Protonen-Austauschern von einem ähnlichen Prinzip in Regulation und Transport ausgeht, wurden Strukturuntersuchungen mit Hilfe der Kryo-Elektronenmikroskopie am bakteriellen Natrium/Protonen-Antiporter NhaA aus Escherichia coli durchgeführt, um die strukturelle Basis der pH-Wahrnehmung und die Translokation von Natrium in das Periplasma besser zu verstehen. Die vorliegende Röntgen- und EM-Struktur repräsentieren den inaktiven Zustand, weshalb der eigentliche Ablauf des Transportvorgangs bisher biochemisch herzuleiten war, da bislang keine Kristalle im aktiven Zustand gezüchtet werden konnten. Durch die in situ Inkubation von 2D-Kristallen konnten aktive Zustände des Proteins direkt auf dem EM-Netz induziert und kryo-elektronenmikroskopisch festgehalten werden. Einzelne Datensätzen wiesen Reflexe bis zu 5 Å auf. Aus den angefertigten Projektionsdichte- und Differenzkarten ergaben sich pH- und Natrium-abhängige Konformationsänderungen. Die Röntgenstruktur wurde mit Hilfe des Molekularen Ersatzes in die EM-Struktur eingepasst und diente der Zuordnung und Interpretation der beobachteten Zustände als Basis. Die pH-abhängige Konformationsänderung wurde einem mit der funktional wichtigen Helix 9 assoziierten Bereich zugeordnet, welcher durch die Röntgenstruktur nicht definiert ist und wahrscheinlich die fehlenden Aminosäuren des regulatorisch relevanten N-Terminus enthält. Die beobachtete Konformationsänderung stellt das Entstehen einer besser geordneten Struktur dar und geht mit der pH-regulierten Aktivierung von NhaA zwischen pH 6 und 7 einher, weshalb dieser Bereich des Proteins zumindest als Bestandteil des sogenannten pH-Sensors betrachtet werden kann. Nach der vollständigen Aktivierung durch den pH-Wert, welche der folgenden Natrium-abhängigen Konformationsänderung vorauslaufen muss, konnte beobachtet werden, dass die Präsenz von Natrium im Rahmen der Ionentranslokation eine Bewegung des periplasmatischen Teils von Helix 4 induziert. Es wäre interessant, eine tiefergehende und genauere Charakterisierung der beobachteten Konformationsänderungen durch die Erstellung einer dreidimensionalen EM-Dichtekarte zu ermöglichen. Des Weiteren hat die eingehendere Untersuchung des röntgenkristallographischen Monomers nach der Einpassung in das physiologisch vorliegende Dimer der EM-Struktur sowohl eine für Membranproteine neuartige „Joint β-Sheet“ Dimerisierungsdomäne im Periplasma, als auch eine Verzahnung von Helix 7 und 9 an der Monomer-Monomer-Grenze aufgezeigt. Diesen Charakteristika kommt wahrscheinlich eine tragende Rolle in der Dimerisierung von NhaA zu, was durch weitere Untersuchungen im Rahmen einer Mutagenesestudie unter Einbeziehung der periplasmatischen β-Haarnadelstrukturen überprüft werden sollte.
Ziel dieser Studie ist eine videobasierte Analyse von Aufgaben im Unterricht zur Erklärung von Variationen des Beteiligungsverhaltens der Schüler/innen im Unterrichtsprozess. In der empirischen Unterrichtsforschung kommt dem Beteiligungsverhalten der Schüler/innen im Unterricht die Rolle einer Schlüsselvariable für die Wirksamkeit von Unterrichtsprozessen zu. Obwohl in theoretischen Modellen effektiven Unterrichts sowie in einer Reihe empirischer Untersuchungen die Qualität des Aufgabenangebots im Unterrichtsprozess als ein wichtiger Einflussfaktor für das Beteiligungsverhalten genannt wird, liegen kaum prozess-sensible Analysen zum Zusammenhang zwischen diesen beiden Geschehenskomponenten des Unterrichts vor. Die vorliegende, primär explorativ ausgerichtete Arbeit nimmt diesen Zusammenhang mittels videobasierter, quantitativ orientierter Verfahren systematischer Beobachtung in den Blick. Dazu wurden in sechs Klassen der 6. Jahrgangsstufe unterschiedlicher Schulformen jeweils vier Unterrichtsstunden des Faches Englisch videographiert. Im Vorfeld wurde mit den Schüler(inne)n (n=145) ein schriftlicher Leistungstest im Unterrichtsfach inklusive Fragen zur Person (Geschlecht und familiärer Sprachhintergrund) durchgeführt, sodass eine Differenzierung der im Unterrichtsprozess untersuchten Effekte nach unterschiedlichen Untergruppen möglich ist. Das Schülerbeteiligungsverhalten, operationalisiert als time on task, wurde mit einem niedrig-inferenten Beobachtungssystem im Intervallkodierungsverfahren erhoben, welches ein zeitlich vollständiges, individualisiertes Verlaufsprofil des Unterrichtsverhaltens aller Schüler/innen in der Klasse erlaubt. Die mittels Ereigniskodierverfahren erfassten Aufgaben wurden mit einem mehrdimensionalen, auf bestehenden Analyseinstrumentarien basierenden Kategoriensystem beschrieben.
In den Ergebnissen zeigt das Geschlecht als einzige Hintergrundvariable der Schüler/innen einen Einfluss auf die individuelle durchschnittliche Verhaltenstendenz im Unterricht. Bezogen auf die Hauptfrage der Studie lassen sich mit Blick in den Unterrichtsverlauf, das heißt auf Ebene der Einzelaufgabe, kaum belastbare Effekte von Variationen der erfassten Aufgabenmerkmale auf das Beteiligungsverhalten der Schüler/innen identifizieren. Bei Betrachtung des Aufgabenangebots auf Stundenebene sind hingegen eine Reihe schwacher bis mittlerer Zusammenhängen zwischen der stundenspezifischen Variabilität der Aufgabenmerkmale und dem durchschnittlichen on task-Niveau in der Klasse feststellbar, wobei sich die meisten dieser Effekte bei Berücksichtung von Untergruppen in der Klasse ausdifferenzieren. Insgesamt ergibt sich aus den vorliegenden Ergebnissen kein eindeutiges Bild zum Zusammenhang zwischen Eigenschaften des Aufgabenangebots im Unterricht und dem Beteiligungsverhalten der Schüler/innen. Die Befunde deuten vielmehr auf die Notwendigkeit zur Fokussierung einzelner Teilaspekte unter Schärfung der Analyseinstrumentarien sowie in Teilen der fokussierten Konstrukte hin. Die vorgelegten Ergebnisse bieten dafür zahlreiche Anschlussstellen und zeigen gleichzeitig Perspektiven zur Weiterentwicklung untersuchungs- bzw. auswertungsmethodischer Vorgehensweisen auf.
In der vorliegenden Arbeit wurde ein neuer Algorithmus für die automatische Optimierung einer NMR-Zuweisung des back bones in gelabelten Proteinen und seine Implementierung vorgestellt. Der Algorithmus ermöglicht eine Zuweisungsstrategie, die sich näher an der manuellen Vorgehensweise orientiert als vergleichbare Implementierungen von Lukin (LUK 11 ) [Lukin97] oder Leutner (PASTA) [Leutner98], da er die Entscheidung über konkurrierende Protospinsysteminterpretationen in die globale Optimierung der Zuweisung verlegt und die Benutzer nicht zwingt, sich vorzeitig auf eine Interpretation pro Aminosäure und Peak zu beschränken. Der Algorithmus löst daher nicht nur das Reihenfolgenproblem für einen schon vorgegebenen Satz von Protospinsystemen, sondern auch das Auswahlproblem zwischen verschiedenen, sich widersprechenden, Interpretationen der gleichen Peakgruppe. Durch das zusätzliche Auswahlproblem erhöht sich die Komplexität der Optimierungsaufgabe, der Lösungsraum wächst daher um mehrere Größenordnungen. Dies verlängert die Laufzeit für den einfachen RANDOM Algorithmus gegenüber einem vergleichbaren Reihenfolgeproblem. Es wurden daher verschiedene Methoden untersucht, um die Laufzeit wieder zu reduzieren. Die erzielten Verbesserungen führen nicht nur zu einer besseren Konvergenz, sondern ermöglichen auch erstmals eine echte parallele Implementierung des Algorithmus. Die algorithmischen Verbesserungen sind die Reduktion des Protospinsystemcaches und der GENETISCHe Algorithmus. Zusätzlich wurde eine verbesserte Konfiguration zur Kontrolle der Suboptimierer gefunden. Die Implementierung der zugrundeliegenden Datenstrukturen ermöglicht die Umsetzung zusätzlicher Nebenbedingungen für die Positionen der Protospinsysteme innerhalb der Zuweisung. Ein Beispiel für die Nebenbedingungen sind die knotenlokalen Filter und die Strukturfilter aus Kapitel 2. Ihre Effizienz wird am besten durch die Aminosäuretypenerkennung demonstriert, die die Größe des Lösungsraumes um 168 Größenordnungen für Trigger reduziert. Dadurch verringert sich die Laufzeit des RANDOM Algorithmus bis zu einem Faktor von 132. Für PASTA wurde in [Leutner98] statt dessen der umgekehrte Effekt auf die Laufzeit festgestellt. In ihrer Implementierung verlängert sich die Laufzeit auf das Doppelte. Der Unterschied kann nur durch eine unterschiedliche Nutzung der Aminosäuretypenerkennung im Protospinsystempool erklärt werden. PASTA nutzt diese Information anscheinend nicht, um den Pool und damit den Lösungsraum zu reduzieren, sondern nur bei der Bewertung der Zuweisung. Diese Konfiguration kann in RANDOM näherungsweise nachvollzogen werden, wenn man im AS-Cache jeder Aminosäure jedes Protospinsystem zuweist. Die Bewertung der Aminosäuretypen und den Austausch zwischen Pool und Individuum kann man aber nicht abschalten. Ein möglicher Nachteil der Reduktion des AS-Caches mittels der Aminosäuretypenerkennung ist die Möglichkeit, daß Aminosäuren mit untypischen Frequenzen der falschen Aminosäure zugewiesen werden oder nicht in den Cache für die theoretische Aminosäure aufgenommen werden. Um eine falsche Zuweisung durch die Reduktion auszuschließen oder zu überprüfen, kann man zuerst mit einem AS-Cache mit Typenerkennung optimieren und das Ergebnis in einer zweiten Optimierung mit einem AS-Cache ohne Typenerkennung nachoptimieren. Diese Möglichkeit wurde bei der Zuweisung von Trigger demonstriert. Für Trigger konnte durch den Wechsel des Caches gezeigt werden, daß auch mit dem reduzierten Cache eine stabile Zuweisung gefunden wird, die der Zuweisung ohne Aminosäuretypenerkennung weitgehend entspricht. Die Zuweisungen unterscheiden sich in Aminosäuren mit unsicherer Typenzuweisung. In Trigger wird nur ein Protospinsystem (Phe66,Ile67) aufgrund der Typeninformation von der Position im AS-Cache ausgeschlossen, der es in der manuellen und der Zuweisung ohne Reduktion zugewiesen wurde. In anderen Fällen führt erst die Typeninformation zur richtigen Zuweisung (zB. Thr60,Ile61), während die Zuweisung ohne Typenerkennung eine Fehlzuweisung erzeugt. Man sollte daher immer beide Versionen berechnen und dann vergleichen, da eine manuelle Zuweisung beide Defekte aufweisen kann, weil sie die Zuweisungsregeln nicht so strikt optimiert, wie es ein automatischer Algorithmus kann. Für beide Algorithmen wurde der Parameterraum untersucht und eine sowohl optimale als auch robuste Konfiguration gesucht. Dabei wurde der Einfluß jedes Parameters des Algorithmus auf die Laufzeit bis zur Konvergenz zum globalen theoretischen Maximum bestimmt. Bei RANDOM waren hauptsächlich die Zusammensetzung des Aktionsprofils und die minimale und maximale Lebenszeit der veränderten Zustände, minTTL und maxTTL, für die Laufzeit entscheidend. Alle drei kontrollieren, welche Pfade durch den Lösungsraum ab einem Zustand erlaubt sind. Die gleiche Untersuchung wurde auch für die Parameter der zu berechnenden Probleme (Proteine) durchgeführt. Für den Datensatz wurde sowohl der Einfluß der Proteingröße, des maximalen CA Abstandes zwischen den Peaks der benachbarten Aminosäuren und der Aufbereitung des Protospinsystemcaches auf die Laufzeit, als auch der Einfluß eines unvollständigen Datensatzes auf die Konvergenz untersucht. Der Algorithmus zeigte sich dabei sehr robust gegen fehlende Peaks, da bis zu 45% der theoretischen Peaks fehlen können, ohne daß die Konvergenz zum theoretischen Optimum verloren geht. Unterhalb von 55% hängt die Übereinstimmung der gefundenen Lösung mit der theoretischen Lösung von der Zusammensetzung der gebildeten Protospinsystemfragmente ab. Proteingröße und maximaler CA Abstand haben dagegen großen Einfluß auf die Laufzeit. Während die Parametrisierung des RANDOM Algorithmus sich auf die Untersuchung des Wertebereichs der Kontrollparameter beschränken kann, muß die Parametrisierung des GENETISCHen Algorithmus auch die verschiedenen Crossover Operatoren und die Kontrolle der Suboptimierer umfassen. In Kapitel 3 wurden die verschiedene Crossover Algorithmen und unterschiedliche Konfigurationsvarianten für den Suboptimierer im GENETISCHen Algorithmus untersucht. Die aus der Literatur bekannten Crossover Operatoren waren dabei den spezialisierten G Operatoren unterlegen. Auch die Varianten elitär und statistisch, die keinen genetischen Austausch zwischen verschiedenen Individuen zulassen, waren den speziellen Operatoren immer unterlegen. Selbst kleine Anteile eines Genaustausches bewirkten eine Verbesserung der Laufzeit und die Qualität der Lösung. Dabei verbesserte sich besonders die Konvergenz durch den genetischen Austausch. Die speziellen G Operatoren übertragen nur die Differenz der Eltern statt, wie im klassischen Crossover, blind irgendeinen zusammenhängenden Bereich zu kopieren. Dadurch vermeiden sie es, hauptsächlich identische Bereiche zu kopieren, sondern übertragen nur Protospinsysteme, die sich in den Eltern unterscheiden. Außerdem wurde die Effizienz der speziellen Operatoren noch weiter gesteigert, indem die übertragenen Informationen mit Hilfe von Filtern gezielt auswählt wurden. Die übertragene Differenz wird dazu aufgrund ihrer Nachbarn und der Verknüpfung mit den Nachbarn ausgewählt. Mit unterschiedlichen Filtern wurden so Bereiche mit einem unterschiedlich hohen lokalen Optimierungsgrad für die Übertragung ausgesucht. Die Laufzeituntersuchungen in Kapitel 3 zeigen, daß es eine Grenze für die Effizienzsteigerung durch die Übertragung lokal voroptimierter Bereiche gibt. Während es beim Wechsel von unkoordinierten, punktförmigen Übertragungen (s1) zur Übertragung von kurzen Strecken aus benachbarten Protospinsystemen, mit oder ohne Verknüpfung (s2), noch zu einer geringen Verbesserung der Laufzeit und der Konvergenz kommt, führt die zusätzliche Koordinierung der übertragenen Nachbarn durch die Nebenbedingung der Verknüpfung in den s3 Algorithmen sogar zu einer geringen Verschlechterung der Laufzeit. Die Gründe für die Verschlechterung konnten nicht eindeutig nachgewiesen werden. Möglicherweise verringert sich die Anzahl der kopierbaren Bereiche durch die zusätzlichen Nebenbedingungen so sehr, daß nicht genügend unterschiedliche Differenzen für die Übertragung in die neuen Individuen gebildet werden. Die neuen Individuen erhalten dann hauptsächlich die gleichen neuen Gene. Dadurch kann es zu einer Verarmung des genetischen Pools, d.h. zum Verlust der genetischen Diversität in der Population kommen. Die neuen Individuen suchen dann identische Bereiche im Lösungsraum ab und nehmen dadurch die lokale Optimierung doppelt vor. Dadurch verschwendet diese Konfiguration CPU Zeit auf schon untersuchte Bereiche. Neben der direkten Übertragung zusammenhängender Bereiche gibt es noch einen weiteren Faktor der die spezialisierten Operatoren, gegenüber dem klassischen Crossover, verbessert. Die Differenzbildung im Crossover nimmt auf die Konkurrenz um die Peaks zwischen den Protospinsystemen keine Rücksicht. Dadurch befinden sich die neuen Individuen zuerst meist im illegalen Teil des Zustandsraumes S n . Nach dem Crossover wird daher ein Teil der ursprünglichen Protospinsysteme des neuen Individuums durch den Reparaturmechanismus gelöscht und dadurch schon optimierte Bereiche zerstört. Daher kommt dem Reparaturmechanismus für illegale Zustände die entscheidende Rolle zu, denn er erzwingt die Neuberechnung der Positionen, die vor dem Crossover durch einen Konkurrenten eines übertragenen Protospinsystems belegt waren. Die ehemaligen Zuweisungen in den zerstörten Bereichen sind dabei nur über die Resourcenkonkurrenz mit den im Crossover neu injizierten korreliert. Das Crossover mit Zerstörungen erweitert dadurch den erreichbaren Lösungsraum, statt ihn, wie beim klassischen Crossover, auf den Raum zwischen den Eltern einzuschränken! Die Zerstörungen sind für die Optimierung daher von Vorteil. Außerdem zeigte sich in Kapitel 3, daß für die speziellen Operatoren eine besondere Konfiguration des Suboptimierers besonders effizient ist, die den einzelnen Individuen nur die CPU-Zeit zuteilt, die sie, effizienter als ihre Konkurrenten, zu einer Verbesserung nutzen können. Diese Verteilung der Rechenzeit wird durch die sogenannte Ratenbegrenzung erreicht. Die veränderlichsten Individuen erhalten dabei die meiste Rechenzeit. Dies sind normalerweise die Individuen, die in einem der letzten genetischen Zyklen neu erzeugt wurden. Sobald ein Individuum in ein tiefes lokales Optimum, d.h. eine Sackgasse, geraten ist, erhält es weniger Rechenzeit, da seine Verbesserungsrate unter den Schwellwert sinkt. Dadurch darf man den einzelnen Individuen eine höhere maximale Laufzeit zuteilen, da sie sie nur nutzen können, wenn sie sich währenddessen verbessern. Die Kombination "ratenbegrenzt" mit Operator Gs2p2A verbraucht trotz des komplexeren Algorithmus weniger CPU-Zeit bei gesteigerter Konvergenzwahrscheinlichkeit und geringerer paralleler Laufzeit als jede andere Konfiguration. Sie ist damit die beste bekannte Konfiguration für GENETISCH. Im Praxistest in Kapitel 5 mit dem Proteinabschnitt Trigger M bestanden zwischen den automatischen Zuordnungen und der manuellen Zuweisung nur geringe Unterschiede. Die Unterschiede zwischen den Optimierungen mit unterschiedlichen Caches entstehen hauptsächlich in den Bereichen, die an einem Ende keinen verknüpften Nachbarn haben oder bei denen die manuelle Zuweisung unsicher ist, wie im Bereich 10 - 20. Durch die automatische Zuweisung konnte die manuelle Zuweisung sogar an einigen Stellen vervollständigt werden. Sie ist daher einer manuellen Zuweisung gleichwertig. Darüber hinaus entsteht bei der automatischen Zuweisung immer eine Dokumentation über die Verwendung der Peaks, so daß man ungenutzte Spinsysteme leichter finden kann. Der genetische Algorithmus kann optimal auf einem Netzwerkcluster implementiert werden, daher bietet sich ein echte parallele Implementierung an. GENETISCH braucht dabei keine besondere Hardware, wie Vektorrechner, shared memory oder besonders schnelle Netzwerkverbindungen, sondern kann auf einer Gruppe von normalen Rechnern mit einer üblichen Ethernet100 Netzwerkverbindung implementiert werden, da nur zum Austausch der Individuen, bzw. ihrer Differenz, eine Kommunikation zwischen den Rechnern notwendig ist. Dadurch kann die Kommunikation auf wenige KB alle paar Sekunden beschränkt bleiben. GENETISCH sollte außerdem leicht zu skalieren sein, da man die Anzahl der Individuen leicht an größere Probleme anpassen kann. Eine echte parallele Implementierung erlaubt daher sowohl die Rechenzeit für komplexere Problem auf wenige Minuten zu reduzieren als auch größere und mehrdeutigere Spektren zuzuweisen. Außerdem kann man die Wahl der Prozessparameter selbst auch dem selben Optimierungsprozeß unterwerfen, der bisher für die Optimierung der Zuweisung verwendet wurde. Dadurch sollte es möglich sein, die Optimierungsparameter, analog dem Profil der Abkühlung im simulated annealing, dynamisch an die Phase der Optimierung anzupassen und den Individuen immer die optimalsten Optimierungsparameter zu bieten, ohne diese vorher von Hand suchen zu müssen. Diese Veränderung erfordert aber eine große Anzahl an Individuen und damit die echte parallele Implementierung.
Ziel der vorliegenden Arbeit war es, ausgewählte Gruppen der Dekapoden (brachyure Krabben, Einsiedler und Porzellankrebse) des PersischArabischen Golfes und des Golfes von Oman taxo nomischfaunistisch zu erfassen, eine Abschätzung des Artenreichtums und der Faunenzusam mensetzung vorzunehmen und die zoogeographischen Beziehungen innerhalb der Golfregion und zu anderen Teilen des westlichen Indischen Ozeans zu analysieren. Die Dekapodenfauna der Golfregion war -- im Gegensatz zur sehr viel besser untersuchten des Roten Meeres -- bislang Gegenstand vergleichsweise weniger wissenschaftlicher Arbeiten, und der faunistischtaxonomische Kenntnisstand stellte sich als entsprechend lückenhaft dar. Dies erwies sich einerseits als Problem bei der Beurteilung des Zustands von Lebensgemeinschaften und Folgeschäden nach der Ölkatastrophe von 1991, andererseits als Hindernis für Faunen vergleiche und zoogeographische Studien. Um vor allem die bislang wenig bearbeiteten eulitoralen Lebensräume wie Watten und Man groven, aber auch Korallenriffe, intensiv zu beproben, wurden Sammelreisen in verschiedene Teile des PersischArabischen Golfes und den Golf von Oman durchgeführt. Daneben wurde umfangreiches Museumsmaterial der bedeutenden Sammlungen aus der Golfregion taxonomisch untersucht, mit Material aus anderen Regionen verglichen und neu bewertet. Insgesamt konnte für den PersischArabischen Golf das Vorkommen von 188 Arten brachy urer Krabben, 20 Pagurideen (Einsiedlerkrebse) und 18 Porcellaniden (Porzellankrebse) eindeutig belegt werden; 43 Arten (37 Brachyuren, 4 Pagurideen und 2 Porcellaniden) wurden erstmals für den Golf nachgewiesen. Bei 11 dieser Neunachweise handelt es sich um bislang unbeschriebene Arten. Ein faunistischer Vergleich zu anderen Teilen des Indischen Ozeans zeigt, daß der Golf für die untersuchten Taxa insgesamt deutlich artenärmer als das Rote Meer oder die ostafrikanische Küste ist. Dies ist vor allem auf die geringere Ausdehnung und schlechtere Entwicklung von Korallenriffen sowie das Fehlen von Tiefwasserhabitaten, aber auch auf das Vorherrschen extre mer ökologischer Bedingungen in weiten Teilen des Golfes zurückzuführen. Zwischen verschie denen systematischen und ökologischen Gruppen bestehen allerdings große Unterschiede hinsichtlich des Artenreichtums. Während hartboden und korallenassoziierte Gruppen im Golf deutlich unterrepräsentiert sind, findet sich bei weichbodenbewohnenden Taxa eine vergleichs weise artenreiche Fauna. Besonders auffallend ist dabei der Artenreichtum der eulitoralen Ocypodidae, die mit 23 Arten im Golf eine weitaus höhere Artendiversität erreichen als im Roten Meer oder an der ostafrikanischen Küste und gemeinsam mit den ebenfalls vorwiegend in der Gezeitenzone leben den Grapsiden einen Schwerpunkt der Arbeit bildeten. Innerhalb der Golfregion zeigten sich für diese Familien große Unterschiede hinsichtlich des Artenreichtums und der Faunenzusammen setzung. Die Wattgebiete und Mangroven des nördlichen und des südöstlichen PersischArabi schen Golfes sowie des Golfes von Oman fallen dabei durch ihre sehr diverse Fauna auf. Stark verarmt ist dagegen die eulitorale Fauna des südwestlichen und westlichen Teils des Persisch Arabischen Golfes. Der Grund für diese Verarmung ist dabei vor allem im hohen Salzgehalt des küstennahen Wasserkörpers zu sehen. Die Ergebnisse der faunistischtaxonomischen Auswertungen ermöglichten eine zoogeogra phische Analyse, bei der die Dekapodenfauna sowohl auf ihre Homogenität innerhalb der Golf region, als auch auf ihre Beziehungen zu der aus anderen Teilen des Indischen Ozeans untersucht wurde. Hierzu wurden Endemismusraten und Verbreitungsmuster der aus dem Golf nachgewie senen Arten betrachtet sowie Faunenähnlichkeiten mit Hilfe multivariater statistischer Methoden analysiert. Zoogeographisch stellt sich die Dekapodenfauna der Golfregion als Mischung unterschied licher zoogeographischer Elemente dar. Dies reflektiert die Lage des Golfes am Übergang zwischen westlichem Indischen Ozean und indischer bzw. indomalaiischer Region. Die Endemis musraten liegen bei 6 % für Porcellaniden, 7 % für Brachyuren und rund 10 % für Pagurideen. Für keine der Gruppen läßt sich daraus eine Begründung für eine eigene Faunenprovinz oder ein Endemismuszentrum ableiten. Neben den Endemiten beinhaltet die Fauna Arten unterschied licher geographischer Beziehungen. Den größten Anteil stellen weit verbreitete Arten, die je nach Gruppe zwischen der Hälfte und zwei Dritteln der im Golf vorkommenden Arten ausmachen. Für die Einsiedlerkrebse sind daneben vor allem Arten aus dem Roten Meer und dem Golf von Aden von Bedeutung, was auf eine enge Beziehung der Pagurideenfauna zu diesen Gebieten hin weist. Dagegen sind für die Brachyuren indopakistanische und indomalaiische Arten von weit aus größerer Bedeutung, was eine größere Ähnlichkeit der Krabbenfauna zu der Pakistans und Indiens andeutet. Innerhalb der Golfregion ergaben sich für die Brachyurenfauna, insbesondere für Ocypodi den, deutliche Unterschiede hinsichtlich der zoogeographischen Beziehungen. Während der von östlichen Faunenelementen dominierte nördliche und östliche Golf kaum westliche Faunen elemente aufweist, stellen diese im südlichen Golf und vor allem im westlichen Teil des Golfes von Oman einen erheblichen Anteil an der Gesamtfauna. Getrennt werden diese beiden Gebiete durch die Bereiche des südlichen und westlichen Golfes, in denen die extrem hohen Salzgehalte eine wirksame Verbreitungsbarriere darstellen. Zumindest für einige Taxa ist demnach die Golf region nicht als einheitliche faunistischzoogeographische Region zu betrachten. Während der nördliche und östliche Teil des PersischArabischen Golfes zoogeographisch eng mit Pakistan verbunden sind, zeigen sein südlicher Teil und der westliche Golf von Oman engere Beziehungen zum Golf von Aden und dem Roten Meer. Aufgrund der vergleichsweise guten Dokumentation der Faunenzusammensetzung in ver schiedenen Teilen des Indischen Ozeans ließ sich für Ocypodiden und Grapsiden ein überregio naler Faunenvergleich mit Hilfe multivariater Analysenmethoden durchführen und eine zoogeo graphische Unterteilung des Indischen Ozeans vornehmen. Innerhalb des westlichen Teils des Indischen Ozeans lassen sich dabei drei Regionen aufgrund ihrer Faunenähnlichkeit voneinander abgrenzen. Dies sind -- eine ost/südostafrikanische Region, die von der Nordostküste Südafrikas bis nach Somalia reicht -- eine west/südarabische Region bestehend aus Rotem Meer, Golf von Aden, der südarabi schen Küste und dem westlichen Golf von Oman, die auch in den südöstlichen Persisch Arabischen Golf hineinzieht -- eine ostarabischpakistanische oder iranischpakistanische Region, die den nördlichen und östlichen Teil des PersischArabischen Golfes, den östlichen Golf von Oman sowie Pakistan und Nordwestindien umfaßt Hinsichtlich der Besiedlungsgeschichte des PersischArabischen Golfes zeigen die Ergebnisse, daß eine Besiedlung durch eulitorale Krabben zum größten Teil von der indischen Seite aus entlang der iranischen Küste stattgefunden haben muß, während später eingewanderte westliche Elemente aufgrund der massiven Salinitätsbarriere und der Strömungsverhältnisse auf den süd östlichsten Teil beschränkt blieben. Vor allem die Gezeitenzonen des PersischArabischen Golfes weisen teilweise sehr diverse Lebensgemeinschaften auf, deren Artenzusammensetzung in ihrer Mischung unterschiedlicher zoogeographischer Elemente einzigartig ist und den Einfluß verschiedener Wasserkörper auf den Golf anzeigt. Für die Ocypodiden führt dies zu einer hohen regionalen oder gammaDiversität sowie einer über reine Artendiversität hinausgehenden Diversität der Lebensgemeinschaften. Während sich die Folgen des Golfkriegs als weniger gravierend als ursprünglich befürchtet erwiesen haben, könnten Habitatzerstörung und schleichende Verschmutzung die Lebensgemein schaften des PersischArabischen Golfes irreparabel schädigen.
Verglichen mit normal progredierenden HIV-1 Infizierten weisen Langzeit Nicht-Progredierende (LTNP), trotz chronischer Infektion und ohne antivirale Therapie, keinerlei Anzeichen einer klinischen Progression sowie stabil hohe CD4+-Zellzahlen und eine geringe Viruslast auf. Für diesen ungewöhnlichen Infektionsverlauf wurden mehrere virologische, genetische und immunologische Ursachen in der Literatur beschrieben. Anhand einer gut charakterisierten LTNP-Kohorte und einer Kontrollgruppe mit vergleichbaren klinischen Markern, wurde hier der Einfluss der einzelnen Faktoren, vor allem der humoralen Immun-antwort, auf den Infektionsverlauf analysiert. Die Analyse viraler und patienteneigener Gene zeigt, dass keiner der LTNP die ccr5Delta32 Mutation aufweist und auch der Vergleich der viralen Proteine Env, Nef, Rev, Tat und Vpr ergab keine zwingende Ursache für ein Ausbleiben der Progression. So zeigt sich zwar eine Anreicherung von Insertionen in den Variablen Schleifen (v.a. V1/V2) in den Env der LTNP-Viren, die Funktionalität der viralen Hüllproteine wurde jedoch mit Hilfe HIV-1 Env-rekombinanter Reporterviren aufgezeigt. Die HIV-1 Env-rekombinanten Reporterviren der LTNP unterschieden sich weder in ihrer Infektiosität, noch in der Effizienz der frühen Replikationsschritte von den korrespondierenden Viren der HIV-1 Kontrollpatienten, was einen entscheidenden Einfluss der Hüllproteine auf den Infektionsverlauf nahezu aus-schließt. Seitens der zellulären Immunantwort wurden in einigen LTNP HLA-B Typen identifiziert, die in der Literatur mit einem verlangsamten Infektionsverlauf und einer aus-geprägten zellulären Immunantwort in Verbindung gebracht wurden. Die Untersuchung der zellulären Immunantwort der LTNP (außerhalb dieser Arbeit) ergab jedoch keine Besonder-heiten, was den Einfluss der identifizierten HLA-B Typen auf den nicht-progredierenden Infektionsverlauf relativiert. Die humorale Immunantwort der Patienten wurde in umfassen-den Neutralisationsstudien mit Hilfe der HIV-1 Env-rekombinanten Reporterviren analysiert. Hierbei zeigte sich, dass die LTNP, verglichen mit den HIV-1 Kontrollpatienten, eine signifikant bessere humorale Immunantwort besitzen. Zusammen mit den zuvor gewonnenen Erkenntnissen legt dies einen entscheidenden Einfluss neutralisierender Antikörper am Nicht-Progredieren der LTNP nahe. Durch den Einsatz HIV-1 Env-spezifischer Peptidphagen wurde die humorale Immunantwort der zwei Patientengruppen weiter untersucht, wobei einige Unterschiede zwischen der Antikörperantwort der LTNP und HIV-1 Kontrollpatienten aufgezeigt wurden. Mit Hilfe dieser Peptidphagen wurde in Versuchstieren eine HIV-1 Env-reaktive Immunant-wort induziert. Die Fusion von Myelomzellen mit den B-Zellen der immunisierten Tiere und die anschließende Selektion führten zur Isolierung HIV-1 Env-spezifischer Hybridomazellen. Um sich den Vorteil der langjährigen Antikörperreifung in den Patienten selbst zu Nutze zu machen und gezielt breit-neutralisierende Antikörper zu isolieren, wurden, ausgehend von B-Zell mRNA der LTNP, patienteneigene scFv Phagen Display Bibliotheken erstellt. Die in vitro Selektion dieser scFv Phagen Display Bibliotheken mit unterschiedlichen HIV-1 Env Varianten führte zur Isolierung einiger HIV-1 Env spezifischer scFv-Phagen. Die Untersuchung der Bindungseigenschaften des reaktivsten scFv-Phagens zeigte eine breite Reaktivität gegen unterschiedliche HIV-1 Env Varianten, die durch HIV-1 positives Serum kompetiert werden konnte. Das Epitop dieses scFv-Phagens wurde in der Variablen Schleife 3 von HIV-1 Env lokalisiert. Diese Arbeit zeigt den entscheidenden Einfluss der humoralen Immunantwort für die nicht-progredierende Infektion der hier untersuchten LTNP und gibt erste Hinweise auf mögliche Ursachen für die außergewöhnlich breite Serumreaktivität. Die Identifikation charakteristischer Eigenschaften in der humoralen Immunantwort, sowie die Identifizierung der hierfür verantwortlichen Antikörper kann bei der Entwicklung aktiver oder passiver Vakzine von entscheidendem Vorteil sein oder als Ausgangspunkt für neue therapeutische Ansätze dienen.
Die vorliegende Arbeit untersucht den Übergang von Mitarbeitenden zu Führungskräften. Der Fokus der Arbeit ist nicht die Konzeption der Führungskräfteentwicklung aus der Perspektive der Unternehmen, sondern die Untersuchung der Entstehung und Gestaltung dieses Übergangs durch die Mitarbeitenden innerhalb ihrer beruflichen Rahmenbedingungen. Die Ergebnisse dieser Arbeit zeigen, dass sich in der Gestaltung dieses Übergangs von Mitarbeitenden zur Führungskräften individuelle und organisatorische Aspekte verbinden – bzw. diese durch das Subjekt in eine Verbindung gebracht werden. Durch leitfadengestützte Interviews mit (berufs-) biografischem Schwerpunkt ließen sich die individuellen, wie auch die sozialen und organisatorischen Aspekte der Gestaltung des Übergangs von Mitarbeitenden zur Führungskräften rekonstruieren. Die Stichprobe dieser Arbeit umfasst neun Interviews aus unterschiedlichsten Branchen und beinhaltet sowohl öffentliche als auch privatwirtschaftliche Arbeitgeber. Die dadurch gewonnenen Erkenntnisse ermöglichen Einsichten in die Formen und Bedingungen der Gestaltung dieses Übergangs und können auch eine Grundlage für (organisations-)pädagogische Konzepte zur Unterstützung der Mitarbeitenden bei diesem Übergang bilden.
Die Arbeit „Zwischen Kooperation und Wetteifer – Interaktionen und mediale Organisation von Kreativität am Beispiel des koopetitiven Ideennetzwerks jovoto“ untersucht internetbasierte Kokreativität – die gemeinsame Ideenentwicklung im Mediennetzwerk. Im Unterschied zu vorangegangen Untersuchungen, die sich mit den Motiven für die häufig unentgeltlichen kokreativen Aktivitäten und dem Innovationspotential dieser Organisationsform beschäftigten, liegt der Fokus dieser Studie auf der Kommunikation der Akteure untereinander während der Kokreation. Als Fallbeispiel wird die Design-Ideenplattform jovoto ausgewählt, die Kreativität auf der Basis von Koopetition – der Gleichzeitigkeit von Kooperation und Wettbewerb – unter den Teilnehmern fördert. Die Ideenautoren im Netzwerk von jovoto entwickeln kreative Lösungen in den Bereichen Produktdesign, Kampagnen, Innovation und Architektur. Die Teilnehmer treten mit ihren Ideen im Wettbewerb gegeneinander an; gleichzeitig kommentieren und bewerten sie sich gegenseitig im Prozess der Ideenentwicklung. Aus den Bewertungen der Community ergeben sich die Gewinner des ausgeschriebenen Preisgeldes. Aus dieser Gleichzeitigkeit von Wettbewerb und Kooperation ergibt sich die Forschungsfrage dieser Untersuchung: Wie ist das Verhältnis zwischen Kooperation und Wettbewerb im Kokreationsnetzwerk jovoto bestimmt, und wie wirkt dies auf Kreativität? Um diese Frage zu beantworten, untersuche ich die auf der Plattform dokumentierten Interaktionen (Kommentar-Threads) zwischen den Ideenentwicklern und anderen Community-Mitgliedern mit qualitativen und quantitativen Methoden und analysiere zwanzig von mir geführte halbstrukturierte Leitfaden-Interviews mit den Ideenautoren auf jovoto. Zur theoretischen Einordnung der beobachteten Phänomene stütze ich mich sowohl auf Kultur- und Kommunikationstheorien des radikal-konstruktivistischen Erkenntnismodells als auch auf die kulturellen Spieltheorien von Johan Huizinga und Roger Caillois. Ich beziehe zudem Ansätze ein, die Kokreativität als eine Form der kulturellen Produktivität beschreiben. Einen weiteren Anhaltspunkt bilden Studien, die sich mit der produktiven Beziehung zwischen Kooperation und Wettbewerb auseinandersetzen. Ergänzt werden diese Erkenntnisse bspw. durch die These zur Intelligenz der Crowd in heterogenen Gruppen von Entscheidern und durch Untersuchungen zum positiven Einfluss von Differenzen und Konflikten auf die Gruppenkreativität. Ich führe diese Vorarbeiten zu einer Modellvorstellung zusammen: In dieser verknüpft der koopetitive Handlungskontext ein Kooperationsspiel mit einem Wettbewerbsspiel, und zwar mithilfe von Kreativität: Diese ermöglicht, dass der Fokus im Spiel – von der Betonung und Vergrößerung des Gemeinsamen zwischen den Teilnehmern zur Betonung ihrer Differenzen – wechseln kann. Hieraus leite ich Hypothesen ab, die ich empirisch überprüfe: Während einer sechsmonatigen Beobachtung des Plattformgeschehens habe ich Daten zu 135 Wettbewerben auf jovoto erhoben. Die Analyse von über 2.400 Kommentaren ergibt, dass die beiden Leitkategorien „Bestätigung“ und „Herausforderung“ das kokreative Kommunikationsgeschehen charakterisieren. Hiervon ausgehende qualitative und quantitative Untersuchungen zu 54 Diskussions-Threads ergeben: In der Platzierung erfolgreiche Ideen werden von intensiveren Diskussionen begleitet als weniger erfolgreiche. Bemerkenswert ist, dass sie nicht nur eine größere Zahl bestätigender Kommentare erhalten, sondern auch mehr Herausforderungen. Die im Schnitt höchste Punktzahl geht mit einem Verhältnis von rund acht Bestätigungen je Herausforderung einher. Dieses Ergebnis bestätigt die Ausgangshypothese, dass es sich bei den Ideenwettbewerben um ein Kommunikationsspiel mit kooperativer, wetteifernder und kreativer Komponente handelt: In den Interaktionen zu den Ideenbeiträgen, insbesondere den erfolgreichen, herrscht ein Wechsel zwischen Bestätigungen und Herausforderungen vor. Aus den Aussagen der Ideenautoren in den geführten Interviews wird ein zentraler Konflikt deutlich: Die Tätigkeit bringt einen hohen Aufwand und wenig Aussicht auf Gewinn mit sich. Unterm Strich scheint sie jedoch lohnenswert, da die Akteure wichtige Lernerfahrungen im Netzwerk sammeln können und die eigenen Fähigkeiten einzuschätzen lernen. Dass die kreativen Beiträge anderer Wettbewerbsteilnehmer von anderen rege diskutiert werden, belegt den Erfolg des Organisationsmodells der Kokreation. Dieser verhält sich konträr zu den Vorhersagen herkömmlicher ökonomischer Theorie, die rein eigennützige Akteure annimmt, und deutet auf die Relevanz von Theorien hin, die wechselseitiges Feedback und dessen Gratifikationen als Faktoren in der netzwerkbasierte Produktion zentral berücksichtigen.
Qualität und Qualitätsmanagement in der universitären naturwissenschaftlichen Lehrerfortbildung
(2010)
Vor dem Hintergrund der politischen Entwicklungen in Hessen und der allgemeinen Debatte über Qualität im Bildungsbereich sollte im Lehrerfortbildungszentrum Chemie (lfbz-Chemie) der Universität Frankfurt am Main eine systematische Qualitätsentwicklung etabliert und dieses Vorhaben wissenschatflich begleitet werden. Die wissenschaftliche Arbeit besteht aus drei Säulen: - Eine erste, qualitative Studie sollte Qualitätskriterien und -indikatoren liefern. - In einer Fallstudie am lfbz-Chemie Frankfurt sollte die Einführung von Instrumenten des Qualitätsmanagements aus dem gewerblichen Weiterbildungsbereich beobachtet und bewertet werden. - Eine bundesweite Umfrage unter universitären Fortbildungsanbietern im naturwissenschaftlichen Bereich sollte sowohl die Struktur der anbietenden Institutionen als auch die allgemeine Einstellung der Befragten zum professionellen Qualitätsmanagement (QM) nach einem im gewerblichen Bereich geläufigen Modell (LQW) beleuchten. Die Qualitätsindikatoren und -kriterien fielen sehr spezifisch für die naturwissenschaftliche Lehrerfortbildung aus. Allein die drei folgenden Bereiche erfassen zwei Drittel aller Nennungen: die „Qualität der Teamer bzw. Moderatoren“, die „Fortbildungsgestaltung“ und die „Zielgruppenorientierung (Schulbezug)“. Nimmt man die Anzahl der Indikatoren und Kriterien pro Bereich als Maßstab, fokussieren die Befragten sehr stark auf Anforderungen, die die Professionalität des Personals betreffen. Zur Orientierung für die Qualitätsarbeit am lfbz-Chemie (Fallstudie) wurde das QM-Modell LQW 2 gewählt; als kleinere Instrumente kamen die Tabellen nach dem Vorbild der Balanced Scorecard (BSC) nach Kaplan und Norton sowie die Stärken-Schwächen-Analyse zum Einsatz. Als erstes Ergebnis der Fallstudie kristallisierten sich drei Arbeitsbereiche heraus: Personalorganisation, Evaluation und Innovationen. Diese Arbeitsfelder ergänzten die identifizierten Anforderungen an Fortbildung somit um Bereiche, die eher der organisatorischen Ebene zuzuordnen sind. Es ließ sich in der Fallstudie feststellen, dass ein ganzes Qualitätsmanagementmodell wie LQW 2 nur als Anregung für den einen oder anderen, als wichtig erachteten Bereich dienen konnte, während sich kleinere Instrumente eher als handhabbar erwiesen. Außerdem konnte postuliert werden, dass - ein persönlicheres Eingehen auf die Ziele und Aufgaben der einzelnen Personen im Sinne eines Total Quality Managements vermutlich zu besseren Ergebnissen geführt hätte als die Konzentration auf allgemeine Themen und die Orientierung am eher abstrakten Modell, - Erfolge sehr nachdrücklich kommuniziert werden müssen und - möglichst eine Person aus dem Stammpersonal für den Bereich Qualität verantwortlich sein sollte. Um ergänzend zur Fallstudie zu allgemeineren Schlüssen gelangen zu können, wurde eine Charakterisierung der universitären Fortbildungsanbieter mittels Clusteranalyse mit Daten der bundesweiten Umfrage durchgeführt. Sie zeigte vier Typen von Anbietern auf. Insgesamt fanden sich neben der Gruppe der großen Anbieter, zu denen auch das lfbz-Chemie gehört, nur vergleichsweise kleine Anbieter. Die in der Fallstudie erhaltenen Ergebnisse können somit nur eingeschränkt auf die meisten Anbieter übertragen werden. Insgesamt konnten Stärken und Schwächen der universitären Anbieter identifiziert werden, mit denen sich die universitäre naturwissenschaftliche Lehrerfortbildung von der gewerblichen Weiterbildung abhebt. Stärken lagen vor allem in den besonderen Kompetenzen, die an der Hochschule anzutreffen sind. Problemfelder lagen ausgerechnet hauptsächlich im Personalbereich. Als spezifische Schwächen der universitären Anbieter im Personalbereich kann z. B. die Stellung der Fortbildung als Nebenaufgabe oder der Verlust von Know-how durch die Fluktuation des Personals gelten. Auch allgemein kann ein Modell wie LQW 2 als Anregung für die Qualitätsarbeit in der universitären Lehrerfortbildung dienen, nicht jedoch umfassend umgesetzt werden. Die „kleineren“ Instrumente können dagegen eher als allgemein geeignet betrachtet werden. Während die „großen“ Anbieter durch verbesserte personelle Ressourcen für Aufgaben wie die Qualitätsarbeit unterstützt werden könnten, bietet sich für die „kleinen“ Anbieter eher die Unterstützung durch eine zentrale Stelle der Universität an, um die Fortbildungsanbieter doch noch in ein professionelles Qualitätsmanagement einbinden zu können.
Das Leben aller Organismen wird grundlegend durch den tages- und jahreszeitlich bedingten Wechsel der Beleuchtungsverhältnisse geprägt. Die Anpassung der Stoffwechselprozesse und Verhaltensweisen an diese Oszillationen erfolgt nicht passiv, sondern wird durch eine innere Uhr gesteuert. Tageszeitliche Rhythmen, die auch ohne den Einfluss äußerer, periodisch verlaufender Umgebungsreize (Zeitgeber) ablaufen, werden als zirkadiane Rhythmen bezeichnet. Im Säugetier steuert ein endogener Rhythmusgenerator im Nucleus suprachiasmaticus (SCN) zirkadiane Rhythmen, indem er periphere Oszillatoren miteinander synchronisiert. Auf molekularer Ebene besteht dieser endogener Rhythmusgenerator aus Aktivatoren (BMAL1 und CLOCK/NPAS2) und Inhibitoren (PER1/2 und Cry1/2), die in Rückkopplungsschleifen die Grundlage für die Rhythmogenese steuern. Die Synchronisation dieses molekularen Uhrwerkes an die Umgebungszeit erfolgt durch Licht, das in der Retina wahrgenommen und an das SCN weitergeleitet wird. Die Signaltransduktionskaskaden nach einem Lichtpuls in der frühen und der späten Nacht unterscheiden sich dabei wesentlich: Ein Lichtpuls während der frühen Nacht führt zu einer erhöhten Freisetzung von Ca2+-Ionen über Ryanodin Rezeptoren (RYR), während ein Lichtpuls während der späten Nacht zu einer erhöhten Guanylylcyclase Aktivität führt. Um zu untersuchen, wie der endogene Rhythmusgenerator seinen Lichteingang reguliert, wurde die Licht-vermittelte Phasenverzögerung in BMAL1+/+- (profizienten) und BMAL1-/-- (defizienten) Mäusen untersucht. Die Befunde aus den in-situ Hybridisierungsstudien, RTQ-PCR und immunhistochemischen Untersuchungen dieser Arbeit zeigten, dass in BMAL1-/--Mäusen die Licht-induzierte mPer-Expression während der frühen Nacht selektiv beeinträchtigt ist. Zudem konnte gezeigt werden, dass die mRNA- und Proteinmengen von RYRs in BMAL1-/--Mäusen dramatisch reduziert waren. Ryr1:: und Ryr2::Luciferase-Reportersstudien zeigten darüber hinaus, dass die Ryr-Expression durch CLOCK/BMAL1 aktiviert und durch CRY1inhibiert werden kann. Diese Ergebnisse liefern den ersten Beweis dafür, dass der endogene Rhythmusgenerator des Säugers die Signalübertragung seines eigenen Lichteingangs regulieren kann. Weiterhin wurde in dieser Arbeit die ontogenetische Entwicklung des endogenen Rhythmusgenerators im SCN und in einem Melatonin-abhängigen peripheren Oszillator, der PT, untersucht und miteinander verglichen. Dazu wurden die Uhrengenproteine im fetalen (E18), postnatalen (P2 & P10) und adulten SCN und in der PT von C3H-Mäusen zu vier verschiedenen zirkadianen Zeitpunkten mittels Immunhistochemie untersucht. Die Anzahl immunreaktiver SCN-Zellen gegen alle untersuchten Uhrengenproteine (außer BMAL1) war im Fetus signifikant niedriger, als in der adulten Maus. Auch im SCN neonataler (P2) Mäuse erreichte die Anzahl immunreaktiver Zellen noch nicht das Niveau der adulten Maus. Erst 10 Tage nach der Geburt (P10) zeigen alle Uhrengenproteine im SCN ein adultes Verteilungsmuster. Offenbar reift das Uhrwerk im SCN von Mäusen graduell während der postnatalen Entwicklungsphase. Dabei besteht eine zeitliche Korrelation zwischen der Reifung des endogenen Rhythmusgenerators im SCN und der Ausbildung von inter-suprachiasmatischen und retino-suprachiaamatischen neuronalen Kontakten. Im Gegensatz zum SCN zeigte der Melatonin-abhängigen Oszilllator in der PT bereits im Fetus einen nahezu vollständig ausgeprägten Rhythmus der Uhrengenproteine. Da das fetale Pinealorgan noch nicht zur rhythmischen Melatonin-Synthese fähig ist, liegt es nahe, dass das mütterliche Melatonin die rhythmische Expression der Uhrengene in der fetalen PT reguliert. Wie in vitro Untersuchungen an PER2::LUCIFERASE-Mäusen zeigten, hat das mütterliche Melatonin offenbar auch einen modulierenden Einfluss auf den fetalen SCN. Bei diesen Mäusen konnte im fetalen und postnatalen SCN ein zirkadianer Rhythmus in der PER2-Synthese nachgewiesen werden, der eine relativ lange Periodenlänge aufwies und nach 3 Tagen zum Erliegen kam. Eine Stimulation mit Melatonin führte zu einer deutlichen Verkürzung der Periodenlänge im PER2-Rhythmus. Folglich scheint das mütterliche Melatonin eine wichtige Quelle für Informationen der Umgebungszeit im Fetus zu sein. Um die Uhrengenexpression während der Maus-Ontogenese in vitro auf zellulärer Ebene darzustellen, wurde in dieser Arbeit zudem ein vom murinen Per2-Promoter angetriebenes DsRed- Reportersystem etabliert und der Versuch begonnen, eine darauf basierende transgene Maus zu generieren.
Landwirtschaft ist der Hauptmotor der westafrikanischen Wirtschaft und Kleinbauern liefern fast 70 % des Nahrungsmittelbedarfs. Traditionell wird hauptsächlich Regenfeldbau betrieben, der durch geringen Agrarinput und die Nutzung von einfachen Werkzeugen wie Hacke und Buschmesser gekennzeichnet ist. Die Ernteerträge sind gering und die Bodenfruchtbarkeit sinkt schnell nach einigen Anbaujahren. Infolgedessen werden Wald- und Weidefläche gerodet und die Landdegradation wird beschleunigt. Dies hat direkte Auswirkungen auf die landwirtschaftliche Produktivität und die Ernährungssicherheit der Kleinbauern.
Die vorliegende Arbeit hat sich das Ziel gesetzt, sozio-ökonomische und geo-ökologische Faktoren, die den Landnutzungswandel in zwei Agrarökosystemen der Atakora Gebirgskette steuern, aufzudecken. Schließlich sollen ortsangepasste Maßnahmen vorgeschlagen werden, um die Agrarökosysteme wiederherzustellen und ihre Dienstleistungen für Kleinbauern zu erhalten.
Haushaltsbefragungen und Gruppendiskussionen wurden während Geländeaufenthalten in den Jahren 2014 und 2015 in den Dörfern der beiden Ethnien durchgeführt. Die Landnutzung und ihr Wandel werden über knapp 30 Jahre anhand von Bildern des Satellitensystems LANDSAT aus den Jahren 1987, 2001 und 2015 ausgewertet. Eine überwachte Klassifikation nach dem „Maximum Likelihood“-Klassifkationsalgorithmus und Veränderungs-analysen wurden durchgeführt. Zum Erfassen der Variabilität der Agrarparameter der Böden wurden Bodenprofile nach dem Catena-Prinzip gegraben. Bodenproben wurden aus jedem Horizont genommen. Anschließend wurden einige physische Parameter und die Nährstoffgehalte vom Fachpersonal des bodenkundlichen Labors des Instituts für Physische Geographie (Geowissenschaften) bestimmt.
Innerhalb der knapp letzten dreißig Jahre (1987-2015) ist die natürliche Vegetation bei den beiden Ethnien zugunsten der Landwirtschaft und der bebauten bzw. vegetationsfreien Flächen zurückgegangen. Über die analysierten Zeiträume liegen mehr Flächen bei den Ditamari (47,24%) unter einer negativen Dynamik als bei den Éwé (36,41%). Die Untersuchung der Steuerungsfaktoren des Landnutzungswandels bringt heraus, dass der höhere Anteil an positiv veränderten Flächen bei den Éwé ist nicht durch bessere Landnutzungsstrategien begründet. Vielmehr stellt das Relief der begrenzende Faktor für die Ausdehnung der Ackerflächen und damit die bessere Erhaltung der natürlichen Vegetation bei den Éwé dar.
Die erste Annahme, dass Veränderungen in der Landnutzung die Landdegradation zur Folge haben, wird in den beiden Untersuchungsgebieten bestätigt. Die abnehmende Dichte der Vegetationsdecke begünstigt Prozesse der Flächen-, Rillen- und Rinnenspülung. Zudem werden die ökologischen Bodenfunktionen vermindert. Erscheinungen der Landdegradation bei den Ditamari sind die Ausdehnung von oberflächlich verkrusteten Arealen und die Verbreitung des Unkrautes Striga hermontica. Bei den Éwés tritt eine starke Profilverkürzung der Böden ein und das anstehende Gestein wird an mehreren Stellen freigelegt.
Die zweite Hypothese wird in Hinsicht auf die räumliche und ethnische Differenzierung der Folgen der Landdegradation bestätigt. Allerdings sind nicht, wie vermutet, die Ditamari verletzbarer als die Éwés. Die beiden Ethnien betreiben eine intensive Subsistenzwirtschaft und die Éwé entwickeln weniger Anpassungsstrategien als die Ditamari. Im Hinblick auf die globale Erwärmung könnte die Landdegradation in den beiden Gebieten fortschreiten und die Folgen auf der Landschaft und den Kleinbauern verschärfen. Die Éwé wären, anders als vermutet, verletzbarer als die Ditamari. Eine Fortschreitung der Landdegradation könnte bei den Kleinbauern Éwés langfristig den Zusammenbruch des Agrarökosystemen hervorrufen. Sie könnten langfristig die Grundlage ihrer Existenzsicherung verlieren.
Die Studie zeigt auf, dass traditionell, zurückgezogen lebende Völker wie die Ditamari das Agrarökosystem nachhaltiger bewirtschaften und angesichts der Landdegradation anpassungsfähiger sind als tief umgewandelte Gesellschaften wie die Éwés. Sie bringt heraus, dass Kleinbauern Westafrikas keinesfalls als eine Einheit betrachtet werden sollten. Jede Ethnie ist durch Merkmale gekennzeichnet, die ihre Gestaltung der Landschaft beeinflussen. Diese Vielfältigkeit und Besonderheiten der kleinbäuerlichen Gesellschaften müssen in der Entwicklungszusammenarbeit stärker berücksichtigt werden.
Hintergrund: Geschlechtsunterschiede in der kardialen Repolarisation und der korrigierten QT-Zeit sind seit der Beschreibung von Bazett in den 1920er Jahren bekannt. Gesunde Frauen haben längere QT-Zeiten und werden öfter durch medikamenteninduzierte Arrhythmien betroffen als Männer. Patientinnen, die unter der erblichen Form des Langen QT-Syndroms (LQTS) leiden, weisen ein niedrigeres Risiko für kardiale Ereignisse während der Schwangerschaft auf. Dies ist nach einer Schwangerschaft deutlich erhöht. Weibliche Geschlechtshormone könnten eine wichtige Rolle spielen; ihr Einfluss ist aber noch unklar. Hypothese: Veränderungen von Östrogen, Progesteron und dem Östrogen/Progesteron Quotienten sind mit einer Veränderung der QTc-Zeit assoziiert. Methoden: Diese Studie gliedert sich in einen klinischen und einen experimentellen Teil. Im klinischen Teil wurden die Geschlechtshormone und die QTc-Zeiten von insgesamt 21 Frauen untersucht. Drei LQTS2-Patientinnen (heterozygote Trägerinnen der HERG-Mutante R752P) und zwei Genotyp negativen weiblichen Familienmitgliedern wurden während des Menstruationszyklus gemessen (inklusive Elektrolytbestimmung). Die zweite Gruppe bestand aus elf gesunden Frauen, die während einer hormonalen Stimulationstherapie gemessen wurden. Eine letzte Gruppe bestand aus fünf gesunden Frauen, die vor, während und nach einer Schwangerschaft untersucht wurden. Im experimentellen Teil wurde die Wirkung von Östradiol (E2) auf Zellkulturen, die mit HERG-DNA (Wildtyp oder R752P), Östrogenrezeptor-DNA (ERalpha oder ERbeta) oder beidem transfiziert waren, mittels konfokaler Mikroskopie untersucht. Ergebnisse: Im klinischen Teil der Studie zeigte sich, dass E2 mit steigender Serum-Konzentration (in allen drei Gruppen) die QTc-Zeit verkürzte (p <= 0,001). Dieser Effekt ist als elektrolyt-unabhängig zu werten. Einen signifikanten Effekt von Progesteron oder dem E2/Progesteron Quotienten konnten wir nicht nachweisen. Als zugrunde liegender zellulärer Mechanismus zeigte sich eine ERalpha-abhängige Zunahme von HERG-Kaliumkanälen an der Plasmamembran. Dieser Effekt war bei der Mutante (R752P) nicht nachweisbar und konnte für ERbeta oder ohne ER nicht gezeigt werden. Ob die Zunahme durch vermehrtes "Trafficking", eine vermehrte Transkription oder einen anderen Mechanismus bedingt ist, kann noch nicht abschließend beurteilt werden. Schlussfolgerung: Eine Zunahme der E2-Serumkonzentration führt in Abhängigkeit von ERalpha zu vermehrter HERG-Lokalisation an der äußeren Zellmembran und erklärt so die Verkürzung der QTc-Zeit. Für die Zukunft könnte man erwägen, LQTS-Patientinnen in der Postpartal-Periode mit E2 zu behandeln, um so möglichen kardialen Ereignissen durch tachykarde Rhythmusstörungen vorzubeugen. Weiterhin wäre zu erwägen, Patientinnen mit erworbenem LQTS ebenso zu behandeln.
Schwerpunkt der vorliegenden Arbeit war die Formulierungsentwicklung eines nanopartikulären Arzneistoffträgers für Zytostatika zur Gewinnung einer „Drug Targeting“ Zubereitung. Im Fokus der Arbeit stand dabei die Stabilität der unterschiedlichen Zubereitungen. Die untersuchten Partikel waren dabei auf Basis von humanem Serumalbumin. Mittels einer etablierten Desolvatationsmethode ließen sich reproduzierbar Nanopartikel im Größenbereich von 200 nm herstellen. Zur Partikelgrößenbestimmung bediente man sich sowohl der hotonenkorrelationsspektroskopie (PCS) als auch der Analytischen Ultrazentrifugation (AUZ). Bei der Untersuchung verschiedener HSA-Chargen, stellte sich heraus, dass das Ausgangsmaterial einen Einfluss auf die Partikelgröße besaß. Nichtsdestotrotz waren die Partikelgrößenschwankungen aufgrund von unterschiedlichen HSA-Chargen gering. Durch Einlagerung von Doxorubicin in die Partikelmatrix kam es zu einer wesentlichen Partikelvergrößerung, so dass die resultierten Partikel eine Größe von etwa 400 nm aufwiesen. Die Inkorporation des Arzneistoffs in die Partikelmatrix war reproduzierbar und stabil. Auch der Einsatz von Serumalbumin aus rekombinanter Quelle erwies sich als geeignet um Nanopartikel herstellen zu können. Allerdings waren unbeladene Partikel aus diesem Material wesentlich größer als Nanopartikel, die aus dem Standardmaterial hergestellt wurden. Doxorubicinbeladene Partikel zeigten wiederum eine vergleichbare Größe wie Partikel aus HSA. Allerdings war die Beladung der rHSA-Nanopartikel geringer als die der SA-Nanopartikel. Dies zeigte sich besonders bei der geringeren Quervernetzung von 40%. Als Fazit lässt sich sagen, dass prinzipiell eine Herstellung von sowohl Leerpartikeln als auch Doxorubicin-beladenen Partikeln möglich war. Die Biodegradierbarkeit von Nanopartikeln ist eine wichtige Voraussetzung für einen therapeutischen Einsatz kleinpartikulärer Strukturen, damit diese nicht im Körper kumulieren. Zudem könnte bei nicht abbaubaren Partikeln die Idee der intrazellulären Freigabe des eingebetteten Arzneistoffs aus der Partikelmatrix nicht verwirklicht werden. Vorversuche haben gezeigt, dass sich Nanopartikel auf Basis von HSA mit einer Reihe von Enzymen abbauen lassen. Versuche, Nanopartikel aus rHSA enzymatisch abzubauen, führten zu vergleichbaren Abbaukinetiken wie bei Partikeln aus HSA. Zu den eingesetzten nzymen zählten Proteinase K, Protease, Trypsin, Pankreatin, Pepsin und Cathepsin B, die mit Partikel aus rHSA mit den Quervernetzungen 40, 60, 80 und 100% inkubiert wurden. Alle Abbaukinetiken zeigten dabei, dass die Abbaugeschwindigkeit vom Grad der Quervernetzung abhängig war. 40% quervernetzte Nanopartikel wurden am schnellsten, 100% quervernetzte Partikel am langsamsten enzymatisch degradiert. Die Abbauversuche mit Cathepsin B bei zwei verschiedenen pH-Werten zeigten, dass die Wahl des richtigen pH-Werts entscheidend für einen effektiven Abbau ist, denn nur bei einem pH-Wert von 5,4 wurden die Nanopartikel von Cathepsin B abgebaut. Im Gegensatz dazu, wurden die Nanopartikel bei pH 6,4 kaum degradiert. Des Weiteren wurden Beladungsversuche von HSA-Nanopartikeln mit Cisplatin durchgeführt. Dabei wurden im ersten Schritt Adsorptionsversuche an gelöstes HSA durchgeführt, da viele Arzneistoffe eine hohe Plasmaeiweißbindung besitzen, wenn sie sich im Blutkreislauf des Menschen befinden. Diese Tatsache sollte bei der Herstellung von arzneistoffhaltigen Nanopartikel auf Basis von humanem Serumalbumin ausgenutzt werden. Vor dem eigentlichen Desolvatationsprozess wurden gelöstes HSA und Cisplatin bei unterschiedlichen pH-Werten und für unterschiedliche Zeitintervalle inkubiert, um eine Adsorption des Cisplatins an das Protein zu erreichen. Dadurch soll es bei der anschließenden Desolvatation zu einer effektiveren Inkorporation des Arzneistoffs kommen. Die Ergebnisse haben gezeigt, dass bei sauren pH-Werten die Adsorption schwächer ausfällt als bei einem pH-Wert von 8,0. Zudem war die Adsorption umso ausgeprägter, je länger die Inkubation stattfand. Bei einem pH-Wert von 8,0 führten steigende Konzentrationen an eingesetztem Cisplatin bei konstanter Menge an HSA, zu höheren Konzentrationen an adsorbiertem Arzneistoff. Prozentual gesehen, führten aber zunehmende Mengen an eingesetztem Cisplatin zu geringeren Adsorptionsraten. Als Fazit muss aber festgehalten werden, dass Cisplatin eine geringe Tendenz zur Adsorption an gelöstes HSA zeigte. Die Herstellung von Cisplatin-beladenen HSA-Nanopartikeln zeigte, dass die Desolvatation bei pH 8,0 zu guten Ergebnissen führte. Zum einen wiesen die erhaltenen Nanopartikel gute physikochemische Eigenschaften mit nahezu quantitativen Partikelausbeuten auf, zum anderen besaßen die Partikel eine hohe Beladungseffizienz. Dabei galt, je höher die eingesetzte Menge an Cisplatin war, umso mehr Cisplatin wurde in die Matrix der Partikel eingelagert. Die Dauer der zuvor stattfindenden Adsorption spielte dabei eine eher untergeordnete Rolle im Vergleich zu den Adsorptionsversuchen. Eine Erklärung für diese Beobachtung könnte sein, dass die Zugabe des Desolvatationsmittels Ethanol, in welchem Cisplatin sehr schwer löslich ist, zu einer verstärkten Interaktion zwischen Arzneistoff und Protein führt und diese Komponenten zusammen ausfallen, nahezu unabhängig von der zuvor stattfindenden Adsorptionsphase. Um die Idee einer „Drug Targeting“ Zubereitung umsetzen zu können, wurden mit Hilfe von Polyethylenglykol-Ketten sowohl Leerpartikel als auch arzneistoffbeladene Nanopartikel auf ihrer Oberfläche mit monoklonalen Antikörpern modifiziert. Als Verum wurde dabei Trastuzumab verwendet, als Kontrolle diente ein IgG-Antikörper von Sigma, der kein Target besitzt. Sowohl eine adsorptive Bindung als auch die kovalente Kopplung der Antikörper an die Oberfläche der nanopartikulären Strukturen konnte reproduzierbar durchgeführt werden. Dabei spielte es keine Rolle, ob die Partikel mit Arzneistoff beladen waren oder nicht. Trastuzumab zeigte ein hohes Maß an adsorptiver Bindung an die Oberfläche von HSA-Nanopartikeln, die bei dem Kontollantikörper nicht festgestellt werden konnte. Von allen Partikelpräparationen wurden die Partikelgröße, die Größenverteilung, das Zetapotential und die Partikelausbeute bestimmt. Durch das Aufbringen neuer Oberflächenstrukturen, kam es zu keiner wesentlichen Veränderung der Partikelgröße bzw. der Oberflächenladung. Durch die zahlreichen Umsetzungsschritte, die für eine Oberflächenmodifikation nötig sind, kam es bei Nanopartikeln ohne Arzneistoffbeladung zu einem Verlust an Partikelausbeute. Da die Doxorubicin-beladenen Partikel viel größer waren als Leerpartikel, ließen sie sich einfacher und effektiver abzentrifugieren, was in einem geringeren Partikelausbeuteverlust sichbar wurde. Da die Gefriertrocknung zu den Standardmethoden zählt Zubereitungen eine gute Haltbarkeit zu verleihen, wurden eine Reihe von nanopartikulären Zubereitungen der Lyophilisation unterzogen und im Hinblick auf ihre Langzeitstabilität unter verschiedenen Lagerungsbedingungen getestet. Dabei stellte sich heraus, dass es mittels Gefriertrocknung möglich war aus HSA-Nanopartikelsuspensionen einfach und reproduzierbar Lyophilisate herzustellen. Als geeignete Hilfsstoffe kristallisierten sich dabei die Zucker Sucrose, Trehalose, der Zuckeralkohol Mannitol und Emulgatoren wie Tween® 80 und Pluronic® F68 heraus. Als ungeeignet zeichnete sich der Einsatz von L-Arginin und eines Natriumphosphat-Puffers pH 8,0 ab. Larginin führte schon vor dem Gefriertrocknen zu einer Partikelvergrößerung, die nach der Lyophilisation noch ausgeprägter war. Puffer auf Basis von Natriumsalzen führen zu einem starken pH-Shift während des Gefriertrocknungsprozesses. Dies führte beim Einsatz des Phosphat-Puffers pH 8,0 zu einem starken Partikelwachstum. Gefriertrocknungsprozesse mit unterschiedlichen Geräten haben gezeigt, dass der Zusatz von Sucrose bzw. Trehalose oder Mannitol ab einer Konzentration von 2% (m/V) zu guten physikochemischen Eigenschaften der rekonstituierten Proben führte. Hilfsstoffkombinationen, wie sie in der Literatur beschrieben sind, waren für die Stabilisierung der nanopartikulären Strukturen nicht nötig. Die Langzeitlagerungsstabilitätsdaten der gefriergetrockneten HSA-Nanopartikel über 13 Wochen bei unterschiedlichen Temperatur- und Luftfeuchtigkeitsbedingungen zeigten eine Überlegenheit der Hilfsstoffe Sucrose und Trehalose im Vergleich zu Mannitol. Als geeignete Hilfsstoffkonzentration stellte sich hier ein 3%iger (m/V) Zusatz heraus. Versuchsansätze mit unterschiedlichen Gefriertrocknern und somit unterschiedlichen Prozessen zeigten, dass nicht nur die Auswahl der Hilfsstoffe, sondern auch die Bedingungen des Gefriertrocknungsprozesses Einfluss auf die Lagerungsstabilität hatten. Ein kontrollierter Prozess zeigte sich dabei gegenüber dem schnellen Einfrieren mittels Stickstoff als überlegen. Von Nanopartikelsuspensionen mit den Hilfsstoffen Trehalsoe, Sucrose und Mannitol wurden die Glasübergangstemperaturen bestimmt. Die Ergebnisse deckten sich im Wesentlichen mit den in der Literatur beschriebenen Daten, so dass schlussgefolgert werden kann, dass die HSA-Nanopartikel keinen wesentlichen Einfluß auf die Glasübergangstemperatrur hatten. Zusätzlich wurde die Restfeuchte der Lyophilisate direkt nach der Gefriertrocknung und nach 13 wöchiger Einlagerungszeit bestimmt. Die Proben wiesen direkt nach dem Prozess eine Restfeuchte von ungefähr 3% auf, durch Lagerung der Partikel bei erhöhter Luftfeuchtigkeit kam es zu einem Anstieg des Wassergehalts in den Proben. Mit den Hilfsstoffzusätzen Trehalose, Sucrose und Mannitol ließen sich auch Doxorubicin-beladene HSA-Nanopartikel gefriertrocknen. Dabei kam es nach der Rekonstitution dieser Partikel zu keinem Austreten des eingelagerten Arzneistoffs. Zusätzlich wurden oberflächenmodifizierte Partikel lyophilisiert. Dabei bestand die Modifikation zum einen aus Methoxypolyethylenglykol-Ketten. Zum anderen wurden über NHS-PEG-Mal Crosslinker kovalent monoklonale Antikörper auf die Oberfläche von HSANanopartikeln gebunden. Zusätzlich wurden auch HSA-NP in Suspension einer Untersuchung bezüglich Langzeitlagerungsstabilität unterworfen. Dabei wiesen auch HSA-Nanopartikel in Suspension bei verschiedenen Einlagerungsbedingungen eine hohe Stabilität auf. Partikel, die über einen Zeitraum von 210 Tagen eingelagert wurden, zeigten bei den Temperaturen 4°C, 20°C und 30°C im Hinblick auf Partikelgröße und Polydispersität kaum Veränderungen. Die Lagerung der Nanopartikel bei Minusgraden führte allerdings zu Mikropartikeln. Bei der Untersuchung der Partikelüberstände hinsichtlich herausgelöstem HSA zeigte sich, dass je höher die Lagerungstemperatur und je länger die Einlagerung war, umso mehr HSA löste sich aus der mittels Glutaraldehyd fixierten Matrix heraus. Bei den eingefrorenen Partikeln löste sich über die gesamte Lagerungszeit kein Protein aus den Nanopartikeln heraus. Zellkulturexperimente zeigten, dass im Gegensatz zu Kontrollzubereitungen, Nanopartikel, die an ihrer Oberfläche therapeutisch wirksame Antikörper trugen, spezifisch von Krebszellen aufgenommen wurden und im Zellinneren den eingebetteten Arzneistoff freisetzten. Daraus resultierte eine spezifische Toxizität dieser Zubereitungen gegenüber Tumorzellen. Dies ist ein erster Ansatz, um zeigen zu können, dass durch nanopartikuläre Trägersysteme die unerwünschten Nebenwirkungen der unspezifisch wirkenden Zytostatika reduziert werden können. In weiteren Versuchen, vor allem mit Hilfe von in vivo Versuchen muss gezeigt werden, dass das Partikelsystem stabil genug ist, ausreichend lang im Körper zirkulieren zu können. Nur so ist das Trägersystem in der Lage, sein Zielgewebe zu erreichen. Zudem müssen Tierversuche die in der Literatur beschriebene Anreicherung des Partikelsystems im Tumorgewebe verifizieren. Dies ist nur möglich, wenn die Nanopartikel in der Lage sind, das Gefäßsystem im Bereich des Tumorgewebes zu verlassen und anschließend in die Tumormasse einwandern können. Nur dann können die in den Zellkulturversuchen gezeigten Effekte greifen.