Filtern
Erscheinungsjahr
- 2004 (1222) (entfernen)
Dokumenttyp
- Wissenschaftlicher Artikel (490)
- Dissertation (234)
- Rezension (107)
- Ausgabe (Heft) zu einer Zeitschrift (97)
- Teil eines Buches (Kapitel) (85)
- Arbeitspapier (43)
- Buch (Monographie) (41)
- Bericht (33)
- diplomthesis (22)
- Konferenzveröffentlichung (21)
Sprache
- Deutsch (1222) (entfernen)
Schlagworte
- Johann Wolfgang von Goethe (36)
- Frankfurt <Main> / Universität (29)
- Rezension (24)
- Anton Ulrich <Braunschweig-Wolfenbüttel (19)
- Herzog> / Octavia (19)
- Deutschland (18)
- Deutsch (15)
- Goethe, Johann Wolfgang von (15)
- Literatur (14)
- Vormärz (14)
Institut
- Medizin (122)
- Extern (60)
- Biochemie und Chemie (46)
- Rechtswissenschaft (45)
- Physik (32)
- Erziehungswissenschaften (30)
- Biowissenschaften (26)
- Präsidium (26)
- Universitätsbibliothek (23)
- Kulturwissenschaften (22)
Ferroelektrische Strontium-Wismut-Tantalat- (SBT) Filme werden in der Mikroelektronik als nicht-flüchtige Speichermedien verwendet und weiterentwickelt. Informationen werden durch Polarisation des Materials gespeichert und bleiben ohne weiteren Energieaufwand über einen Zeitraum von Jahren in solchen Speichern erhalten – sogenannten FeRAMs (Ferroelectric Random Access Memories). Darüber hinaus können gespeicherte Daten innerhalb von wenigen Nanosekunden wieder ausgelesen werden. Zusammengefasst ist eine Langzeitspeicherung kombiniert mit niedrigem Energieverbrauch und schneller Informationsverarbeitung durch den Einzug ferroelektrischer Materialien in die Computertechnologie möglich geworden.
Da die fortschreitende Miniaturisierung in der Mikroelektronik von zentraler Bedeutung ist, sind zur Charakterisierung der verwendeten Materialien Untersuchungsmethoden mit hoher Ortsauflösung unverzichtbar. Das Rasterkraftmikroskop – engl. Atomic Force Microscope (AFM) – ist eine solche Technik, mit der im Submikrometerbereich die Topographie sowie physikalische Eigenschaften von Materialien abgebildet werden können. Die vorliegende Arbeit widmet sich der Untersuchung von SBT-Filmen mit solchen AFM-Methoden.
Besonders die Rauhigkeit der einzelnen Filme in schichtartig aufgebauten Mikrochips ist bei der Herstellung von Halbleiterbauelementen von großer Bedeutung, wobei möglichst glatte Filme favorisiert werden. Deshalb wurden zunächst verschiedene SBT-Filme auf ihre topographischen Merkmale hin charakterisiert. Die Rauhigkeiten von SBT Filmen verschiedener Herstellungsverfahren wie der Metal Organic Decomposition (MOD) und der Metal Organic Chemical Vapour Deposition (MOCVD) wurden gegenübergestellt. Außerdem ist der Einfluss der SBT-Schichtdicke sowie der des Ferro-Anneals untersucht worden – Ferro-Anneal ist ein Temperungs-Schritt während der Filmherstellung, der zur Bildung der ferroelektrischen Aurivillius-Phase durchgeführt werden muss. Zudem wurde das unterschiedliche Kurzschlussverhalten zweier SBT-Filme in Zusammenhang mit ihren verschiedenen RMS-Rauhigkeitsdaten gebracht.
Der größte Teil der Arbeit setzt sich mit einer Methode auseinander, mit der die Polarisationseigenschaften von ferroelektrischen SBT-Filmen charakterisiert werden sollen – dem AFM/EFM-Polarisationsexperiment – engl. Electrostatic Force Microscope (EFM). Die SBT-Filme werden dabei mit einer AFM-Spitze polarisiert und in einem zweiten Schritt die daraus resultierenden elektrostatischen Felder mit einem EFM über der Probe abgebildet. Es wurde dabei kritisch hinterfragt, in wieweit diese Methode als Beurteilungskriterium der Materialeigenschaften herangezogen werden kann. Zudem wurden Aufladungsphänomene bei dieser Versuchsführung dokumentiert.
Außerdem wurde das Leckstromverhalten von SBT-Filmen auf der Submikrometerskala mit einer relativ neuen Messmethode, dem conducting-AFM (C-AFM), untersucht.
Die Ergebnisse aller Untersuchungen sind im folgenden stichpunktartig dargestellt.
Topographieuntersuchungen:
• Die RMS-Rauhigkeit von MOD/SBT-Filmen ist größer als die der MOCVD/SBTFilme. Mit steigender Prozesstemperatur des Ferro-Anneals wird die Oberflächenrauhigkeit von SBT-Filmen erhöht.
• SBT-Filme, die mit niedrigen Prozesstemperaturen hergestellt wurden, hier als Niedrigtemperatur-Filme bezeichnet, erfahren mit zunehmender Schichtdicke eine Glättung. Sie ist auf die Einbettung der Kristallite in die verhältnismäßig glatte FluoritPhase zurückzuführen, die wegen der geringen Temperaturen während des FerroAnneal-Prozesses noch nicht vollständig in die rauere ferroelektrische AurivilliusPhase umgesetzt wurde.
• Die unterschiedliche Zusammensetzung der Filme SrxBi2.2Ta2O8,3+x mit X1 = 0.9 und X2 = 1,0, im Text als Sr0,9-Film und Sr1,0-Film bezeichnet, führte zu höheren Kurzschlussraten des Sr0,9-Films in fertiggestellten FeRAM-Kondensatoren. Die Ursache kann auf die höhere Oberflächenrauhigkeit des Sr0,9-Films zurückgeführt werden. EFM-Untersuchungen:
• Bei der Polarisation ferroelektrischer SBT-Filme mit einer elektrisch gepolten AFMSpitze werden Ladungen in undefinierbarer Anzahl auf die Oberflächen gebracht. Diese Ladungen sind mehr oder weniger auf den Oberflächen beweglich. Mit zunehmender Polarisierbarkeit des ferroelektrischen Films wird die Ladung stärker am Polarisationsort durch elektrostatische Anziehung zwischen den orientierten Dipolen und der Oberflächenladung fixiert.
Das positions-spezifisch integrierende TRE5-A Retrotransposon besitzt zwei Promotorregionen (A- und C-Modul). Für das C-Modul konnte ein spezifisch bindendes Protein (CbfA) gefunden werden, das vermutlich über die Expression des Minusstrang-Transkripts regulativ in den Transpositionsmechanismus eingreift. Gleichzeitig stellt CbfA in D. discoideum einen kritischen Faktor dar, der sowohl auf das Wachstum als auch auf die Differenzierung Einfluss nimmt.
Es konnte gezeigt werden:
• Der AT-Haken in CbfA ist für die DNA-Bindung essentiell. Die Inaktivierung hat zur Folge, dass keine Differenzierung stattfindet. Es scheint, dass primär der AT-Haken für die DNA-Bindung sorgt und von den Zinkfingern unterstützt wird.
• Die JmjC-Domäne in CbfA ist essentiell. Transformanden mit CbfA ohne aktive JmjC-Domäne zeigen Defekte sowohl in Wachstum als auch Differenzierung.
• CbfA ist ein nukleares Protein. Es konnte zwar keine Kernlokalisationssequenz identifiziert werden, jedoch weisen die Versuche auf zumindest eine Kernlokalisierungssequenz im C-Terminus des cbfA hin.
• Ein C-terminal verkürztes CbfA ist funktionslos: wahrscheinlich aufgrund fehlender Kernlokalisation und somit fehlender DNA-Bindung.
• Ein N-terminal verkürztes CbfA ist teilweise funktionsfähig: die Komplementation in JH.D2-Zellen führt zu einer partiellen Revertierung hin zum Phänotyp der AX2-Zellen.
• Struktur-Homologien der JmjC-Domäne in CbfA zu Mitgliedern aus der Familie der Fe(II)/2OG-Oxygenasen, DNA-bindende Motive und die Lokalisation im Zellkern weisen auf eine Funktion des CbfAs als Chromatin-Remodeller im Zellkern hin.
• In der Transit von Wachstums- zu Entwicklungsphase kann der CbfA-Mangel durch artifizielle Proteinase A-Expression ausgeglichen werden, aber nicht durch Komplementation mit YakA, Adenylat-Zyklase oder cAMP Rezeptor 1.
• CbfA fungiert wahrscheinlich als Regulator der acaA-Transkription auf Ebene der chromosomalen Strukturen.
• cbfB, ein weiteres Gen mit einer JmjC-Domäne wurde in D. discoideum identifiziert, die Gensequenz vervollständigt und vom Dictyostelium Genom-Projekt verifiziert.
Die Photodynamische Therapie (PDT) wird mittlerweile bei einer Vielzahl von Erkrankungen eingesetzt. Ziel dieser Dissertation war die nähere Untersuchung der Kinetik und der Wirkmechanismen der Photosensibilisatoren Methylenblau und disulfoniertem Aluminiumphthalocyanin. Zuerst klärten wir die Frage der Toxizität des Methylenblaus. Wir ermittelten dabei die für die nachfolgenden Versuche nötigen Dosen und Höchstdosen des Methylenblaus in Bezug auf die humane Keratozyten-Linie HaCat und periphere mononukleäre Zellen. Für disulfoniertes Aluminiumphthalocyanin stützten wir uns auf vorhandene Publikationen. Als Lichtquelle benützten wir die PDT Lampe der Firma Waldmann, die ein homogenes Lichtspektrum von 600 bis 700 nm erzeugt, so dass das Wirkungsmaximum aller gängigen Photosensibilisatoren abgedeckt ist. Ausserdem liefert diese Lampe eine gleichmässige Energiedichte über eine größere Fläche, die die Reproduzierbarkeit der Ergebnisse gewährleistet.
In der Arbeit konnte gezeigt werden, dass es für die photodynamische Therapie mit Methylenblau und disulfoniertem Aluminiumphthalocyanin eine Dosis gibt mit der man sowohl Keratinozyten als auch Leukozyten in ihrer Proliferation hemmen kann, ohne eine zytotoxische Wirkung auszulösen. Für Keratinozyten ergab sich dabei ein Anstieg der Proliferationshemmung bei 5 µM Methylenblau und 2stündiger Inkubationszeit bei 200 J/cm², die Toxizität zeigte sich bei 5µM Methylenblau und 4stündiger Inkubationszeit und bereits bei 100 J/cm² maximal. Demgegenüber ergab sich bei stimulierten Leukozyten bereits bei 1µM Methylenblau und 2 Stunden Inkubationszeit ein starker proliferativer Effekt, bei 5µM Methylenblau und 2 Stunden Inkubationszeit zeigte sich dagegen ein deutliche Toxizität. Hierbei fand sich ab 0,5 J/cm² eine zunehmende Proliferationshemmung und Toxizität. Insgesamt war bei Keratinozyten die Differenz bzgl. antiproliferativer und zytotoxischer Dosis geringer als bei Leukozyten. Letztere zeigten sich dabei auch empfindlicher, besonders wenn man die Leukozyten zuvor stimulierte. Daraus ergibt sich ein Potential für den therapeutischen Einsatz der Photodynamischen Therapie bei entzündlichen Dermatosen.
Als mögliche Wege indirekt toxischer Wirkung wurde in der Folge die Stimulation des nukleären Transkriptionsfaktors NF-ΚB, die Bildung von Stickstoffmonoxid (NO) und der protektive Effekt von α-Liponsäure untersucht. Dass der nukleäre Transkriptionsfactor NF-ΚB durch Photodynamische Therapie mit Methylenblau aktiviert werden kann, ist bereits gezeigt worden, so dass wir diese Versuche nicht wiederholten. Die Photodynamische Therapie mit dem Photosensibilisator Methylenblau wirkt also sowohl direkt als auch indirekt toxisch. In unseren Versuchen beschränkten wir uns im weiteren auf die Wirkung des Photosensibilisators disulfoniertes Aluminiumphthalocyanin auf den nukleären Transkriptionsfaktor NF-ΚB. Mittels Gelelektrophorese konnten wir keine Aktivierung von NF-ΚB zeigen. Die Photodynamische Therapie mit dem Photosensibilisator disulfoniertem Aluminiumphthalocyanin wirkt also nur auf direkt toxischem Weg. Bezüglich der Stickstoffmonoxid-Bildung fand sich bei beiden Photosensibilisatoren in den von uns verwendeten Konzentrationen und Inkubabionszeiten kein Nitritnachweis. Auch bei α-Liponsäure ergab sich bei Keratinozyten weder ein pro- noch antiproliferativer Effekt und somt kein Anhalt auf eine indirekte toxische Wirkung.
Der klinische Einsatz der Photodynamischen Therapie erscheint vor dem Hintergrund der erarbeiteten Daten bei entzündlichen Dermatosen möglich, weil infiltrierende aktivierte Leukozyten sensibler gegenüber PDT sind als das umliegende Gewebe, wie hier beispielhaft für Keratinozyten gezeigt wurde.
Mitte März 2003 löste die WHO einen weltweiten Alarm aus, nachdem sich eine neuartige, schwere und unter bestimmten Umständen hochansteckende Atemwegserkrankung scheinbar unaufhaltsam über weite Teile der Welt auszubreiten schien. Am 15. März desselben Jahres landeten die ersten Patienten mit Verdacht auf Schweres Akutes Respiratorisches Syndrom (SARS) in Frankfurt und wurden auf die Isolierstation des Universitätsklinikums aufgenommen. Auslöser war ein zuvor nicht bekanntes Coronavirus, das heute als SARS-CoV bezeichnet wird. Derzeit laufen Untersuchungen zur Biologie und Epidemiologie des neuen Erregers, zu antiviralen Hemmstoffen sowie zu Desinfektions- und Inaktivierungsmöglichkeiten und neuen Therapieoptionen. Daneben wird analysiert, wie sich das öffentliche Gesundheitswesen auf eine mögliche Wiederkehr vorbereiten muss. SARS ist ein Beispiel dafür, wie schnell sich eine Infektionskrankheit in der modernen Welt international ausbreiten kann und wie wichtig in einem solchen Falle eine gut koordinierte internationale Kooperation ist. Frankfurter Forscher berichten.
Ziel der vorliegenden Arbeit ist die Untersuchung der zuvor nicht bekannten Beeinflussung der Aktivität von bestimmten Antibiotika durch unterschiedliche Testnährmedien. Zu diesem Zweck wird die Aktivität von Moxifloxacin, Linezolid, Penicillin G, Oxacillin und Cefuroxim gegen Bakterienisolate der Spezies S. aureus, S. pneumoniae, E. faecalis und E. faecium in Bouillon und Blut getestet. Des Weiteren wird die Aktivität von Moxifloxacin und Linezolid gegen intrazellulär in humanen Granulozyten vorliegende Bakterienisolate der oben genannten Spezies geprüft. Die Ergebnisse und daraus folgende Empfehlungen lauten wie folgt: 1. Moxifloxacin und Linezolid haben eine gute Aktivität gegen die in dieser Studie untersuchten Bakterienisolate, unabhängig von der Empfindlichkeit oder Resistenz dieser Isolate gegen andere Antiinfektiva. Diese neuen Antibiotika könnten somit zur Behandlung von Infektionen mit Erregern der Spezies S. pneumoniae, S. aureus, E. faecalis und E. faecium zum Einsatz kommen. 2. Die Aktivität eines Antibiotikums kann in Bouillon und in Vollblut unterschiedlich sein. Moxifloxacin, Penicillin G und Oxacillin haben in Bouillon eine größere Aktivität als in Vollblut. Die Wirksamkeit von Linezolid und Cefuroxim sind sowohl in Bouillon als auch in Blut etwa vergleichbar. Da der Behandlungserfolg von der Aktivität eines Antibiotikums am Wirkort abhängt, sollte die Aktivität im entsprechenden Nährmedium getestet werden, um einem möglichen Therapieversagen vorzubeugen. 3. Moxifloxacin und Linezolid haben eine Wirksamkeit gegen intrazellulär in Granulozyten vorliegende S. aureus und Enterokokken-Isolate. Deshalb könnten sowohl Moxifloxacin als auch Linezolid für die Therapie von Infektionen mit intrazellulär vorliegenden S. aureus, E. faecalis und E. faecium dienen. Bei Verwendung von Moxifloxacin muss jedoch der intrazelluläre Aktivitätsverlust berücksichtigt werden und daher eine höhere Dosierung verabreicht werden.
In der vorliegenden klinischen Studie wurde der Zusammenhang zwischen Hämatokrit und Mikrozirkulation bei Diabetikern mit und ohne Mikroangiopathie untersucht und in Relation gesetzt zu anderen Risikofaktoren, für die bereits eine Beeinflussung der Mikrozirkulation bei Diabetikern nachgewiesen wurde. Die Untersuchung erfolgte mittels Laser Doppler Fluxmetrie, Laser Doppler Scan und Laser Doppler Anemometrie. Als weiteres Ziel sollten diese erprobten Methoden bezüglich der Aussagekraft für die Fragestellung unserer Studie eingeordnet werden. Es zeigte sich, dass der Hämatokrit signifikant negativ mit der Ruhedurchblutung (für Mean DC: p<0,01, β = -0,411) der Hand und des Fußes (für Mean Flux: p<0,001, β=-0,531; für Mean DC: p<0,05, β= -0,359) korreliert. Dieser Einfluss lässt sich mit dem Laser Doppler Scan am Besten nachweisen. Eine signifikant positive Korrelation (p<0,05, β= 0,284) des Hämatokrits mit der Dauer der Hyperämie gemessen an der Hand besteht in der Laser Doppler Fluxmetrie, jedoch nicht in der Anemometrie. Die These, dass ein höherer Hämatokrit zu einer schlechteren Mikrozirku-lation beiträgt, wird durch eine höchst signifikante negative Korrelation der Zeit bis zum Erreichen der Maximalgeschwindigkeit mit dem Hämatokrit (p<0,001, β= -0,497) in Frage gestellt. Ob dieses Ergebnis tatsächlich neue Erkenntnisse bringt oder durch Begleitumstände beeinflusst wurde, sollte in weiteren Untersuchungen geklärt werden. Auch im Vergleich mit anderen Risikofaktoren findet sich der starke Einfluss des Hämatokrit vor allem auf die Ruhedurchblutung. Für die Dauer der Hyperämie in der Single Point Messung zeigt sich ebenfalls ein großer Einfluss von Laktatdehydrogenase (LDH) und Body Mass Index (BMI) (LDH: β= -0,311, BMI: β= -0,310, p<0,05). Unsere Ergebnisse stärken die Vermutung, dass multifaktorielle Ursachen für Änderungen der Mikrozirkulation verantwortlich sind. Der Hämatokrit spielt hierbei eine wichtige Rolle, mit der man sich weiterhin befassen und in größer angelegten Studien unter Ausschluss von Beeinflussung durch andere Variablen noch genauer untersuchen sollte. Bezüglich der beiden Messverfahren Anemometrie und Laser Doppler Fluxmetrie bleibt festzuhalten, dass es sich um ergänzende Methoden handelt. Der Laser Doppler Image Scan ist als Standardmethode für die Erfassung der Ruhedurchblutung anzusehen, während die Fluxmetrie und die Anemometrie beide verlässlich mit Provokationstests anzuwenden sind. Sie messen in verschiedenen Ebenen des Kapillarsystems und produzieren dadurch unterschiedliche Ergebnisse. Es konnte in der vorliegenden Studie nachgewiesen werden, dass ein deutlicher Einfluss des Hämatokrits auf die Mikrozirkulation besteht. Um aus unseren Ergebnissen klinische Konsequenzen für die Behandlung von Diabetikern zu ziehen, muss man sich vor allem der Frage des Zusammenhanges auf Höhe des nutritiven Kapillarsystems ausführlicher widmen und die Ursache der Veränderungen der Time to Peak in weiteren Studien abklären.
Installment Optionen
(2004)
Die vorliegende Arbeit beschäftigt sich im Wesentlichen mit Installment Optionen und deren Bewertung und Hedgemöglichkeiten. Installment Optionen werden vor allem im internationalen Treasurymanagement eingesetzt und dienen der Absicherung von Wechselkursrisiken. Die Besonderheit besteht darin, daß ein Konzern die Optionsprämie über mehrere Zeitpunkte aufteilen kann, zu denen er jeweils entscheidet, ob die Absicherung überhaupt noch benötigt wird. Dies könnte unter Umständen nicht mehr der Fall sein, wenn das zugrunde liegende internationale Geschäft des Konzerns wider Erwarten nicht zustande gekommen ist. Der exakte Wert einer Installment Option im Black-Scholes Modell besteht aus einem Ausdruck von Mehrfachintegralen, wohingegen die Anwendung verschiedener Bewertungsmethoden auf diesen approximierte Werte liefert. Die Untersuchung des Verhaltens mehrerer bekannter Methoden und die Entwicklung einer neuen Bewertungsformel für Installment Option ist Inhalt dieser Arbeit. Weiterhin wird die kontinuierliche Version der Installment Option betrachtet und für diese ein neuer Hedge bewiesen.
Die künstliche elektrische Stimulation bietet oftmals die einzige Möglichkeit, nicht vorhandene bzw. verloren gegangene motorische sowie sensorische Aktivitäten in gewissem Umfang wieder herzustellen. Im Falle von tauben Patienten wird zur Erlangung von Hörempfindungen die elektrische Stimulation des peripheren auditorischen Systems mit Hilfe von Cochlea- oder Hirnstammimplantaten standardmäßig eingesetzt. Es ist dabei notwendig, natürliche neuronale Entladungsmuster durch die elektrisch evozierten Entladungsmuster nachzubilden. Bei einkanaligen Systemen kann nur die Zeitstruktur des Signals dargeboten werden. Mehrkanalige Systeme bieten hier noch zusätzlich die Möglichkeit auch örtlich selektiv bestimmte Nervenfasergruppen zu stimulieren und damit die Ortsstruktur in den Entladungsmustern zu repräsentieren. So hat es sich gezeigt, dass die Sprachverständlichkeit durch Verwendung von Mehrkanal-Elektroden verbessert werden kann. Grundvoraussetzung hierfür ist die Optimierung der Kanalseparation durch Kleinst-Vielkanalelektroden und der Wahl einer optimalen Codierstrategie des Signals.
Die Codierstrategie ist abhängig von dem jeweiligen spezifischen Einsatzbereich. So gaben z.B. schon Clopton und Spelman (1995) zu bedenken, dass die als selektiv berechnete tripolare (S3) Konfiguration nur für einen bestimmten Stimulationsstrombereich gültig ist. Hinzu kommt es bei simultaner Verwendung benachbarter Kanäle zu schmerzhaften Lautheitssummationen. Ursache hierfür sind einerseits die Überlagerung der durch die Elektroden stimulierten neuronalen Bereiche und andererseits die Wechselwirkungen von Strömen benachbarter Elektrodenkanäle. Diese Effekte führen nicht nur zu einer Verringerung der räumlichen Stimulationsauflösung, sondern auch zu einer Einschränkung der exakten Abbildung der Zeitstruktur innerhalb der einzelnen Stimulationskanäle.
Die Techniken und Grundlagen der elektrischen Stimulation von neuronalem Gewebe mit Kleinst-Vielkanalelektroden sind bisher kaum untersucht worden. Ziel dieser Arbeit war es, ein mathematisches Modell zu implementieren und Qualitätsparameter zu definieren, mit deren Hilfe die Verteilung des elektrischen Feldes und die daraus resultierende neuronale Erregung beschrieben und optimiert werden kann. Zur Verifizierung des Modells sollten Methoden und Techniken entwickelt werden, die eine hochauflösende Abtastung der elektrischen Felder und Messung der neuronalen Daten innerhalb eines Messsystems ermöglichen.
Bei der neuronalen Stimulation mit Kleinst-Vielkanalelektroden ergibt sich eine Reihe von Problemen grundsätzlicher Art. So werden bei elektrodenferner Stimulation größere Stimulationsströme benötigt als bei elektrodennaher Stimulation, wobei für den Strombedarf die Stimulationskonfiguration eine entscheidende Rolle spielt: Der S1 Stimulationsmodus benötigt weniger Strom zur Erreichung großer Stimulationstiefen als der S2 Stimulationsmodus. Der größte Strom wird mit zunehmendem Elektrodenabstand gleichermaßen von dem S3 und S7 Stimulationsmodus benötigt. Gleichzeitig verfügen Kleinst-Vielkanalelektroden bauartbedingt aber nur über kleine Elektrodenkontaktoberflächen und lassen daher auf Grund der kritischen Feldstärke nur geringe Stimulationsströme zu.
Ein weiteres Problem besteht bei diesen Kleinst-Elektrodendimensionen in der konkreten Lage der Neurone an denen eine neuronale Erregung evoziert wird. Die Dimension der Kleinst-Vielkanalelektroden liegt bei einem Elektrodenkanalkontaktdurchmesser von 70 µm bereits in der Größenordnung der zu stimulierenden Neurone mit einem Durchmesser von 10 bis 15 µm. Dies macht sich bei den Messungen besonders dann deutlich bemerkbar, wenn nicht der Stimulationsstrom die Größe des überschwelligen Bereichs modelliert, sondern wenn der Elektrodenkanalabstand durch die Wahl der entsprechenden Elektrodenkanäle verändert wird. Hier weisen zwar die meisten neuronalen Antworten noch in die sich aus dem Modell ergebende Richtung, jedoch kommt es zu einer höheren Streuung der Ergebnisse als bei Messungen mit der Folienelektrode, die eine Kontaktfläche von 170 µm besitzt.
Es gibt also eine Reihe von begrenzenden Faktoren bei der optimalen Dimensionierung der Stimulationselektrode, die sowohl abhängig von der physiologischen Topologie ist als auch von den eingesetzten Stimulationskonfigurationen. Es ist also zur Stimulation die Wahl der optimalen Codierstrategie und die richtige Dimensionierung der Stimulationselektrode sowie der Elektrodenkanalabstände von entscheidender Bedeutung.
Die neuronalen Messungen wurden erstmalig für diese Fragestellung am Hirnschnitt durchgeführt, da sie, im Gegensatz zu in-vivo Versuchen, eine exakte Positionierung der Elektroden auf dem Hirnschnitt unter Sichtkontrolle durch das Mikroskop erlauben. Es wurden aus den neuronalen Messungen die Amplituden und Latenzen der exzitatorischen postsynaptischen Potenziale (EPSP) sowie der Feldpotenziale ausgewertet.
Der Versuchsaufbau macht es möglich, die Potenzialfelder mit genau den Konfigurationen abzutasten, mit denen auch die neuronalen Messungen des Hirnschnittes durchgeführt wurden. Das implementierte Programm zur Berechnung der Feldverteilung besitzt zum Messprogramm ein Interface, so dass es möglich ist, die Einstellungen des Experimentes, wie Stimulationskonfigurationen, Abtastraster des Feldes und die Koordinaten des Messraums, in der Modellrechnung zu verwenden. Somit ist ein direktes Vergleichen zwischen Messung und Berechnung möglich. In nachfolgenden Arbeiten können die vorliegenden Ergebnisse als Grundlage für in-vivo Versuche eingesetzt werden.
Zur Durchführung der Messungen wurden sehr kleine Elektroden aus eigener Herstellung verwendet und es wurden uns freundlicherweise neu entwickelte Folienelektroden des Fraunhofer Instituts St. Ingbert zur Verfügung gestellt. Die Größe der verwendeten Kleinst-Vielkanalelektroden aus eigener Herstellung lag um ca. eine Zehnerpotenz unter den aktuell eingesetzten Elektrodentypen und ist speziell für den direkten Kontakt zwischen Elektrode und Gewebe konzipiert. Dies entspricht dem typischen Einsatzbereich von Hirnstammimplantaten. Dies ist auch notwendig, um eine maximale räumliche Separation der erzeugten Felder zu ermöglichen. Außerdem erlaubte das Elektrodendesign auf Grund der hohen Anzahl der Elektrodenkanäle und durch variieren der Konfigurationen die Feldrichtung zu bestimmen, ohne die Elektrode neu auf den Hirnschnitt aufsetzen zu müssen.
Der in dieser Arbeit implementierte Algorithmus zur Berechnung der Feldverteilungen und die eingeführten Qualitätsparameter erlauben, die unterschiedlichen Stimulationskonfigurationen miteinander zu vergleichen und zu optimieren. Die Ergebnisse aus diesen Modellrechnungen wurden sowohl mit den Messungen der elektrischen Felder als auch mit den Ergebnissen aus den neuronalen Antworten verglichen.
Der im Rahmen dieser Arbeit erstellte Versuchsaufbau bestand aus einer über mehrere Mikromanipulatoren getriebene mikrometergenaue Positioniereinrichtung. Es konnten sowohl die Stimulationselektrode als auch die Elektrode zur Aufzeichnung der neuronalen Daten gesteuert werden. Die Steuerung des gesamten Setup, d.h. die Positionierung, die Aufzeichnung der neuronalen Daten und die Generierung der Stimulationsmuster wurde über den zentralen Messrechner durch ein hierfür entwickeltes Computerprogramm gesteuert. Die Versuche wurden über ein inverses Mikroskop durch eine CCD-Kamera aufgezeichnet.
Der entscheidende Vorteil des in dieser Arbeit gewählten Modellansatzes besteht in der grundsätzlichen Beschreibung der Feldverteilung bei vielkanaliger Stimulation, so dass diese auch auf andere Elektrodenformen bzw. Konfigurationen und Dimensionen übertragbar ist. Es lassen sich so den verschiedenen Konfigurationen nach bestimmten Qualitätskriterien bewerten und an die jeweilige Zielrichtung der Stimulation anpassen. Die berechneten Felder konnten erfolgreich in der Messeinrichtung generiert und nachgemessen werden. Außerdem ist es gelungen, differenzierte neuronale Aktivitäten auszuwerten, welche die Aussagen des Modells abstützen.
In der vorliegenden Arbeit wird die Expression der Nonapetide Oxytocin und Vasopressin im Zentralnervensystem der Ratte, Rattus rattus und des afrikanischen Graumulls, Cryptomys anselli, mit immunhistochemischen Methoden untersucht. Bei Säugetieren allgemein werden Oxytocin (OX) und Vasopressin (VP) in separaten Populationen magnozellulärer Neuronen des Hycleus supraopticus und die weitverstreuten akzessorischen magnozellulären neurosekretorischen Zellen). Über axonalen Transport gelangen die Hormone hauptsächlich in die Neurohypophyse und werden von dort in das Blutgefäßsystem ausgeschüttet. Neben allgemein bekannten peripheren Wirkungen wie beispielsweise der Uteruskontraktion (Oxytocin), der Milchejektion (Oxytocin) und der Homöostase des Wasserhaushalts (Vasopressin) werden den beiden Hormonen auch wichtige zentrale Effekte wie die Beeinflussung von Sozialverhalten, Partnerwahl, Aggression etc. zugeschrieben, wobei sie als hypothalamische Neurotransmitter fungieren.
Als ein subterranes, eusoziales Säugetier zeigt der Graumull eine ungewöhnliche (eusoziale) Familienstruktur: Die Tiere leben in großen Familien, wobei ein einziges Weibchen mit seinem Partner für die gesamte Nachkommenschaft sorgt. Die Jungtiere verweilen ihr gesamtes Leben bei den Eltern, meist ohne selbst zur Reproduktion zu kommen, und kümmern sich u.a. um ihre jüngeren Geschwister. Verhaltensbiologische Analysen konnten zeigen, daß im Gegensatz zum Nacktmull (Heterocephalus glaber) bei Cryptomys anselli weder Pheromone noch dominant-aggressives Verhalten der „Königin“ zu einer sexuellen Suppression der Nachkommen führen.
Parallel zum Graumull wird die Ratte als ein in der Neurobiologie und Verhaltensphysiologie gut erforschter „Standardorganismus“ immunhistochemisch untersucht. Die vorliegende Arbeit beschäftigt sich zuerst mit der Frage, ob und inwieweit bei Ratten und Graumullen die jeweilige soziale Organisation mit dem Muster der Transmitterexpression von Oxytocin und Vasopressin korreliert. Desweiteren ist von besonderem Interesse, ob sich die einzelnen Angehörigen der Graumull-Familien mit ihrem jeweiligen individuellen sozialen Status auch bezüglich der Verteilung und Quantität der beiden Transmitter unterscheiden. Auf dieser Grundlage wurden insgesamt vierzehn Graumulle und vier Ratten auf die Oxytocin- und Vasopressin-Expression im Zentralnervensystem hin untersucht.
Die vorgestellten immunhistochemischen Befunde an der Ratte und am
Graumull entsprechen prinzipiell der in der Literatur beschriebenen Expression von Oxytocin und Vasopressin im Nucleus paraventricularis hypothalami, im Nucleus supraopticus sowie in den weit verbreiteten akzessorischen magnozellulären neurosekretorischen Neuronen im Hypothalamus anderer Säugetiere. Bei Cryptomys ergab weder die qualitative noch die quantitative intraspezifische Analyse der immunreaktiven OX- und VP- Neuronen signifikante Unterschiede zwischen Individuen unterschiedlicher sozialer Stellung. Dagegen weist der Graumull im Vergleich mit der Ratte und anderen daraufhin bearbeiteten Säugern bisher nicht bekannte qualitative Unterschiede im oxytocinergen System auf, wobei unsere Befunde an der Ratte weitgehend mit der vorhandenen Literatur übereinstimmen: Eine magnozelluläre Neuronen-population im Corpus mamillare, welche auch in der Routinefärbung (Kresylechtviolett) erkennbar ist, zeigt bei den Graumullen eine Oxytocin-Expression, nicht aber bei den Ratten. In der Literatur ist für diese Neuronenpopulation bis dato nur die Expression von ABA beschrieben worden, nicht aber ihr oxytocinerger Charakter. Darüber hinaus ist eine bei der Ratte auffällige Gruppe akzessorischer magnozellulärer und oxytocinerger Neuronen, der Nucleus commissuralis anterior der Ratte, beim Graumull weder in der Routinefärbung noch immunhistochemisch nachweisbar. Als ein weiterer Unterschied ist die Expression von Oxytocin in der Area hypothalamica lateralis bei der Ratte sehr viel dichter als beim Graumull, ein Merkmal von potentiell qualitativem Charakter.
Der interspezifische Vergleich (Ratte-Graumull) ergab also eine potentiell neue Population Oxytocin-exprimierender Neuronen für den Graumull, nicht aber für die Ratte. Es wäre denkbar, daß über diese neu entdeckte oxytocinerge, aber nicht vasopressinerge Expression/Population mamillärer Neuronen innerhalb des limbischen Systems Projektionen in den Neokortex das Sozialverhalten der Graumulle beeinflussen können. In der Zukunft gilt es zu prüfen, ob diese Neuronenpopulation mit ihrer Oxytocin-Expression auch in anderen Säugetieren inklusive anderen eusozialen Spezies vorkommt. Das Fehlen des Nucleus commissuralis anterior (CoA) beim Graumull beruht hingegen wahrscheinlich nur auf strukturellen Unterschieden zwischen den Gehirnen von Ratten und Graumullen.
Einleitung
APP und die Alzheimersche Krankheit
Das Alzheimer Amyloid Precursor Protein (APP) ist ein Typ-1 Transmembranprotein mit einem Molekulargewicht von 110-135 kDa [Selkoe et al. 1988, Weidemann et al. 1989]. Es wird in allen bisher untersuchten Geweben exprimiert und weist in mehrzelligen Organismen einen hohen Konservierungsgrad auf [Robakis et al. 1987, Rosen et al. 1989]. APP ist unter anderem Vorläufer des β-A4-Peptides (Aβ), das in extrazellulären Aggregaten (Plaques) im Zentralen Nervensystem von Alzheimer-Patienten akkumuliert [Masters et al. 1985]. Die sogenannte „Amyloid-Hypothese der Alzheimerschen Erkrankung“ besagt, dass das Aβ-Peptid eine pathologische Kaskade initiiert, die zur Bildung von amyloiden Plaques, neuronaler Funktionsstörung und letztendlich Demenz führt [Hardy 1997, Selkoe 1999].
Prozessierung des APP
Der Hauptanteil des zellulären APP wird über den (nicht pathogenen) α-Sekretase-Weg prozessiert, wobei das sekretorische APP (α-sAPP) freigesetzt wird, das beinahe der gesamten N-terminalen Ektodomäne des APP entspricht. Die α-Sekretase spaltet APP innerhalb der Aβ-Domäne und verhindert somit die Bildung des pathogenen Aβ-Peptides. Kandidaten für die Katalyse dieser Spaltung sind Proteasen der ADAM-Familie [Buxbaum et al. 1998, Hooper et al. 1997, Koike et al. 1999, Lammich et al. 1999, Loechel et al. 1998].
Das Aβ-Peptid entsteht bei der sukzessiven proteolytischen Spaltung des APP durch die sogenannten β- und γ-Sekretasen. Bei der β-Sekretase handelt es sich um die Aspartat-Protease BACE (β-site APP cleaving enzyme) [Hussain et al. 1999, Sinha et al. 1999, Vassar et al. 1999, Yan et al. 1999]. Die Identität der γ-Sekretase ist noch nicht endgültig geklärt, jedoch spielen Presenilin-1 und -2 sowie Nicastrin eine Rolle bei der γ-Spaltung des APP [de Strooper et al. 1998, 1999, Struhl et al. 2000, Wolfe et al. 1999].
Unter physiologischen Bedingungen wird ca. 30% des APP durch α-Sekretasen prozessiert, ein viel geringerer Anteil dagegen durch die β-Sekretasen. Mehr als die Hälfte des zellulären APP bleibt ungespalten [Koo 2002].
Biologische Funktionen des APP
Die Funktionen des APP lassen sich unterscheiden nach Funktionen der kurzen zytoplasmatischen Domäne und der ca. 100 kDa großen Ektodomäne (α-sAPP). Die zytoplasmatische Domäne des APP stellt eine Plattform für die Bindung verschiedener Interaktionspartner dar. In Kooperation mit den Bindungspartnern spielt APP eine Rolle in unterschiedlichsten zellulären Prozessen wie vesikulärem Transport, Zellmotilität oder Genaktivierung [Review siehe Annaert und de Strooper 2002]. Die meisten Interaktionspartner der zytoplasmatischen Domäne des APP binden an die YENPTY-Sequenz nahe des C-Terminus des APP, die auch als Signal für die Endozytose des APP dient [Perez et al. 1999].
Die sekretorische Ektodomäne des APP hat eine wachstumsfördernde und neuroprotektive Wirkung. Um diese Wirkung auszuüben, bindet α-sAPP an einen bisher unbekannten Rezeptor, der auf der Zelloberfläche diverser Zelltypen wie Neuronen, Fibroblasten, Thyreozyten und Keratinozyten exprimiert wird [Review siehe Schmitz et al. 2002].
Polarer Transport des APP
In polaren MDCK Zellen wird das APP-Holoprotein fast ausschließlich zur basolateralen Zelloberfläche transportiert [Haass et al. 1994]. Es wurde gezeigt, dass dieser polare Transport des APP durch Tyrosin 653 in der zytoplasmatischen Domäne des APP beeinflusst wird. Mutation dieses Tyrosins zu Alanin führte zu partieller Fehlsortierung von ca. 50% des APP zur apikalen Plasmamembran. Die Sekretion von α-sAPP dagegen fand in MDCK-Zellen unabhängig von Tyrosin 653 basolateral statt [Haass et al. 1995].
Intrazellulärer Proteintransport durch Adaptor-Protein-Komplexe
Am intrazellulären Proteintransport sind Adaptor-Protein-Komplexe (APs) beteiligt, die bestimmte Sortierungssignale in der zytoplasmatischen Domäne von Frachtproteinen erkennen. Bis heute sind vier dieser tetrameren AP-Komplexe (AP-1 bis AP-4) bekannt, die zum Teil verschiedene Isoformen einzelner Untereinheiten aufweisen, z.B. AP-1A und AP-1B [Review: Boehm und Bonifacino 2001]. Jeder AP-Komplex spielt eine Rolle in einem bestimmten Schritt des intrazellulären Proteintransportes. Für AP-1A wird eine Funktion im anterograden und retrograden Transport zwischen Endosomen und TGN beschrieben [Review: Hinners und Tooze 2003]. AP-2 vermittelt Endozytose verschiedener Transmembranproteine von der Plasmamembran [Review: Kirchhausen 2002]. AP-3 spielt eine Rolle im Proteintransport zu Lysosomen und Lysosom-ähnlichen Organellen wie Melanosomen [Robinson und Bonifacino 2001]. AP-4 sowie AP1-B sortieren Proteine zur basolateralen Plasmamembran polarer Epithelzellen [Fölsch et al. 1999, Simmen etal. 2002].
Die Sortierungsmotive, die von Adaptor-Komplexen in der zytoplasmatischen Domäne der Fracht-Proteine gebunden werden, enthalten in den meisten Fällen entweder ein Tyrosin oder zwei Leucine. Das gesamte Motiv besteht aus jeweils vier bis zehn Aminosäuren [Review siehe Bonifacino und Traub 2003].
Ziele der Arbeit
In der vorliegenden Arbeit wurde der polare Transport des APP in Epithelzellen untersucht. Ein Ziel war es, Faktoren zu finden, die den basolateralen Transport des APP in Abhängigkeit von Tyrosin 653 vermitteln. Des weiteren sollte der Transport von APP und sAPP in verschiedenen Epithelzelllinien analysiert werden. Um ein gutes Werkzeug zur Detektion von APP zu haben, wurden GFP-APP-Fusionsproteine hergestellt und charakterisiert.
Ergebnisse und Diskussion
GFP-APP-Fusionsproteine wurden hergestellt und in MDCK-, FRT- und LLC-PK1-Zellen stabil exprimiert. Die Charakterisierung der GFP-APP-Fusionsproteine durch Immunfluoreszenzanalysen zeigte, dass die chimeren Proteine im TGN sowie in peripheren Vesikeln lokalisiert sind und mit endogenem APP stark kolokalisieren. GFPAPP war somit gut geeignet, um den intrazellulären Transport des APP zu untersuchen.
Eine Analyse der zytoplasmatischen Domäne des APP im Bereich des Tyrosin 653 zeigte, dass dieses Tyrosin und die drei folgenden Aminosäuren (YTSI) ein Konsensus-Motiv für die Bindung von tetrameren Adaptor-Protein-Komplexen darstellen.
Zu Beginn dieser Arbeit waren AP-1 bis AP-3 bereits gut charakterisiert, wohingegen für AP-4 keine Funktion bekannt war. In Kollaboration mit Simmen et al. konnte gezeigt werden, dass AP-4 den basolateralen Transport einiger Proteine vermittelt [Simmen et al. 2002]. Immunfluoreszenzanalysen lokalisierten AP-4 im TGN und peripheren Vesikeln, die unterschiedlich von AP-1A/B markierten Strukturen waren. Da kaum Kolokalisation von AP-4 und AP-1A/B zu beobachten war, ist die Lokalisation von AP-4 und AP-1B, das auch eine Rolle im basolateralen Proteintransport spielt, in unterschiedlichen Subdomänen des TGN und unterschiedlichen vesikulären Strukturen anzunehmen.
Polarer Transport des APP durch Adaptor-Protein-Komplexe
Die mögliche Funktion von AP-1 und AP-4 im Transport von APP wurde zunächst mit Hilfe von in vitro-Bindungsstudien untersucht. Dazu wurde die zytoplasmatische Domäne des APP als GST-Fusionsprotein kloniert und exprimiert. Die Frachtproteinbindenden Untereinheiten von AP-1 und AP-4 wurden unter Verwendung von radioaktiv markiertem Methionin durch in vitro-Transkription und -Translation hergestellt. In Bindungsstudien interagierten AP-1A und AP-1B mit der zytoplasmatischen Domäne des APP, nicht aber AP-4. Diese Ergebnisse deuten an, dass AP-1A und AP-1B eine Rolle im intrazellulären Transport von APP spielen könnten. AP-4 dagegen scheint nicht an diesem Prozess beteiligt zu sein.
Durch Mutation des Tyrosin 653 in APP zu Alanin (Y653A) wurde die Interaktion zwischen AP-1B und APP stark verringert, was darauf hindeutet, dass dieses Tyrosin einen Teil des Bindungsmotivs für AP-1B darstellt. Übereinstimmend damit entspricht die genaue Aminosäureabfolge des Y653TSI-Motivs den Sotierungsmotiv-Präferenzen von AP-1B [Ohno et al. 1999]. Die Interaktion von AP-1A dagegen war mit WildtypAPP und der Tyrosin-Mutante vergleichbar und scheint somit auf einem anderen Interaktions-Motiv zu basieren. AP-1A und AP-1B erkennen somit unterschiedliche Sortierungsmotive in der zytoplasmatischen Domäne des APP und kooperieren möglicherweise im intrazellulären Transport des APP. Diese Ergebnisse sind der erste Bericht über eine Interaktion von Adaptor-Protein-Komplexen mit der zytoplasmatischen Domäne des APP.
Die Rolle von AP-1B im basolateralen Transport von APP wurde genauer untersucht mit Hilfe der LLC-PK1 Zelllinie, die kein AP-1B exprimiert [Ohno et al. 1999]. In LLCPK1-Zellen werden verschiedene Proteine unpolar zur apikalen und basolateralen Membran verteilt, die in MDCK-Zellen durch Interaktion mit AP-1B basolateral transportiert werden [Fölsch et al. 1999, Sugimoto et al. 2002]. Um den Transport von APP in polaren LLC-PK1-Zellen zu untersuchen, wurde Plasmamembran-ständiges GFP-APP durch zwei unabhängige Methoden nachgewiesen: die apikale oder basolaterale Oberfläche der Zellen wurde selektiv entweder biotinyliert oder mit GFPAntikörpern markiert. Beide Methoden zeigten, dass GFP-APP in LLC-PK1-Zellen sowohl an der apikalen als auch an der basolateralen Zelloberfläche lokalisiert ist. Somit wird auch APP in diesen Zellen im Vergleich zu MDCK-Zellen anders sortiert. Dieses Ergebnis festigt die Hypothese einer Funktion von AP-1B im Transport von APP, die aufgrund der Daten der in vitro-Bindungsstudien aufgestellt wurde.
Polare Sekretion des sAPP ist unabhängig vom Transport des Holoproteins
Neben dem Transport des APP-Holoproteins war auch die polare Sekretion des sAPP Thema dieser Arbeit. Es war gezeigt worden, dass basolaterale Sekretion des sAPP in MDCK-Zellen unabhängig vom Transport des APP-Holoproteins ist [Haass et al. 1995]. Dieses Ergebnis konnte in der vorliegenden Arbeit bestätigt und auf andere Zelllinien erweitert werden. Um die korrekte Sekretion von GFP-sAPP nachzuweisen, wurde die GFP-sAPP-Sekretion zunächst in polaren MDCK-Zellen untersucht, die stabil GFP-APP exprimierten. Da GFP am N-Terminus des APP angefügt ist, trägt auch das sezernierte APP die GFP-Markierung. GFP-sAPP konnte mittels Immunpräzipitation mit GFP-spezifischen Antikörpern lediglich im basolateralen Medium nachgewiesen werden. Somit sezernieren MDCK-Zellen GFP-sAPP in gleicher Polarität wie von Haass et al. für endogenes sAPP gezeigt wurde [Haass et al. 1995].
Experimente in GFP-APP exprimierenden LLC-PK1- und FRT-Zellen zeigten, dass auch hier die polare Sekretion des GFP-sAPP und der Transport des APPHoloproteins zwei unabhängige Prozesse sind. Polare LLC-PK1-Zellen transportierten GFP-APP zur apikalen und basolateralen Plasmamembran (siehe oben). GFP-sAPP-Sekretion aus polaren LLC-PK1-Zellen dagegen fand ausschließlich basolateral statt. In FRT-Zellen wurde GFP-sAPP im Gegensatz zu MDCK- und LLCPK1-Zellen apikal sezerniert. Kolokalisation des GFP-APP mit Transferrin-Rezeptor in FRT-Zellen deutete dagegen an, dass das Holoprotein wie in MDCK-Zellen basolateral transportiert wird. Dies ist auch zu erwarten, da FRT-Zellen AP-1B exprimieren und es auch in dieser Zelllinie basolateralen Transport vermittelt [A. Gonzalez, persönlich, ASCB 2003]. Nach diesen Ergebnissen zu urteilen, finden auch in FRT und LLC-PK1-Zellen APP-Transport und sAPP-Sekretion unabhängig voneinander statt.
Basolaterale sAPP-Sekretion ist unabhängig von der Ektodomäne
In MDCK-Zellen wurde zusätzlich die Sekretion eines GFP-APP untersucht, in dem der Großteil der Ektodomäne deletiert und durch GFP ersetzt wurde, die SekretaseSchnittstellen jedoch noch vorhanden waren. Durch Immunfluoreszenzanalyse wurde zunächst nachgewiesen, dass die subzelluläre Lokalisation dieser Deletionsmutante der des endogenen APP entspricht. Die Sekretion dieses stark verkürzten sAPP erfolgte wie die des Wildtyps basolateral. Dieses Ergebnis deutet an, dass die Determinante für die basolaterale Sekretion des sAPP nicht innerhalb der Ektodomäne liegt, wie in einigen älteren Publikationen angenommen wird [Haass et al. 1995, de Strooper et al. 1995]. Neuere Ergebnisse dagegen führen die polare Sekretion des sAPP auf die basolaterale Lokalisation der α-Sekretase zurück [Capell et al. 2002], was die basolaterale Sekretion der Deletionsmutante erklären könnte.
sAPP-Bindung an polaren Zellen
Durch Interaktion mit einem bisher unbekannten Rezeptorprotein erfüllt sAPP für verschiedene Zelltypen die Funktion eines Wachstumsfaktors [Saitoh et al., 1989, Pietrzik et al., 1998, Hoffmann et al., 2000]. Da viele Wachstumsfaktor-Rezeptoren selektiv entweder an der apikalen oder basolateralen Plasmamembran von Epithelzellen lokalisiert sind, wurden Bindungsstudien mit rekombinant exprimiertem sAPP (sAPPrec) an polaren FRT und MDCK-Zellen durchgeführt. Analyse der Bindung mit einem sAPPrec-spezifischen Antikörper zeigte, dass sAPP ausschließlich an der apikalen Plasmamembran beider Zelllinien bindet. Da die Sekretion des sAPP in FRT-Zellen ebenso apikal erfolgt, ist in dieser Zelllinie eine autokrine Regulation durch sAPP vorstellbar, was auch durch vorherige Ergebnisse angedeutet wurde [Pietrzik et al. 1998]. Für MDCK-Zellen, die sAPP basolateral sezernieren und apikal binden, muss ein anderer Regulationsmechanismus vorliegen. Es könnte sich um parakrine Regulation handeln, was jedoch noch bestätigt werden muss.
Fazit: In dieser Arbeit wurde zum ersten Mal gezeigt, dass tetramere Adaptor-ProteinKomplexe eine Rolle im intrazellulären Transport von APP spielen. In diesem Zusammenhang wurde die Funktion des AP-4-Komplexes in einer Kollaboration analysiert. Es wurde gezeigt, dass AP-1A und AP-1B eine Rolle im Transport von APP spielen. Eine Funktion von AP-4 im Transport von APP ist nach den vorliegenden Ergebnissen unwahrscheinlich. Untersuchungen zur APP-Sortierung in verschiedenen Epithelzelllinien zeigten, dass die Hypothese der Unabhängigkeit von APP-Transport und sAPP-Sekretion als genereller Mechanismus angesehen werden kann. Durch Analyse der sAPP-Bindung an polaren FRT- und MDCK-Zellen wurde erstmals die polare Lokalisation des putativen sAPP-Rezeptors untersucht, was einen ersten Einblick in den Mechanismus der sAPP-vermittelten Regulation in polaren Zellen ermöglichte.
Der Begriff Gruppendynamik ist überbestimmt. Er kann erstens die psychosozialen Prozesse meinen, die Gruppen die Erfüllung ihrer Aufgabe schwer machen. Zweitens bezeichnet Gruppendynamik eine vorwiegend sozialpsychologische Forschungsrichtung, die sich mit der Untersuchung von Gruppen und ihrer Eigengesetzlichkeit befaßt. Und drittens hat sich unter dem Namen Angewandte Gruppendynamik eine Interventionspraxis herausgebildet, deren Ziel die methodische Beeinflussung der gruppendynamischen Phänomene und Prozesse ist. Diese Interventionspraxis ist der Gegenstand dieser Arbeit. Wie und warum es zu einer Trennung von Gruppendynamik als akademischer Forschungsrichtung und Gruppendynamik als Interventionspraxis kam, obwohl sie sich mit denselben Phänomenen befassen, ist selbst Teil des zu Untersuchenden. Gruppendynamik als institutionalisierte Praxis besteht in Deutschland seit mehr als 30 Jahren. Das erste deutsche gruppendynamische Laboratorium fand im Geburtsjahr des Autors, 1963, statt. Dazwischen hat Gruppendynamik zahlreiche Metamorphosen durchgemacht. Von einer emanzipatorischen Methode der „Neufundierung von Autorität“ in den 70er Jahren wandelte sie sich zu einer Schlüsselqualifikation für Organisationsberater in der 80ern. Heute ist sie zwischen Therapie, Supervision und Beratung angesiedelt und nur schwer als eigenständige Methode erkennbar. Gruppendynamik ist zu einem „historischen Begriff“ geworden und für einen solchen gilt Max Webers Einsicht, daß man ihn nicht nach dem Schema: genus proximum, differentia specifica definieren kann, „sondern er muß aus seinen einzelnen der geschichtlichen Wirklichkeit zu entnehmenden Bestandteilen allmählich komponiert werden. Die endgültige begriffliche Fassung kann daher nicht am Anfang, sondern muß am Schluß der Untersuchung stehen.“ Diese Arbeit beginnt deshalb nicht mit einer Definition von Gruppe, Gruppendynamik und gruppendynamischer Praxis, sondern geht von einigen wenigen Zentralkonzepten aus, die bis heute zum normativen Kernbestand der angewandten Gruppendynamik gehören und versucht mit deren Hilfe, die Besonderheit gruppendynamischer Praxis freizulegen. Laboratorium, Trainingsgruppe, Hier und Jetzt-Prinzip sowie Minimalstrukturierung bilden zusammen den strukturellen Rahmen gruppendynamischer Praxis: den gruppendynamischen Raum. In ihm sind die Teilnehmer mit dem gruppendynamischen Strukturproblem konfrontiert: Zugehörigkeit, Macht und Intimität kollektiv zu gestalten und zu erforschen. Die Rekonstruktion von gruppendynamischem Raum und gruppendynamischem Strukturproblem ist Inhalt von Teil I dieser Arbeit. In Teil II wird danach gefragt, welche soziale und affektive Dynamik das gruppendynamische Strukturproblem induziert. Diese Dynamik wird in zweifacher Perspektive untersucht: im Blick auf das soziale Netzwerk Gruppe wird Gruppendynamik als Vergemeinschaftungsprozeß interpretiert, im Blick auf die Individuen als Übertragungsgeschehen. Der sozialisationstheoretische Rekurs auf die Dynamik der Primärgruppe Familie und der präadoleszenten Peer-group kann zeigen, daß das gruppendynamische Strukturproblem universelle und elementare sozialisatorische Konflikte hervorruft. Teil III greift die ungelösten Fragen von Teil I auf und stellt die spannungsvolle Geschichte der Gruppendynamik von Deutschland nach Amerika und zurück dar. Gruppendynamik, entstanden aus einem Junktim von Forschen und Verändern, hat auf ihrem Weg dieses Junktim aufgelöst und die beiden auseinander gebrochenen Hälften jeweils an die akademische Kleingruppenforschung und an die angewandte Gruppendynamik delegiert. Das hat der angewandten Gruppendynamik eine hohe Anschlußfähigkeit an die Bedürfnisse des Selbsterfahrungs- und Fortbildungsmarktes sowie der Organisationsberatung verschafft. Die Rückseite dieses Geschehens bildet eine in den entsprechenden Fachpublikationen regelmäßig beklagte Theoriestagnation. Die historischen Exkurse können bei der Frage weiterhelfen, wie sich die Besonderheit von Gruppendynamik im Dreieck von Forschen, Erziehen und Heilen strukturell bestimmen läßt. In dieser Arbeit wird der Versuch unternommen, gruppendynamische Praxis konsequent als Forschungspraxis zu deuten und von allen edukativen und therapeutischen Methoden abzugrenzen. Können die Teile I und II zeigen, daß das gruppendynamische Strukturproblem die Teilnehmer in einen übertragungsreichen Vergemeinschaftungsprozeß führt, können die Fallstudien in Teil IV zeigen, wie dies geschieht und wie Gruppen kollektiv unter Begleitung der Trainer diese Aufgabe gestalten. Material der Fallstudien sind Trainingsgruppen aus gruppendynamischen Fortbildungsveranstaltungen, die von den entsprechenden Dachverbänden der deutschen, schweizer und österreichischen Gruppendynamiker ausgeschrieben wurden. Diese Fallstudien können also relativ viel über die Prozesse in T-Gruppen sagen und wenig über das gruppendynamische Geschehen in Großgruppen. Doch da eine T-Gruppe, in der Regel bestehend aus einem Dutzend Teilnehmer und einem Trainerpaar, den normativen Kern der meisten gruppendynamischen Veranstaltungen bildet, läßt sich durch deren Analyse Wesentliches über gruppendynamische Praxis herausfinden, auch wenn die Intergruppen- und Großgruppendynamik ein wichtiger Bestandteil dabei ist. Mit der Methode der ojektiven Hermeneutik werden zwei Trainingsgruppen ausführlich analysiert. Die erste Gruppe geht über fünf Sitzungen, die zweite über zehn Sitzungen. Wird am Material dieser Gruppen der gruppendynamische Prozeß untersucht, so beleuchten die vier Fallvignetten jeweils einzelne Facetten gruppendynamischer Praxis. Die Ergebnisse dieser Fallstudien dienen dann im Teil V dazu, den gruppendynamischen Prozeß in seiner elementaren Dynamik und in seinem Lernpotential zu beleuchten. Die Teile I bis III rekonstruieren gruppendynamische Praxis idealtypisch, sie fragen also nicht danach, welche verschiedenen Formen und Interpretationen von Gruppendynamik sich historisch herausgebildet haben, sondern sie bilden einen Idealtypus. Nun ist die Empirie keine Kollektion von Idealtypen und zur Abbildung der Gruppendynamik in ihrer polypragmatischen Vielgestaltigkeit taugt eine idealtypische Rekonstruktion wenig. Der Zweck einer Idealtypenbildung besteht vielmehr darin, einen Begriff aus der Sache selbst zu entwickeln, an dem die Sache dann gemessen werden kann. Idealtypenbildung geht von der Einsicht aus, daß eine Theorie ihrem Gegenstand nur angemessen ist, wenn sie aus ihm entwickelt worden ist, deshalb gehen Theoriebildung und Fallrekonstruktion bei der Idealtypenbildung parallel einher. In der akribischen Rekonstruktion eines Einzelfalles in seiner Besonderheit soll also die Logik des Falles ineins mit der Logik der Gattung freigelegt werden. Das Ziel eines solchen Verfahrens besteht darin, weder die Fallanalysen zur Illustration vorgegebener Theorie verkommen zu lassen, noch theorielos einen Fall ideographisch abzubilden, ohne in ihm die individuelle Allgemeinheit des Falls zum Vorschein zu bringen. Ob dies gelang, kann nur die Evidenz der in Teil IV dargestellten Fallstudien entscheiden. Die hier gewählte Darstellungsform der Trennung von idealtypischer Rekonstruktion und Fallrekonstruktion, spiegelt den realen Forschungsverlauf nicht wider. Im Forschungsprozeß war die Idealtypenbildung aufs engste verwoben mit der sequenzanalytischen Fallrekonstruktion und es haben sich in ihm detaillierte Sequenzanalysen, Exkurse und Modellbildung ohne Systematik abgewechselt. Wollte man den Forschungsverlauf in seiner Sukzession darstellen, würde dies die Lesbarkeit der Analysen immens erschweren. Deshalb wurde aus Darstellungsgründen idealtypische Rekonstruktion und Fallrekonstruktion getrennt mit dem Preis, daß die Modelle und theoretischen Hintergrundsannahmen, von denen die Analyse ausgeht, nicht in ihrer Entwicklung am konkreten Material mitdokumentiert werden. Dies ist ein schmerzlicher Kompromiß, der nur mit dem Gewinn an Systematik und Stringenz der Darstellung aufgewogen werden kann. Gruppen und damit auch deren Dynamik waren und sind eines der zentralen Themen der Soziologie. Doch hat die Soziologie deren Erforschung immer mehr an die Sozialpsychologie abgetreten. Diese Arbeit versucht, die Gruppendynamik ein kleines Stück für die Soziologie wiederzugewinnen. Gruppendynamik ein Vierteljahrhundert nach ihrer Hochblüte zu erforschen, bietet die Chance, sie jenseits aller ideologischen Auseinandersetzungen und ohne den auftrumpfenden Gestus, der die Aktionsforschung lange Zeit begleitete, als das in den Blick zu bekommen, was sie zuerst einmal ist: eine einzigartige Methode zur Erforschung und Veränderung von Gruppen. Die gesellschaftliche Abenddämmerung, in der sich Gruppendynamik manchmal zu finden glaubt, ist die beste Stunde für die Eule der Minerva.
Aus der Notwendigkeit heraus, "nachhaltig die Funktionen des Bodens zu sichern" (§1 BBodSchG), und damit auch Bodenschutz vorsorgend in Planungsprozesse zu integrieren, wurde ein neues Bodenschutzkonzept entwickelt. Es basiert auf einer differenzierten, aber gleichzeitig nachvollziehbaren Bodenbewertung. Das Problem bei der Bodenbewertung ist, dass etwas bewertet werden soll, für das - je nach Fragestellung - immer wieder neue Ziele definiert werden müssen. Deshalb liegt der Bodenbewertung ein Zielsystem zu Grunde, das Schutzziele klar festlegt und mit Hilfe dessen die Bodenbewertung nachvollziehbar wird. Für das Bodenschutzkonzept werden aus der Vielzahl möglicher Kriterien wichtige vorgestellt, aus denen die - bezogen auf dieses Zielsystem - wesentlichen ausgewählt werden können. Um aussagekräftige Daten für diese Kriterien zu erhalten stützt sich die Bodenbewertung auf bodenkundliche sowie landschaftsgenetisch-geomorphologische Zusammenhänge. Die eigentliche Bewertung erfolgt dann in drei Schritten: zuerst eine Einzelbewertung, dann zusammengefasst nach den Bodenfunktionen Lebensraumfunktion, Regelungsfunktion, Informationsfunktion, dem Eigenwert des Bodens (Schutzwürdigkeit) sowie der Empfindlichkeit und Gefährdung (Schutzbedürftigkeit). Im dritten Schritt werden diese Bewertungen dann zu einer gewichteten, verbal-argumentativen Gesamtbewertung der Schutzwürdigkeit und Schutzbedürftigkeit zusammengefasst. Mit Hilfe des Bewertungsverfahrens werden auch Zielkonflikte zwischen den unterschiedlichen Schutzgütern offengelegt. Schutzmaßnahmen ergeben sich dann stringent aus den vorher im Zielsystem gesetzten Prämissen, d.h., Ziele und Maßnahmen sind begründbar gewählt, stehen in einem ökologischen Gesamtzusammenhang und lassen sich sehr gut nachvollziehen. Das hier vorgestellte, neue Bodenschutzkonzept ist für verschiedene Planungsebenen geeignet. Es ist in unterschiedlichen Naturräumen anwendbar, kann verschiedene Schutzziele mit Hilfe des Zielsystems bestimmen und so z.B. die Naturraumvielfalt in einem Gebiet ebenso berücksichtigen wie die Meinungsvielfalt, was unter vorsorgendem Bodenschutz zu verstehen sei.
Entmachtete Gegenstände? : Zur Kommerzialisierung sakraler Masken bei den Piaroa in Venezuela
(2004)
Oskar Fischingers malerisches Oeuvre wurzelt theoretisch, ästhetisch und formal tief in der Kunstentwicklung des Deutschlands der zwanziger Jahre. Sein Ausdrucksvokabular, das von geometrischen bis zu amorphen Formen reicht, seine wechselnden, gleichermaßen zentral und flächenübergreifenden Bildgefüge mit reduzierten Inhalten oder reicher Formenfülle, sein Wandeln zwischen Abstraktion und Gegenständlichkeit, verhindert die Ausprägung einer einheitlichen Handschrift und damit auch einer eindeutigen chronologischen Entwicklung. Obwohl ästhetisch und formal den konstruktiven Tendenzen des Bauhaus und dessen Vertreter Kandinsky nahestehend sowie der lyrischen Abstraktion und Klee, wurde Fisichinger auch von östlichen Religionen, dem Mystizismus, der Astrologie, der Astronomie und der Musik geprägt. Dies manifestiert sich bisweilen in Form verschlüsselter Bildinhalte. Sein philosophischer Hintergrund bestärkt ihn in der Verwendung von abstrakten Formen als Träger metaphysischer Botschaften und bewahrt seine Bilder gleichzeitig vor formalistischer Strenge und Dekorativität. Trotzdem scheinen bestimmte Charakteristika in seinem Werk vorhanden: die Neigung des Ingenieurs zu regelmäßigen Formen und komplexem Detailwerk, das musikalische Gefühl für rhythmische Sequenzen, ein filmisches Anliegen für Bewegung und Tiefe, ein mystisches Gefühl für die anderen Dimensionen jenseits des Sichtbaren und Wirklichen. Fischingers grenzüberschreitendes Streben nach einer Befreiung der Malerei aus ihrer tradierten Form, welches sich in Projekten wie Motion Painting No.1 oder Stereo-Film manifestierte, entsprang dem Verlangen nach einem Kunstwerk, das mehrere Kunstgattungen in sich vereinigt, ein Gedanke, der sich zwingend aus seiner Auseinandersetzung mit den künstlerischen Betrachtungsweisen und Entwicklungen am Ende des 19. und zu Beginn des 20. Jahrhunderts ergab sowie aus seiner Beschäftigung mit synästhetischen Prozessen und der Filmarbeit. Diese Zielsetzung Fischingers zusammen mit motivischen Verwandtschaften zwischen seinen Filmen und der Malerei, die sich z.B. in der gemeinsamen Verwendung geometrischer Motive oder anderer gestalterischer Elemente wie der Aneinanderreihung von Farbbahnen (Abb. 26 – 28) zeigt, führten noch bis Anfang der siebziger Jahre zu einer Ignoranz seiner Malerei als eigenständige künstlerische Ausdrucksform. Noch 1970 wurde in einer Fischinger-Retrospektive im Long Beach Museum of Art in Kalifornien der Versuch unternommen, seine Gemälde direkt einzelnen Sequenzen seiner Filme zuzuordnen. Die Kunstkritik reagierte entsprechend abweisend auf die damalige Ausstellung. Der Journalist William Wilson schreibt „....half the time they don´t work as paintings because Fischinger evidently conceived of them as films.“ Erst einige Jahre später begannen sich Tendenzen zu einer mehrere Sparten übergreifenden Kunst durchzusetzen. Binnenkünstlerische Grenzen werden aufgehoben und Ausdehnungen in die Bereiche Video, Umraum, Objekt, Licht und Kinetik fanden statt. In diesem Zusammenhang ist Fischinger nicht nur einer der Wegbereiter der Op Art und der Holographie. Sein 1950 entwickelter Lumigraph, ein Lightshowgerät für den Hausgebrauch könnte ebenfalls als eine Vorform der Neon- und Laserkunst betrachtet werden. Trotzdem haben die Vergleiche mit den Künstlern Kandinsky, Klee und Mondrian gezeigt, dass Fischingers Malerei theoretisch, ästhetisch und formal zutiefst in der modernen Kunstentwicklung im Deutschland der zwanziger und dreißiger Jahre wurzelt. Die Betonung des Gleichgewichts von Intuition und Methode (Kap. 6.4.), die Auseinandersetzung mit den geometrischen Grundformen des Kreises, Quadrates, des Dreiecks und ihren farblichen Korrelationen (Kap. 6.4.), die Verwendung von geometrischem oder gegenständlich symbolischem Ausdrucksvokabular zur Darstellung spiritueller Inhalte (Kap. 7.3.), die Auseinandersetzung mit den synästhetischen Zusammenhängen von Farbe und Musik (Kap 7.3.) und der Assymetrie als Grundlage für das formale Gleichgewicht der Bildkräfte (Kap. 7.7.), dies sind Themen, mit denen sich Fischinger zwischen 1936 und 1967 sowohl auf der Basis von kunsttheoretischen Schriften als auch in seiner Malerei intensiv auseinandergesetzt hat. Sein Festhalten an den formal und stilistisch in den dreißiger Jahren entwickelten Gestaltungsmitteln und seine Verinnerlichung von Kunsttheorien der zwanziger Jahre könnte man zusammen mit seinem Desinteresse am internationalen Kunstgeschehen und an der angelitanischen Kunstszene als Ausdruck mangelnder geistiger Flexibilität und Anpassungsfähigkeit und damit als Akkulturationsproblem auffassen. Es könnte jedoch auch als Ausdruck einer konsequenten Umsetzung seiner künstlerischen Prinzipien verstanden werden. Die Beschreibung der Innenwelten stellt sich in diesem Zusammenhang als unabhängig von den Geschehnissen der Außenwelt und modischen Kunsttendenzen dar. Sie bedient sich eines abstrakten Zeichenvokabulars, das als universelles sprachliches Mittel keinem zeitlichen Wandel unterliegt. Die abstrakte Sprache, so wie sie Fischinger, Klee oder Kandinsky verstanden, war darüber hinaus keine Sprache der Zugehörigkeit zu einer bestimmten Gruppe oder Anschauung. So erklärt sich auch der mangelnde amerikanische Einfluss auf das malerische Werk Fischingers. Gemeinsamkeiten zwischen ihm und der kalifornischen Kunstszene der vierziger und fünfziger Jahre zeigen sich nur in dem Interesse an seriellen Strukturen und an den Entwicklungen der Monochromen und Meditativen Malerei. Wenn auch der Maler Fischinger aufgrund seines frühen Weggangs in seiner Heimat ein Unbekannter geblieben ist, so findet sein Werk in den Vereinigten Staaten zunehmende Anerkennung. In jüngster Zeit sind seine Gemälde in zahlreichen Ausstellungen vertreten, darunter 1993 in der in Washington eröffneten Wanderausstellung "Thema und Improvisation: Kandinsky und die amerikanische Avantgarde". Diese Popularität verdankt er wesentlich der Rückbesinnung auf ein bisher vernachlässigtes Kapitel amerikanischer Kunstgeschichte - der kalifornischen Malerei der vierziger Jahre. Fischinger zählt heute neben Lorser Feitelson, Helen Lundeberg, Peter Krasnow, Knud Merrild und Hans Burkhardt zu einem der wichtigsten Vertreter der südkalifornischen Malerei. Diese zeichnet sich im Vergleich zur Kunstmetropole New York jedoch mehr durch eine reiche Vielfalt stilistischer Ausprägungen und durch die Wahrung künstlerischer Individualität aus als durch avantgardistische Bestrebungen und einheitliches Stilwollen. 1992 stellte der Kurator des Washington Museum of Art anläßlich der Ausstellung "Turning the Tide" fest: "Fischinger is just now beginning to receive the attention he deserves beyond film critics and historians, recognition that ironically may have been delayed by his identification with art cinema."
Das Buch beschreibt die Nutzung türkischer populärer Musik und ihre Bedeutung für türkische Jugendliche in Deutschland. Es zeigt auf, dass die Nutzung türkischer Musik nicht die Ursache oder Folge einer Unfähigkeit oder eines Unwillens zur Integration ist, sondern vielmehr ein konstruktives Element innerhalb des individuellen Integrationsprozesses.
Das im Rahmen dieser Arbeit durchgeführte Experiment hatte zum Ziel Interferenzeffekte beim dissoziativen Ladungstransfer bei Molekülion-Atomstößen zu beobachten. Interferenzeffekte in Molekül-Atomstößen wurden von McGuire hervorgesagt und berechnet [4]. Diese Arbeit betrachtet ein ähnlichen Reaktionssystem. Die von ihm vorausgesagten Effekte wurden bestätigt. Das Experiment hat es ermöglicht, Interferenzen für alle Molekülorientierungen zu betrachten, womit man leicht Analogien zu zwei speziellen Fällen herstellen kann: mit der Molekülachse senkrecht zur Strahlrichtung entsteht eine Situation ähnlich einem Doppelspalt, bei dem die Kerne des Moleküls als Reaktionszentrum an Stelle der Spalte treten; mit der Molekülachse in Strahlrichtung entsteht eine Situation bei der Streuung an einem einzelnen Atom. In allem Molekülorientierungen erkennt man ein ringförmiges Minimum bei 1.6 a.u., wie es insbesondere bei der Beugung einem einzelnen Atom zu beobachten ist. Bei senkrechter Stellung der Molekülachse zur z-Achse überlagert durch die Streifen eines Doppelspaltes. Es war außerdem möglich den Endzustand der Teilchen zu bestimmen, so daß man sagen konnte, ob eine Teilchen angeregt aus der Reaktion hervorgegangen ist oder ob es über metastabile Zwischenzustände zerfallen ist. So ließ sich für den Impulsübertrag von 1.6 au eine Besonderheit feststellen: ein Minimum läßt sich nur im direkten Kanal ohne Anregung beobachten. Findet der Zerfall hingegen über metastabile Zwischenzustände ohne Anregung statt, so weist dieser Kanal bei etwa 1.6 au ein Maximum auf. Parallel zur Durchführung dieser Arbeit wurden erste Tests mit einem digitalen Oszillographen von Aquiris gemacht. Dieser speichert den Spannungsverlauf der Spannung an den Delaylineanoden. Peaks müssen dann schnell genug erkannt und ausgewertet werden. In der Offlineanalyse wären dann eng nebeneinander oder übereinanderliegende Peaks besser als solche zu erkennen. Diese würde die Totzeitproblematik, die sie durch die Dissoziation eines Moleküls senkrecht zur z-Achse entsteht, erheblich entschärfen.
Moderne Softwaresysteme gewinnen zunehmend an Komplexität und bestehen inzwischen aus einer für Menschen nicht mehr überschaubaren Menge an Quellcode-Zeilen. Die Problematik könnte damit zusammenhängen, dass Programmiersprachen als Sprachen linear orientiert sind. Es stellt sich die Frage, ob graphische Darstellungen besser geeignet wären. Durch das Hinzufügen einer zweiten Dimension könnten Vererbungshierarchien und vernetzte Zusammenhänge – wie beispielsweise Funktionsaufrufe – besser visualisiert und durch das Ausblenden von Implementierungsdetails auf einen Blick erfasst werden. In dieser Arbeit werden Möglichkeiten der Visualisierung untersucht, bei denen der Sourcecode graphisch dargestellt wird und bei denen eine Änderung in der graphischen Darstellung in einem veränderten Sourcecode resultiert. Die Kernfrage, die in dieser Arbeit untersucht werden soll, ist, ob graphisch orientierte Tools die Programmierung wesentlich beschleunigen können. Dabei wird hauptsächlich auf die Visualisierung der vernetzten Strukturen von Klassen und Methoden Wert gelegt sowie auf die automatische Generierung. Ohne eine Automatisierung muss zu viel Zeit investiert werden, um die Darstellung zu erzeugen und mit geänderten Code konsistent zu halten. Dabei werden bisherige Konzepte wie die graphische Modellierungssprache UML beschrieben und die Umsetzung in unterschiedlichen Programmen untersucht. Die Abbildung von UML-Diagrammen in Sourcecode und von Sourcecode in UMLDiagramme bereitet jedoch einige Probleme, da viele Konzepte von UML zu stark abstrahieren und eine Abbildung nicht eindeutig und teilweise nicht möglich ist. Aus diesem Grund wird aufbauend auf den vorhandenen Möglichkeiten ein neues Konzept entwickelt, das prototypisch implementiert wird. Dabei werden viele Elemente von UML genutzt und auf die gestellten Anforderungen angepasst, sodass eine automatische graphische Darstellung parallel zur Programmierung in Textform möglich ist.
Die Darstellung photorealistischer Szenen durch Computer hat in Folge der Entwicklung immer effizienterer Algorithmen und leistungsfähigerer Hardware in den vergangenen Jahren gewaltige Fortschritte gemacht. Täuschend echt simulierte Spezialeffekte sind aus kaum einem Hollywood-Spielfilm mehr wegzudenken und sind zum Teil nur sehr schwierig als computergenerierte Bilder zu erkennen. Aufgrund der Komplexität von lebenden Organismen gibt es allerdings noch kein einwandfreies Verfahren, welches ein komplettes Lebewesen realistisch, sei es statisch oder in Bewegung, mit dem Computer simulieren kann. Im Bereich der Animation sind wirkungsvolle Resultate zu verzeichnen, da das Skelett eines Menschen oder Wirbeltieres durch geeignete Methoden simuliert und Bewegungen damit täuschend echt mit dem Computer nachgebildet werden können. Die Schwierigkeit, eine komplett realistische Visualisierung eines Lebewesens zu erreichen, liegt allerdings in der Darstellung weiterer Strukturen eines Organismus, die zwar nicht direkt sichtbar sind aber dennoch Einfluss auf die sichtbaren Bereiche haben. Bei diesen Strukturen handelt es sich um Muskel- und Fettgewebeschichten. Die Oberfläche von Figuren wird durch Muskeln sowohl in der Bewegung als auch in statischen Positionen deutlich sichtbar verändert. Dieser Effekt wird bisher bei der Visualisierung von Lebewesen nur unzureichend beachtet, was zu den aufgeführten nicht vollständig realistisch wirkenden Ergebnissen führt. Bei der Simulation von Muskeln wurden bis heute verschiedene Muskelmodelle entwickelt, die einen Muskel als Gesamtheit in Hinblick auf seine grundsätzlichen physikalischen Eigenschaften, wie z. B. Kraftentwicklung oder Kontraktionsgeschwindigkeit, sehr gut beschreiben. Viele Effekte des Muskels, die sich hauptsächlich auf einer tiefer liegenden Ebene abspielen, sind bis heute noch nicht erforscht, was folglich auch keine entsprechende Simulation auf dem Computer zulässt. Beschrieben werden die verschiedenen Muskeltypen (Skelett-, glatte und Herzmuskulatur) und Muskelformen (spindelförmige, einfach/doppelt gefiedert, etc.). Des weiteren wird auf die unterschiedlichen Muskelfasertypen (FTO, STO, usw.) mit ihren Eigenschaften und Funktionen eingegangen. Weitere Themen sind der strukturelle Aufbau eines Skelettmuskels, der Kontraktionsmechanismus und die Ansteuerung durch Nervenreize. Im Bereich Biomechanik, also der Forschung nach den physikalischen Vorgängen im Muskel, führte die Komplexität der Struktur und Funktionsweise eines Muskels zu einer ausgedehnten Vielfalt an Forschungsarbeiten. Zahlreiche Effekte, die bei einem arbeitenden Muskel beobachtet werden können, konnten bis heute noch nicht erklärt werden. Die Erkenntnisse, die für diese Arbeit relevant sind, sind jedoch in einem ausreichenden Maße erforscht und durch entsprechende mathematische Modelle repräsentierbar. Die Mechanik, die einem Muskel zugrunde liegt, wird auf diesen Modelle aufbauend beschrieben. Neben den Größen, die im später vorgestellten Modell verwendet worden sind, wird auch auf sonstige für biomechanische Untersuchungen relevante Eigenschaften eingegangen. Weiterhin wird dargestellt, wie verschiedene Kontraktionen (Einzelzuckung, Tetanus) mechanisch funktionieren. Für Muskelarbeit und Muskelleistung werden verschiedene Diagramme vorgestellt, welche die Zusammenhänge zwischen den physikalischen Größen Kraft, Geschwindigkeit, Arbeit und Leistung zeigen. Nach Vorstellung der ISOFIT-Methode zur Bestimmung von Muskel-Sehnen-Eigenschaften werden mathematische Formeln und Gleichungen zur Beschreibung von Kraft-Geschwindigkeits- und Kraft-Längen-Verhältnissen sowie der serienelastischen Komponente und der Muskelaktivierung, die zur Bewegungsgleichung führen, angegeben. Es folgen weitere mathematische Funktionen, welche die Aktivierungsvorgänge unterschiedlicher Muskelkontraktionen beschreiben, sowie das Muskelmodell nach Hill, welches seit vielen Jahren eine geeignete Basis für Forschungen im Bereich der Biomechanik darstellt. Bezüglich der Computergraphik wird ein kurzer Abriss gegeben, wie künstliche Menschen modelliert und animiert werden. Eine Übersicht über verschiedene Methoden zur Repräsentation der Oberfläche von Körpern, sowie deren Deformation unter Berücksichtigung der Einwirkung von Muskeln gibt die State-of-the-Art-Recherche. Neben den Oberflächenmodellen (Starrkörperdeformation, lokale Oberflächen-Operatoren, Skinning, Konturverformung, Deformation durch Keyshapes) werden auch Volumen- (Körperrepräsentation durch Primitive, Iso-Flächen) und Multi-Layer-Modelle (3-Layer-Modell, 4-Layer-Modell) vorgestellt und deren Vor- und Nachteile herausgearbeitet. Eine geeignete Repräsentation der Oberfläche, die Verformungen durch Muskelaktivität einbezieht, wurde durch die Benutzung von Pneus gekoppelt mit der Quaoaring-Technik gefunden. Dieses Verfahren, das auf Beobachtungen aus der Biologie basiert und zur Darstellung von organischen Körpern benutzt wird, ist ausgesprochen passend, um einen Muskel-Sehnen-Apparat graphisch darzustellen, handelt es sich doch hierbei auch um eine organische Struktur. Um die beiden Teilmodelle Simulation und Visualisierung zu verbinden, bietet sich die aus der Biomechanik bekannte Actionline an, die eine imaginäre Kraftlinie im Muskel und der Sehne darstellt. Die bei der Quaoaring-Methode verwendete Centerline, welches die Basis zur Modellierung des volumenkonstanten Körpers ist, kann durch die Kopplung an die physikalischen Vorgänge zu einer solchen Actionline erweitert werden. Veränderungen in der Länge und des Verlaufs der Actionline z. B. durch Muskelkontraktion wirken sich dadurch direkt auf die Form des Muskels aus und die Verbindung zur Visualisierung ist hergestellt.
Konzept und Implementierung eines Systems zur Visualisierung von Zelldifferenzierungssimulationen
(2004)
Ziel der vorliegenden Arbeit ist es, zunächst den Stand der Forschung auf dem Gebiet der Zelldifferenzierungssimulatoren und –visualisierungen zu ermitteln. Davon ausgehend wurde ein eigenes Konzept für ein Visualisierungssystem entwickelt. Es wurde in einer prototypischen Implementierung mit dem Titel D-VISION umgesetzt. Die Recherchearbeiten ergaben, dass in der Forschung bisher hauptsächlich biochemische Reaktions-Netzwerke, die mithilfe von Differentialgleichungen gelöst werden, für Zell-Simulationen benutzt werden. Der dabei verwendete Abstraktionsgrad der repräsentierten Zellen ist zu hoch, um die gestellten Anforderungen einer realistischen 3D-Darstellung der Zellen zu erfüllen. Die grundlegende Idee, die Zelldifferenzierung aufgrund ihrer Genexpression also der in den Zellen vorhandenen Substanzen zu beschreiben, wurde als Basis für das Konzept für D-VISION verwendet. Die Daten, die visualisiert werden sollen, sind die Zellen selbst, die Substanzen, die in der Zelle vorhanden sind, Substanzen an der Zellhülle und die Gene, die in einer Zelle aktiv sind. Die Visualisierung wird durch Darstellung von aufeinander folgenden Standbildern vorgenommen, in denen navigiert werden kann. Zellen werden in Form von Kugeln repräsentiert, die, um eine realistischere Ansicht zu erreichen, so deformiert werden, dass sich die Kugeloberflächen aneinander angleichen. Die Deformation bietet nicht nur in der Ansicht von außen ein natürliches Bild. Auch die Möglichkeit, ein Schnittbild durch den Zellhaufen zu erzeugen, ergibt durch die Deformation eine mit realen Mikroskopieaufnahmen vergleichbare Darstellung. Ein solches zweidimensionales Schnittbild kann durch Verschieben der Schnittebene eine stufenlose Fahrt durch die Schichten des simulierten Zellhaufens zeigen. Neben den Zellen selbst, liegt ein besonderes Augenmerk auf der Darstellung von Substanzkonzentrationen. Sie werden durch kleine Objekte (Tiny Cubes) dargestellt. Allerdings unterscheidet sich ihr Einsatz von der bisher verbreiteten Methode, volumetrische Daten durch Farbskalen zu repräsentieren. Sie geben die Stoffmengen allein durch ihre Anzahl wieder. Um Zusammenhänge mit der Zelldifferenzierung erkennbar zu machen, können bis zu drei verschiedene Stoffe gleichzeitig angezeigt werden. Der Benutzer hat die Möglichkeit, Regeln bezüglich des Zustandes von Zellen zu formulieren. Die so definierten Zellklassen, fassen Zellen gleichen Typs zusammen und ermöglichen so die Darstellung von Zelldifferenzierung. D-VISION wurde konzipiert, um auch mit Simulatoren zusammen zu arbeiten, die Grid Computing für ihre Berechnungen nutzen. Ein separater Datenaufbereiter soll die Simulationsdaten verwalten. Der entwickelte Prototyp ist flexibel genug, um auch mit einfacheren Simulatoren zusammenzuarbeiten. Auf welchem Weg die visualisierten Daten gewonnen werden, spielt keine Rolle. Auch reine Messwerte, können zu guten Bildern führen.
Die vorliegende Diplomarbeit lässt sich dem Gebiet der Terahertz-Physik (THz-Physik) zuordnen, also dem Gebiet der Physik, das sich mit der Erzeugung und Detektion von Ferninfrarotstrahlung beschäftigt. THz-Strahlung stellt dabei die Verbindung zwischen den elektromagnetischen Mikrowellen und den Wellen des infraroten Frequenzbereiches dar. Damit umfasst der THz-Bereich Frequenzen von etwa 100 GHz bis zu 100 THz. Die Forschung, die sich mit diesem Frequenzbereich beschäftigt, ist mittlerweile stark differenziert. Dabei geht es auf der einen Seite um die Entwicklung neuer bzw. die Weiterentwicklung und Optimierung bestehender THz-Erzeugungs- und Detektionsverfahren, auf der anderen Seite geht es um die Frage nach den möglichen Anwendungsgebieten für die entwickelten THz-Techniken. Entwickelt werden sowohl gepulste wie auch Dauerstrich-THz-Systeme, die auf einer Vielzahl verschiedener physikalischer Emissionsprozesse basieren. Die Anwendungsseite der THz-Forschung umfasst Gebiete wie die Spektroskopie, d.h. die Materialcharakterisierung und -untersuchung, aber auch komplexe biomedizinische Untersuchungsverfahren, wie z.B. die Krebsdiagnostik in der Onkologie. In der Bandbreite der weltweiten THz-Aktivitäten befindet sich diese Arbeit sowohl im Bereich der Entwicklung von THz-Techniken als auch in dem eher anwendungsbezogenen Bereich: Zunächst werden im zweiten Kapitel die verwendeten THz-Techniken und Messaufbauten vorgestellt, ebenso wie deren Funktionsweisen und speziellen Eigenschaften. Das dritte Kapitel beschäftigt sich mit der experimentellen Untersuchung von großflächigen THz-Emittern in gepulsten Lasersystemen. Diese weisen gegenüber den häufig verwendeten punktförmigen THz-Emittern einige grundlegende Unterschiede auf. Diese Unterschiede sollen zunächst durch die in das Kapitel einführenden theoretischen Grundlagen herausgearbeitet und danach anhand eines elektrooptischen Emitters und eines elektrisch vorgespannten Halbleiteremitters überprüft werden. In den folgenden Kapiteln wendet sich der Fokus dann mehr der Anwendung von THz-Strahlung zu. Dazu finden im vierten Kapitel Überlegungen und Experimente zu der Charakterisierung von, zunächst anorganischen, mehrschichtigen Systemen auf der Basis von Halbleiterstrukturen statt, die mit einem Ausblick auf eine biomedizinische Anwendung der THz-Strahlung, bei der Untersuchung von Zähnen, abgeschlossen werden. Im fünften Kapitel soll ein Silizium-Paraffin-Gemisch auf seine Stoffigenschaften untersucht werden. Für dieses Gemisch lassen sich die Stoffeigenschaften im THz-Bereich mittels des Mischungsverhältnisses der beiden Ausgangsmaterialien anpassen. Mögliche Anwendungen für ein solches Material sind indexangepasste Füllungen von Zwischenräumen, um störende Reflexionen an den jeweiligen Grenzflächen zu vermeiden; so wie die Konstruktion von Antireflexionsschichten für THz-Optiken. Beide Anwendungen werden in Form von Experimenten vorgestellt. Abschließend werden alle Ergebnisse in einem Fazit zusammengefasst, und es erfolgt ein Ausblick auf weitere Untersuchungen.
In Publikationen zur Frauenliteratur der Weimarer Zeit finden sich, direkt oder mittelbar formuliert, zwei Thesen: Dass zum einen die politisch engagierte Frau in den Romanen eine selten anzutreffende Figur sei und dass zum anderen die Schriftstellerinnen jener Zeit sich politisch eher rückwärtsgewandt verhalten und geäußert hätten. In einer differenzierten Untersuchung wird mit einer Fülle von Beispielen belegt, dass tatsächlich aber vom Ersten Weltkrieg bis zum Ende der Republik zahlreiche Schriftstellerinnen die politischen Vorkommnisse beobachteten, direkt kommentierten oder literarisch ausgestalteten. Den Begriff „rückwärts gewandt“ problematisierend wird erläutert, dass diese Einstufung weder ohne weiteres bestätigt noch verneint werden kann, da Wertbegriffe wie „fortschrittlich“ oder „reaktionär“ nicht eindeutig und zweifelsfrei definiert werden können.
Das Ende des Kalten Krieges hat die Sicherheitslandschaft in Europa nachhaltig verändert. Die Auflösung von mehr oder weniger festen politischen Strukturen und der sprunghafte Anstieg der Zahl außenpolitischer Akteure führten zu einer deutlichen Schwächung der politischen Stabilität in vielen postkommunistischen Ländern. Die neue Weltordnung übte einen erheblichen Druck auf die westeuropäischen Sicherheitsallianzen wie NATO und EU aus, neue Verfahren der Entscheidungsfindung und des Krisenmanagements zu entwickeln. War die Gefahr des großen Krieges dramatisch zurückgegangen, erweiterte sich das Spektrum potentieller Gewaltkonflikte zunächst umso stärker. Angesichts dieser Verschiebungen ist im europäischen Raum in den 1990-er Jahren die Einsicht gewachsen, dass Sicherheit und Stabilität in Europa immer stärker auf internationaler Kooperation beruhen. Der Gedanke der Kooperation ist sogar zu einem bestimmenden Merkmal der praktischen Umsetzung europäischer Sicherheitspolitik geworden (Czempiel 1998a: 13). ...
Das Thema der vorliegenden Arbeit war die molekulargenetische Charakterisierung der Funktion der Glukosesensoren Snf3 und Rgt2 in der Hefe S. cerevisiae. Snf3 und Rgt2 gehören zur Familie der Hexosetransporter. Sie unterscheiden sich von ihnen jedoch in ihrer Funktion als Glukosesensoren wie auch durch ihre ungewöhnlich langen Cterminalen Domänen. Snf3 und Rgt2 sind integrale Membranproteine, die als Reaktion auf extrazelluläre Glukose Signale auslösen, die zur Expression bestimmter Hexosetransporter führt. Einige Komponenten, die an der Signaltranduktion beteiligt sind, wurden bereits identifiziert. Jedoch ist der genaue Mechanismus, der zur Expression der Hexostransporter führt, noch nicht vollständig aufgeklärt. Im ersten Teil dieser Arbeit wurden die Proteine Snf3, Rgt2, Mth1, Std1 und Rgt1 auf direkte Interaktionen untereinander getestet, um Einblicke in den molekularen Mechanismus der Signaltransduktion zu erhalten. Desweiteren sollte festgestellt werden, ob die Protein-Wechselwirkungen von der C-Quelle abhängig sind. Es konnte gezeigt werden, dass zwischen den Membranproteinen Rgt2 bzw. Snf3 und den löslichen Proteinen Mth1 bzw. Std1 Interaktionen in Abhängigkeit von Glukose stattfanden. Diese Ergebnisse unterstützen das von Moriya und Johnston aufgestellte, gegenwärtige Modell für eine glukoseinduzierte HXT Genexpression. Im zweiten Teil dieser Arbeit wurde geprüft, ob sich aus dem Glukosesensor Snf3 durch eine Aminosäuresubstitution ein bifunktionaler Sensor für Glukose und Galaktose erzeugen läßt. Dazu wurden die für den Galaktosetransport verantwortlichen Aminosäuren in den homologen Positionen von Snf3 ausgetauscht. Die Bestimmungen der Regulation des Snf3-kontrollierten HXT7 Promotors ergaben, dass das mutierte Snf3 Protein, wie das Wildtyp-Snf3 Protein, eine normale Glukosesensorfunktion ausübt aber keine Galaktosesensorfunktion vorzeigt.
Massenmedien sind als Teil unserer Alltagswelt zu Anbietern sozialer Handlungsmuster geworden. Ihr Anteil an der Identitätsentwicklung wird zwar je nach Standpunkt unterschiedlich eingeschätzt, ihre grundsätzliche Bedeutung für die Sozialisation der Individuen ist aber unbestritten. Die Sozialwissenschaften beziehen in ihre Forschungen und ihr Erkenntnisinteresse daher den Faktor "Medien" immer häufiger mit ein. ...
Ziel: Anliegen des Kooperationsprojektes der Klinik für Nephrologie und der Klinik für Psychosomatische Medizin und Psychotherapie ist die internistische und eine umfassende psychologische Untersuchung von152 Lebendnierenspendern, die ihre Niere zwischen 1973 und 2001 in der Universitätsklinik Frankfurt am Main spendeten. Im Rahmen dieser Studie werden aus der oben genannten Arbeitsgruppe heraus, mehrere Arbeiten und Publikationen entstehen. Ziel der vorliegenden Arbeit ist die Untersuchung der 152 Frankfurter Lebendnierenspender in Bezug auf psychosomatische und psychosoziale Aspekte des Erlebens und der Verarbeitung der Lebendnierentransplantation und ihrer Folgen. In der bisherigen empirischen Forschung zu psychischen und psychosomatischen Folgen einer Lebendnierentransplantation wurden beim Spender eher wenige und wenn, dann im Ausmaß begrenzte psychische Komplikationen berichtet. In der Regel sind die psychische Verarbeitung sowie die psycho-sozialen Auswirkungen einer Lebendnierentransplantation insgesamt positiv zu bewerten.
Methode: N= 152 Lebendnierenspender werden internistisch und psychologisch untersucht. Die psychologische Untersuchung verwendet ein breites Spektrum von Erhebungsmethoden. Neben vier standardisierten testpsychologischen Fragebögen wird ein semistrukturiertes ca. einstündiges Interview mit den Spendern geführt. Die vorliegende Arbeit befasst sich gesondert mit dem halbstrukturierten Interview. Die Erlebnisberichte der Spender werden mittels eines eigens erstellten Kategoriensystems ausgewertet.
Ergebnisse: Abschluss der Datenerhebung der vorliegenden Arbeit ist der 15. Februar 2002. Sieben Spender verstarben vor Beginn der Studie, jedoch nicht an den Folgen der Einnierigkeit.Drei Spender waren nicht auffindbar. 19 Spender wurden wegen Wohnsitz im Ausland und/oder Mangel an deutschen Sprachkenntnissen vom psychologischen Interview ausgeschlossen. Von den 123 in Frage kommenden Untersuchungsteilnehmern haben wir mit 100 Spendern Interviews führen können, was einer vergleichsweise hohen Rücklaufquote von 81,3% entspricht. Die meisten Spender trafen ihre Entscheidung sofort (84%) und bereuten ihre Spende im Nachhinein nicht.
Nahezu alle Spender (97%) würden die Entscheidung ihre Niere spenden zu wollen heute wieder treffen. Die meisten Spender bewerten die Spende als ein positives Ereignis vergleichbar mit einer Lebensrettung oder einer Geburt. Einige Spender berichten durch die Spende eine Steigerung ihres Selbstwertgefühls und Selbstbewusstseins erfahren zu haben. 75% der Spender schildern durch die Spende keine Veränderung in der Beziehung zu dem Empfänger erlebt zu haben, bei 23% habe sich die Beziehung verbessert. 3% geben an, die Beziehung zu bestimmten Familienmitgliedern sei nach der Spende schlechter geworden. 3% der Spender bereuen gespendet zu haben. 8% empfanden Druck im Entscheidungsprozess. 5% hatten starke Angst vor der Operation oder dem Leben mit einer Niere. Insgesamt 6% der Spender berichten über langfristige psychische Komplikationen (Verdacht auf: 2% Anpassungsstörung, 2% Angststörung, 1% Depression, 1% Burnout). 11% wünschen sich eine professionelle psychologische Vor- und/oder Nachbetreuung.
Diskussion: Die Ergebnisse der Untersuchung weisen insgesamt auf eine langfristig positive psychische Verarbeitung, sowie auf positive psychosoziale Auswirkungen einer Lebendnierentransplantation hin. Es gibt eine inhomogene Subgruppe mit kleiner Personenanzahl, die negative Erfahrungen mit der Lebendnierenspende machte. Dieser wird gesondert Beachtung geschenkt und die Bereitstellung von adäquaten Beratungs- und Hilfsangeboten diskutiert.