Refine
Year of publication
Document Type
- Doctoral Thesis (5728) (remove)
Language
- German (3634)
- English (2065)
- French (9)
- Latin (5)
- Spanish (5)
- Portuguese (4)
- Italian (3)
- Multiple languages (2)
- mis (1)
Is part of the Bibliography
- no (5728) (remove)
Keywords
- Deutschland (15)
- Gentherapie (14)
- HIV (13)
- Apoptosis (12)
- Membranproteine (12)
- NMR-Spektroskopie (11)
- RNA (11)
- RNS (10)
- Schmerz (10)
- ALICE (9)
Institute
- Medizin (1525)
- Biowissenschaften (833)
- Biochemie und Chemie (729)
- Physik (596)
- Pharmazie (329)
- Biochemie, Chemie und Pharmazie (310)
- Geowissenschaften (139)
- Neuere Philologien (115)
- Gesellschaftswissenschaften (110)
- Psychologie (97)
Untersucht wurde die spätpleistozäne und holozäne Diatomeenflora aus drei Teilgebieten der westlichen Ostsee, dem Kattegat, der Kieler Bucht und der Pommerschen Bucht. Die Ergebnisse bestätigen die hervorragende Eignung der Diatomeen als Indikatororganismen in der Paläoökologie. Anhand der Mikroflora war es möglich, die wechselhafte Geschichte der verschiedenen Ostsee-Teilgebiete detailliert nachzuvollziehen. Es konnten Lage und Ausdehnung der Paläogewässer während der verschiedenen Stadien der Ostsee-Entwicklung sowie verschiedene abiotische Faktoren der Paläoumwelt - Salinität, pH-Wert, Trophie, Temperatur und Wassertiefe - rekonstruiert werden. Zur Rekonstruktion von Salinität, Trophie und pH-Wert kamen erstmals verschiedene Indikationssysteme - der Halobienindex nach ZIEMANN (1971), das Trophie-Indikationssystem nach HOFMANN (1994) und die pH-Rekonstruktion nach ARZET (1987) - zur Anwendung. Kattegat Der Schwerpunkt der Untersuchung lag auf dem südwestlich der Insel Anholt gelegenen Teil des Kattegats. In den 22 Kernprofilen konnten insgesamt 596 Diatomeentaxa registriert werden. In den Ablagerungen des Spätglazials waren im gesamten Untersuchungsgebiet keine silifizierten Mikrofossilien nachweisbar. Die anhand der seismoakustischen Untersuchungen aufgestellte Gliederung der holozänen Sedimente in die Abschnitte Holozän 1 (H1), Holozän 2 (H2) und Holozän 3 (H3) konnte durch die Analyse der Diatomeenfloren bestätigt werden. Die Ablagerungen des Sedimentabschnitts H1 entstanden während einer Transgressionsphase. Das in Alleröd und Jüngerer Dryas trockengefallene Untersuchungsgebiet wurde zu Beginn des Präboreals vollständig transgrediert. Durch das Auftreten halobionter Diatomeentaxa konnte der Beginn der Transgression im Untersuchungsgebiet auf den Anfang des Präboreals und ein Alter von 10.200 Jahren BP datiert werden. Für die Hauptphase der Transgression wurde ein Alter von rund 9.700 bis 9.300 Jahren BP ermittelt. In Übereinstimmung mit den seismoakustischen Befunden und den Ergebnissen der Makrofossil-Analyse konnte der Sedimentabschnitt H2 als Ablagerung aus dem Mündungsgebiet eines Fließgewässers identifiziert und auf ein Alter von rund 9.300 bis 8.300 Jahren BP datiert werden; wahrscheinlich entwässerte der Ancylus-See zumindest zeitweilig über den großen Belt in diesen Abschnitt des Paläokattegats. Die Diatomeenflora indiziert eine überwiegend durch den Einstrom von Süßwasser beeinflusste Paläoumwelt und ein alkalisches und eutrophes Milieu. Das charakteristische Merkmal der Thanathozönosen ist der hohe Anteil an allochthonen Schalen. Die Analyse der autökologischen Präferenzen zeigt, dass durchschnittlich 30 % der Taxa ursprünglich aus anderen Gewässertypen stammen. Mithilfe der Diatomeenflora konnte der Sedimentabschnitt H2 in drei Abschnitte untergliedert werden. Der Abschnitt H2a wurde während der Bildung einer Landzunge abgelagert, die die Mündung des Fließgewässers vom Paläokattegat trennte. Die Thanathozönosen indizieren die zunehmende Beeinflussung durch den Einstrom von Süßwasser. Der Abschnitt H2b wurde vor rund 8.800 Jahren BP deponiert, während die Landzunge ihre größte Ausdehnung und Isolationskraft erreichte. Die Diatomeenflora indiziert die maximale Beeinflussung durch den Zustrom von Süßwasser. Im Sedimentabschnitt H2c indizieren die Thanathozönosen die Verlagerung der Landzunge infolge küstendynamischer Prozesse und eine zunehmende Beeinflussung durch Meerwasser. Der Sedimentabschnitt H3, der während einer erneuten Transgression vor ca. 8.300 Jahren BP deponiert wurde, ist in weiten Bereichen vollständig frei von silifizierten Mikrofossilien. Eine autochthone, aus überwiegend halobionten Taxa zusammengesetzte Diatomeenflora ließ sich lediglich in einem der Kernprofile nachweisen. Das charakteristische Taxon der Transgressionsfloren in den Sedimentabschnitten H1 und H3 ist Paralia sulcata. Typisch sind des Weiteren Actinoptychus senarius, Cymatosira belgica, Dimeregramma minor, Ehrenbergia granulosa und Plagiogramma staurophorum. Kieler Bucht Aus der Kieler Bucht stand ein Kernprofil zur Verfügung. In diesem Profil konnten insgesamt 344 Diatomeentaxa nachgewiesen werden. Die brackischen Ablagerungen entstanden in der Mastogloia-Phase und konnten mithilfe der Diatomeenflora in zwei Abschnitte - Mastogloia 1 (M1) und Mastogloia 2 (M2) - untergliedert werden. Der Sedimentabschnitt M1 wurde deponiert, während das Milieu des Paläogewässers durch sporadische Ingressionen über den Großen Belt beeinflusst wurde. Die Diatomeenflora indiziert einen Paläosalzgehalt von maximal 9 Promille, ein eutrophes und alkalisches Paläomilieu und eine geringe Wassertiefe. Die Veränderungen im Artgefüge der Thanathozönosen innerhalb des Sedimentabschnitts M2 belegen einen kontinuierlichen Anstieg der Salinität um mindestens 8 Promille und das Auftreten starker Strömungen. Die Sedimentation erfolgte während des Übergangs vom brackigen Mastogloia-Stadium zur marinen Littorina-Phase. Mithilfe der Diatomeenflora konnte nachgewiesen werden, dass sich in dem Paläogewässer der Kieler Bucht frühestens vor 7.100 Jahren BP marine Verhältnisse etablierten. Die Flora indiziert einen Anstieg des Paläosalzgehalts auf mindestens 17 und maximal 30 Promille. In Übereinstimmung mit den Ergebnissen der Sedimentanalyse konnten die Ablagerungen der Littorina-Phase anhand der Diatomeenflora in zwei Subzonen - Littorina 1 (L1) und Littorina 2 (L2) - untergliedert werden. Während das Artgefüge in dem Abschnitt L1 auf große Strömungsgeschwindigkeiten während der Sedimentation hinweist, belegt die Flora in dem Abschnitt L2 eine deutliche Abnahme der Strömungsintensität. Pommersche Bucht In den neun Kernprofilen aus der Pommerschen Bucht konnten insgesamt 265 Diatomeentaxa identifiziert werden. In Übereinstimmung mit den Ergebnissen der geologischen Untersuchungen zeigt die Diatomeenflora, dass sich der südliche Abschnitt der Pommerschen Bucht nach dem Rückzug des Eisschildes bis in das Atlantikum hinein unabhängig vom nördlichen Teil entwickelte; erst während der Littorina-Phase wurde auch der südliche Abschnitt transgrediert. Mithilfe der Diatomeenflora wurde belegt, dass sich im Spätglazial vor ca. 12.000 Jahren BP im Süden der Pommerschen Bucht ein alkalischer, meso- bis schwach eutropher Süßwassersee etablierte. Die Thanathozönosen indizieren erhebliche Milieuunterschiede zwischen diesem See und dem Baltischen Eisstausee, der zeitweise den nördlichen Abschnitt der Pommerschen Bucht bedeckte. Im frühen Holozän entwickelte sich im südlichen Abschnitt der Pommerschen Bucht an gleicher Position wie im Spätglazial wiederum ein Süßwassersee, während der nördliche Abschnitt der Pommerschen Bucht vom Ancylus-See bedeckt war. Die Diatomeenfloren belegen, dass sich die Umweltbedingungen in beiden Paläogewässern ähnelten; sowohl im Norden als auch im Süden lag ein alkalisches und überwiegend eutrophes Milieu vor. Der Beginn der Mastogloia-Phase ist durch einen drastischen Wechsel im Artgefüge der Diatomeenflora gekennzeichnet; Taxa mit höherer Salinitätstoleranz, z. B. Epithemia turgida und Diploneis didyma, ersetzten die rein oligohalobe Ancylus-Flora. Die Veränderungen indizieren einen schwachen aber deutlichen Anstieg der Salinität im Norden der Pommerschen Bucht. Das charakteristische Taxon der Littorina-Phase ist die polyhalobe Planktonart Thalassionema nitzschioides. Es indiziert einen Anstieg des Paläosalzgehalts auf mindestens 13 Promille. Des Weiteren belegen die Diatomeen den stetig steigenden Wasserspiegel zu Beginn der Littorina-Phase. Chrysophyceen-Zysten, Chaetoceros-Sporen und die Skelette des Silicoflagellaten Distephanus speculum stellen in der Pommerschen Bucht wichtige Leitfossilien dar. Während Chrysophyceen-Zysten typisch für die Sedimente der Mastogloia-Phase sind, haben Chaetoceros-Sporen und Distephanus speculum charakteristischerweise ihren Verbreitungsschwerpunkt in den Ablagerungen des Littorina-Meers.
Bei der Expression einer Phospholipase A2 aus Soja in Aspergillus oryzae (Probe PL-1007), Trichoderma viride (Probe PL-1008) und Pichia pastoris (Probe PL-1035) wurde neben der erwarteten Phospholipaseaktivität auch eine deutliche Lysophospholipaseaktivität beobachtet. Eine Trennung dieser Aktivitäten war nur mittels einer Free-Flow-Elektrophorese kurzzeitig möglich, bevor sich in jeder Fraktion wieder das ursprüngliche Aktivitätsverhältnis zwischen Phospholipase und Lysophospholipase einstellte. Zur näheren Untersuchung und Charakterisierung dieser Enzymsysteme wurden für einen gaschromatischen Aktivitätstest hochspezifisch substituierte Substrate eingesetzt, die eine parallele Bestimmung der Phospholipase- und Lysophospholipaseaktivitäten ermöglichten. So konnte gezeigt werden, dass nicht in allen Organismen eine Phospholipase A2 exprimiert wird, sondern es in Pichia pastoris (Probe PL-1035) zur Expression einer Phospholipase A1 kommt. Im Falle der Probe PL-1007 konnte die beobachtete Lysophospholipaseaktivität durch Versuche mit veränderten Substratverhältnissen zwischen Lysophospholipase- und Phospholipasesubstrat einem separaten aktiven Zentrum zugeschrieben werden. Durch elektrophoretische Trennungsversuche konnte gezeigt werden, dass es sich nicht nur um separate aktive Zentren, sondern um verschiedene Enzyme handelt. Die Tatsache, dass sich das Aktivitätsverhältnis nach der Trennung selbständig wieder einstellt, lässt das Vorliegen von Faltungsisomeren vermuten. Bezüglich ihrer katalytischen Eigenschaften weisen alle drei Enzymsysteme eine große Ähnlichkeit auf. Sowohl die Phospholipase- wie auch die Lysophospholipaseaktivitäten sind erst ab einer Reaktionstemperatur von über 70°C nicht mehr nachweisbar. Das Aktivitätsmaximum wurde in allen drei Fallen zwischen 45°C und 55°C beobachtet. Auch die pH-Bereiche in denen eine maximale enzymatische Aktivität zu beobachten ist, liegen mit pH 3,6 (PL-1007) bis pH 4,3 (PL-1035) für die Phospholipaseaktivitäten und pH 4,3 (PL-1007 / PL-1008) und pH 4,6 (PL-1035) in ähnlichen Bereichen. Die Aktivität der untersuchten Enzymsysteme zeigt jedoch im beobachteten pH-Bereich von pH 3 bis pH 5 nur eine geringe pH-Abhängigkeit. Deutlichere Unterschiede konnten jedoch für die Substratspezifitäten nachgewiesen werden. Die Phospholipasen A2 zeigen tendenziell höhere Umsätze bei Substraten mit C 12:0 bis C 16:0 Fettsäureresten, während die Phospholipase A1 aus Probe PL-1035 maximale Umsätze bei C 18:0 Fettsäureresten aufweist. Bei allen Enzymproben jedoch bleiben die Umsatzraten der ein- bis mehrfach ungesättigten Fettsäurereste hinter denen der gesättigten zurück. Lediglich bei der Probe PL-1007 sind die Aktivitätsunterschiede zwischen gesättigten und ungesättigten Substraten nicht signifikant. Neben der Untersuchung der katalytischen Eigenschaften konnte im Rahmen dieser Arbeit die in der Literatur mehrfach aufgestellte These der Hemmung der Phospholipaseaktivität in Gegenwart von Uteroglobin bestätigt werden. Ein Hemmungsmechanismus aufgrund direkter Wechselwirkung der Enzyme konnte ausgeschlossen werden. Vielmehr konnte zweifelsfrei bewiesen werden, dass der Hemmungsmechanismus bei den hier eingesetzten Enzymsystemen auf einer Bindung des für die Phospholipasereaktion essentiellen Ca2+ durch das Uteroglobin zurückzuführen ist.
AML1/ETO liegt bei 12% aller Patienten mit einer AML vor. Bei der Translokation t(8;21) kommt es zur Fusion der DNA-Bindungsdomäne des Transkriptionsfaktors AML1 mit dem starken transkriptionellen Repressor ETO. Über den ETO-Anteil wird einen aktiver Korepressorkomplex rekrutiert, der zur transkriptionellen Repression AML1 relevanter Zielgene führt. Die dysregulierte Genexpression führt in AML1/ETO-transformierten Zellen möglicherweise zusätzlich zur Aktivierung anderer Signaltransduktionswege. Untersuchungen in der hämatopoetischen Zellinie TF-1 hatten diesbezüglich gezeigt, daß die Expression von AML1/ETO zu einer verlängerten STAT5-Aktivität führte. Durch ein synthetisches Phosphopeptid konnte die Proliferation AML1/ETO-transformierter Zellen, nicht aber normaler CD34+-Zellen gehemmt werden. Im Rahmen der vorliegenden Arbeit wurde PLCgamma als ein Zielmolekül des Phosphopeptids identifiziert. Weiterführende Untersuchungen hatten gezeigt, daß PLCgamma nicht zur Transformation AML1/ETOexprimierender Zellen beiträgt. Die Synthese des Phosphopeptids bereitete aufgrund der Phosphorylierung Schwierigkeiten, so daß die Untersuchungen dadurch eingeschränkt waren. Ziel war es dennoch, Peptide identifizieren zu können, die in der Lage sind die transformierenden Eigenschaften in AML1/ETO-exprimierenden Zellen spezifisch zu blockieren. Hierfür wurden zwei Selektionssysteme in einer humanen Zellinie aufgebaut, die es ermöglichen sollen ETO-inhibierende Peptide aus einer Peptid-Bibliothek identifizieren zu können. Das erste Selektionssystem basierte auf der Produktion viraler Partikel, die von einer Gal4-ETO-regulierten VSV-G-Expression abhängig ist. Unter anderem bestätigte die Kompetition von Gal4-ETO durch die Koexpression der Gal4-DNA-bindenden- Domäne, daß die drastisch verminderte Virusproduktion allein auf eine ETO-vermittelte transkriptionelle Repression des VSV-G-Hüllproteins zurückzuführen war. Für die Durchmusterung einer Peptid-Bibliothek war der Hintergrund an viralen Partikeln (1.5x10 hoch 4 TU/ml), die trotz der Gal4-ETO-Expression produziert wurden, allerdings zu hoch. Im Gegensatz dazu verfügt das zweite Selektionssystem über ein tkneo- Reporterkonstrukt, dessen Expression ebenfalls durch Gal4-ETO reguliert wird. Es wurden zwei Zellklone etabliert (#61, #157), bei welchen die ETO-vermittelte Repression des tkneo-Fusionsproteins durch Butyrat und durch die Koexpression der Gal4-DNA-bindenden- Domäne spezifisch aufgehoben werden konnte. Neben dem gewünschten Wachstumverhalten der Klone unter den verschiedenen Selektionsbedingungen (ETO "on": G418-sensitiv; GCV-resistent; ETO "off": G418-resistent; GCV-sensitiv) wurde die stabile Integration des tkneo-Reporterkonstrukts und des Gal4-ETO-Plasmids in einer semiquantitaiven PCR nachgewiesen. Es wurde zum ersten Mal ein Selektionssystem etabliert, welches den Mechanismus der AML1/ETO-vermittelten Repression eines Gens genau wider spiegelt und die Selektion ETO-inhibierender Peptide aus einer Peptid- Bibliothek unter physiologischen Bedingungen ermöglicht.
Resistive Plate Chambers (RPCs) are gaseous parallel plate avalanche detectors that implement electrodes made from a material with a high volume resistivity between 10 high 7 and 10 high 12 omega cm. Large area RPCs with 2mm single gaps operated in avalanche mode provide above 98% efficiency and a time resolution of around 1 ns up to a flux of several kHz/cm high 2. These Trigger RPCs will, as an example, equip the muon detector system of the ATLAS experiment at CERN on an area of 3650 m high 2 and with 355.000 independent read out channels. Timing RPCs with a gas gap of 0.2 to 0.3mm are widely used in multi gap configurations and provide 99% efficiency and time resolution down to 50 ps. While their performance is comparable to existing scintillator-based Time-Of-Flight (TOF) technology, Timing RPCs feature a significantly, up to an order of magnitude, lower price per channel. They will for example equip the 176 m high 2 TOF barrel of the ALICE experiment at CERN with 160.000 independent read out cells. RPCs were originally operated in streamer mode providing large signals which simplifies readout electronics and gap uniformity requirements. However, high rate applications and detector aging issues made the operation in avalanche mode popular. This was also facilitated by the development of new highly quenching C2F4H2-based gas mixtures with small contents of SF6. While the physics of streamers is difficult to study, the avalanche mode opened the possibility for a detailed simulation of the detector physics processes in RPCs. Even though RPCs were introduced in the early eighties and have been (will be) used in experiments, there are still disagreements about the explanation of several aspects of the RPC performance. The high efficiency of single gap RPCs would require a large ionization density of the used gases, which according to some authors contradicts measurements. Even in the case of a large ionization density the gas gain has to be extremely large, in order to arrive at the observed RPC efficiency. This raises other questions: A very strong space charge effect is required to explain the observed small avalanche charges around 1 pC. Doubts have been raised whether an avalanche can progress under such extreme conditions without developing into a streamer. To overcome these difficulties, other processes, like the emission of an electron from the cathode, were suggested. Moreover, the shape of measured charge spectra of single gap RPCs differs largely from what is expected from the statistics of the primary ionization and the avalanche multiplication. In this thesis we discuss the detector physics processes of RPCs, from the primary ionization and the avalanche statistics to the signal induction and the read out electronics. We present Monte-Carlo simulation procedures that implement the described processes. While the fundament of the described model and some results were already published elsewhere [1], the subject of this thesis is the implementation of the space charge effect. We present analytic formulas for the electrostatic potential of a point charge in the gas gap of an RPC. These formulas were developed in collaboration with the University of Graz [2] and were published in [3, 4]. The simulation model presented in [1] is completed by the dynamic calculation of the space charge field using these formulas. Since the gas parameters like drift velocity and the Townsend and attachment coefficients depend on the electric field, they are calculated dynamically as well. The functional dependence of these parameters on the field is obtained with the simulation programs MAGBOLTZ and IMONTE. For the primary ionization parameters, we use the values that are predicted by the program HEED. While the described procedure only simulates the longitudinal avalanche development towards the anode of the RPC, we also present more dimensional models that allow a careful study of the transverse repulsive and attractive forces of the space charge fields, and of the consequences for the avalanche propagation. We shall show that the efficiencies of single gap Timing RPCs is indeed explained by the high primary ionization density (about 9.5 /cm as predicted by HEED) and a large effective Townsend coefficient (around 113 /mm as predicted by IMONTE). We show that the space charge field reaches the same magnitude as the applied electric field in avalanches at large gas gain. This strong space charge effect effectively suppresses large values for the avalanche charges. The shape of the simulated charge spectra is very similar to the measurements. Also the simulated average charges are close to the experimental results. RPCs are operated in a strong space charge regime over a large range of applied voltage, contrary to wire chambers. We apply only standard detector physics simulations to RPCs. The performance of Timing and Trigger RPCs is well reproduced by our simulations. The results concerning the space charge effect were presented and discussed at the 'RPC 2001' workshop [5] and on the '2002 NSS/MIC' conference [6].
In summary, the cooled heavy-ion beams of the ESR storage ring offer excellent experimental conditions for a precise study of the effects of QED in the groundstate of high-Z one- and two-electron ions. This has been demonstrated within the series of experiments conducted at the electron cooler device as well as at the gasjet target. In this work we have used a recently developed experimental approach to obtain the first direct measurement of the two-electron contributions to the ground state binding energy of helium-like uranium. By employing our method, all one-electron contributions to the binding energy such as finite-nuclear size corrections and the one-electron self energy cancel out completely. Note, this is a distinctive feature of this particular kind of QED test and is in contrast to all other tests of bound state QED for high-Z ions such as 1s Lamb shift (in one-electron systems), g-factor of bound electrons, or hyperfine splitting. Compared to former investigations conducted at the superEBIT in Livermore we could already substantially improve the statistical accuracy and extend studies to the higher-Z regime. Moreover, our result has reached a sensitivity on specific two-electron QED contributions. Our value agrees with the theoretical predictions within the experimental uncertainty. Similar to the superEBIT experiment possible sources of systematic errors are essentially eliminated and the final result is limited only by counting statistics. For the case of the 1s Lamb shift in hydrogen-like uranium, the achieved accuracy of +- 4.2 eV is a substantial improvement by a factor of 3 compared to the most precise value up to now [44] (see Fig. 5.6). Our result already provides a test of the first-order QED contributions at the 1.5% level and only a slight improvement is required in order to achieve a sensitivity to QED contributions beyond first-order SE and VP.
Die exzessive Bildung und Ablagerung von aggregiertem Amyloid beta-Peptid im Gehirn von Alzheimer Patienten wird allgemein als zentrales Ereignis im Rahmen des Neurodegenerationsprozesses der Alzheimer Demenz betrachtet. Der Amyloid-Stoffwechsel ist dabei in sehr vielfältiger Weise mit dem zellulären Cholesterol-Stoffwechsel verknüpft. Hohe Cholesterolspiegel in spezifischen Membrandomänen wie Lipid-Rafts forcieren sehr wahrscheinlich die zelluläre Produktion als auch die Fibrillogenese von Amyloid beta-Peptid. Umgekehrt schützt ein hoher Membrancholesterol-Gehalt aber auch vor den toxischen Effekten von aggregiertem Aß. Durch Modulation des Cholesterolgehalts von Hirnmembranen mit MßCD und seinen Cholesterol-Komplexverbindungen in vitro sowie mit Statinen in vivo konnten wir zeigen, daß beide Substanzklassen verschiedene membranäre Cholesterol-Pools beeinflussen, die gleichfalls an der Vermittlung zytotoxischer Amyloid- Effekte in unterschiedlicher Weise beteiligt sind. Wir konnten weiterhin erstmals nachweisen, daß sowohl hydrophile als auch lipophile Statine in vivo einen unmittelbaren Einfluß auf die zerebrale Membrancholesterol-Homöostase nehmen und dabei vermutlich membranäre Raft- Strukturen im exofacialen Membranblatt verändern, die favorisierte Orte der zellulären APP-Prozessierung bzw- Amyloidbildung sind. Aus diesem Wirkmechanismus leitet sich womöglich der für bestimmte Statine berichtete neuroprotektive Effekt bei AD in retrospektiven Humanstudien ab, der sich durch eine reine Cholesterolsenkung in spezifischen Bereichen des ZNS nicht erklären läßt. Ob einzelne Statine in ausreichender Konzentration direkt ins Gehirn vordringen und dort teilweise Isoprenoid-abhängige Signalkaskaden induzieren, oder ihre zentralen Effekte indirekt an der BHS vermitteln, ist unklar. Unsere Daten stützen nachhaltig die Hypothese, daß die sporadische Alzheimer Demenz vergleichbar der Niemann-Pick Typ C-Krankheit auf einer Dysregulation der zellulären Cholesterolverteilung beruht, die durch spezifische Risikofaktoren wie das Alter oder den apoE4-Genotyp gefördert wird. Substanzen, die gezielt in Mechanismen der fehlgesteuerten zellulären Lipid-Distribution und Kompartimentierung eingreifen, sind somit potentielle Wirkstoffe in der Therapie der Alzheimer Demenz.
The mechanism of peptide transport has been studied on two different ABC transporters of S. cerevisiae. Thereby, the aim of this PhD thesis was to characterise the transporter function on molecular level and shed light on the physiological role of these transporters. The ABC gene YLL048 encodes a novel intracellular transporter translocating peptides from the cytosol to the lumen of the ER. Deletion of the gene resulted in loss of peptide transport activity. The transport activity was fully restored after transformation of the deletion mutant by plasmid-encoded YLL048. Studying the substrate specificity using randomized peptide libraries it was demonstrated that peptides of the size from 6 to 56 amino acids are recognized. So far, no upper limit of the substrate size was obtained. Introduction of D-amino acids in various positions of a nonamer peptide did not impair transport activity. The physiological function of YLL048p is not well understood. The gene product is not essential for cell viability as the deletion mutant did not show any growth phenotype. To examine the possibility that YLL048 encoded protein is part of a quality control of yeast cells involved in the unfolded protein response (UPR), upregulation of YLL048 transcription by heat shock and stress conditions were investigated. We could not observe an influence of stress factors on YLL048 mRNA level. Upregulation of gene expression by the transcription factors Pdr1p and Pdr3p was excluded. The ABC transporter Mdl1p has been identified as peptide transporter of the inner mitochondrial membrane. This protein is required for the export of peptides with the size of 6 to 21 amino acids from the matrix into the intermembrane space. These peptides are generated by m-AAA proteases degrading non-assembled or missfolded membrane proteins. In order to understand the transport mechanism in detail, Mdl1p was expressed in S. cerevisiae and E. coli. Partially enriched protein was reconstituted into liposomes and was active in ATP binding. The association of the NBDs has been described as a central step of the ATPase cycle of ABC transporters, but it is still controversial how both motor domains cooperate and coordinate ATP hydrolysis. To address this question, the Mdl1p-NBD was overexpressed in E. coli and purified to homogeneity. The isolated NBD was active in ATP binding and hydrolysis with a turnover of 0.5 ATP per min and a Km value of 0.2 mM. Isolated NBDs did not show cooperativity in ATPase activity. However, the ATPase activity was observed to be non-linearly dependent on protein concentration suggesting the active form of this enzyme is not a monomer. Very importantly, for the first time an ATP-induced dimer was observed after trapping the NBD by ortho-vanadate or BeFx. The nucleotide composition of the trapped intermediate state was determined and two ADP molecules were simultaneously bound per dimer. An ATP-induced dimer of the ATPase inactive mutant (E559Q) was observed already in the absence of ATPase inhibitor. The E599Q dimer contained two ATP molecules in the absence of Mg2+ at 4°C. Prolonged incubation at 30°C in the presence of Mg2+ induced a stable dimer in which one ATP and ADP molecule were trapped at the same time. Based on these experiments, a new cycle for ATPase activity of ABC transporters was proposed. Binding of ATP to two NBD monomers induces dimerization. Both nucleotides are hydrolysed sequentially. During the hydrolysis cycle the nucleotides cannot be released from the dimer. After hydrolysis of two ATP molecules the domains dissociate and start a new cycle.
Die Entwicklung der Renormierungsgruppen-Technik, die in ihrer feldtheoretischen Version auf Ideen von Stückelberg und Petermann und in der Festkörperphysik auf K.G. Wilson zurückgeht, hat wesentliche Einsichten in die Natur physikalischer Systeme geliefert. Insbesondere das Konzept der so genannten Universalitätsklassen erhellt, warum Systeme, die durch scheinbar sehr verschiedene Hamilton-Operatoren beschrieben werden, doch im Wesentlichen die selbe (Niederenergie-)Physik zeigen. Ein weiterer Grund für den Erfolg dieser Methode liegt darin begründet, dass sie in systematischer Weise unendlich viele Feynman-Diagramme aufsummiert und somit über konventionelle Störungstheorie hinaus geht. Dies spielt in der Festkörperphysik vor allem dann eine wichtige Rolle, wenn das vorliegende physikalische System stark korreliert ist. Entsprechend der Vielzahl von Anwendungsmöglichkeiten hat sich in den vergangenen Jahrzehnten eine große Bandbreite verschiedener Formulierungen der Renormierungsgruppen-Technik ergeben. Eine davon ist die sogenannte funktionale Renormierungsgruppe, die auf Wegner und Houghton zurück geht und die auch in der vorliegenden Arbeit benutzt und weiter entwickelt wurde. Wir haben hier insbesondere auf die Einbeziehung der wichtigen Reskalierungsschritte wertgelegt. Als erstes Anwendungsgebiet des neu entwickelten Formalismus wurden stark korrelierte Elektronen in einer Raumdimension ausgewählt und hier insbesondere ein Modell, das als Tomonaga-Luttinger-Modell (TLM) bezeichnet wird. Im TLM wechselwirken Elektronen mit einer strikt linearen Energiedispersion ausschließlich über so genannte Vorwärtsstreu-Prozesse. Aufgrund der Linearisierung der Energiedispersion nahe der Fermipunkte ergibt sich ein Modell, das z.B. mit Hilfe der so genannten Bosonisierungs-Technik exakt gelöst werden kann. Hauptziel der vorliegenden Arbeit ist es, die bekannte Spektralfunktion dieses Modells unter Verwendung des Renormierungsgruppen-Formalismus zu reproduzieren. Gegenüber der bisherigen Implementierung der Renormierungsgruppe, bei der lediglich der Fluss einer endlichen Anzahl von Kopplungskonstanten betrachtet wird, stellt die Berechnung des Flusses ganzer Korrelationsfunktionen eine enorme Erweiterung dar. Der Erfolg dieser Herangehensweise im TLM bestärkt die Hoffnung, dass es in Zukunft auch möglich sein wird, die Spektralfunktionen anderer Modelle mit dieser Methode zu berechnen, bei denen herkömmliche Techniken versagen.
Die Lösung unbekannter Strukturen aus Pulverbeugungsdaten ist keineswegs eine Routineanwendung, und es steht noch einiges an Arbeit an, um die vorhandenen Methoden so weit zu automatisieren, daß sie von Nichtspezialisten, auch solchen mit kristallographischen Kenntnissen, direkt verwendet werden können. In dieser Arbeit konnte überzeugend dargelegt werden, daß die Anwendung des älteren Verfahrens der Fragmentsuche eine sehr gute Möglichkeit bietet, den Schwierigkeiten der Strukturlösung aus Pulverdaten erfolgreich zu begegnen. Durch graduelle Steigerung des Schwierigkeitsgrads bzw. der Komplexität der Strukturlösung von der anfänglichen Verwendung simulierter Pulverbeugungsdaten bekannter Strukturen über die Messung von Pulverbeugungsdiagrammen bekannter Strukturen bis hin zur Lösung unbekannter Strukturen konnte die sinnvolle Anwendbarkeit des Fragmentsuchprogramms PATSEE zweifelsfrei belegt werden. Die in den einzelnen Stadien der Untersuchungen diskutierten Einflüsse, wie die benötigte minimale Fragmentgröße oder die Fragmentqualität, lieferten entscheidende Hinweise für das Aufstellen einer einfachen Strategie zur Strukturlösung aus Pulverdaten mit PATSEE. So konnte gezeigt werden, daß für einen sinnvollen Strukturlösungsversuch in der Regel mehr als 50% des relativen Streubeitrags aller Atome in der asymmetrischen Einheit benötigt werden und daß sich diese Grenze nur durch die Verwendung qualitativ hochwertiger Pulverbeugungsdaten, wie sie an modernen Synchrotronringen erhalten werden können, durchbrechen läßt. Auch die Variation eines Torsionsfreiheitsgrads im Zuge der Rotationssuche kann entscheidende Vorteile verschaffen, wenn zwei für sich genommen zu kleine starre Bereiche miteinander kombiniert werden. Außerdem konnte die prinzipielle Verwendbarkeit sowohl mittels Kraftfeldmethoden berechneter als auch experimentell bestimmter Fragmente, wie sie in der CSD in großer Zahl bereitstehen, bestätigt werden. Die in PATSEE verwendete Vielzahl an Gütekriterien zur Beurteilung einer Lösung konnte auch im Falle von Pulverdaten im wesentlichen überzeugen. Zwar ist die Diskriminierung zwischen richtigen und falschen Lösungen bei weitem nicht so eindeutig in bezug auf alle Gütekriterien, aber zumindest wird eine sehr gute Bewertung hinsichtlich von CFOM - dem Gütekriterium, nach dem die Lösungen sortiert werden - und den beiden R-Werten RE(1) und RE(2) erreicht. Als etwas problematisch hat sich die Rotationssuche erwiesen, die nur auf der Beurteilung eines einzigen Gütekriteriums beruht. Da aber gerade der Rotationssuche als erstem Schritt der Fragmentsuche eine wichtige Bedeutung zukommt, ist der Anwender zu großer Sorgfalt bei deren Durchführung verpflichtet. Eine Grenze für Strukturlösungsversuche mit PATSEE stellen derzeit Strukturen mit mehreren Molekülen in der asymmetrischen Einheit dar. Da im einfachsten Fall (Z'= 2) bereits ein komplettes Molekül als Suchfragment einen relativen Streubeitrag von unter 50% aufweist, wird eine erfolgreiche Orientierung und Positionierung mit PATSEE nur noch für hervorragende Datensätze möglich sein. Für noch schwierigere Fälle (Z'> 2) oder für Verbindungen, bei denen nicht das gesamte Molekülgerüst als Suchfragment verwendet werden kann, bestehen dann praktisch keine Aussichten mehr auf eine erfolgreiche Strukturlösung mit PATSEE. Basierend auf diesen Ergebnissen, konnten PATSEE-Parameter empfohlen werden, die sowohl für große Fragmente als auch für den Grenzbereich der minimal benötigten Fragmentgröße gute Erfolgsaussichten für die Strukturlösung gewährleisteten. Dabei wichen die empfohlenen Parameter nur in geringem Maße von den für Einkristalldaten optimierten Werten ab. Anhand zweier unbekannter Strukturen konnte die empfohlene Strategie verifiziert werden. Zusätzlich wurde für eine der beiden Strukturen eine Einkristallstrukturbestimmung vorgenommen, welche die aus Pulverdaten gelöste Struktur bestätigte. Auch wenn einerseits die prinzipielle Anwendbarkeit der Fragmentsuche mit PATSEE auf Pulverbeugungsdaten bewiesen werden konnte und andererseits eine allgemeine Strategie zur Vorgehensweise geliefert wurde, sind doch noch nicht alle interessanten Fragestellungen geklärt. Hier sind zum einen die unbefriedigenden Möglichkeiten bei Strukturen mit mehreren Molekülen in der asymmetrischen Einheit zu nennen. Eine sinnvolle Erweiterung der Zahl simultan suchbarer Fragmente in PATSEE könnte diesen Schwachpunkt beheben. Zugleich könnte mit dieser Erweiterung die Anwendbarkeit auf flexiblere Molekülgeometrien ausgedehnt werden, so daß im Endeffekt eine Steigerung der einsetzbaren Fragmentgröße erreicht wird. Diese Erweiterung sollte bei der enormen Rechenleistung moderner Computersysteme kein unüberwindliches Hindernis darstellen, so daß die benötigte Zeit für einen PATSEE-Lauf mit mehreren zu suchenden Fragmenten auf maximal einige wenige Stunden ansteigen würde. Alternativ wäre zu überlegen, ob nicht das Aufheben der strikten Trennung von Rotationssuche und Translationssuche, also eine 6-dimensionale Fragmentsuche, die bisweilen zu beobachtenden Probleme der Rotationssuche beheben würde. Auch bei dieser Änderung der Vorgehensweise in PATSEE könnten moderne Computer sinnvoll eingesetzt werden. Vorteilhaft für die Strukturlösung wäre hier die Kombination der sehr erfolgreichen Diskriminierung der Gütekriterien bei der Translationssuche mit der bisher kritischen Bestimmung der Orientierung. Eine zweite Fragestellung, die im Rahmen dieser Arbeit nicht geklärt werden konnte, betrifft die Anwendbarkeit auf makromolekulare Verbindungen, die über eine große interne Regelmäßigkeit verfügen, wie beispielsweise kleinere Peptide mit alpha-helikaler Struktur oder einer beta-Faltblattstruktur. Verschiedene Testreihen an derartigen Verbindungen belegen die prinzipielle Machbarkeit, und außerdem konnte bereits in mindestens einem ähnlich gelagerten Fall [17] gezeigt werden, daß derartige Strukturlösungsversuche bei sehr großen Verbindungen durchführbar sind. Insbesondere wegen der erheblichen Schwierigkeiten bei der Kristallisation derartiger Verbindungen und dem großen wissenschaftlichen Interesse an ihrer Struktur könnten erfolgversprechende Ansätze zur Strukturlösung aus Pulverdaten einen wichtigen Beitrag in der Pharmazie, der Pharmakologie, der Biologie und nicht zuletzt in der Medizin leisten.
Wir haben uns in dieser Arbeit der möglichen Produktion Schwarzer Löcher in hochenergetischen Teilchenkollisonen unter Annahme einer Raumzeit mit großen Extra-Dimensionen gewidmet. Die Produktionsraten, die bei einer neuen fundamentalen Skala im Bereich Mf ~ 1 TeV zu erwarten sind, liegen für den LHC in der Größenordnung von ~ 10 hoch 8 Schwarzen Löchern pro Jahr. Diese hohe Anzahl begründet das Interesse an den Eigenschaften der produzierten Schwarzen Löchern und wirft die Frage auf, wie diese Objekte beobachtet werden können. Bei der Untersuchung der Eigenschaften dieser Schwarzen Löcher haben wir festgestellt, dass das Entstehen Schwarzer Löcher ab einer c.o.m.-Energie im Bereich der neuen Planck-Masse zu einer raschen Unterdrückung hochenergetischer Jets, wie sie in pp-Kollisionen entstehen, führt. Dies ist ein klares Signal und leicht zu beobachten. Unter Ansetzen des Mikrokanonischen Ensembles haben wir die Zerfallsrate der Schwarzen Löcher und ihre Lebensdauer berechnet. Es zeigt sich, dass diese Lebensdauer hoch genug ist, um ein zeitlich deutlich verzögertes Signal zu erhalten. Nimmt man an, dass die statistische Mechanik bis zur Größenordung Mf gülig bleibt, so gelangen die Schwarzen Löcher im Zuge ihrer Verdunstung in einen quasi-stabilen Zustand und ein Rest verbleibt. Die Lebenszeit ist von der Anzahl der Dimensionen abhängig und lässt so Rückschlüsse auf diesen Parameter zu. Im Falle (Mf ~ TeV, d > 5) liegt sie für Energien von ~ 10 TeV in der Größenordung 100 fm/c. Eine geometrische Quantisierung der Strahlung legt außerdem nahe, dass die Schwarzen Löcher nicht restlos verdampfen können, sondern ein stabiler Überrest verbleibt. Diese Ergebnisse sind in [202, 203, 205] veröffentlicht worden.
Die vorliegende Vergleichsstudie untersucht 28 schizoaffektive Patienten (ICD F25) gegenüber 38 bipolar-depressiven Patienten (ICD F31) und 43 Patienten einer orthopädisch erkrankten Kontrollgruppe. Die motivierende Fragestellung war, ob sich durch ein standardisiertes Testverfahren wie den Gießen-Test Merkmale eruieren lassen, die für die Selbst-Objekt-Beziehungen schizoaffektiver Patienten charakteristisch sind. Die soziodemografischen Daten wurden anhand eines halbstandardisierten Interviews erfasst. Der Interviewleitfaden gliedert sich in die Bereiche sozialer, beruflicher und familiärer Status, Krankheitsdaten, Fragen zu Kindheit und Familie sowie Fragen zur aktuellen sozialen Situation. Zur Erfassung der depressiven Symptomatik wurden die Patienten mit der Hamilton-Depressions-Skala zur Fremdbeurteilung überprüft. Mittels Gießen-Test wurde neben der Selbstbeurteilung (aktuelles Selbstbild, Idealbild und normatives Bild) auch die individuelle Fremdbeurteilung der primären Bezugspersonen sowie der gegengeschlechtlichen Partner der jeweiligen Patientengruppe untersucht. Fragekomplex 1: Wie sind Selbstbild und Selbstwertigkeit von schizoaffektiven und bipolar-depressiven Patienten beschaffen? Hypothese: Bei schizoaffektiven und bipolar-depressiven Patienten bestehen signifikante Unterschiede zwischen den drei Selbstbildern, wohingegen bei der Kontrollgruppe orthopädischer Patienten seltener von signifikanten Unterschieden ausgegangen wird. Die hier gewonnenen Ergebnisse zum Selbstbild zeigen, dass zwischen den drei Selbstbildern schizoaffektiver und bipolar-depressiver Patienten häufiger signifikante Unterschiede bestehen als bei der Kontrollgruppe. Hiermit konnte die Hypothese zum Fragenkomplex 1 bestätigt werden. Fragenkomplex 2: Welche Beziehung besteht zwischen dem Selbstbild der Patienten und dem Bild, das sie von ihren Eltern haben? Hypothese: Bei schizoaffektiven Patienten und bei bipolar-depressiven Patienten ist die Distanz zwischen Selbstbild und Mutterbild geringer als bei der somatischen Kontrollgruppe. Die Distanz zwischen Selbstbild und Vaterbild schizoaffektiver und bipolar-depressiver Patienten wird größer erwartet als bei der Kontrollgruppe. Ein signifikanter Unterschied zwischen schizoaffektiven und bipolar-depressiven Patienten wird nicht erwartet. Auffällig ergibt sich aus der vorliegenden Untersuchung das signifikant von der Norm abweichende depressive Selbstbild beider Gruppen in Zusammenhang mit einer ebenfalls depressiv erlebten Mutter. Des Weiteren fällt auf, dass sich die Differenz zwischen Selbstbild und Vaterbild einmal wider Erwarten signifikant zwischen Schizoaffektiven und Bipolar-Depressiven unterscheidet. Ansonsten konnten die Hypothesen zum Fragenkomplex 2 bestätigt werden. Fragenkomplex 3: Unterscheiden sich die interpersonellen Beziehungen von Patienten mit schizoaffektiver Psychose von denjenigen mit bipolar-depressiver Psychose? Hypothese: Es wird erwartet, dass in den Partnerschaften schizoaffektiver und bipolar-depressiver Patienten die Tendenz zu komplementären Beziehungsmustern im Vergleich zur Kontrollgruppe überwiegen. Signifikante Unterschiede der Selbst- und Fremdbilder von schizoaffektiven und bipolar-depressiven Patienten werden nicht erwartet. In dieser Studie weisen Partnerschaften schizoaffektiver Patienten eher auf eine Tendenz zu komplementären Beziehungsmustern hin als Partnerschaften bipolar-depressiver Patienten. Sowohl für Schizoaffektive als auch für Bipolar-Depressive findet sich bei der vorliegenden Untersuchung eine weitgehende Übereinstimmung zwischen dem Selbstbild des Patienten und dem Bild, das der Partner vom Patienten hat. Wider Erwarten gab es jedoch wenige signifikante Unterschiede zwischen Selbst- und Fremdbildern von schizoaffektiven und bipolar-depressiven Patienten. Die Hypothese zum Fragenkomplex 3 konnte dennoch zum größten Teil bestätigt werden. Die Antwort auf die Frage, ob sich für schizoaffektive Patienten charakteristische Selbst-Objekt-Beziehungsmuster heraus arbeiten lassen, muss nach der hier durchgeführten Untersuchung zunächst offen bleiben. Angesichts der prognostischen Bedeutung psychosozialer Variablen im Langzeitverlauf schizophrener und affektiver Störungen (vgl. Kröber, 1993) empfiehlt sich die Durchführung einer Mehr-Zeitpunkte-Untersuchung an einer größeren Stichprobe schizoaffektiv Erkrankter.
Die Mehrzahl der akuten B-Zell Leukämien (B-ALL) im Kindesalter kann heutzutage geheilt werden (ca. 80%). Es gibt jedoch eine Untergruppe, die sog. Hochrisiko-Leukämien, der ein anderer Pathomechanismus zu Grude liegt und für die keine effektive Therapie zur Verfügung steht. Diese Form tritt fast ausschliesslich bei Kleinkindern im ersten Lebensjahr und bei älteren Patienten als Sekundärleukämie nach Chemotherapie auf. Diese akuten Hochrisiko-Leukämien sind zu 80% mit Translokationen des MLL Gens, Chromosom 11, Bande q23, assoziiert. Die reziproke Translokation t(4;11), bei der das MLL Gen mit dem AF-4 Gen fusioniert wird, hat die Expression der zwei funktionellen Derivatproteine MLL.AF-4 und AF-4.MLL und gleichzeitig eine Dosisreduktion des nativen MLL Proteins um 50% zur Folge. Das Zusammenspiel dieser Fakoren scheint die Grundvoraussetzung für die pathologische klonale Expansion leukämischer Blasten zu sein. Aus Untersuchungen in Drosophila melanogaster und im Maussystem ist bereits bekannt, dass das Wildtyp MLL Protein eine essentielle Funktion in der Steuerung von Genexpression durch Histon- und Chromatinregulation ausübt. Daraus stellte sich als Gegenstand dieser Arbeit die Frage nach der bislang überwiegend unbekannten Wildtyp-Funktion des MLL Proteins, und inwieweit das native Expressionsmuster einer Zelle durch die MLL Dosisreduktion beeinflusst, bzw. verändert wird. Zunächst wurden die MLL Targetgene identifiziert, und zwar anhand von je zwei DNA-Microchip-Hybridisierungen mit cRNA aus den MLL+/+ und MLL-/- Fibroblasten-Zelllinien. Der Expressionsvergleich dieser Datensätze ergab insgesamt 197 differentiell exprimierte Gene, die sich in der Expressionsstärke um mind. den 2,5-fachen Wert unterscheiden. Davon wurden 136 Gene bei völliger Abwesenheit des MLL Proteins, im Vergleich zum Normalzustand der Wildtyp-Zellen, um mind. den 2,5-fachen Wert transkriptionell aktiviert, die übrigen 61 Targetgene um mind. diese Stärke transkriptionell deaktiviert. Die Entdeckung dieser transkriptionell reprimierenden Eigenschaften des MLL Proteins, von dem bislang ausschliesslich aktivierende und transkriptionsaufrechterhaltende Eigenschaften bekannt waren, ist eines der wesentlichen Ergebnisse der vorliegenden Arbeit. Ein Teil der, durch die Abwesenheit des MLL Proteins hochregulierten 136 Gene ist bereits als Tumormarker bekannt oder an folgenden onkogenen Mechanismen beteiligt: Proliferation durch Fehlsteuerung des Zellzyklus mit gesteigerter Nukleotid-Biosynthese, erhöhte Migrationsaktivität durch veränderte extrazelluläre Matrix mit der Folge von Metastasierung/Organinfiltration, erhöhter Schutz vor proteolytischem Abbau nukleärer (Onko-) Proteine, und der Generation von Spleiss-Varianten mit z.T. negativem Einfluss auf essentielle Differenzierungswege. Zu diesen, in der Summe das Krebsrisiko erhöhenden Effekten, kommt noch hinzu, dass eine Gegenregulation durch MLL induzierte Expression von Tumorsuppressoren (verschiedene Zellzyklus- Inhibitoren) fehlt. Da bei Leukämie-Zellen die MLL Proteindosis reduziert ist, liegt der Schluss nahe, den oben genannten 136 identifizierten Genen eine mögliche direkte Beteiligung an der Leukämogenese beizumessen. Die meisten der 61 Gene, die durch das MLL Protein transkriptionell aktiviert wurden, kodieren für Faktoren, die zum größten Teil in embryonale Differenzierungsprozesse involviert sind. Dabei spielt die Entwicklung von meso- und ektodermalen Geweben eine besondere Rolle. Das MLL Protein ist somit für die Organogenese von Herz, Leber, Nieren, sensorischen Organen, hämatopoietischen Zellen und ebenso für Knochen und Muskeln essentiell. Die gewonnenen Daten wurden durch verschiedene Experimente (subtraktive Klonierung und RT-PCR) verifiziert und die wenigen, bereits publizierten MLL Targetgene konnten durch diese Arbeit bestätigt werden. Neben den Targetgenen des MLL Proteins sollten auch diejenigen der beiden Derivatproteine MLL.AF-4 und AF-4.MLL identifiziert werden. MLL+/+ Zellen wurden mit den humanen Derivatkonstrukten stabil transfiziert und im Vergleich zur Leervektor-Kontrolle per DNA-Microchips analysiert. Wieder Erwarten wurden keine unterschiedlichen Transkriptionsmuster erhalten. Daraufhin wurden Komplementationsexperimente zur Eignungsüberprüfung des Testsystems durchgeführt. Es stellte sich heraus, dass das humane MLL Expressionskonstrukt die MLL-/- Zellen funktionell nicht komplementieren konnte. Dafür gibt es verschiedene Erklärungsansätze, wobei jedoch die Hypothese, dass das "transkriptionelle Gedächtnis" in den murinen embryonalen Fibroblasten (Entwicklungsstatus Tag 10,5 p.c.), bereits stabil etabliert und nur noch marginal veränderbar ist, die Wahrscheinlichste ist. Sollte sich herausstellen, dass die epigenetische Programmierung der Zellen verantwortlich für die hier erhaltenen Ergebnisse ist, hätte das einen dramatischen Einfluss auf unser Verständnis vom Leukämie-Pathomechanismus. Es würde nämlich bedeuten, dass MLL und davon abgeleitete reziproke Derivatproteine nur in einem engen Zeitfenster Einfluss auf Genexpressionsmuster haben und nach einen "hit and run" Mechanismus die Leukämie auslösen.
In der vorliegenden Arbeit wurden verschiedene Techniken entwickelt, um die Polo-Like Kinase 1 (PLK 1), eine Kinase aus der Familie der hochkonservierten Serin/Threonin-Kinasen in ihrer Funktion zu hemmen. Alle Zellen des Säugetier-Organismus benötigen für ihre Zellteilung PLK1. PLK1 wird vor allem in der G2/M-Phase des Zellzyklus exprimiert und wird in malignen Geweben, verglichen mit normalem, primärem Gewebe überexprimiert. Hier liegt ein differentieller Unterschied zwischen normalem, primärem Gewebe und malignem Tumorgewebe vor, denn in normalem Gewebe sind nur sehr niedrige PLKI -Spiegel vorhanden, so dass eine Krebstherapie, die über die Hemmung von PLKI wirkt, keine bzw. geringe Auswirkungen auf das normale gesunde Gewebe haben sollte. Insgesamt bietet sich PLKI daher als interessantes Ziel für eine molekularbiologisch basierte Krebstherapie an. Die im Rahmen dieser Arbeit angewandten Techniken waren die Antisense-Technologie und die RNA-Interferenz (mittels synthetischer small interfering RNAs [siRNAs]) und rekombinanter Plasmide zur Expression von hairpin-RNAs [shRNAs]). Antisense-Oligonukleotide (ASOs) sind schon seit ca. einem Jahrzehnt im Einsatz, um verschiedene Zellzykluselemente zu hemmen, auch bereits in verschiedenen Phasen der klinischen Prüfung, doch mit PLKI ist erstmals die Hemmung eines späten Elements der Signaltransduktionskaskade, das essentiell für die Mitose ist, gelungen. Hierbei sind die Auswirkungen auf die Zellen wesentlich stärker als bei weiter am Anfang der Signaltransduktionskaskade gelegenen Elementen, bei denen die Zelle noch die Möglichkeit hat, die Hemmung durch alternative parallele Signalwege zu umgehen. siRNAs bzw. shRNA-exprimierende Plasmide sind erstmals zum Einsatz gekommen, um in Mammalia-Zellen die Krebszellproliferation bzw. das Tumorwachstum im humanen Krebs-Xenograft-Modell durch Hemmung eines endogenen Gens zu hemmen. Bei Anwendung der RNA-lnterferenz konnte darüber hinaus ein für die Anwendung am Menschen wichtiger differentieller Unterschied zwischen primären Zellen und Krebszelllinien in vitro beobachtet werden, denn für die Hemmung der Proliferation und für die Reduktion der PLK1-mRNA und des PLK1-Proteins in primären humanen Mammaepithelzellen war eine 350-fach höhere siRNA-Konzentration nötig als in den Krebszelllinien. Die Konzentrationen, mit denen die Krebszellproliferation signifikant gehemmt werden konnte, hatten auf die primären Zellen überhaupt keine Auswirkungen, womit ein Meilenstein auf dem Weg zu einer spezifischen Krebstherapie erreicht werden konnte. Dabei konnten mit allen drei eingesetzten Techniken die PLK1-mRNA- und -Protein-Expression in vitro und die Zellproliferation in vitro gehemmt werden. Das Tumorwachstum konnte mit ASOs und mit den rekombinanten Plasmiden in vivo in Krebs-Xenograft-Modellen an Nacktmäusen erfolgreich gehemmt werden. Mit U6-Promoter-basiert exprimierten shRNAs konnten im humanen Xenograft-Modell auch die Expression der PLK1-mRNA und das PLK 1-Protein reduziert werden. Auf diese Weise kam es zu einem starken Antitumor-Effekt in vivo, der nach Behandlung mit den Expressionsplasmiden vier Wochen über das Ende der Therapie hinaus anhielt. Ausgehend von diesen Daten sollte für beide Techniken - sowohl für die Antisense-Strategie als auch für die RNA-Interferenz mit dem Target PLK1 - über Toxizitätsuntersuchungen und Ausweitung auf weitere Tumormodelle der Weg in die präklinische Phase eingeschlagen werden, um möglichst schnell die Grundlagen für einen Heilversuch oder eine klinische Studie zu schaffen.
In der vorliegenden Arbeit wird untersucht, inwieweit sich quantenoptische Zufallsgeneratoren, bei denen die "Welcher-Weg-Entscheidung" einzelner Photonen am Strahlteiler bzw. Faserkoppler zur Zufallsgenerierung verwendet wird, zur Erzeugung von Zufallsbitströmen eignen. Es werden hierbei im wesentlichen vier verschiedene Varianten aufgebaut, die sich durch die eingesetzte Lichtquelle und die Realisierung des optischen Aufbaus unterscheiden, um zu erkennen, welche Detailprobleme sich beim Aufbau solcher Generatoren zeigen. Als Lichtquellen werden eine Einphotonenquelle auf Basis der parametrischen Fluoreszenz und eine Quelle, die stark abgeschwächte, gepulste Poisson-Lichtfelder abstrahlt, eingesetzt. Bei der optischen Realisierung wird jeweils einmal Freistrahl- und einmal Faseroptik für das Zufall generierende Element verwendet. Die Rohdaten-Bitströme der verschiedenen Varianten werden mit Hilfe von statistischen Verfahren untersucht, die für Tests von physikalischen Zufallsgeneratoren geeignet sind. In der Diskussion werden die verschiedenen Testverfahren hinsichtlich ihrer Eignung zum Aufdecken tieferliegender Defekte bewertet. Thermische Einflüsse auf die Rohdaten-Ströme werden dargelegt, Methoden zur Verringerung der Einflüsse angegeben und gezeigt, wie mit Hilfe von mathematischen Regularisierungsverfahren ideale Bitströme aus den Rohdaten erzeugt werden können. Anhand von (mehrstufigen) Autokorrelationskoeffiziententests werden die Auswirkungen von Problemen mit verschiedenen Datenaufnahme-Elektroniken auf die Rohdaten- Ströme analysiert. Die Ursachen der Probleme werden diskutiert, mögliche Lösungen, wie sich die Probleme stark verringern bzw. vermeiden lassen, werden vorgeschlagen und experimentell untersucht. Die Einflüsse der Eigenschaften der verwendeten Photonenquellen im Zusammenspiel mit den verwendeten optischen Komponenten und Detektoren werden analysiert und ihre Auswirkungen auf die Zufallsgenerierung diskutiert. Zur Erhöhung der Ausgangbitrate quantenoptischer Zufallsgeneratoren werden verschiedene Ausführungen von Mehrfachzufallsgeneratoren vorgeschlagen, insbesondere für den quantenoptischen Zufallsgenerator auf Basis der parametrischen Fluoreszenz. Als weitere, interessante Variante eines quantenoptischen Zufallsgenerators wird das theoretische Konzept für den "HOM-Generator" präsentiert, bei dem beide Photonen eines Photonenpaares bei einer gemeinsamen "Welcher-Weg-Entscheidung" zur Zufallsgenerierung verwendet werden. Die vorgeschlagenen Varianten quantenoptischer Zufallsgeneratoren werden hinsichtlich ihrer Eignung für einen praktischen Einsatz diskutiert und bewertet. Für den Dauereinsatz quantenoptischer Zufallsgeneratoren als Komponente in Sicherheitsinfrastrukturen, wie z.B. Trustcentern, werden Optimierungen, Möglichkeiten der Kostenreduzierung und weitere Aufbauvarianten vorgeschlagen. Die Optimierungen werden hinsichtlich ihrer Praxistauglichkeit diskutiert und gewertet. Mögliche Angriffe auf quantenoptische Zufallsgeneratoren werden diskutiert und zur Erkennung von Manipulationen an physikalischen Zufallsgeneratoren werden verschiedene Möglichkeiten vorgestellt, um künstliche Signaturen einzufügen, sie vor Verwendung der Zufallsdaten zu verifizieren und aus dem Zufallsstrom zu entfernen.
Das Thema der vorliegenden Promotion war die Aufklärung von Neutralisationsmechanismen auf Lymphozyten und Makrophagen unterschiedlicher primärer HIV-1-Subtypen im Verlauf der Krankheitsprogression. Ausgangspunkt für die Experimente war die Tatsache, dass humane Seren von HIV-1 infizierten Patienten bereits kurz nach der Serokonversion autologe Virusisolate auf Makrophagen, nicht aber auf Lymphozyten neutralisieren können (Ruppach et al., 2000). Bei Neutralisationsexperimenten mit einem dem V3-loop des gp120 komplementären P1 -Peptids (Subtyp B), sollte der Nachweis von neutralisierenden Antikörpern im Serum erbracht werden. Weiterhin sollte gezeigt werden, inwieweit die Neutralisation auf Makrophagen durch V3-Antikörper begründet ist. Nach erfolgter Neutralisation auf Makrophagen mit und ohne P1-Peptidvorinkubation konnte gezeigt werden, dass es zu keinen Veränderungen im Neutralisationsverhalten durch Vorinkubation mit einem V3-Peptid gekommen war. Daraus ließ sich folgern, dass es nicht die V3-Antikörper sind, die eine Neutralisation auf Makrophagen hervorrufen können. Als nächstes wurde das Neutralisationsverhalten eines frühen lsolates (8 Monate nach der Infektion) und einer späten Folgeprobe (27 Monate nach der Infektion) durch autologes Serum auf Lymphozyten und auf Makrophagen verglichen. Dabei konnte gezeigt werden, dass sowohl Ursprungs- wie auch Folgeisolat auf Makrophagen eine große Neutralisationsaktivität aufweisen, die auf Lymphozyten fehlt. Um besser eingrenzen zu können, welche Antikörper bei Neutralisationsreaktionen auf Makrophagen eine Rolle spielen, wurden Neutralisationsexperimente mit Serumimmunglobulinen eines frühen Isolates durchgeführt. Als Ergebnis konnte festgehalten werden, dass autologe IgG' s auf Makrophagen eine Neutralisationsreaktion herbeiführen können. Weiterhin stellte sich die Frage, ob autologe Immunglobuline in der Lage sind, heterologe Virusisolate zu neutralisieren. Dabei zeigte sich, dass im Test unterschiedlicher Subtypen, es zu einer hohen Kreuzneutralisationsaktivität gekommen war. Zusammenfassend konnte im Verlauf der Promotion erfolgreich dargestellt werden, dass die Serumimmunglobuline für die Neutralisation auf Makrophagen verantwortlich sind und, dass diese heterologe Eigenschaften besitzen.
Es wurde für Protonen- und Deuteronenbeschleuniger unter Extrembedingungen (hoher Ionenstrom, Dauerstrichbetrieb, Niedrigenergieabschnitt) ein Vergleich zwischen der konventionellen RFQ-Alvarez-DTL-Kombination und einer erstmals am IAP für diese Zwecke entwickelten RFQ-H-DTL-kombination durchgeführt. Insbesondere die Auslegung der Teilchendynamik von HF-Driftröhrenlinearbeschleunigern und RFQ's für leichte Ionen unter Miteinbeziehung der Raumladung und der Forderung nach Dauerstrichbetrieb sind Thema der vorliegenden Arbeit. Die vorgestellten Beschleuniger müssen extrem hohen Anforderungen an Transmission (Stromverlustrate << 3 µ A/m nach dem RFQ), Stabilität (stetige Strahldynamik bei Strahlfehlanpassung und Berücksichtigung von mechanischen und optischen Toleranzen), Anlagensicherheit ("Hands-on-Kriterium") und -zuverlässigkeit (Anlagenverfügbarkeit > 80 %) bei hoher HF-Effizienz (optimierte Shuntimpedanzen, Laufzeitfaktoren und Oberflächenstromdichten) genügen. Es wurden exemplarisch im Rahmen von zwei aktuellen Hochstromprojekten mit Dauerstrichbetrieb teilchendynamische DTL-Entwürfe für den mittleren Energiebereich (0.1 = ß = 0.34) durchgeführt: einmal für das ADS/XADS Projekt (Hier: 40 mA, 350/700 MHz 24 MW, Protonen, CW) und als extremes Beispiel das IFMIF Projekt (125 mA, 175 MHz, 5 MW, Deuteronen, CW). Da IFMIF hinsichtlich Transmissionseffizienz und Strahlstrom in Verbindung mit einem 100 %-Tastverhältnis wohl einzigartig ist, mussten besonders intensive Anstrengungen für den Test der Robustheit des teilchendynamische Entwurfs der DTL-Strukturen unternommen werden. Hierzu wurde der gesamte Injektorpart vom Eingang des Referenz Four-Vane-RFQ bei 0.1 MeV bis zum Ausgang des DTL bei 40 MeV als ganzes simuliert, unter Einbeziehung von optischen, HF- und mechanischen Toleranzen. Diese Rechnungen machten deutlich, dass die Einbringung einer kompakten Strahltransportstrecke (MEBT) zwischen RFQ und DTL notwendig ist, um den Strahl transversal und longitudinal ohne Teilchenverluste an den nachfolgenden DTL anzupassen. Man gewinnt dadurch auch zusätzliche Möglichkeiten für Strahljustierung und -diagnose. Infolgedessen gehört ein MEBT mittlerweile zum Referenz-Design, welches einen 175 MHz Four-Vane-RFQ als Vorbeschleuniger vorsieht und nach dem MEBT einen 175 MHz Alvarez-DTL mit FoDo-Fokussierschema. Die Designkriterien für IFMIF gelten uneingeschränkt auch für das ADS/XADS Projekt und infolgedessen wurde ebenfalls erstmals eine Auslegung des Mittelenergieabschnitts des ADS/XADS-Beschleunigers, der unmittelbar nach dem 350 MHz RFQ bei 5 MeV anfängt und bis ~ 100 MeV reicht, mit der neuen supraleitende CH-Struktur unternommen. Der Hochenergiebereich von 100 MeV bis 600 MeV wird im Referenzentwurf mit den bereits bewährten supraleitenden elliptischen Kavitäten mit einer Resonanzfrequenz von 700 MHz abgedeckt [ADS]. Die umfangreichen Untersuchungen inklusive Toleranzabschätzungen ergaben, dass eine Kette von zehn supraleitenden CH-Resonatoren mit Zwischentankfokussierung (Ausnahme das Modul 1) für diese Anwendung bestens geeignet ist. Des weiteren ergab sich, dass ein Frequenzsprung auf 700 MHz nach dem 6-ten CH-Modul bei einer Energie von ~ 56 MeV die Beschleunigungs- und HF-Effizienz erhöht. Außerdem wird dadurch der Strahl ideal an den Hochenergieabschnitt angepasst. Im Rahmen dieser Arbeit wurden neue Driftröhrenlinearbeschleunigerstrukturen vorgestellt (normal leitender IH-DTL, supraleitender CH-DTL), die für bis zu 10 MW Strahlleistung, 125 mA Strahlstrom und höchsten Tastverhältnissen geeignet sind. Ferner konnte durch geschickte Wahl der Strukturparameter und Arbeitspunkte eine gute Teilchendynamik mit einem moderaten Emittanzwachstum erzielt werden: Strahltransport und -beschleunigung ohne Teilchenverluste, starke transversale und longitudinale Fokussierung, große Aperturfaktoren und höchste HF-Effizienz sind gleichzeitig erreichbar. Somit stellen die neuen H-Moden Driftföhrenbeschleuniger vor allen Dingen in der supraleitenden Ausführung (CH-DTL) eine tragfähige Basis für alle weiteren geplanten Hochintensitätsbeschleunigeranlagen dar.
Die Stat-Proteine (signal transducers and activators of transcription) bilden eine Familie von 7 verschiedenen Signaltranskriptionsfaktoren, die latent im Zytoplasma vorliegen. Sie spielen eine wichtige Rolle bei der Übertragung von zytokin- und wachstumsfaktorvermittelten Signalen von der Zellmembran in den Nukleus. Die Aktivierung der Stat-Proteine ist ein transienter und streng regulierter Signaltransduktionsprozess, dessen Deregulation eine Rolle bei der Krebsentstehung spielt. In verschiedenen Tumorarten werden vor allem konstitutiv aktive Stat3- und Stat5-Proteine gefunden. Stat5 ist das Hauptsignalprotein bei der prolaktinvermittelten Signaltransduktion im Brustgewebe. Neben Stat3 und Stat1 ist vor allem Stat5A maßgeblich an der Entwicklung und Differenzierung (Laktation) des Brustgewebes beteiligt. Bei der Entstehung von Brusttumoren scheint der Prolaktin/JAK/Stat5-Signalweg ebenfalls involviert zu sein. Die Funktion, die Stat5 dabei hat, ist jedoch weitgehend ungeklärt. Eine gezielte, nur Stat5-abhängige Regulation des Zellsystems ist nur schwer zu untersuchen, da Prolaktin noch eine Reihe weiterer Signalkaskaden aktiviert. In dieser Arbeit wird daher mit Hilfe einer konstitutiv aktiven Mutante die Funktion von Stat5A in der Regulation der Proliferation, Migration, Differenzierung und Apoptose, deren Fehlregulation die Transformation zu Tumorzellen bestimmt, untersucht. Es kann gezeigt werden, dass Stat5 multiple Aufgaben in Brustkrebs- und -epithelzellen übernimmt. Einige dieser Funktionen lassen sich mit der Wirkungsweise von Prolaktin korrelieren. In Tumorzellen hat nicht nur Prolaktin, sondern auch die konstitutiv aktive Stat5A-Mutante Einfluss auf die Proliferation und den Zellzyklus. Die Überexpression dieser Mutante führt, ebenso wie die Prolaktinstimulation, zu einer Erhöhung der Proliferationsrate, die im Falle von Prolaktin Cyclin D1 vermittelt ist. Für die konstitutiv aktive Stat5A-Mutante kann keine Regulation einiger am Zellzyklus beteiligter Proteine festgestellt werden. Die Untersuchungen der Zellmobilität dienen als Marker für das Metastasierungspotential. Sowohl in Brusttumor- als auch in -epithelzellen ist die Fähigkeit zur Migration in Zellen mit konstitutiv aktivem Stat5A, oder nach Prolaktinstimulation erhöht. Für die Tumorentstehung zeichnet sich demnach folgendes Bild: Prolaktin und konstitutiv aktives Stat5A erhöhen sowohl die Proliferations- als auch die Migrationsrate von Brustkrebszellen. Zusammenfassung 2 In der nicht transformierten Brustepithelzelllinie HC11 hat die konstitutiv aktive Stat5AMutante eine andere Funktion. Sie wirkt nicht als Mitogen, wie in Tumorzelllinien, sondern ist in Differenzierungsvorgänge involviert. Die konstitutiv aktive Mutante ist in der Lage, die Signaltransduktion in vitro durch Prolaktin und Dexamethason zu ersetzen und unabhängig davon, die ß-Kaseinbildung zu induzieren. In vivo zeigt sich, dass konstitutiv aktives Stat5A in die Kontrolle der Differenzierung des alveolaren Brustepithels involviert ist. Die alveolaren Strukturen bilden sich schon im jungfräulichen Gewebe und nicht erst in trächtigen Mäusen aus. Eine Überexpression der konstitutiv aktiven Stat5A-Mutante führt in HC11 Zellen jedoch nicht nur zu einer Differenzierung der Zellen, sondern ebenfalls zu einem Anstieg der Apoptoserate. Die konstitutiv aktive Stat5A-Mutante induziert die Expression der negativen Regulatoren des JAK/Stat-Signalweges SOCS1 und SOCS3. Diese blockieren die Janus-Kinase 2, welches wiederum eine Deaktivierung von Stat3 zu Folge hat. Als potentieller molekularer Mechanismus für die Förderung der Apoptose kann eine Inhibierung der Bcl-XL-Expression gezeigt werden. Die Ergebnisse zeigen, das Stat5 unterschiedliche Funktionen sowohl bei der Proliferation und Apoptose als auch bei der Differenzierung von Brustepithelzellen hat. Die Funktion von Stat5 auf das Zellgeschehen scheint vom zellulären Kontext und bereits aktivierten Signalwegen abzuhängen.
Die Entwicklung eines Impfstoffes gegen das humane Immundefizienz Virus (HIV-1) erfordert die Aktivierung einer humoralen und zellvermittelten Immunantwort. Diese kann durch lebende attenuierte Viren oder DNA Impfstoffe am besten induziert werden. Im Mittelpunkt der Impfstoffentwicklung steht das HIV-1 Hüllglykoprotein (Env), da es den initialen Kontakt mit der CD4-positiven Zielzelle herstellt. Die hohe Mutationsrate des HIV-1 führt zu Veränderungen des Hüllproteins und erzwingt die Ableitung konservierter Bereiche der nativen, oligomeren Konformation des Proteins. Im ersten Teil dieser Arbeit wurden CD4-gp120 Fusionsproteine hergestellt, die Konformationsänderungen des Hüllglykoproteins nachahmen sollten, wie sie beim Eintritt von HIV in die Wirtszelle entstehen. Eine inhibitorische Wirkung dieser Proteine bei der Infektion von CD4-exprimierenden Zellen, sowie die Bildung neutralisierender Antikörper in immunisierten transgenen CD4+ Mäusen konnten nicht nachgewiesen werden. Der zweite Teil dieser Arbeit beschäftigt sich mit der Entstehung und Charakterisierung replikationskompetenter Viren zur Expression des oligomeren HIV-1 Hüllglykoproteins. Hierfür wurden murine Leukämie Viren (MLV) mit einer verkürzten Variante des HIV-1 Hüllglykoproteins pseudotypisiert. Sämtliche akzessorischen Gene des HIV-1 waren nicht enthalten. Die regulatorische Funktion des akzessorischen Proteins Rev wurde entweder durch die Verwendung eines Introns, durch das posttranskriptionelle Element des "woodchuck hepatitis virus" (WPRE) oder durch Benutzung eines kodonveränderten Hüllproteins ersetzt. Folglich wurden drei unterschiedliche MLV/HIV-1 Pseudotypviren konstruiert. Alle MLV/HIV-1 Pseudotypviren konnten nach Transfektion in 293 T Zellen synthetisiert werden und waren in der Lage CD4- und CXCR4-positive Zielzellen zu infizieren. Die Effizienz der zweiten Infektion war für die Proviren mit WPRE Element und synthetischen Hüllprotein reduziert, obwohl die mRNA-Synthese korrekt erfolgte und die Funktion des akzessorischen Elements Rev erfolgreich ersetzt werden konnte. Das Intron enthaltende MLV/HIV-1 pseudotypisierte Virus zeigte kaum mRNA-Produktion, folglich konnte keine zweite Infektion stattfinden. Replikationskompetente MLV/HIV-1 Pseudotypviren konnten mit keinem Konstrukt erzeugt werden, da Viruspartikel, die aus infizierten Zellen freigesetzt wurden, kaum Hüllprotein enthielten. Verschiedene Faktoren könnten hierbei eine Rolle spielen, unter anderem das zytoplasmatisch auf 7 Aminosäuren verkürzte HIV-1 Hüllglykoprotein selbst, was nur in MT-4 Zellen eine HIV-Replikation erlaubt. Folglich sind für die Herstellung replikationskompetenter MLV/HIV-1 Pseudotypviren Veränderungen am CTerminus des Hüllglykoproteins unausweichlich.
Fest ins Genom integrierte und durch Vererbung (vertikal) weitergegebene endogene Retroviren stellen ein Risiko im Rahmen einer therapeutischen Übertragung von tierischen Zellen, Geweben oder Organen auf den Menschen dar. Bei Verwendung der als Spender bevorzugten Schweine sind zwei Klassen von C-Typ-Retroviren (PERV) bekannt, die zumindest in vitro humane Zellen infizieren können. Deshalb sind eine molekulare Kenntnis und eine genetische bzw. immunologische Kontrolle dieser Viren zur Vermeidung einer potentiellen Infektion von Xenotranplantat-empfängern wünschenswert. Die Analyse einer genomischen Bibliothek des "large white"-Schweins führte zur Charakterisierung von vier nativen proviralen Vollängensequenzen, von denen drei in der Lage sind, auf humanen Zellen zu replizieren, während ein Provirus zwei Stop- Mutationen im Polymerase-Gen trägt. Die Klone PERV-A(Bac-130A12), PERVA( Bac-151B10) und PERV-A(Bac-463H12) gehören zur Klasse A, der Klon PERVB( Bac-192B9) wird der Klasse B zugeordnet. Alle vier Klone weisen hohe Homologien zu bereits beschriebenen Sequenzen (Czauderna et al., 2000; Krach et al., 2001) auf, sind mit diesen jedoch nicht identisch. Die Bestimmung der flankierenden genomischen Sequenzen ermöglicht den spezifischen Nachweis der Proviren in genomischer DNA und zeigt, daß die vom "large white"-Schwein abgeleiteten Sequenzen zur Untersuchung verschiedener Schweinerassen geeignet sind. Desweiteren konnte gezeigt werden, daß die im Klon PERV-B(Bac-192B9) beobachteten Punktmutationen in einigen der untersuchten Individuen revertiert sind. Die Untersuchung von 86 einzelnen Proben aus 5 verschiedenen Rassen zeigt eine sehr heterogene Verteilung der PERV und würde damit eine Züchtung (in Bezug auf replikationskompetente Viren) PERV-freier Schweine ermöglichen. Dies erübrigt sich aber durch die Tatsache, das Miniaturschweine des d/d-Haplotyps für die getesteten Proviren bereits negativ sind. Faßt man die vier hier und die in der Literatur beschriebenen Proviren (Czauderna et al., 2000; Krach et al., 2001) zusammen, scheinen von den etwa 30-50 Integrationsorten im porcinen Genom (LeTissier et al., 1997; Patience et al., 1997) zwischen sechs und zehn replikations-kompetente Proviren zu enthalten. Für den Fall, daß bei einer XTx Partikel freigesetzt werden, geben die Versuche mit den Pseudotypvektoren Hinweise darauf, daß eine Infektion schon nach wenigen Minuten stattfinden kann und damit auch nach einer raschen Entfernung des Organs persistieren könnte. Diese freigesetzten Partikel lassen sich aber durch Antikörper neutralisieren, so daß es möglich erscheint, Patienten sowie deren Ärzte und Kontaktpersonen zu impfen, um einer potentiellen Infektion vorzubeugen. Darüber hinaus scheinen die phylogenetisch jüngeren Viren mit der "repeat"-losen LTR die Fähigkeit verloren zu haben, xenotrop Zellen zu infizieren, da Proviren mit dieser LTR-Struktur weder aus einer 293-PERV-PK-Bibliothek isoliert werden konnten (Czauderna et al., 2000), noch konnten solche Elemente in genomischer DNA dieser Zellinie nachgewiesen werden. Mit der Untersuchung des Infektionsverhaltens von PERV und durch die Möglichkeit, in der XTx verwendete Schweine auf die Präsenz replikations-kompetenter PERV hin zu testen und die chromosomal lokalisierten Proviren eventuell durch Züchtung zu entfernen, leistet die vorliegende Arbeit einen Beitrag dazu, zukünftige Xenotransplantationen in virologischer Hinsicht sicherer zu machen.
Rückblick Die Motivation für diese Arbeit ergibt sich aus den immer neuen Fragestellungen der modernen Wissenschaft. Deren Beantwortung hängt wesentlich von den geeigneten Messapparaturen ab, die Einblicke in physikalische Prozesse erlauben. Durch effektivere und höher auflösende Detektoren werden präzisere, schnellere und schonendere Messungen möglich. Die Zielsetzung dieser Arbeit über den Hochdruck-Gas-Szintillations-Proportionalzähler ist es, einen Detektor zu entwickeln, mit dem hochenergetische Photonen praktisch vollständig vermessen werden können. Dazu gehören: - die Photonenenergie im Bereich von 5 bis 500 keV, - die Richtung der einfallenden Strahlung (bzw. der Auftreffort auf dem Detektor), - der Absorptionszeitpunkt und - die Diskriminierung von Gamma-induziertem Untergrund. Potenzielle Einsatzgebiete des Detektors sind im wesentlichen medizinische, atom- und astrophysikalische Anwendungen. Die vielversprechenden Eigenschaften dieses Detektorkonzeptes, gegenüber herkömmlichen Gasdetektoren, ergeben sich aus den Mechanismen der primären und der sekundären Gasszintillation. Daraus folgen der überlegene Verstärkungsprozess und das schnelle Zeitsignal. Als Grundlage für die in dieser Arbeit diskutierten Ergebnisse dienen die zuvor von Dangendorf und Bräuning entwickelten Konzepte und die von ihnen gebauten Prototypen. Sie sind geeignet für kleine und mittlere Photonenenergien und liefern eine gute Energie- und Zeitauflösung. Die Tests der Ortsauslese mit abbildenden, optischen Systemen zeigten erste Resultate. Ausgehend von diesen bestehenden Entwicklungen war die Motivation der Arbeit, den Aufbau an die gewünschten Anforderungen anzupassen. Für die höheren Photonenenergien werden ein dichterer Absorber, also ein höherer Gasdruck und damit verbunden neue Auslesekonzepte benötigt. Problem Ein zentrales Problem, das aufgrund dieser neuen Anforderungen auftritt, ist der Druckunterschied zwischen dem Hochdruck-Szintillator und der bei Niederdruck oder im Vakuum betriebenen UV-Auslese. Die dadurch bedingten Kräfte machen entweder besondere Stützstrukturen oder stabile - und dadurch dicke - Fenster erforderlich. In beiden Fällen geht ein Teil des Signals verloren und die Detektorauflösung nimmt ab. Es handelt sich dabei jedoch nicht um prinzipielle Probleme. Die Schwierigkeiten sind rein technischer Natur. Deshalb wurde intensiv weiter nach neuen Konzepten und Lösungsansätzen gesucht, die die Vorteile dieser überlegenen physikalischen Prozesse ausnutzen können. Lösungsansatz Das konkrete Ziel - bzw. die Aufgabenstellung - dieser Arbeit war, mit neuen Technologien, und dabei vor allem mit einem neuen Mikrostruktur-Elektroden-System, bislang bestehende technische Hürden zu überwinden (Kapitel 3). Durch die Möglichkeit, einen in das Hochdruckvolumen integrierten Photonendetektor zu bauen, werden viele der Stabilitätsprobleme gelöst. Mit der großflächigen Auslese des Szintillationslichts direkt dort, wo es entsteht, werden die Transmissionsverluste in Fenstern vermieden. Es gibt damit nur kleine raumwinkelabhängige Effekte und es wird nur ein Gasvolumen und damit kein zusätzliches System zum Evakuieren, Zirkulieren und Reinigen benötigt. Durch die Trennung der Energie- und der Ortsinformation und deren separate Auslese wird zwar die Komplexität des Detektors erhöht, die Teilsysteme können jedoch unabhängig für die jeweiligen Anforderungen optimiert werden. Grundlagen Im Rahmen dieser Arbeit wurden bereits existierende Erfahrungen aufgegriffen und in deren logischer Fortsetzung, ein, in das Szintillatorvolumen integrierter, UV-Photonendetektor entwickelt. Zunächst musste mit einer umfangreichen Recherche ermittelt werden, welche Anforderungen an einen integrierten Photonendetektor bestehen und wie ein solches System in den Aufbau eingebunden werden kann. Mit dem GEM, der sich schon in diversen anderen Gasdetektoranwendungen als universell einsetzbarer Verstärker bewährt hatte, war ein potenzielles Mikrostuktur-Elektroden-System für unsere Anwendung gefunden. Um die Einsatztauglichkeit dieser Mikrostrukturen für die neuen Applikationen zu analysieren, wurden sie im Standard-Design, unter vielen verschiedenen Betriebsparametern getestet. Dabei wurden wertvolle Erfahrungen im Umgang mit den Mikrostrukturen gesammelt. Die GEMs wurden in den typischen Detektorgasen, bei verschieden Drücken, elektrischen Spannungen und Feld-stärken studiert. Dabei wurden die Chancen, aber auch - vor allem aufgrund elektrischer Überschläge und Instabilitäten - die Grenzen des damit Erreichbaren, aufgezeigt. Mit der Herstellung der speziell für diese Anwendung entwickelten GEMs wurde die Grundlage für den stabilen Betrieb des Detektors geschaffen. Simulationsrechnungen In Kooperation mit einer italienischen Gruppe vom INFN in Cagliari haben wir, mit dem Detektor-Simulations-Programm Garfield, Berechnungen durchgeführt (Kapitel 4). Damit konnte schon vor der technischen Realisierung ein Überblick über die Betriebsbedingungen eines mehrstufigen und komplexen Systems gewonnen werden. Dazu zählen die messtechnisch erfassbaren Größen, wie z.B. die mittlere Gasverstärkung und Diffusion. Daneben konnten aber auch die Prozesse im Kleinen studiert werden. Von besonderem Interesse für die Funktion des Detektors ist dabei der Verlauf der Feldstärke in den Poren der Mikrostrukturen und den umliegenden Regionen. Dessen räumlicher Verlauf in Kombination mit den jeweiligen Gasdaten bestimmen die Elektronentransportparameter, die Gasverstärkung, die Diffusion und die Effizienz. In den Xenon-Szintillator integrierter UV-Photonen-Detektor Der UV-Photonendetektor konnte in zwei Varianten erfolgreich in ein Volumen mit dem Xenon-Gas-Szintillator integriert werden. Die Verbindung der CsI-Photokathode mit dem Elektronenverstärker wurde dabei zum einen als semitransparente dünne Schicht auf einer Quarzglasplatte vor der GEM-Folie und zum anderen als opake Variante auf der Frontseite des GEM realisiert. Bei der Auslese des Xenon-Szintillationslichts mit einer in reinem Xenon und bei hohem Druck betriebenen CsI-Photokathode, wurde Neuland betreten. Es wurde erfolgreich gezeigt, dass der integrierte Photonendetektor auf GEM Basis für die hier diskutierten Einsatzbereiche und Anforderungen funktioniert. Die Ankopplung der Photokathode an die Verstärkerstruktur und dabei vor allem der Elektronentransport von der CsI-Schicht in die Verstärkungszone, wurden im Detail untersucht. Dass die Gasverstärkung in reinem Xenon bei den beschriebe-nen Betriebsparameter überhaupt funktioniert, liegt zum einen daran, dass die optische Rückkopplung mit diesem neuen Design effektiv unterdrückt werden kann. Zum anderen konnten die Einflussparameter auf die Gasverstärkung, für den mehrstufigen GEM-Verstärkungsprozess in reinem Xenon, im Detail untersucht werden. Die gekoppelten Gas-Verstärker-Elemente wurden mit einer eigens für diese Anwendung entwickelten Versorgungsspannungsquelle betrieben, die die Folgen von elektrischen Überschlägen minimiert (Kapitel 5.1.3). Gegenüber den herkömmlichen Gasdetektoren ist es mit diesem neuartigen Aufbau möglich, den UV-Photonen-Detektor bei diesen Betriebsparametern stabil zu betreiben. Abbildende Optiken - optische und mechanische Eigenschaften Parallel zur Entwicklung dieses großflächigen Detektors zur Messung des Energiesignals und der Registrierung des primären Lichts, wurde das Konzept zur Ortsauslese via abbildender Optik weiterverfolgt. Die optischen Abbildungseigenschaften der Linsen wurde im Wellenlängenbereich des Xenon-Szintillationslichtes untersucht. In ersten Tests konnte bei kleinen Gasdrücken und somit geringen mechanischen Beanspruchungen die Ebene der Sekundär-lichterzeugung auf einen gekapselten Mikro-Kanal-Platten-Detektor abgebildet werden. Die Festigkeit der Quarzglaslinse für die Druckbeanspruchungen im hier diskutierten Detektor konnte in Zusammenarbeit mit der Fachhochschule Heilbronn - mittels Finite-Elemente-Berechnung - als ausreichend verifiziert werden. Ausblick Die beiden getrennten Systeme für Orts- und Energiemessung funktionieren unabhängig voneinander. Die Vorraussetzungen für die Kombination der Komponenten in einem gemeinsamen Aufbau sind damit geschaffen. Damit ist der Weg für die folgenden Schritte in diesem Projekt aufgezeigt. Als logische Fortsetzung dieser Arbeiten ist geplant, den integrierten Photonendetektor mit der Photokathode auf der GEM-Frontseite, zusammen mit der Ortsauslese gemeinsam aufzubauen. Von dieser Kombination profitiert das Auflösungsvermögen beider Messungen. Die Korrektur der ortsabhängigen Schwankungen in der Effizienz der Photokathode verbessert die Energieauflösung signifikant. Auf der anderen Seite kann durch das geschickte Setzen von geeigneten Bedingungen auf das Energiesignal die Ortsmessung optimiert werden. Als weiterer naheliegender Schritt auf dem Weg zum effizienten Nachweis der hochenergetischen Photonen, bietet sich der Einbau einer zusätzlichen Verstärkungsstufe zum Aufbau eines dreifach-GEM-Detektors an. Damit kann bei höheren Gasdrücken, trotz kleiner werdender maximaler Verstärkung pro GEM, eine ausreichende Gesamtverstärkung erreicht werden. Der Einsatz des Detektors in einem größeren Experiment, in Kombination mit anderen Messapparaturen, rückt somit in greifbare Nähe.
In meiner exemplarischen Untersuchung stelle ich drei Hauptwerke in den Vordergrund, die jeweils für eine literarische Epoche repräsentativ sind, in denen die Auseinandersetzung um die industriegeprägte Technik eine besondere Schärfe erreicht. In dem biedermeierlich geprägten Fabrikroman "Das Engelchen" von Robert Prutz erscheint 1851 zu Beginn der Industrialisierung die Technik als ein bedrohliches, weil unverständliches Prinzip, das die zunftgeregelte Gesellschaftsordnung und mit ihr das moralische Wertesystem untergräbt. Maschinen werden mit Bildern bedrohlicher urzeitlicher Tiere belegt. Technische Kompetenz wird im Roman nicht dazu genutzt, Maschinen humaner zu gestalten - technische Kompetenz ist hier Mittel, um Technik gezielt außer Kraft zu setzen - indem der Konstrukteur die Maschinen durch Überhitzen zerstört und dabei selbst umkommt. Die reale industrielle Entwicklung ignorierend sieht Prutz eine Lösung darin, zum Agrarsystem zurückzukehren - also ein Leben ganz ohne industrielle Technik. Zu Beginn des 20. Jahrhunderts dann, als sich der erste technologisch bestimmte Weltkrieg abzeichnet, erscheint dieses frühe Lösungsmuster als nicht mehr möglich. Technik wird hier auch als Erweiterung soziokultureller Handlungsmöglichkeiten gesehen, weit stärker zeigt sich in der Dramentrilogie "Die Koralle", "Gas" und "Gas. Zweiter Teil" von Gerhard Kaiser aber das destruktive Potential technischer Anwendungen. Aus dem nutzbringenden Energieträger Gas wird unter staatspolitischer Machtausübung in "Gas II" das Massenvernichtungsmittel Giftgas. Nach Faschismus und Zweitem Weltkrieg, nach einer beispiellos-naiven literarischen Technikverherrlichung vor und während der nationalsozialistischen Gewaltherrschaft aber auch dem gleichzeitigen Warnen vor einer atomaren Katastrophe, rückt nun in der Nachkriegsliteratur die ent-industrialisierte Technik in den Vordergrund. Statt Artefakten beschreibt Max Frisch den technischen Menschen, der sein Denken und Handeln in einem kontinuierlichen Prozeß immer weiter zu optimieren versucht. Ziel ist es, ähnlich wie bei einer Rechenmaschine, Fehler immer weiter auszuschließen. Der Mensch erscheint so als Analogon zur Maschine, der sein Denken lediglich nach rationalen Faktoren hin ausrichtet: Eine psychische Technologik wird im "Homo faber" einer sog. weiblichen Logik gegenübergestellt. In allen drei Werken, die repräsentativ für eine literarische Epoche sind, scheinen sich Technik und Leben auszuschließen. Die Skizzierung eines verantwortungsvollen Umgangs mit der Technik steht für die deutsche Literatur bislang aus.
Die Immobilisierung ist eine wichtige Ursache von Knochenverlusten. Viele Autoren haben über eine erhebliche Abnahme der Knochenmasse nach Frakturen der langen Röhrenknochen berichtet, die nicht nur die Frakturstelle, sondern auch deren Nachbarschaft betrifft. Angegeben wurden Substanzverluste von bis zu 50 % sowohl proximal als auch distal der Frakturstelle. Im Erwachsenenalter kommt es über einen Zeitraum von mehreren Jahren zu einer partiellen Wiederherstellung der Knochenmasse, die allerdings auch ausbleiben kann. Untersuchungen nach Radiusfrakturen wurden bisher qualitativ mittels nativer Röntgendiagnostik durchgeführt. Die Verlaufsbeobachtung mittels DEXA ermöglicht die quantitative Bestimmung der Knochendichte und Lokalisation der ersten, bzw. stärksten Atrophie im Handskelett. Da bisher für die Früherkennung einer Heilentgleisung im Stadium I lediglich die mehr oder weniger stark ausgeprägten klinischen Symptome einen Anhalt bieten, wäre die Feststellung eines quantitativen Schwellenwertes mit einer hohen Genauigkeit eine Bereicherung für Definition, Früherkennung und Therapiekontrolle einer Heilentgleisung, bzw. Algodystrophie. Um einen vergleichenden Bezug herstellen zu können, wird die Kenntnis des "physiologischen" Knochenmineralsalzgehaltes entsprechend der Händigkeit vorausgesetzt. Um letzteres zu eruieren soll die Studie dienen. Ferner soll ein objektives und sensitives Maß für die Beurteilung des Ausmaßes einer seitendifferenten Bemuskelung, z. B. im Gutachtenwesen, erarbeitet werden. Die primären Zielvariablen sind die Knochendichte der Hände sowie die Muskel-, Mineral- und Fettmasse der oberen Extremitäten absolut und relativ zur dominanten Seite. Anhand dieser Variablen soll das Ausmaß der "physiologischen" Gewichtung durch die Händigkeit bestimmt werden und Berücksichtigung finden bei der Beurteilung fraglicher "pathologischer" Entmineralisierung, bzw. Muskelatrophie einer Seite. Die Knochendichte und der Knochenmineralgehalt der Hand sowie die Ganzkörpergewebszusammensetzung wurden mittels DEXA (Dual X-Ray Absorptiometry) ermittelt. 114 gesunde weiße Frauen und Männer ohne Verletzungen der oberen Extremität nach der Pubertät im Alter zwischen 20 und 82 Jahren, davon 19 Links- und 95 Rechtshänder, erhielten Scans beider Hände sowie des ganzen Körpers. Durch Serien- und Doppelbestimmungen wurde die Präzision der Knochendichtemessungen kontrolliert. Es zeigte sich ein Variationskoeffizient von 0,3 % bis 0,8 % in Abhängigkeit von der ROI-Position. Das verwendete DEXA-Gerät ist also in der Lage, die Knochendichte mit hoher Präzision zu bestimmen. Wir konnten in unserer Studie signifikante Differenzen zwischen beiden Armen, bzw. Händen bei Normalpersonen nachweisen. Die prozentualen Unterschiede zwischen dominantem und nicht dominantem Arm liegen für die BMD (Knochendichte) bei insgesamt 2,7%, für die BMC (Knochenmineralgehalt) bei 7,4%, für die Muskelmasse bei 11,5% und für das Absolutgewicht (BMC + Muskelmasse + Fettmasse) beider Arme bei 8,3%. Der prozentuale Fettgehalt war dabei im dominanten Arm durchschnittlich 2,3% niedriger als im kontralateralen Arm. Kein Unterschied zwischen beiden Armen konnte beim absoluten Fettgehalt gefunden werden. Ebenfalls signifikante Abweichungen bestehen für BMD und BMC beider Hände. Der mittlere prozentuale Unterschied liegt hierbei für die BMD bei 3,8% und für die BMC bei 5,9% . Bei Linkshändern sind jedoch im Unterschied zu Rechtshändern alle Mittelwerte im nicht dominanten, rechten Arm höher als im dominanten Arm - mit Ausnahme des absoluten und prozentualen Fettgehalts, wo das Gegenteil gilt. Diese Unterschiede sind für die BMC mit 4,8 %, die Muskelmasse mit 6,7 % sowie den absoluten und prozentualen Fettgehalt mit 9,4 % und 3,2 % signifikant. Keine signifikante Differenz bei Linkshändern besteht für die BMD und das Gesamtgewicht des Armes. Die Hände betreffend zeigen Linkshänder im Gegensatz zu Rechtshändern keinerlei signifikante Abweichung. Die geschlechtsspezifischen Unterschiede betrachtend, verlieren Frauen bereits mit Eintritt in die Menopause kontinuierlich an Knochenmasse in Armen und Händen, wohingegen bei den männlichen Individuen ein Anstieg von BMD und BMC bis zum 69. Lebensjahr zu verzeichnen ist. Erst danach kommt es zu einer signifikanten Abnahme, die jedoch geringer ausgeprägt ist als bei den weiblichen Personen. Der Unterschied zwischen beiden Geschlechtern beläuft sich für die BMD der Arme auf insgesamt 17% und für die BMC auf 36%. Die Hände betreffend sind die Differenzen zwischen männlichen und weiblichen Personen etwa um ein Drittel niedriger und betragen 11% für die Knochendichte und 28% für den Knochenmineralgehalt. Postmenopausale Frauen haben im Durchschnitt in den Armen und in den Händen ca. 10% weniger Knochenmasse als premenopausale Frauen. Männliche Personen haben im dominanten Arm insgesamt 39% und im nicht dominanten Arm 42% mehr Muskelmasse als Frauen. Der Fettgehalt in beiden Armen ist bei Männern ca. 21% niedriger als bei Frauen. Die Knochendichte der Hände kann auch zur Abschätzung der systemischen Mineralisierung herangezogen werden. So besteht eine positive signifikante Korrelation zwischen der BMD der Hand einerseits und der des gesamten Körpers (r = 0,62) sowie dem T-Score whole body (r = 0,78) als Maß der systemischen Mineralisierung. Auch BMD von Hand und gleichseitigem Arm korrelieren gut miteinander (r = 0,72), ebenso die Knochendichte der Arme einerseits und die Muskelmasse (r = 0,72) des gleichseitigen Armes, das Körpergewicht (r = 0,49) und die Körpergröße (r = 0,54) andererseits. Eine negative signifikante Korrelation konnte unter anderem nachgewiesen werden zwischen der BMD der Arme und ihrem prozentualen Fettgehalt (r = -0,71). Diesen Ergebnissen zufolge ist also von einem geringen, aber signifikanten Unterschied bei der Knochendichte, dem Knochenmineralgehalt und der "body composition" (Gewebszusammensetzung) zwischen beiden Armen und Händen - mit Ausnahme des absoluten Fettgehalts - bei Rechtshändern auszugehen. Bei Linkshändern dagegen liegt keine reine Linkshändigkeit vor.
Die Arbeit thematisiert den postulierten Zusammenhang zwischen Informationstechnologie (IT) und gesellschaftlichem Wandel. Von Interesse ist hier, wie das Paradigma technologiegetriebenen Wandels in unterschiedlichen Gesellschaften aufgenommen wird. Grundlage der vorliegenden Ergebnisse sind ethnographische Forschungen zwischen 1999 und 2002 in der Republik Zypern (Nicosia), Kolumbien (Bogotá), Rumänien (Timisoara), Indien (Mumbai, Pune, Bangalore) und den Vereinigten Staaten (San Francisco, Silicon Valley). Es wurden insgesamt achtzig Experten im IT-Sektor als Mitglieder transnationaler Berufsgemeinschaften in Technologiezentren und Innovationsregionen unter einer vergleichenden Perspektive zur Bedeutung von IT für Wandel in ihren Gesellschaften befragt. Aus kulturanthropologischer Perspektive kann der Begriff Informationstechnologie als Teil eines dichten "konzeptionellen Feldes" betrachtet werden, ausgestattet mit "kulturellen Logiken", in denen Konzepte wie Modernität, Entwicklung und Fortschritt zentral sind. Experten machen Eingaben in "konzeptionelle Konfigurationen" von Informationstechnologie und können als Akteure an "kulturellen Schnittstellen" identifiziert werden, die kulturelle Diskurse über Informationstechnologie als Werkzeug zur gesellschaftlichen Restrukturierung herstellen und transportieren. Unter dem Ansatz von akteursgetriebenen Wandlungsdynamiken können sie als konstitutiv für die Erzeugung kultureller Logiken der Veränderung und der Erneuerung, und damit einer "Kultur des Wandels" gelten. Die Untersuchung versteht sich als Beitrag zum Wissensfortschritt in der Kulturanthropologie zur Analyse von gegenwärtigen Modernisierungs- und Entwicklungsprozessen in gegenwärtigen Gesellschaften unter der Perspektive von Transnationalisierung.
Die Verwendung von Fettemulsionen mit ausschließlich langkettigen Triglyceriden (LCT) und dadurch hohem Anteil an mehrfach ungesättigten Fettsäuren zur parenteralen Ernährung kann zu Veränderungen in der Fettsäurezusammensetzung von Phospholipiden mit entsprechenden Effekten auf die Metaboliten der Arachidonsäure und der Zellmembranen führen. Die Eliminationsgeschwindigkeit mittelkettiger Triglyceride (MCT) soll nach parenteraler Gabe schneller sein als die von langkettigen Triglyceriden. Nach Infusion gleicher Fettmengen an MCT werden niedrigere Triglyceridwerte gemessen als nach LCT-Gabe. In der vorliegenden Arbeit wurden Elimination und Stoffwechseleffekte verschiedener MCT/LCT-Mischemulsionen im Rahmen einer klinischen Prüfung der Phase 1 untersucht. Dazu wurden stoffwechselgesunden männlichen Probanden zwei neu entwickelte 20%ige Fettemulsionen der Firma Laevosan (Lipidol MCT 1/2 mit 50% und Lipidol MCT 1/3 mit 33% MCT-Anteil) in unterschiedlichen Dosierungen infundiert. Es wurden folgende Versuchsansätze verwendet: 10 g Fett als Bolus in 3 Minuten, eine Kurzinfusion von 50 g Fett in 30 Minuten, eine 12 stündige Dauerinfusion mit 0,1 g Fett/kg KG/h und eine hochdosierte Dauerinfusion über 8 Stunden mit 0,25 g Fett/kg KG/h. Die an Versuchspersonen vorgenommenen Untersuchungen wurden durch tierexperimentelle Leberperfusionen ergänzt. Die Umsatzkapazität für die beiden Fettemulsionen mit Zusatz von MCT lag im gleichen Bereich wie die Umsatzkapazität für vergleichbar zusammengesetzte Fettemulsionen. Die Halbwertszeiten für die Elimination der Triglyceride betrugen 15,1 Minuten für MCT 1/2 20% und 27,9 Minuten für MCT 1/3 20% nach Bolusapplikation von 10 g Fett. Nach Kurzinfusion von 50 g Fett lagen die Eliminationshalbwertszeiten bei 46,2 Minuten für MCT 1/2 20% und bei 54.6 Minuten für MCT 1/3 20%. Unter niedrig dosierter Dauerinfusion (0,1 g Fett/kg KG/h) wurde ein Fließgleichgewicht erreicht. Hingegen erwies sich die höhere Dosierung von 0,25 g Fett/kg KG/h als überdosiert, der stetige Anstieg der Triglyceridkonzentration während der 8stündigen Infusion zeigte an, dass mit dieser Dosierung kein Fließgleichgewicht mehr zu erreichen war. Damit war die Eliminationskapazität für die untersuchten Emulsionen bei dieser Dosierung ebenso wie bei Emulsionen mit reinem LCT-Anteil überschritten. Der Zusatz von MCT hat dementsprechend nicht zu einer Erhöhung der Umsatzkapazität für Fettemulsionen geführt. Der erhebliche Anstieg der Fettsäurekonzentrationen während und nach Applikation der Fettemulsionen ist Ausdruck der raschen Hydrolyse der Triglyceride. Die gaschromatographische Differenzierung der Fettsäurekonzentrationen im Serum ergab, dass der Anstieg der Fettsäuren insbesondere auf das Verhalten der mittelkettigen Fettsäuren zurückzuführen war. Sowohl unter hochdosierter Kurzinfusion von 50 g Fett (= 0,625 g-0,667 g Fett/kg Kg bezogen auf das durchschnittliche Probandengewicht) als auch unter hochdosierter Dauerinfusion von 0,25 g Fett/kg KG/h erfolgte dementsprechend mit beiden Fettemulsionen ein Anstieg der Konzentrationen der freien mittelkettigen Fettsäuren (Capryl- und Caprinsäure) auf außerordentlich hohe Werte, wie sie unter physiologischen Bedingungen kaum jemals gemessen werden (5,2 mmol/l mit MCT 1/3 20% und 5,5 mmol/l mit MCT 1/2 20% nach 50 g Fett, 2,4 mmol/l mit MCT 1/3 20% und 3,6 mmol/l mit MCT 1/2 20% unter 0.25 g Fett/kg KG/h). Von einigen der Probanden wurde deutliche Übelkeit als Nebenwirkung der hochdosierten Fettemulsion angegeben. Erwartungsgemäß kam es mit beiden MCT-haltigen Fettinfusionen neben einem Anstieg der Konzentration der freien Fettsäuren auch zu einer deutlichen Erhöhung der Konzentration der Ketonkörper. Der Anstieg war deutlich höher, wenn der Anteil an MCT erhöht war. Außerdem war der Ketonkörperanstieg vor allem unter den beiden hohen Dosierungen bei Verwendung der Emulsion mit dem höheren Anteil an MCT deutlich stärker ausgeprägt als bei der anderen Emulsion mit dem niedrigeren Anteil an MCT. Es wurden dabei nach Kurzinfusion von 50 g Fett Konzentrationen (berechnet als Gesamtsumme an ß-Hydroxybutyrat und Acetoacetat) von lediglich 7,7 mg/dl mit MCT 1/3 20% im Vergleich zu 11,2 mg/dl mit MCT 1/2 20% erreicht. Unter Gabe von 0,25 g Fett/kg KG/h stieg die Gesamtketonkörperkonzentration mit MCT 1/3 20% auf 8,4 mg/dl während es auch hier mit MCT 1/2 20% zu einem höheren Anstieg auf 12,1 mg/dl kam. Auch in der isoliert perfundierten Rattenleber erfolgte ein rascher Umsatz der in den Fettemulsionen enthaltenen Triglyceride. Dabei kam es zu einer extrem schnellen und vor allem nahezu vollständigen Elimination bevorzugt von mittelkettigen Fettsäuren. Dies führte zu erheblichen Anstiegen des ß-Hydroxybutyrats und Acetoacetats, mit beiden Fettemulsionen bis auf Ketonkörperkonzentrationen um 100 mg/dl. Dies entsprach prozentualen Anstiegen von 645,6-750.5 % für ß-Hydroxybutyrat und von 1099,6-1194,8 % für Acetoacetat. Die Glycerin-Konzentration blieb während der Perfusionen niedrig, dies bedeutete, dass das bei der Hydrolyse der Triglyceride gebildete freie Glycerin in der Leber rasch umgesetzt wurde. Bei einer starken Anflutung von freien mittelkettigen Fettsäuren in der Leberzelle zeigte sich, dass es neben der ß-Oxidation vor allein auch zu einer gesteigerten Lipogenese kam. Die in den geprüften Fettemulsionen enthaltenen MCT wurden ebenso wie langkettige Triglyceride rasch hydrolysiert, wie die hohe Konzentration an mittelkettigen Fettsäuren im Serum aufwies. Die Ursache für die hohe Konzentration der mittelkettigen Fettsäuren könnte sein, dass auch die durch Hydrolyse im peripheren Bereich entstandenen mittelkettigen Fettsäuren vorwiegend über die Leber eliminiert werden. Der Anteil der Leber an der Elimination und am Metabolismus der mittelkettigen Fettsäuren ist aus dem Anstieg der Ketonkörper zu erkennen. Diese Beziehung ist bei der Wertung der im Experiment mit der isoliert perfundierten Rattenleber erhobenen Ergebnisse besonders gut zu erkennen. Es konnten keine Anhaltspunkte dafür gefunden werden, dass die Ergänzung von Sojaöl durch MCT in Fettemulsionen zu einer Steigerung des Umsatzes der infundierten Triglyceride führt. Zu beachten wären allerdings die hohen Konzentrationen vor allem an freien mittelkettigen Fettsäuren, die während der Infusion von MCT-haltigen Emulsionen zu messen sind. Da für diese Messung Spezialmethoden erforderlich sind, sind derartige Bestimmungen bei Routineanwendung allerdings nicht möglich.
Ziel dieser Arbeit war es, mit den Methoden der NMR-Spektroskopie die elektrostatischen Eigenschaften der Xylanase aus Bacillus agaradhaerens in Abhängigkeit vom pH-Wert zu charakterisieren. Für die vorliegende Arbeit wurde das Strukturgen der Xylanase in verschiedene Expressionsvektoren des pET-Systems kloniert, wobei das Enzym auf 207 Aminosäuren verkürzt wurde. Diese Länge entspricht der publizierten Kristallstrukur von Sabini et al. (1999). Die Expression in pET3a und die Aufreinigung des Genproduktes mit Ionenaustauschchromatographie wurde optimiert, sodass homogenes Protein mit guten Ausbeuten erhalten werden konnte. Die Xylanase wurde mit den Isotopen 15N und 13C markiert und heteronukleare, mehrdimensionale NMR-Spektren wurden für die Zuordnung der Resonanzen des Proteins aufgenommen. Die chemischen Verschiebungswerte des Proteinrückgrats und die der aliphatischen Seitenketten wurden vollständig zugeordnet. Als eine weitere Voraussetzung für eine pH-Titration wurden sequenzspezifisch die Resonanzen der Histidin- bzw. Carboxylatgruppen bestimmt. Die Lösungsstruktur der Xylanase wurde anhand mehrerer automatisierter Prozeduren errechnet, um die Zuordnung der Resonanzen zu validieren. Alle Strukturelemente, die bereits aus der Kristallstruktur bekannt sind, wurden korrekt wiedergegeben. Da die Lösungsstruktur mit einem backbone RMSD-Wert von 2.44 ± 0.29 Å hoch 2 als vorläufig zu betrachten war, wurde im Folgenden ausschließlich die Kristallstruktur zur Bewertung der Distanzbeziehungen verwendet. In Abwesenheit des Substrats wurden die pH-abhängigen Resonanzen der Histidin- und Carboxylatgruppen sowie der Amide des Proteinrückgrats gemessen. Die Auswertung ergab 220 Titrationsprofile der 15N- and 13C-Resonanzen in einem pH-Bereich von 3.2 bis 8.7. Durch nichtlineare Regression der gemessenen Werte an eine modifizierte Henderson-Hasselbalch Gleichung wurden die pK S-Werte der Seitenketten von Aspartat und Glutamat, sowie für das C-terminale Carboxylat und für die Histidingruppen bestimmt. Die Titrationskurven der katalytischen Dyade zeigten eine ausgeprägte gegenseitige Wechselwirkung. Die korrespondierenden pK S-Werte stimmen gut mit dem vorhergesagten enzymatischen Mechanismus überein (Sabini et al., 1999) und belegen, dass das Nukleophil Glu94 bei einem neutralem pH-Wert deprotoniert ist, während die Bronsted Säure/Base GIu184 zu ca. 30% protoniert ist. Um die Untersuchungen zur katalytischen Aktivität zu vervollständigen, wurden alle pH-abhängigen [15N]-Resonanzen der Amide des Proteinrückgrats wie auch die der lndolstickstoffe in der Substratbindungsspalte analysiert. Die Wendepunkte konnten dem Titrationsverhalten der benachbarten sauren Aminosäure-Seitenketten zugeordnet werden. Aber es erscheint sehr wahrscheinlich, dass ein wesentlich komplexerer Ablauf stattfindet. Die asymmetrische Wechselwirkung von Trptophan-Seitenketten bezüglich der katalytischen Dyade wie auch das wechselnde Monotonieverhalten der Titrationskurven deuten auf eine simultane Reorganisation der Seitenkettenkonformere bei pH ungefähr gleich 6 und/oder auf eine Änderung des Wasserstoffbrückennetzwerkes innerhalb der Bindungsspalte.
This thesis presented the measurement of antideuteron and antihelium-3 production in central AuAu collisions at V SNN = 200 GeV center-of-mass energy at RHIC. The analysis is based on STAR data, about 3 x 10 high 6 events at top 10% centrality. Within the data sample a total number of about 5000 antideuterons and 193 antihelium-3 were observed in the STARTPC at mid-rapidity. The specific energy loss measurement in the TPC provides antideuteron identification only in a small momentum window, antihelium-3 however can be identified nearly background free with almost complete momentum range coverage. Following the statistical analysis of the hadronic composition at chemical freeze-out of the fireball, the antinuclei abundances were analyzed in terms of the same statistical description. Now applied to the clusterization of the fireball, the statistical analysis yields a fireball temperature of (135+-10) MeV and chemical potential of (5+-10) MeV at kinetic freeze-out. In the same way as the hadronization, the clusterization process is phase-space dominated and clusters are born into a state of maximum entropy. The large sample of observed antihelium-3 allowed for the first time in heavy-ion physics to calculate a differential multiplicity and invariant cross section as a function of transverse momentum. As expected, the collective transverse flow in the fireball flattens the shape of the transverse momentum spectrum and leads to the high inverse slope parameter of (950+-140) MeV of the antihelium-3 spectrum. With the extracted mean transverse momentum of antihelium-3, the collective flow velocity in transverse direction could be estimated. As the average thermal velocity is small compared to the mean collective flow velocity for heavy particles, the mean transverse momentum of antihelium-3 by itself constrains the flow velocity. Here, a simple ideal-gas approximation was fitted to the distribution of the mean transverse momentum as a function of particle mass and provided direct access to the kinetic freeze-out temperature and the flow velocity. A concept, which is complementary to the combined analysis of momentum spectra and two-particle HBT correlation methods commonly used to extract these parameters, and a cross check for the statistical analysis. The upper limit for the transverse collective flow velocity from the antihelium-3 measurement alone is v flow <= (0.68+-0.06)c, whereas the ideal-gas approximation yields a temperature of (130+-40) MeV and v flow = (0.46+-0.08)c. The results indicate, that the kinetic freeze-out conditions at SPS and RHIC are very similar, except for a smaller baryon chemical potential at RHIC. The simultaneous inclusive measurement of antiprotons allowed to study the cluster production in terms of the coalescence picture. With the large momentum coverage of the antihelium-3 momentum spectrum, the coalescence parameter could be calculated as a function of transverse momentum. Due to the difference between antiproton and antihelium-3 inverse slopes, increases with increasing transverse momentum - again a direct consequence of collective transverse flow. Both B2 and B3 follow the common behavior of decreasing coalescence parameters as a function of collision energy. According to the simple thermodynamic coalescence model, this indicates an increasing freeze-out volume for higher energies and is confirmed by the interpretation of the coalescence parameters in the framework of Scheibl and Heinz. Their model includes a dynamically expanding source in a quantum mechanical description of the coalescence process and expresses the coalescence parameter as a function of the homogeneity volume V hom accessible also in two-particle HBT correlation analyzes. The values for the antideuteron and antihelium-3 results agree well with the homogeneity volume from pion-pion correlations, but do not seem to follow the same transverse mass dependence. A comparison with proton-proton correlations may clarify this point and provide an important cross check for this analysis. Compared to SPS the homogeneity volume increases nearly by a factor of two. The analysis of the antinuclei emission at RHIC allowed to study the kinetic freeze-out of the created fireball. The results show, that the temperature and mean transverse velocity in the expanding system does not change significantly, when the collision energy increases by one order of magnitude. Only the source volume, i.e. the homogeneity volume, increases. That leaves open questions for the theoreticians to the details of the system evolution from the initial hot and dense phase - the initial energy density is a factor of two to three higher at RHIC than at SPS - to the final kinetic freeze-out with similar conditions. At the same time, the results are important constraints for the theoretical descriptions. The successful implementation of the Level-3 trigger system in STAR opens the door for the measurement of very rare signals. Indeed, in the coalescence physics perspective, the first observations of anti-alpha 4 He nuclei and antihypertritons 3/Delta H will come within the reach of STAR, in addition to a high statistics sample of antihelium-3.
In der Tagesklinik der Sozialpsychiatrie der Uniklinik Frankfurt am Main wurde eine auf die Körpersprache bezogene Tanztherapie über zehn Wochen angeboten. 31 Probanden nahmen an der Studie teil. Das Alter und das Geschlecht aller Probanden, sowie die Diagnosen der Patienten waren vergleichbar. 18 von 23 Patienten waren an einer Schizophrenie erkrankt, die zur Zeit der Untersuchung nicht produktiv war. Das Durchschnittsalter der Probanden lag bei 26,03 + / - 7,42 Jahren. 16 Frauen und 15 Männer nahmen an der Untersuchung teil. Eine ausreichende Konzentrationsfähigkeit und verbale Kommunikationsfähigkeit der Probanden war gegeben. Die Probanden in den jeweiligen Gruppen kannten sich untereinander und wurden in drei Gruppen aufgeteilt. Es gab zwei Patientengruppen (9 bzw. 12 Patienten), die sich von der Tagesklinik her kannten, und eine gesunde Kontrollgruppe (10 Probanden), die sich aus Medizinstudenten zusammensetzte. Zehn Wochen dauerte die Studie. Pro Woche fand pro Gruppe je eine einstündige Tanztherapie über Körpersprache statt. Die Uhrzeit, der Tag und der Ort (Kapelle) der Untersuchung waren festgelegt. Im Verlauf der Therapie sollte die Körpersprache des gesamten Körpers besprochen und ausgeübt werden. Die Hauptthemen der Therapiestunden waren: 1.) das Gehen, 2.) die Arme, 3.) die Schultern, 4.) die Hände, 5.) der Kopf, 6.) das Becken, 7.) der Brustkorb / der Bauch, 8.) Bein- und Kniestellungen, 9.) Standmöglichkeiten, 10.) der ganze Körper. Die Tanztherapie über Körpersprache verlief nach dem folgenden Schema: 1.) Nach Ausfüllen der Befindlichkeits-Skalen (A - Version (Bf-S)) begann die Stunde mit rhythmischen Aufwärmübungen. Vorgegebene Rhythmen wurden passend zur Musik geklatscht, gestampft oder gegangen. 2.) Danach wurde über die Ausdruckskraft eines bestimmten Körperteils gesprochen. Körpersprachliche Vorschläge der Teilnehmer wurden ausgeübt und passend zur Musik tänzerisch wiederholt. 3.) Das Ausdrucksvermögen eines weiteren Körperteils, welches in der vorherigen Stunde besprochen wurde, sollte nochmals erörtert werden. (Die Wiederholung von Therapiethemen sollte den Lerneffekt steigern.) 4.) Am Ende der Stunde wurden die erarbeiteten Themen tänzerisch wiederholt. Dann wurden wieder die Befindlichkeits-Skalen (B - Version (Bf-S')) ausgefüllt. Für die körpersprachlich orientierte Tanztherapie wurden neun Musikstücke ausgesucht. Da Popmusik von 20 - 30-Jährigen gerne gehört wird und in diesem Alter oft zu dieser Musik getanzt wird, wurde sie in der Studie verwendet: Visitor (Koto), This is your life (Banderas), Only you (C., H. Project), You (Ten Sharp), Cantaloop (US 3), Queen of the night (W. Houston), All that she wants (Ace of Base), Colour of love (Snap), I will always love you (W. Houston) Das Ziel der Tanztherapie über Körpersprache ist, innerhalb der psychiatrischen Rehabilitation psychisch Kranker ein unterstützendes Medium zu schaffen, welches die soziale Reintegration dieses Klientels durch körpersprachliche Erkenntnisse erleichtert und stimmungshebend wirkt. In dieser Dissertation wurden mehrere Studien zitiert, die darauf hinweisen, daß Menschen an Selbstbewußtsein, Beliebtheit und Akzeptanz gewinnen, wenn sie eine lebendige Körpersprache beherrschen. (Rimè, 1991; Dyansky, 1973 - 74) Ein stärkeres Bewußtsein für die Ausdruckskraft des eigenen Körpers könnte demnach den Patienten rehabilitativ bei der Arbeit, bei Vorstellungsgesprächen, bei Bekanntschaften und generell im sozialen Bereich helfen. Lange Aufenthalte in der Psychiatrie, das abrupte Verlassen des Arbeitsplatzes und des sozialen Umfeldes, die durch die Schizophrenie und die Psychopharmaka bedingten Residuen und Nebenwirkungen, die sich oft motorisch und psychisch niederschlagen, begründen weitere wissenschaftlich fundierte, therapeutische Maßnahmen. Psychisch kranke Patienten leiden an depressiven Verstimmungen. Es konnte nachgewiesen werden, daß Musik- aber auch Tanztherapien die Befindlichkeit der Probanden positiv beeinflussen. Das bloße Anhören von Musik kann die Stimmung des Zuhörers heben. (Leuwer, 1982; Pieschl, 1974) Das Verwenden von beschwingter, schneller Musik in der körpersprachlich orientierten Tanztherapie sollte demnach die Befindlichkeit der Probanden positiv beeinflussen. Welchen Einfluß die Tanztherapie auf das Befinden und auf das motorische Verhalten der Probanden hat, wurde mit den "Befindlichkeits-Skalen nach ZERSSEN" und der "Checkliste Motorischer Verhaltensweisen nach SCHILLING" untersucht. Videoaufnahmen standen als objektives Anschauungsmaterial zur Verfügung. Testverfahren, wie die Varianzanalyse, die deskriptiven Statistiken, der t-Test und die Faktorenanalyse wurden verwendet. Signifikante Ergebnisse konnten im Sinne eines deskriptiven Stellenwertes interpretiert werden. Zudem wurde zwischen den Begriffen "tendenziell signifikant" (p < 0,10 > 0,05), "signifikant" (p < 0,05) und "hochsignifikant" (p < 0,01) unterschieden, um auch auf schwache Veränderungen hinweisen zu können. Die folgenden Fragen stellten sich: 1. Wirkt sich eine körpersprachlich orientierte Tanztherapie, die als geschaffenes Instrumentarium für verschiedene Gruppen gleichgehalten und angeboten wird, negativ oder positiv auf das Befinden der Probanden aus? 2. Weisen videotechnisch erfaßte, körpersprachliche Ausdrucksformen auf eine Verbesserung bzw. Harmonisierung des Ausdrucksverhaltens bei den Untersuchten hin? 3. Unterscheiden sich die Untersuchungsergebnisse der Patientengruppen von denen der gesunden Kontrollgruppe in bezug auf die Motorik und in bezug auf die erfaßte Befindlichkeit? Mit den "Befindlichkeits-Skalen nach ZERSSEN" können Befindlichkeitsveränderungen bei gesunden und kranken Probanden dargestellt werden. Sie bestehen aus zwei miteinander hoch korrelierenden Skalen mit je 28 Adjektiv-Gegensatzpaaren. Jeder Teilnehmer füllte am Anfang und am Ende der Tanztherapie diese Skalen aus, indem er pro Adjektiv entweder "trifft zu", "trifft nicht zu" oder "weder noch" ankreuzte. Diese Ergebnisse wurden so codiert, daß negativ belegte Adjektive zwei Punkte, "weder noch" einen Punkt und positive Adjektive keinen Punkt bekamen. Die Summe der Punktzahlen variiert zwischen 0 und 56. Niedrige Werte deuten auf ein gutes und hohe Werte auf ein schlechtes Befinden der Probanden hin. In ähnlichen Untersuchungen von Musik- oder Tanztherapien stellte sich heraus, daß das Befinden der Patienten innerhalb einer Therapiestunde etwas schwächer positiv wurde als bei den gesunden Probanden. (Pieschl, 1974; Hartmann, 1989; Leuwer, 1982) Erste Fragestellung: Wirkt sich eine körpersprachlich orientierte Tanztherapie negativ oder positiv auf das Befinden der Probanden aus? Die Befindlichkeit der Probanden verbesserte sich innerhalb einer körpersprachlich orientierten Tanztherapiestunde. In 25 von 30 Fällen wiesen die Mittelwerte auf positive Veränderungen der Befindlichkeit hin. In einem Fall blieb das Befinden gleich und viermal verschlechterte es sich. Ähnliche Entwicklungen ließen sich varianzanalytisch durch eine gruppenübergreifende Betrachtung der Ergebnisse pro Stundenereignis in 8 von 10 Fällen signifikant bzw. tendenziell signifikant darstellen. Nicht signifikant waren hier die Veränderungen der Befindlichkeit in der 2. Stunde. Ein solcher Trend wurde in der 10. Stunde erkannt. Am zweiten und zehnten Untersuchungstag wurden Videoaufnahmen gemacht. Die Probanden waren, entsprechend den Beobachtungen des Untersuchers, an diesen Tagen befangener. Dritte Fragestellung: Wie unterscheiden sich die Untersuchungsergebnisse der Patientengruppen von denen der gesunden Kontrollgruppe in bezug auf die Befindlichkeit? Die Befindlichkeitsveränderungen waren bei den Patienten schwächer als bei der Kontrollgruppe. Diese Ergebnisse waren bei der gesunden Kontrollgruppe groß genug, um im t-Tests in sechs Fällen signifikant zu werden. In der 2. - 6. und 10. Stunde verbesserte sich die Befindlichkeit der gesunden Gruppe signifikant (p < 0,05). Bei der zweiten Patientengruppe gab es Tendenzen für eine Verbesserung des Befindens in der 5. Stunde (p = 0,01). Dieses Ergebnis wurde in der 3. und 8. Stunde knapp verfehlt. Ein Trend zur Befindlichkeitsverbesserung ließ sich bei der ersten Patientengruppe in der 8. und 9. Stunde darstellen. Eine Verschlechterung des Befindens war bei den Patienten anhand des t-Tests nicht zu erkennen. Mit der "Checkliste Motorischer Verhaltensweisen (CMV) nach SCHILLING" sollten Veränderungen des motorischen Verhaltens bzw. der Körpersprache eines jeden Probanden, dargestellt werden. Die aus 78 Adjektiven bestehende Checkliste wurde mit Hilfe von Videoaufnahmen pro Proband zu Beginn und am Ende der zweiten und zehnten Tanztherapiestunde vom Untersucher ausgefüllt. Anhand der Erinnerungen des Untersuchers wurden in SCHILLINGS und auch in diesem Testverfahren die motorischen Veränderungen innerhalb der Therapiestunden prä- und posttherapeutisch eingeschätzt (globale Einschätzung). Beim Ausfüllen von CMV hatte man pro Adjektiv zwei Möglichkeiten zum Ankreuzen, die wie folgt kodiert wurden: "trifft zu = 1 Punkt" oder "trifft nicht zu = 0 Punkte". SCHILLING standardisierte CMV faktorenanalytisch für lernbehinderte und psychomotorisch gestörte Kinder. Da bei dieser Studie mit Erwachsenen gearbeitet wurde, mußten neue Faktoren ermittelt werden. Mittels einer Faktorenanalyse wurden die Adjektive auf acht Faktoren reduziert: "fließend, unkoordiniert, hyperkinetisch, präsent, holprig, abwesend, unbeholfen und agil". Sie dienten als Überbegriffe für die typischen motorischen Verhaltensweisen der Teilnehmer. Einige Faktoren ähnelten zufälligerweise denen von SCHILLING. In der Zukunft wäre es interessant, die "Checkliste Motorischer Verhaltensweisen" für das psychiatrische Klientel zu standardisieren, um die körpersprachlichen Effekte einer Tanztherapie routinemäßig untersuchen zu können. Zweite Fragestellung: Weisen videotechnisch erfaßte, körpersprachliche Ausdrucksformen auf eine Verbesserung bzw. Harmonisierung des Ausdrucksverhaltens bei den Untersuchten hin? Dank der Videoaufnahmen sind das motorische Verhalten der Teilnehmer und die motorischen Veränderungen dieser Studie jederzeit objektiv darstellbar. Den Patienten wurde angeboten, sich die Aufnahmen freiwillig anzusehen. Sie bekamen die Möglichkeit, das eigene motorische Verhalten einzuschätzen, daraus zu lernen und darüber zu sprechen. Viele Probanden gaben an, daß sie durch die Aufnahmen ihr motorisches Verhalten erst richtig wahrgenommen hätten und von den Anregungen der Tanztherapie profitieren würden. Mit Hilfe der Videoaufnahmen konnte der Untersucher zudem die "Checkliste Motorischer Verhaltensweisen" ausfüllen. Die motorischen Veränderungen der Probanden konnten mit der "Checkliste Motorischer Verhaltensweisen" statistisch im t-Test, in Varianzanalysen, durch Mittelwerte und mit Hilfe von Videoaufnahmen ermittelt werden. Mit fünf Ausnahmen wiesen alle Mittelwerte auf positive motorische Veränderungen hin (keine Veränderung: "präsent": 2. Patienten, Erinnerung; "agil": 2. Patienten, 1. Film; Verschlechterung: "unkoordiniert": 2. Film, 2. Patienten; "abwesend":1./2. Patienten, Erinnerung). Signifikant bzw. tendenziell signifikant waren die Ergebnisse in folgenden Fällen: Kontrollgruppe: 17 / 24; 1. Patientengruppe: 19 / 24; 2. Patientengruppe: 20 / 24. Bei der gruppenübergreifenden Varianzanalyse waren alle Ergebnisse, außer dem Faktor "hyperkinetisch" (2. Film), signifikant. Die Richtung der Veränderungen war fast immer identisch. Die Mittelwerte wiesen mit fünf Ausnahmen bei allen Gruppen auf motorische Verbesserungen hin. Dritte Fragestellung: Wie unterscheiden sich die Untersuchungsergebnisse der Patientengruppen von denen der gesunden Kontrollgruppe in bezug auf die Motorik? Anhand der deskriptiven Statistiken, der Vielzahl der signifikanten Ergebnisse des t-Tests und der Varianzanalyse war zu erkennen, daß sich die Patienten zu Beginn der Stunde schlechter und am Ende der Stunde signifikant besser bewegten als die Kontrollgruppe. Im ersten Videofilm veränderte sich die Motorik der Kontrollgruppe in 7 von 8 Fällen so stark, daß die dargestellten, motorischen Veränderungen im t-Test signifikant oder tendenziell signifikant wurden. "Fließendere, präsentere und agilere und weniger unkoordinierte, holprige, tendenziell abwesende" Bewegungen waren zu beobachten. Die Ergebnisse des zweiten Videofilms und "der Erinnerung nach" waren weniger häufig bzw. in 5 von 8 Fällen signifikant. Dies mag durch den Lerneffekt im Verlauf der Therapie bedingt sein. Im zweiten Videofilm wurde sich tendenziell "fließender, agiler, weniger unkoordiniert und signifikant weniger abwesend bzw. unbeholfen" bewegt. "Der Erinnerung nach" waren die Bewegungen tendenziell "fließender, präsenter, agiler, weniger abwesend und signifikant weniger unbeholfen". Keine signifikanten Veränderungen waren aufzuweisen beim Faktor "hyperkinetisch", mit je einer Ausnahme bei den Faktoren "unkoordiniert und präsent" und zweimal bei dem Faktor "holprig". Die Kontrollgruppe erreichte von allen Gruppen am wenigsten den signifikanten Bereich. Im t-Test veränderten sich bei der ersten Patientengruppe alle Faktorenladungen "der Erinnerung nach" stark genug, um im t-Test signifikant bzw. bei "agil" tendenziell signifikant zu werden. Dies spiegelt sich auch an der Höhe der Mittelwertdifferenzen wider. Im ersten Videofilm sind in 6 von 8 Fällen die Faktoren signifikant "präsent, agil und weniger unkoordiniert, holprig, abwesend, unbeholfen und tendenziell weniger unbeholfen." Die Faktoren "fließend und agil" verfehlen knapp den tendenziell signifikanten Bereich. Im zweiten Videofilm sind die Faktoren in 5 von 8 Fällen signifikant. Nicht signifikant wurden die Faktoren: "hyperkinetisch, abwesend und agil." Bei der zweiten Patientengruppe veränderten sich alle Faktorenladungen "der Erinnerung nach" bzw. im ersten Videofilm stark genug, um signifikant zu werden. Nur der Faktor "agil" wurde tendenziell bzw. gar nicht signifikant. Im zweiten Videofilm war eine Veränderung der Ergebnisse zu erkennen. Hier sind 5 von 8 Fällen signifikant ("fließend") bzw. tendenziell signifikant ("unkoordiniert, präsent, holprig, unbeholfen"). Nur der Faktor "fließend" erreichte eine Irrtumswahrscheinlichkeit < 0,05. Keine Veränderungen waren bei "hyperkinetischen, abwesenden und agilen" Bewegungen zu erkennen. Die Abnahme von nachweisbaren, motorischen Veränderungen im Verlauf der zehn Tanztherapiestunden kann durch Lern- und Gewöhnungseffekte bedingt sein. Die motorischen Veränderungen waren zu Beginn der Therapie am stärksten. Die Gruppen unterschieden sich voneinander bei der varianzanalytischen Untersuchung in 7 von 24 Fällen motorisch signifikant bzw. tendenziell signifikant: "fließend (2. Film), unkoordiniert (2. Film), unbeholfen (1. Film), holprig (alle Untersuchungsformen) und präsent (2. Film)". Varianzanalytisch waren Gruppenunterschiede hauptsächlich anhand des zweiten Videofilms zu beobachten. In der zweiten Videoaufnahme wurden die motorischen Veränderungen, besonders bei der zweiten Patientengruppe, weniger häufig signifikant bzw. eher tendenziell signifikant. Nicht signifikant wurden bei allen Gruppen die Faktoren "hyperkinetisch, abwesend und agil" und bei der Kontrollgruppe zusätzlich "präsent und holprig". Zudem unterschieden sich auch die Patientengruppen voneinander durch ihre kognitiven und motorischen Fähigkeiten, was sich durch die aktive Teilnahme und den Ideenreichtum der jeweiligen Gruppe bemerkbar machte. Zusammenfassend kann man sagen: 1.) Bei allen Gruppen ist ein Trend zur Verbesserung der Befindlichkeit durch die Mittelwerte zu erkennen. Varianzanalytisch läßt sich dies signifikant nachweisen. Die Gruppen reagieren mit wenigen Ausnahmen vergleichbar auf die Therapie. Die körpersprachlich orientierte Tanztherapie hat einen stärkeren, positiven, signifikanten Einfluß auf die Befindlichkeit der Gesunden als auf die Kranken. Eine deutliche, negative Beeinflussung des Befindens ist nicht signifikant darstellbar. Patienten, die an einer Schizophrenie erkranken und häufig an depressiven Verstimmungen leiden, verbessern ihr Befinden im Verlauf der körpersprachlich orientierten Tanztherapie leicht. Die Patientengruppen unterscheiden sich durch ihre kognitiven und motorischen Fähigkeiten. 2.) Die Körpersprache der Probanden verbessert sich mehrheitlich im Verlauf der körpersprachlich orientierten Tanztherapiestunde. Die signifikanten Veränderungen nehmen von der ersten zur zweiten Videoaufnahme ab. Durch Videoaufnahmen kann dies dargestellt werden. 3.) Statistisch gesehen profitieren die Patienten motorisch mehr von der Therapie als die gesunde Kontrollgruppe. Varianzanalytisch lassen sich diese Unterschiede vereinzelt nachweisen. Die Tanztherapie über Körpersprache fördert innerhalb der Therapiestunde die motorischen Fähigkeiten der Teilnehmer. Die Richtung der motorischen und emotionalen Veränderungen im Verlauf der Therapie ist bei den Gruppen gleich. Musik- und Tanztherapien haben positive Auswirkungen auf das Befinden der Probanden. Dies ließ sich durch PIESCHL (1974), LEUWER (1982) und HARTMANN (1989) in Musik- und Tanztherapien wissenschaftlich darstellen. Deshalb ist die Verwendung von Musik und Tanz in einer Therapie empfehlenswert. Die schizophrenen Kranken leiden häufig an depressiven Verstimmungen. Eine Aufhellung des Befindens innerhalb einer Therapie ist wünschenswert. Die Tanztherapie über Körpersprache beeinflußt die Befindlichkeit und die Motorik positiv. Diese Therapie sollte man weiterhin in rehabilitativen Bereichen der Psychiatrie anbieten. Inwiefern die Studienergebnisse auch außerhalb der Therapie noch nachweisbar sind, wäre in weiteren Untersuchungen zu erforschen. In einigen wissenschaftlichen Arbeiten wird daraufhingewiesen, daß die Beherrschung der Körpersprache einen nicht unterschätzbaren Einfluß auf das soziale Leben und die Kommunikation der Menschen hat. (Ekman, 1972; Feldman, 1992; Knapp, 1992; Rimé, 1991) Beobachtungen des Untersuchers zeigten, daß Patienten, die nach längerer Pause wieder an der körpersprachlich orientierten Tanztherapie teilnahmen, den neu aufgenommenen Patienten körpersprachlich gegenüber überlegen waren. Motorische Verbesserungen wurden bei der Ausübung von der körpersprachlich orientierten Tanztherapie, trotz der durch die Krankheit und die Psychopharmakatherapie bedingten psychischen und motorischen Auffälligkeiten der Patienten, beobachtet. Bewegungen wurden "fließender, präsenter, teils agiler und weniger unkoordiniert, hyperkinetisch, holprig, abwesend und unbeholfen". Ein Patient erzählte nach Ablauf der Therapie, er habe sich beim letzten Vorstellungsgespräch "körperlich selbstbewußter verhalten". In zukünftigen, körpersprachlich orientierten Studien sollten größere Untersuchungsgruppen, Langzeitstudien (Auswirkungen auf den Alltag prüfen), Fremd- und Selbstbeurteilungsverfahren verwendet werden und mit der "Checkliste Motorischer Verhaltensweisen", dem Rombergtest bzw. mit verschiedenen physiologischen wie auch psychologischen Tests weiter geforscht werden. Die Körpersprache hat einen Einfluß auf die soziale Integration und auch auf die psychiatrische Rehabilitation. Diese Effekte sollten möglichst effektiv medizinisch-therapeutisch genutzt werden. Denn der folgende Spruch, der für gesunde und kranke Menschen gilt, ist bezeichnend: "Der erste Eindruck ist entscheidend, der letzte bleibt." (Ruhleder, R., 1996, S. 68) Gerade beim Knüpfen neuer Kontakte liegt der Schwerpunkt auf dem ersten Eindruck. Hier wird entschieden, ob es überhaupt zu einem Kontakt kommt. Die Körpersprache unterstützt und erleichtert die Kommunikation. Das Erste und auch das Letzte, was man von einem Menschen wahrnimmt, ist nun einmal bewußt oder unbewußt fast immer der menschliche Körper mit seiner Ausdruckskraft und nicht die verbale Sprache.
Zur Phänomenologie der Obduktionen im Zentrum der Rechtsmedizin in Frankfurt am Main 1993 - 1995
(2003)
Das Sektionsgut des Zentrums der Rechtsmedizin in Frankfurt am Main der Jahre 1993 bis 1995 wurde anhand der entsprechenden Sektionsprotokolle und -bücher mit Hilfe eines eigens für den rechtsmedizinischen Bereich entwickelten Datenerfassungsprogrammes erfasst und ausgewertet (MÜLLER und BRATZKE, 1993). Im Untersuchungszeitraum wurden insgesamt 4115 Leichen in das Zentrum der Rechtsmedizin eingeliefert, von denen 79,5% (3271 Leichen) obduziert wurden. Bezüglich der Geschlechtsverteilung des gesamten Sektionsgutes betrug der Anteil der Männer 66% und der Frauen 34%. Sowohl bei den natürlichen Todesfällen (62,3%) als auch bei den nichtnatürlichen Todesfällen (70,5%) überwog der Anteil der Männer deutlich. Das Durchschnittsalter aller Obduzierten lag bei 50,7 Jahren. Im Auftrag der Staatsanwaltschaften Frankfurt am Main, Darmstadt mit der Zweigstelle Offenbach, Hanau und Wiesbaden wurden innerhalb der drei Jahre 2031 Leichen obduziert. In 937 Fällen fand eine Feuerbestattungssektion und in 278 Fällen eine Verwaltungssektion statt. Neun Obduktionen wurden im Auftrag einer Versicherung und 16 Obduktionen im Auftrag von Privatpersonen durchgeführt. 53 Todesfälle fielen unter die Kategorie "Sonstiges". Hierunter wurden sowohl 44 "Irrläufer", die zunächst in die Rechtsmedizin eingeliefert wurden, eigentlich aber in der Pathologie seziert werden sollten, sieben amerikanische Staatsbürger, die nach Kenntnis der Nationalität ohne Obduktion oder Besichtigung den amerikanischen Stellen überantwortet wurden, und zwei Fälle von Organteilen zusammengefaßt. 791 Leichen wurden besichtigt. In 50,7% (1660) der Fälle wurde ein nichtnatürlicher Tod, in 43,8% (1432) ein natürlicher Tod festgestellt, in 5,1% (168) blieb die Todesart auch nach der Obduktion unklar. Unter den nichtnatürlichen Todesfällen befanden sich 333 Verkehrstote, 75% waren Männer. In 35% der Fälle handelte es sich bei den Unfallopfern um Fußgänger, die durch einen Pkw, ein anderes Kfz oder ein Schienenfahrzeug erfaßt und getötet wurden. 28% der Todesfälle waren Fahrer und 11% Insassen eines Pkw. Weitere 11% kamen als Radfahrer und 9% als Motorradfahrer ums Leben. 49,5% der Verkehrsunfallopfer starben an den Folgen eines Polytraumas und bei 31% führte ein isoliertes Schädelhirntrauma zum Tode. Die Selbsttötungen stellten mit 30% (492 Fälle) die häufigste Art des nichtnatürlichen Todes dar. Der Suizid durch Erhängen bzw. Strangulation war die meist gewählte Methode (28%), gefolgt vom Tod durch "stumpfe Gewalt" bedingt Sprung aus dem Fenster oder vor einen Zug (24%). Bei 404 Todesfällen handelte es sich um einen Unglücksfall. Hier standen die sog. Drogentoten mit 239 Todesfällen deutlich im Vordergrund. Anhand der rückläufigen Tendenz der Anzahl der Drogentoten werden Chancen und Möglichkeiten einer integrativen gegenüber einer restriktiven Drogenpolitik deutlich. 80 Personen kamen bei einem Haushaltsunfall und 45 Personen, unter ihnen eine Frau, bei einem Arbeitsunfall ums Leben. In den Jahren 1993 bis 1995 wurden 243 Personen Opfer eines Tötungsdeliktes. Der Anteil von 39% Frauen entspricht dabei dem bundesweiten Durchschnitt. Die Zahl der Tötungsdelikte nahm im Untersuchungszeitraum um 15% zu, wobei der weibliche Anteil relativ konstant blieb. Der Vergleich des Sektionsgutes mit den Verstorbenen der Stadt Frankfurt am Main zeigte, daß im Betrachtungszeitraum durchschnittlich 7,2% der verstorbenen Frankfurter Bürger im Zentrum der Rechtsmedizin obduziert wurden. Die Obduktionsfrequenz lag bei den natürlichen Todesfällen bei 4,5% und bei den nichtnatürlichen Todesfällen bei 50,4%. Die vorliegenden Ergebnisse zeigen Enwicklungstendenzen und Auswirkungen bestimmter Maßnahmen in Bereichen wie Straßenverkehr und Drogenpolitik auf und können für andere epidemiologische Untersuchungen zum Vergleich herangezogen werden, ebenso kann durch systematische Sektion ein "Frühwarnsystem" etabliert werden, das zu rechtzeitigen präventiven Maßnahmen Anlass gibt.
In der vorliegenden Untersuchung wurden an 35 gynäkologischen Patientinnen die Unterschiede zwischen Desfluran und Isofluran auf das EEG-Frequenzverhalten, die SEF 95% und die somatosensorisch evozierten Potentiales des N. medianus untersucht. Dabei wurden die Einflüsse steigender Narkosegaskonzentrationen und nocizeptiver Reize sowie die Veränderungen in der Aufwachphase auf die oben genannten Parameter verglichen. Die Untersuchung wurde als prospektive und randomisierte Studie durchgeführt. Es konnte der Nachweis geführt werden, dass es keinen Anhalt für Unterschiede in der Beeinflussung der EEG-Parameter Powerspektrum und SEF 95%, sowie der somatosensorisch evozierten Potentiale zwischen Desfluran und Isofluran gibt. Dies gilt für equipotente Narkosegaskonzentrationen ebenso wie für die Unterdrückung nocizeptiver Reize. Anders stellt sich das Bild in der Aufwachphase dar. Dort führt die langsamere Eliminierung des Isofluran zu einer Aktivierung im EEG mit einer starken Ausprägung der beta-Wellen. Einen Einfluss auf klinische Befunde wie Vigilanz, Schmerzempfindung oder Entlassung aus dem Aufwachraum durch diese EEG-Veränderungen ließ sich bei den von uns untersuchten Patienten nicht nachweisen, jedoch konnte in anderen Studien eine Verbesserung der Wiederkehr kognitiver Funktionen besonders bei älteren Patienten nach Desflurannarkosen im Vergleich zu Isoflurannarkosen beobachtet werden [35]. Diese Beobachtung lässt sich durch die Veränderungen in der EEG-Frequenzanalyse mit einem Frequenzmuster wie unter Sedierung erklären.
Die Doppelionisation von Wasserstoffmolekülen H2 durch einzelne Photonen stellt ein fundamentales und herausforderndes Problem sowohl für die experimentelle als auch für die theoretische Physik dar. In den meisten Fällen kann dabei die elektronische Bewegung von der nuklearen Dynamik entkoppelt werden (Born-Oppenheimer Näherung). Aus diesem Grund kann man auch den molekularen Fragmentationsprozess als eine Emission eines Dielektrons aus einem nuklearen Zweizentren-Coulomb-Potential beschreiben. Die vorliegende Arbeit befasst sich mit der Photodoppelionisation (PDI) von molekularem Wasserstoff durch einzelne, linear polarisierte Photonen mit einer Energie von 75 eV. Dieses Szenario wird verglichen mit der Photodoppelionisation von Heliumatomen (siehe [Bri00] für einen umfassenden Überblick). In diesem Versuch wurde die Rückstoßionenimpulsspektroskopie-Methode (COLd Target Recoil Ion Momentum Spectroscopy COLTRIMS) benutzt, um alle Fragmente der Reaktion auf ortsauflösende Vielkanalglasplatten(Multi-Channel-Plate MCP)-Detektoren mit Verzögerungsdrahtauslese (delay-line anode) abzubilden. Dabei wurden die Mikropartikel durch elektrische und magnetische Felder geführt. In einer Messung wurde das Rückstoßionenspektrometer mit gepulster Extraktionsspannung betrieben, um das Dielektron und die Stellung der molekularen Achse mit guter Impulsauflösung gleichzeitig vermessen zu können. In einer weiteren Messung kam ein neuartiges Detektorsystem mit hexagonaler Verzögerunsdrahtanode zum Einsatz, die in der Lage war, beide Elektronen, die in sehr kurzen Zeitabständen auf dem Detektor eintrafen, ohne Totzeitverluste in Koinzidenz mit den nuklearen Fragmenten ortsauflösend zu registrieren. Aus den Flugzeiten und Auftrefforten der Teilchen der beiden Datensätze konnten die Impulse des Vierteilchenendzustandes generiert werden. Dies stellt die Messung des Betragsquadrats der quantenmechanischen Wellenfunktion im Impulsraum dar. Aus diesen Größen konnten auch die azimutalen und polaren Winkelverteilungen in Referenz zum Polarisationsvektor des einfallenden Lichts bestimmt werden. Basierend auf der axialen Rückstoßnäherung konnten so zum ersten Mal hochdifferentielle Wirkungsquerschnitte (QDCS und höher) des Vierkörper-Problems für eine raumfeste Molekülachse gemessen werden. Unter Ausnutzung der Reflexions-Näherung war sogar der internukleare Abstand des Moleküls zum Zeitpunkt der Photoabsorption zugänglich. Man findet markante Übereinstimmungen mit der PDI von Heliumatomen. Das Dielektron wird vorwiegend entlang des Polarisationsvektors emittiert und koppelt an das Schwerpunktssystem (Center-of-Mass CM) der nuklearen Partikel, die in einer Coulomb-Explosion fragmentiern. Etwa 72.5 % der Anregungsenergie der beiden Elektronen geht in deren Relativbewegung. Wie bei der Ionisation von Heliumatomen bestimmt die Elektron-Elektron Wechselwirkung zusammen mit diversen Auswahlregeln (siehe [Wal00c]) die Form der polaren Winkelverteilung. In der azimutalen Ebene (die Ebene, die senkrecht zum Polarisationsvektor des Lichts angeordnet ist) erkennt man den attraktiven Einfluss des nuklearen Zweizentren-Potentials, was zu einer Abweichung von der Zylindersymmetrie um die Achse des elektrischen Feldvektors des Lichts führt, wie sie bei niedrigeren Photonenenergien vorzufinden ist (siehe [Dör98b]). In dieser Ansicht tendieren langsame Elektronen dazu, entlang der Molekülachse emittiert zu werden. Es können der sogenannte Auffülleffekt der Knotenstruktur und die vergrößerten Zwischenwinkel in der Polarwinkelverteilung der Elektronen in Form einer Zweikeulenstruktur verifiziert werden (siehe [Red97, Wig 98]). Die Ergebnisse bestätigen den Modellansatz von J. Feagin (siehe [Fea98]), der den Zusammenbruch einer atomaren Auswahlregel, die auf einem Konus wirkt, für den molekularen Fall vorhersagt. Diese Auswahlregel reduziert sich auf eine Knotenlinie, die aufgrund der endlichen Öffnungswinkel des Experiments aufgefüllt wird. Es gibt Hinweise, dass die Verringerung des elektronischen Zwischenwinkels eine Funktion der Stellung der Molekülachse ist, d.h. der kohärenten Überlagerung der beiden möglichen Endzustände mit S- und ?-Symmetrie. Die Ergebnisse der Wannier-Theorie vierter Ordnung nach T. Reddish und J. Feagin (siehe [Red99]) zeigen eine gute Übereinstimmung mit den experimentell gewonnen Daten, zumindest solange die beiden Elektronen den gleichen kinetischen Energiebetrag erhalten. Im Gegensatz dazu bewertet die hochkorrelierte 5C-Theorie nach M. Walter et al. (siehe [Wal99]) den Einfluss des attraktiven nuklearen Zweizentren-Potentials zu hoch. Vorläufige Ergebnisse einer CCC-Rechnung von A. Kheifets et al. (siehe [Khe02]) zeigen eine sehr akkurate Übereinstimmung mit den gemessenen Winkelverteilungen. Minimiert man die Elektron-Elektron Wechselwirkung, indem man eine rechtwinklige Emission der beiden Elektronen fordert (dies kommt einer Ionisation eines H2 +-Ions gleich), so findet man keine starken Fokussierungseffekte vor, wie man sie von Ionisationsprozessen von N2 und CO her kennt (siehe [Lan01, Web01b, Jah02a und Web02]). Stattdessen beobachtet man die Emission eines langsamen Elektrons auf dem nuklearen Sattelpunktspotential, wie man es nach einer halbklassischen Beschreibung erwarten kann. Zusätzlich ist eine hochstrukturierte Winkelverteilung zu beobachten, die auf höhere Drehimpulsbeiträge schliessen lässt (vergleichbar der Parametrisierung bei der PDI von Heliumatomen nach L. Malegat et al., siehe [Mal97d]). Die Verteilung ist sehr sensitiv auf die Energie der Elektronen und die Orientierung der Molekülachse, was weder angemessen durch auslaufende, ebene Wellen noch durch die 5C-Theorie beschrieben werden kann. Für diese Ereignisse erzwingen große internukleare Abstände eine Emission der Elektronen entlang des Polarisationsvektors, während für kleine Abstände die Elektronen vorwiegend rechtwinklig zur Molekülachse ausgesendet werden. Anhand dieser Tatsachen kann man auf einen merklichen Einfluss des Anfangszustands auf die Winkelverteilung der Elektronen zurückschließen. Das ganze Szenario ändert sich sobald man die Elektron-Elektron Wechselwirkung wieder "einschaltet", indem man fordert, dass die Fragmentation in einer Ebene stattfindet. Hier bestimmt die Relativbewegung der beiden Elektronen die Form der Wirkungsquerschnitte. Es zeigen sich nur geringfügige Änderungen in Abhängigkeit zum internuklearen Abstand. Es kann aber teilweise eine dreifache Keulenstruktur ausgemacht werden. Diese Substruktur ändert ihre Amplitude und Richtung als Funktion des Molekülabstandes. Eine direkte Emission entlang des Polarisationsvektors scheint dabei verboten zu sein. In dieser Darstellung zeigt das elektronische Emissionsmuster einen sehr heliumähnlichen Charakter für kleine Bindungslängen. Für größere Abstände der Kerne werden langsame Elektronen deutlich unter einem Zwischenwinkel von 180° (back-to-back-emission) gegen das schnelle Referenzelektron emittiert. Referenzen: [Bri00] J.S. Briggs et al., J. Phys. B: At. Mol. Opt. Phys., 33, (2000), S. R1 [Dör98b] R. Dörner et. al., Phys. Rev. Lett., 81, (1998), S. 5776 [Fea98] J. Feagin, J. Phys. B: At. Mol. Opt. Phys., 31, (1998), S. L729 [Jah02a] T. Jahnke et. al., Phys. Rev. Lett., 88, (2002), S. 073002 [Khe02] A. Kheifets, private Mitteilung, (2002) [Lan01] A. Landers et al., Phys. Rev. Lett., 86, (2001), S. 013002 [Mal97d] L. Malegat et al., J. Phys. B: At. Mol. Opt. Phys., 30, (1997), S. 251 [Red97] T. Reddish et al., Phys. Rev. Lett., 79, (1997), S. 2438 [Red99] T. Reddish et al., J. Phys. B: At. Mol. Opt. Phys., 32, (1999), S. 2473 [Wal00c] M. Walter et al., Phys. Rev. Lett., 85, (2000), S. 1630 [Wal99] M. Walter et al., J. Phys. B: At. Mol. Opt. Phys., 32, (1999), S. 2487 [Web01b] Th. Weber et al., J. Phys. B: At. Mol. Opt. Phys., 34, (2001), S. 3669 [Web02] Th. Weber et al., Phys. Rev. Lett., (2002), eingereicht zur Veröffentlichung [Wig98] J.P. Wightman et al., J. Phys. B: At. Mol. Opt. Phys., 31, (1998), S. 1753
For palaeotropical regions, only a few anecdotal reports had been published on the existence of 'ant-gardens' before this study started. As opposed to this, 'ant-house epiphytes' (i.e. domatiabearing epiphytes) were reported to be highly abundant in Southeast Asia and were presumed to be a second type of ant-epiphyte interaction. In the much better studied neotropical regions the situation seemed to be the reverse: Many reports on AGs in contrast to very few reports on anthouse epiphytes. In this study, I have presented extensive data which may help towards a better understanding of the 'Southeast Asian part' of this 'ant-epiphyte puzzle'. In Peninsular Malaysia, Borneo, Java, and Southern Thailand, a great variety of formerly unknown AG systems were discovered. 18 ant species (from 5 genera, 4 subfamilies) were identified as true AG ants, i.e. these ants actively retrieved seeds of certain epiphyte species into their carton nests. Another 49 ant species inhabited AGs as secondary, opportunistic settlers. On the epiphyte side, 84 plant species were found growing on AGs, 51 (19 genera, 12 families) of which were probably true AG epiphytes, i.e. ants retrieved the seeds to their arboreal carton nests, on which the epiphytes were then cultivated. Most of the epiphyte flora of lowland forests in Peninsular Malaysia (except for ferns, orchids and facultative epiphytes) seemed to be totally dependent on ants for their establishment in the canopy. Together with the high number of opportunistic AG inhabitants (ants, epiphytes, and many arthropod guests), these facts suggest that AGs function as pioneers in the canopy of Southeast Asian rain forests. Moreover, AG-associations might even have accounted for the unusual species richness in the epiphyte genera Dischidia, Hoya (Asclepiadaceae), Myrmecodia, and Hydnophytum (Rubiaceae). The definition of the term ant-garden only describes the basic interactions. In the ant-garden associations investigated in this study, interactions going beyond these basic ones varied depending on ant and epiphyte species. Ant-gardens initiated by Diacamma spKfmA111 were regarded as the 'most primitive' type, because this ponerine was totally dependent on preformed cavities for nest establishment, did not tend any trophobionts, and was the least selective in its seed-retrieving behavior. On the other end of the scale, Crematogaster spKfmA18 and Camponotus spKfmA9 were rated as 'most advanced' because both lived in free (i.e. cavityindependent) AGs, tended trophobionts underneath their nests, were associated with a couple of other organisms, and were highly selective in their seed-retrieving behavior. Moreover, Camponotus spKfmA9 occurred preferentially with one single epiphyte species, Hoya elliptica (Asclepiadaceae), and Crematogaster spKfmA18 was specialized on some species of giant bamboo as phorophyte. Philidris spKfmA160, which occupied a medium position in relation to the other AGs was particularly interesting for several reasons. This ant species was mainly associated with ant- house epiphytes and occurred in the heath forests of Borneo. However, the major part of the colonies, including the queen, was located underneath carton structures near the surface of the host tree and not inside the domatia of the associated plants. Moreover, very young Philidris spKfmA160 colonies had only small seedlings growing on their carton nests. The ant workers actively retrieved the seeds of their epiphyte partners into the nests. These results indicate that associations with ant-house epiphytes must be regarded as a special case of ant-gardens. I therefore suggest using the term 'ant-house' only to describe the epiphytes, but not to describe the association, and to include this type of association in the group of AGs. Strict species-specificity never occurred, but some epiphytes showed great preference for growing on the nests of certain ant species, while others occurred over a wider range. Vice versa, most ant species had several epiphytes growing on their nests, while others were mostly found with one or very few epiphyte species. These patterns were shown to be the effect of different factors, including common microclimatic preferences of ants and epiphytes, interspecific competition of epiphytes, and selective seed retrieval of AG ants. The main behavioral trait responsible for the establishment of AGs was the selectivity shown by the ants in the epiphyte seeds they carried. However, details of the mechanisms, i.e. what characteristics of the seeds are important and what motivates the ants to retrieve them, varied widely. In many cases, seed compounds located on the surface triggered carrying behavior. Detailed experimental investigations combined with literature data from the two other known 'myrmecochory systems', terricolous myrmecochores and neotropical AGs, suggested that myrmecochory is frequently triggered by a two-stage system. One relatively unspecific compound (or a combination of such compounds) constitutes the basic attractiveness for a number of ant species. Other seed characteristics (elaiosomes, mechanical properties, other surface-compounds) modulate this basic signal, accounting for species-specific preferences of ants towards certain plant species. A comparison of AGs in Southeast Asia and the neotropics shows that the numbers of AG ant and epiphyte species in each case are almost equal. Southeast Asian AG epiphytes might even turn out to outnumber the neotropical ones. Thus, not only was it possible to break down the distinction between ant-house and AG associations, but also to show that AGs in Southeast Asia are present in such high diversity and abundance as to diminish the apparent contrast between the two biogeographical regions yet further. These data help to solve at least the Southeast Asian part of the 'ant-epiphyte puzzle'.
Diese Arbeit besteht aus zwei Teilen. Im ersten Teil wurde der Einfluss der anthropogen verursachten Erhöhung der atmosphärischen Konzentration von Treibhausgasen auf beobachtete Klimaelemente für die letzten 100 bis 120 Jahre untersucht. Die bodennahe Lufttemperatur wurde in unterschiedlicher räumlicher Auflösung und Abdeckung analysiert: Globales und hemisphärische Mittel, 84 flächengleiche Gebietsmittel globaler Abdeckung und 5°x5°-Gitterpunkte für die europäische Region, für die außerdem der auf Meeresniveau reduzierte Luftdruck und der Niederschlag untersucht wurden. Es wurde ein empirisch-statistischer Ansatz verwendet, der die Datenfelder zunächst in ihre räumlichen und zeitlichen Hauptstrukturen zerlegt (EOF-Zerlegung) und nachfolgend Regressionsbeziehungen zwischen den zeitlichen Hauptstrukturen (Zielgrößen) und den potenziellen Einflussgrößen mittels einer Selektionsstrategie (schrittweise Regression) findet, was zu einer Signaltrennung bezüglich der unterschiedlichen anthropogenen sowie natürlichen Einflüsse führt. Durch eine Abschätzung der Überzufälligkeit der Signal-Rausch-Verhältnisse wurden die Signifikanzen der einzelnen Signale berechnet. Als anthropogene Einflussgrößen wurden neben der logarithmierten Treibhausgaskonzentration (GHG) noch die Konzentration von troposphärischem Sulfat (SUL) aus anthropogenen Quellen verwendet. Die natürlichen Einflussgrößen umfassen Schwankungen der Solarkonstanten (SOL), Strahlungsantrieb explosiver Vulkanausbrüche (VUL), den Southern Oscillation Index (SOI, als Maß für das El-Nino-Phänomen) und den Nord-Atlantik-Oszillations-Index (NAO). In der globalen und den hemisphärischen Mitteltemperaturen dominiert das GHG-Signal. Es unterscheidet sich dabei hochsignifikant vom Zufall und von der natürlichen Variabilität und weist eine mittlere Signalamplitude von etwa 0,5 K auf. Das SUL-Signal ist hier, wie auch in den anderen Datensätzen, unplausibel, was an den fragwürdigen verwendeten Einflüssen liegt, welche die zugrundeliegenden Prozesse nicht hinreichend erfassen. In den räumlich differenzierten Datensätzen ist der zufallsartige Anteil in den Zeitreihen generell höher als in den gemittelten, was die Signifikanzen der GHG-Signale herabsetzt. In Europa ist vor allem im Winter die NAO dominant, was dort zusätzlich den Nachweis des GHG-Signals erschwert. Im europäischen Luftdruck und Niederschlag werden zwar ebenfalls GHG-Signale gefunden, die jedoch aufgrund der hohen Rauschkomponente nur sehr schwach signifikant sind. Des Weiteren ist die Wirkung der anthropogenen Erhöhung der Treibhausgase auf diese Klimaelemente indirekter als bei der Temperatur, wodurch die statistische Ähnlichkeitsbetrachtung hier eventuell auch natürlich verursachte Trendkomponenten irrtümlich als anthropogen selektiert. Im zweiten Teil der Arbeit wurden Witterungseinflüsse auf Ernteerträge in der BRD (West) von 1950-1998 untersucht. Die Ertragsdaten der 21 untersuchten Fruchtarten sind mit ausgeprägten Trends behaftet, die wahrscheinlich zum weitaus überwiegenden Teil durch gewollte Ertragssteigerungen verursacht worden sind. Diese sog. Züchtungsvarianz wurde daher mittels eines Gaußschen Tiefpassfilters von der interannulären Variabilität getrennt, welche Umwelteinflüssen zugeordnet wird. Hierdurch können keine Wirkungen langfristiger Klimatrends auf die Erträge untersucht werden. Als meteorologische Parameter wurden Bundeslandmittel der bodennahen Lufttemperatur und des Niederschlages in monatlicher Auflösung verwendet. Die quadrierten Klima- Zeitreihen sind ein Maß für extreme Anomalien. Durch Bildung von Produkten bzw. Quotienten aus Temperatur und Niederschlag erhält man Zeitreihen, welche die kombinierte Wirkung beider Klimaelemente beschreiben. Die Witterungsabhängigkeiten der Erträge wurden durch Korrelation und Regression (schrittweise Regression) mit den meteorologischen Parametern quantifiziert. Hierbei zeigte sich unter anderem ein negativer Einfluss feucht-warmer April-Anomalien auf Getreide-Erträge. Des Weiteren konnten Ernteeinbrüche verschiedener Fruchtarten mit extrem trocken-heißen Witterungsperioden im Sommer in Verbindung gebracht werden. Korrelationen und Regressionskoeffizienten von quadratischen Einflussreihen sind fast ausschließlich negativ. Somit wirken sich vor allem extreme Anomalien der meteorologischen Parameter ertragsmindernd aus. Mit Hilfe einer Monte-Carlo-Simulation konnte die Überzufälligkeit der durch die meteorologischen Parameter erklärten Varianzen an den Erträgen qualitativ bewertet werden. In etwa 40% der untersuchten Beziehungen ist ein Witterungsein deutlich sichtbar. Des Weiteren ist eine Untersuchung der Veränderungen (Intensität und Häufung) extremer Witterungen, vor allem sommerlicher Hitzeperioden, nötig, um den Klima-Impakt auf deutsche Ernteerträge besser abzuschätzen. Auch ist die Frage noch offen, ob langfristige anthropogene Klimaänderungen, wie sie hier detektiert worden sind, mit Änderungen des Extremwertverhaltens verknüpft sind.
In der vorliegenden Arbeit sollten die in unserer Arbeitsgruppe identifizierten Splice- Varianten des murinen ARVCF (mARVCF) cloniert und charakterisiert werden. Es wurde gezeigt, daß alle 8 putativen Isoformen im gleichen Maße mit den Zelladhäsions-Molekülen M-, E- und N-Cadherin interagieren können und mit diesen an der Plasmamembran bzw. den Zell-Zellkontakten colocalisieren. Dabei nimmt N-Cadherin eine Sonderstellung ein. Zum einen ist die Interaktion mit endogenem N-Cadherin abhängig vom Zellkontext und zum anderen konnte mit Hilfe des MOM recruitment assays gezeigt werden, daß, im Gegensatz zu MOM-M- und MOM-E-Cadherin, eine Assoziation von mARVCF und MOM-N-Cadherin nicht in jeder Zelle stattfindet. Eine mögliche Konkurrenz von mARVCF mit dem nahe verwandten armadillo repeat Protein p120(ctn) um die Bindestelle in N-Cadherin konnte dabei als Ursache ausgeschlossen werden. Als nächstes wurde im Rahmen dieser Arbeit gezeigt, daß mARVCF eine duale Lokalisation an der Plasmamembran und im Zellkern aufweist. Dabei unterliegt mARVCF einem effektiven Exportmechanismus. Dieser Export kann durch Leptomycin B inhibiert werden, scheint somit also CRM1/exportin1-vermittelt zu sein und wird offenbar durch zwei verschiedene NES (nuclear export signal)-Sequenzen in mARVCF reguliert. Das in der p120(ctn) Subfamilie (zu der auch mARVCF gehört) konservierte NLS (nuclear localisation signal) konnte als für den Protein-Import unwirksam charakterisiert werden. Weiterhin wurde das LIM-only Protein FHL2 als neuer Interaktionspartner von mARVCF identifiziert. Dabei wirkt mARVCF als Mediator zwischen dem Cadherin- Catenin Komplex an der Plasmamembran und dem Interaktionspartner der Integrine FHL2. mARVCF ist in der Lage, FHL2 aus den Fokalkontakten zum Cadherin- Catenin Komplex an der Membran zu translozieren und in den Komplex einzubinden.
Die Physik beschäftigt sich seit jeher mit der Frage nach dem Aufbau und der Struktur der Materie. Die Antworten änderten sich im Laufe der Zeit, der gegenwärtige Stand der Erkenntnis ist im sogenannten Standardmodell zusammengefasst. Dort werden die Elementarteilchen in Leptonen und Quarks unterteilt, die Wechselwirkungen zwischen ihnen beschreibt man durch vier fundamentale Kräfte: die Gravitation, die elektromagnetischen Kraft, die schwache und die starke Kernkraft. Gemäß dem Standardmodell sind Nukleonen, also Protonen und Neutronen, aus Quarks aufgebaut. Das Proton ist beispielsweise ein gebundener Zustand aus zwei up und einem down Quark. Die Nukelonen bilden ihrerseits die Atomkerne, welche die Systematik der Elemente bestimmen. Quarks treten in sechs verschiedenen Arten (flavours) auf: up, down, strange, charm, bottom und top. Freie Quarks konnten bislang nicht nachgewiesen werden, sie werden nur als Quark-Antiquark Paar (Meson) oder als Kombination aus drei Quarks (Baryon) beobachtet. Mesonen und Baryonen werden unter dem Begriff Hadronen zusammengefaßt. Die starke Kernkraft beruht letztlich auf der Wechselwirkung zwischen Quarks, diese wird durch die Quantenchromodynamik (QCD) beschrieben. Ähnlich der Glashow- Salam-Weinberg Theorie (GSW), die die elektromagnetische und die schwache Kernkraft beschreibt, ist die Quantenchromodynamik durch Austauschteilchen charakterisiert. Im Fall der GSW wurden die Photonen bzw. W± oder Z-Teilchen als Austauschteilchen identifiziert, in der QCD fungieren Gluonen als Austauschteilchen. Photonen vermitteln die elektromagnetische Kraft zwischen allen Teilchen, die elektrische Ladung tragen. Analog wirkt die Kraft, die durch den Austausch von Gluonen beschrieben wird, zwischen Teilchen, die eine Farbladung tragen. Anders als das neutrale Photon trägt das Gluon selbst Farbe und wechselwirkt daher mit anderen Teilchen, die Farbe tragen. Dieser Umstand zeigt bereits, dass in der QCD ganz andere Phänomene zu erwarten sind als in der GSW. Die Tatsache, dass Quarks nur in gebundenen Zuständen vorliegen, erschwert die direkte Beobachtung der Wechselwirkung zwischen ihnen. Ein indirekter Weg, um die Wirkungweise diese Kraft zu untersuchen, liegt in der Erzeugung hoher Kernmateriedichten und hoher Kerntemperaturen. Die Idee besteht darin, das Phasendiagramm von Kernmaterie experimentell zu bestimmen (Abbildung 1.3) und dann auf die zugrundeliegende Kraft zu schließen. Unter anderem führen die Kräfte, die zwischen den Einzelteilchen des Mediums herrschen, zu charakteristischen Phasenübergängen. Im Fall der Kernmaterie hofft man insbesondere, den Übergang von gebundenen Zuständen in eine Quark-Gluon-Plasma Phase (QGP), in der sich Quarks und Gluonen frei bewegen, zu beobachten. Zwei prominente Beispiele demonstrieren, warum die Eigenschaften dieses Materiezustandes - und ob er überhaupt existiert - auch für andere Teilgebiete der Physik von großem Interesse sind. Zum einen geht man davon aus, dass in der Frühphase des Universums, 10-12 s nach dem Urknall, die Energiedichte so hoch war, dass die Materie in einem Plasmazustand vorlag. In diesem Bild führt die Expansion des Raumes zu einer Abkühlung des Plasmas und schließlich zum Ausfrieren in Hadronen. Zum anderen zeigen viele Modellstudien, dass im Innern von Neutronensternen mit extremen Dichten zu rechnen ist. Unter Umständen werden Energiedichten erreicht, die hoch genung sind, um einen Phasenübergang in ein Quark Gluon Plasma zu erzwingen. Die Beschreibung dieser astronomischen Objekte setzt somit auch die Kenntnis der Kräfte zwischen den Quarks voraus. Der einzige Weg, dichte Kernmaterie im Labor zu erzeugen, stellen Schwerionenreaktionen dar. Wenn zwei ultrarelativistische schwere Kerne zentral kollidieren, entsteht für kurze Zeit eine Region hoher Energiedichte (Abbildung 1.1). QCD-Gitter-Rechnungen deuten darauf hin, dass die Dichte, die man in Schwerionreaktion gegenwärtig erreicht, hoch genung ist, um einen Übergang der Kernmaterie in eine Plasma-Phase zu erzwingen. Aufgrund des hohen Drucks expandiert die verdichtete, heiße Kernmaterie in longitudinaler (entlang des Strahls) und transversaler (senkrecht zum Strahl) Richtung und die Dichte nimmt ab. Vorausgesetzt am Anfang der Reaktion wurde ein Quark-Gluon-Plasma erzeugt, dann friert diese Phase in Hadronen aus (chemisches Ausfrieren), wenn Dichte und Temperatur einen kritischen Wert unterschreiten. Die erzeugten Hadronen wechselwirken zunächst noch elastisch miteinander, d.h. die Impulse der Teilchen ändern sich, die Identität der Teilchen bleibt jedoch erhalten. Schließlich enden auch diese Wechselwirkungen (thermisches Ausfrieren), und die Teilchen verlassen die Reaktionszone (Abbildung 1.4). Der Ablauf einer solchen Schwerionenreaktion dauert einige 10-23s und ihre räumliche Ausdehnung liegt in der Größenordnung von 10-15m, damit ist die Reaktion selbst nicht beobachtbar. Nur der Endzustand, also die Identitäten und Impluse der emittierten Teilchen, kann bestimmt werden. Um den Ablauf der Reaktion zu rekonstruieren, ist man daher auf Modellrechnungen angewiesen. Aufgrund dieser Modellrechnungen wurden einige Observablen vorgeschlagen, die einen Phasenübergang kennzeichnen. Neben anderen Signaturen führt ein Phasenübergang wahrscheinlich zu einer verlängerten Emissionsdauer. Dieser Effekt kann möglicherweise durch die Analyse von Zwei-Teilchen-Korrelationen sichtbar gemacht werden. Ganz allgemein stellt die Untersuchung von Teilchenkorrelationen die einzige Möglichkeit dar, die raum-zeitlichen Strukturen während des thermischen Ausfrierens experimentell zu bestimmen. Korrelationen zwischen Teilchen, die von einer hinreichend kleinen Quelle emittiert werden, haben verschiedene Ursachen. Betrachtet man beispielsweise die Häufigkeitsverteilung der Impulsdifferenz zwischen zwei elektrisch gleich geladenen Teilchen, so stellt man fest, dass Paare mit geringer Impulsdifferenz weniger häufig vorkommen, als man anhand der Ein-Teilchen Impulsverteilung vorhersagen würde. Dieser Effekt ist auf die Abstoßung zwischen zwei elektrisch gleich geladenen Teilchen zurückzuführen, die mit kleiner Impulsdifferenz emittiert wurden. Eine weniger offensichtliche Korrelation wird durch den Quantencharakter identischer Teilchen verursacht. Zwei identische Bosonen, die im Phasenraum nahe beieinander liegen, können gemäß den Prinzipien der Quantentheorie nicht unterschieden werden. Die Wellenfunktion, die diesen Zwei-Teilchen-Zustand beschreibt, muß beim Vertauschen der Teilchen erhalten bleiben. Diese Forderung führt zu einem Interferenzterm in der Zwei-Teilchen Intensitätsverteilung. Diese Verteilung ist proportional zur Wahrscheinlichkeit, ein Teilchenpaar mit der Impulsdifferenz q zu messen. Berechnet man die Impulsdifferenzverteilung von Pionenpaaren und berücksichtig nur quanten- statistische Effekte, so findet man, dass Paare mit geringem Impulsunterschied bis zu zweimal häufiger vorkommen, als man aufgrund einfacher statistischer Überlegungen erwarten würde. Um diesen Effekt experimentell sichtbar zu machen, konstruiert man die Korrelationsfunktion, die die gemessene Impulsdifferenzverteilung in Relation zu einer Untergrundverteilung setzt. Experimentell gewinnt man diese Referenzverteilung, indem Paare aus Spuren aus verschiedenen Ereignissen gebildet werden. Die Referenzverteilung entspricht damit der Verteilung, die man messen würde, wenn die Teilchen nicht der Quantenstatistik unterlägen. Die Korrelationsfunktion wird im allgemeinen durch eine Gauß-Funktion angenähert. Das Inverse der Standardabweichung dieser Funktion wird nach den Pionieren der Intensitätsinterferometrie R. Hanbury Brown und R. Twiss als HBT-Radius bezeichnet. Teilchen interferieren nur dann, wenn sie im Phasenraum nahe beieinander liegen, das heißt sowohl die Impulsdifferenz als auch der räumliche Abstand muß hinreichend klein sein. Diese Bedingung kann genutzt werden, um von der gemessenen Korrelationsfunktion, die nur auf den Impulskomponenten basiert, auf die räumliche Verteilung der Teilchenproduktion zu schließen. Eine detaillierte Betrachtung erlaubt sogar, aufgrund der gemessenen Korrelationsfunktion quantitative Aussagen über die räumlichen Aspekte der Teilchenquelle zu machen. Beispielsweise können im Rahmen eines Modells die Stärke der transversalen Expansion oder die Emissionsdauer in Relation zu den HBT-Radien gesetzt werden. In Kapitel 2 sind die Grundlagen der Teilcheninterferometrie ausführlicher dargestellt. Der eigentliche Gegenstand dieser Arbeit ist experimentelle Analyse der Zwei- Teilchen-Korrelationen in einer Schwerionenreaktion. Dazu wird zunächst in Kapitel 3 das STAR Experiment am RHIC vorgestellt, in dem die Daten aufgezeichnet wurden, die Grundlage dieser Analyse sind. Am RHIC-Beschleuniger am BNL in den USA werden AuAu Kollisionen bis zu einer Schwerpunktsenergie von Wurzel aus SNN=200 GeV erzeugt. Figur 3.1 zeigt den Beschleuniger-Ring und die vier Experimente Brahms, Phenix, Phobos und STAR. Der hier analysierte Datensatz wurde bei der Datennahme im Jahr 2000 aufgezeichnet. Zu dieser Zeit wurde am RHIC eine Schwerpunktsenergie von Wurzel aus SNN=130 GeV erreicht. Bei einer zentralen AuAu Kollision werden mehrere Tausend Teilchen produziert. Der STAR Detektor ist dafür konzipiert, hadronische Teilchen kleiner Rapidität (d.h. großer Winkel zur Strahlachse) zu messen, innerhalb der Akzeptanz werden etwa 80% der produzierten geladenen Teilchen nachgewiesen. Der schematische Aufbau des STAR Detektorsystems ist in Figur 3.2 dargestellt. Der zentrale Detektor ist eine TPC (Zeit-Projektions-Kammer). Dieser Detektor basiert darauf, dass geladene Teilchen beim Durchgang durch ein Messgas eine Spur von Ionen hinterlassen. Ein starkes elektrisches Feld driftet die Elektronen, die bei den Ionisationsprozessen freigesetzt wurden, zu einer Ausleseebene. Der Punkt, an dem die Elektronen auf der Ausleseebene ein Signal erzeugen, entspricht der Projektion des Ionisationpunktes auf die Ausleseebene. Die dritte Komponente, die den Raumpunkt der Ionisation festlegt, ist durch die Driftzeit bei bekannter Driftgeschwindigkeit gegeben. So erscheint eine Teilchenspur als eine Kette von Ionisationspunkten im Detektorgas. Ein magnetisches Feld parallel zur Strahlachse führt zu einer Ablenkung der geladenen Teilchen. Die Krümmung der Spur ist dabei umgekehrt proportional zum transversalen Impuls. Abbildung 3.6 zeigt ein typisches Ereignis mit etwa 105 Ionisationspunkten und den entsprechenden Teilchenspuren. Der spezifische Energieverlust eines Teilchens beim Durchgang durch das Messgas hängt von seinem Impuls und seiner Masse ab. Die Stärke des auf der Ausleseebene induzierten Signals erlaubt den spezifischen Energieverlust zu bestimmen. Da der Impuls durch die Krümmung der Spur bekannt ist, kann so die Masse und damit die Identität des Teilchens bestimmt werden (siehe Abbildung 3.7). In Kapitel 4 wird der Datensatz beschrieben, der als Grundlage für diese Analyse dient. Während der Datennahme werden die digitalisierten Daten der TPC auf ein Speichermedium geschrieben. Der erste Schritt bei der Rekonstruktion der Ereignisse besteht darin, die Ionisationspunkte zu lokalisieren. Dies leistet der Clusterfinder- Algorithmus, der in Kapitel 4.1.1 beschrieben ist. Die Spurpunkte werden dann durch den Tracking-Algorithmus zu Teilchenspuren verbunden. Die erreichte Effizienz, Akzeptanz und Impulsauflösung der Rekonstruktion sind in Kapitel 4.1.2 zusammengefaßt. Die Zwei-Teilchen-Korrelationen werden nur für zentrale Kollisionen betrachtet, das sind Ereignisse mit kleinem Stoßparameter. Die Multipliztät der gemessenen Spuren ist in erster Näherung ein Maß für die Zentralität des Ereignisses. Für diese Analyse werden nur die 12% zentralsten Ereignisse zugelassen. Die Selektion der Ereignisse ist in Kapitel 4.2 beschrieben. Die Auswahl der Spuren, die in der Analyse verwendet werden, ist in Kapitel 4.3 beschrieben. Es werden nur Spuren zugelassen, deren Impulse in einem Bereich hinreichend hoher Akzeptanz und Effizienz liegen. Außerdem werden die Spuren ausgewählt, die mit hoher Wahrscheinlichkeit von Pionen stammen. Eine weitere Auswahl wird auf der Paarebene getroffen. Die Korrelationsfunktion wird in einzelnen Intervallen transversalen Paarimpulses kt und Paarrapidität Yðð gebildet. Damit kann die Abhängigkeit der HBT-Radien von diesen Größen dargestellt werden. Zwei weitere Auswahlkriterien sollen die Qualität der Spurpaare garantieren. Zum einen werden solche Paare verworfen, die im Detektor zu nahe beieinander liegen. Für die HBT-Analyse sind Paare mit geringem Impulsunterschied entscheidend, ein geringer Impulsunterschied heißt notwendigerweise, dass die Spuren räumlich nicht sehr weit getrennt sind. Wenn die Spuren aber zu nahe liegen, können sie vom Detektor und von der Rekonstruktionskette nicht mehr aufgelöst werden. Damit verliert man einen Teil der Paare in der Signalverteilung, nicht aber in der Untergrundverteilung, da in diesem Fall die endliche Zwei-Spur-Auflösung keine Rolle spielt. Um die Korrelationsfunktion nicht durch einen Detektoreffekt zu verfälschen, entfernt man die Paare, die im Detektor nahe beieinander liegen, sowohl in der Signal- als auch in der Untergrundverteilung. Ein weiteres Problem stellen "gebrochene" Spuren dar. In einigen Fällen wird eine Teilchenspur von der Rekonstruktionskette nicht als Ganzes erkannt, vielmehr werden zwei Spurstücke im Dektor gefunden. Da diese Spurstücke vom selben Teilchen stammen, haben sie eine sehr geringe Impulsdifferenz. Diese Paare können anhand ihrer Topologie im Detekor erkannt werden. Wie im Fall der begrenzten Zwei-Spur-Auflösung werden sie sowohl für die Signal- als auch für die Untergrundverteilung nicht zugelassen. In Kapitel 5 werden schließlich die Ergebnisse der Korrelationsanalyse dargestellt. Die Korrelationsfunktion wird in verschiedenen Parametrisierungen betrachtet. In der einfachsten Form betrachtet man nur den Betrag des Impulsdifferenzvektors. Dieser Ansatz bedeutet aber, dass der entsprechende HBT-Radius alle Raum-Zeit Komponenten mischt und damit nur wenig Aussagekraft bezüglich der Quellfunktion besitzt. Eine differenzierte Analyse in drei unabhängigen Komponenten ermöglichen die Pratt-Bertsch (PB) und die Yano-Koonin-Podgoretskii (YKP) Parametrisierung. Die beiden Parametrisierungen unterscheiden sich in der Zerlegung des Impulsdifferenzvektors in drei unabhängige Komponenten. Im ersten Fall bezeichnet man die Komponenten als qout, qlong und qside, im zweiten Fall als qpara, qperp und q0 (Kapitel 2.7 und 2.8). Die entsprechenden Korrelationsfunktionen sind in Gleichung 2.31 bzw. 2.34 gegeben. Die jeweiligen HBT-Radien Rout, Rlong und Rside bzw. Rpara, Rperp und R0 können in Relation zu den Parametern der Quellfunktion (Gleichung 2.43) gesetzt werden. Die beiden Parametrisierungen liefern im Prinzip die gleiche Information und die beiden Sätze von HBT-Radien können in Beziehung zueinander gesetzt werden (Gleichung 2.41). Beispielsweise entspricht der HBT-Radius R0 in der YKP-Parametrisierung in erster Näherung der Emissionsdauer, während in der PB- Parametrisierung diese Größe Verhältnis von Rout zu Rside abhängt. Zusätzlich zu den Radien enthält die YKP-Parametrisierung einen Parameter ß, der erlaubt, die longitudinale Geschwindigkeit des betrachteten Quellelementes zu bestimmen. Die Abbildungen 5.7 bis 5.10 zeigen die HBT-Radien beider Parametrisierungen in Abhänigigkeit vom transversalen Paarimpuls kt und von der Paarrapidität Yðð. Die Größe der gemessenen Radien bewegt sich zwischen 3 und 7 fm. Nur der Radius R0 verschwindet in den meisten kt-Yðð Intervallen. Die anderen Radien nehmen mit steigendem kt ab und sind unabhängig von Yðð . Abbildung 5.11 demonstriert, dass die beiden Parametrisierungen -dort wo sie vergleichbar sind- konsistente Ergebnisse liefern. Eine Diskussion der Ergebnisse schließt sich in Kapitel 6 an. Die Abhänigigkeit des Parameters ß von Yðð zeigt eine starke longitudinale Expansion an. Ein ähnliches Verhalten wurde bei niedrigeren Schwerpunktsenergien beobachtet, wo man allerdings eine schwächere longitudinale Expansion erwarten würde. Die Lebensdauer der Quelle, also die Zeit vom anfänglichen Überlapp der Kerne bis zum thermischen Ausfrieren, bestimmt die kt-Abhänigigkeit des Parameters Rlong. Dieser Zusammenhang wurde von Mahklin und Sinyukow formuliert, eine Anpassung der entsprechenden Funktion an die gemessene kt Abhänigigkeit von Rlong ergibt eine Lebensdauer von etwa 8 fm/c bei einer Ausfriertemperatur von etwa 126 MeV. Entsprechende Messungen bei niedrigeren Kollisionsenergien lieferten ähnliche Resultate. Die kt-Abhängigkeit des Parameters Rside ist mit der Stärke der transversalen Expansion gemäß Gleichung 6.3 verknüpft. Da die Relation nicht eindeutig ist, muß entweder eine feste Ausfriertemperatur angenommen werden oder es werden gleichzeitig Einteilchenspektren betrachtet, um die Mehrdeutigkeit zu eliminieren. Eine vorläufige Abschätzung ergibt eine mittlere transversale Expansions- geschwindigkteit von v ungefähr gleich 0.6 und einen gemetrischen Radius von RG ungefähr gleich 7.4 fm . Auch diese Ergebnisse sind vergleichbar mit entsprechenden Resultaten bei niedrigeren Kollisionsenergien. Ein weiterer Parameter der Quellfunktion ist die Emissionsdauer. Die Pionen werden nicht zu einem festen Zeitpunkt emittiert, man geht vielmehr davon aus, dass die Zeitpunkte der letzten elastischen Wechselwirkung in der Quelle gaußförmig verteilt sind. Den Mittelwert dieser Verteilung bezeichnet man als Lebensdauer der Quelle, die Breite als Emissionsdauer. Entsprechend Gleichung 6.4 bzw. 6.5 ist die Emissionsdauer mit dem Radius R0 bzw. dem Verhältnis Rout zu Rside verbunden. Wie in Abbildung 5.8 ersichtlich verschwindet der Parameter R0 , außer im kleinsten kt Intervall. Dies entspricht in der PB-Parametrisierung der Tatsache, dass das Verhältnis Rout zu Rside bei hohen kt kleiner als eins ist. Diese Resultate sind nicht vereinbar mit herkömmlichen Modellen. Insbesondere weil eine verlängerte Emissionsdauer als Signatur für die Bildung eines Quark-Gluon-Plasmas vorgeschlagen wurde, wird dieses Ergebnis derzeit intensiv diskutiert. Die Ergebnisse dieser Analyse sind sowohl mit bereits publizierten Daten der STAR Kollaboration als auch mit Resultaten von anderen RHIC Experimenten verträglich (siehe Abbildung 6.8). In Abbildung 6.9 ist die Abhängigkeit der HBT-Radien von kt bei verschiedenen Schwerpunktsenergien dargestellt. Im Gegensatz zu vielen anderen Observablen ändern sich die HBT Radien nur geringfügig. Da man erwartet, dass die Reaktion bei hohen Energien vollkommen anders abläuft, würde man auch davon ausgehen, dass sich die Ausfrierbedingungen ändern. Dass dies nicht in den Zwei-Teilchen- Korrelationen sichtbar wird, deutet darauf hin, dass die Näherungen die notwendig sind, um die gemessenen Radien mit Modellparametern zu verbinden, nicht gültig sind. Die Systematik der HBT Parameter als Funktion der Schwerpunktsenergie enthält damit keinen direkten Hinweis, dass die kritische Energiedichte überschritten wurde, ab der die Kernmaterie in einer Plasmaphase vorliegt. Andererseits werden weder die verschwindende Emissionsdauer noch die Tatsache, dass die anderen HBT-Parameter sich nur wenig mit der Schwerpunktsenergie ändern, als Argument dafür gewertet, dass die kritische Energiedichte nicht überschritten wurde. Die Frage, ob ein Quark- Gluon-Plasma im Labor erzeugt und analysiert werden kann, bleibt damit offen. Das thermische Ausfrieren einer Pionenquelle scheint hingegen anders zu verlaufen, als bisher angenommen wurde. Systematische Studien der Korrelationsfunktion in AA Kollisionen am RHIC in Kombination mit Fortschritten im theoretischen Verständnis der Teilcheninterferometrie in Schwerionenreaktion werden in Zukunft hoffentlich erlauben, die gemessenen Radien in ein konsistentes Bild einzuordnen. In zukünftigen Experimenten am LHC werden noch weit höhere Dichten erreicht als bisher, damit sollten sich auch die Ausfrierbedingungen stark verändern. Es wird sich dann zeigen, ob die Teilcheninterferometrie das geeignete Instrument ist, um die Quellfunktion einer Schwerionenreaktion zu messen.
Periplasmic Sud protein encoded by the Wolinella succinogenes catalyses the transfer of bound polysulfide-sulfur to the active site of the membrane bound polysulfide reductase. The homodimeric protein consists of 131 residues per monomer, each with one cysteine residue in the active site. Polysulfide-sulfur is covalently bound to the catalytic Cys residues of the Sud protein. In order to understand the structure-function relationship of this protein, the features of its solution structure determined by heteronuclear multidimensional NMR techniques are reported here. The first step of structure determination leads to resonance assignments using 15N/13C/2H- and 15N/13C-labeled protein. The sequential backbone and side chain resonance assignments have been successfully completed. Structure calculations were carried out using the ARIA program package. The structure is based on 2688 NOE-derived distance restraints, 68 backbone hydrogen bond restraints derived from 34 slow-exchanging backbone amide protons and 334 torsion angle restraints obtained from the TALOS program as well as 158 residual dipolar coupling restraints for the refinement of relative vector orientations. The three-dimensional structure of the Sud protein was determined with an averaged rootmean- square deviation of 0.72 Å and 1.28 Å for the backbone and heavy atoms, respectively, excluding the terminal residues. Without the poorly defined segment between residues 90-94 the average r.m.s.d. value drops down to 0.6 Å and 1.14 Å. The ensemble refined with residual dipolar coupling (rdc) restraints shows good convergence. The r.m.s.d. value for the backbone heavy atoms, excluding residues 90- 94, drops down from 0.97 to 0.66 for the rdc-refined ensemble. The relative orientation of the two monomers in the protein structures refined with residual dipolar coupling restraints are also different from those without residual dipolar coupling restraints. The structure determination of the dimeric protein has been hampered by the high molecular mass (30 kDa), severe peak degeneracy, and by the small number of experimental intermonomer NOEs (relative orientation problem of two monomers). For the resonance assignments of aliphatic side chain, many resonances were ambiguously assigned because of severe overlap of signals. The Sud dimer protein contains 17 Lys, 14 Leu and one His tag for each monomer. It complicated the resonance assignments. The conventional 3D 15N-separated TOCSY HSQC experiment failed because of the large molecular weight which results in line broadening and hence made the resonance assignments of side chains more difficult. The determined structure contains a five-stranded parallel ß-sheet enclosing a hydrophobic core, a two-stranded anti-parallel ß-sheet and seven a-helices. The dimer structure is stabilized predominantly by hydrophobic residues. Sud catalyses the transfer of the polysulfide-sulfur to cyanide, similar to rhodanese encoded by Azotobacter vinelandii (Bordo et al., 2000). The two proteins are similar in the active site environment primarily owing to the main-chain conformation of the active-site loop with the cysteine residue and with respect to the surrounding positively charged residues. The active-site loop (residues 89-95) in the Sud protein appears to be flexible, reflected by few assigned proton resonances of residues 90-94 in the active site. Despite their similarity in function and their similar structure in active site, the amino acid sequences and the folds of the two proteins are remarkably different. The negatively charged polysulfide interacts with positively charged R46, R67, and R94 and hence may be stabilized in structure. The mutation of one of the three arginines that are also conserved in rhodanese from A. vinelandii leads to a loss of sulfur-transfer activity. The polysulfide chain extends from inside of Sud protein to outside, where Sud may form contacts with polysulfide reductase. These contacts provide the possible polysulfide-sulfur transfer from Sud protein to the active site of polysulfide reductase.
In der vorliegenden Arbeit konnte eine neue Ca2 -abhängige NDPase (EC 3.6.1.6) kloniert und funktionell charakterisiert werden. Die mRNA der Ca2 -NDPase wurde in allen untersuchten Geweben der Ratte nachgewiesen. UDP, GDP und IDP, jedoch nicht ATP und ADP waren Substrate der Ca2 -NDPase. Ihre Enzymaktivität war strikt von Calciumionen abhängig und zeigte ein breites pH-Optimum zwischen 6,5 und 7,5. Der Km-Wert für UDP lag bei 216 µM. Die Ca2 -NDPase konnte im ER und in Prä-Golgi-Strukturen lokalisiert werden. Sie ist ein Transmembranprotein, dessen katalytische Domäne im Lumen des ER liegt. Dort ist sie vermutlich ein wichtiger Bestandteil der Qualitätskontrolle neu synthetisierter glycosylierter Proteine, in dem sie das die UDP-Glucose:glycoproteinglucosyltransferase inhibierende UDP zu UMP hydrolysiert. Das resultierende UMP dient als Antiporter um UDP-Glucose, das im Zytosol synthetisierte Substrat der UDP-Glucose:glycoproteinglucosyltransferase, in das ER zu transportieren. Im zweiten Teil der Arbeit wurden die Oligomerstrukturen der zelloberflächenlokalisierten NTPDase1 und NTPDase2 untersucht. Die Enzyme wurden heterolog in Xenopus laevis-Oocyten exprimiert. Nach metabolischer Markierung sowie Zelloberflächenmarkierung wurden die mittels Hexahistidyl-Epitop markierten Proteine durch Digitonin solubilisiert und die Oligomerenkomplexe wurden über Ni2 -NTA-Chromatographie gereinigt. Die gereinigten Proteinkomplexe wurden mittels Cross-Linking-Experimenten und der Blau-nativen Gelelektrophorese analysiert. Es konnte gezeigt werden, dass die NTPDase1 an der Zelloberfläche als Dimer vorlag. Die Dimerisierung erfolgte nicht über intermolekulare S-S-Brücken. Die Dimere der NTPDase1 erwiesen sich als relativ stabil. Inkubation bei 37°C resultierte mit zunehmender Dauer in einer steigenden, jedoch auch nach zwei Stunden noch nicht vollständigen Dissoziation der Dimere. Inkubation unter reduzierenden Bedingungen führte ebenfalls nicht zur vollständigen Dissoziation. Erst eine Inkubation bei 37°C in Gegenwart von DTT und Coomassie Brilliant Blue G250 vermochte eine vollständige Dissoziation der NTPDase1 zu bewirken. Zur vollständigen Dissoziation der Multimerstruktur der NTPDase1 wurden somit das Reduktionsmittel DTT und die unter diesen Bedingungen denaturierende Wirkung des Farbstoffs Coomassie Brilliant Blue G250 benötigt. Die NTPDase2 bildete kein distinktes Multimer, sondern lag im nativen Zustand an der Zelloberfläche in Form von nicht intermolekular über S-S-Brücken verknüpften Di-, Tri- und Tetrameren vor. Die Homomultimere der NTPDase2 zeigten im Vergleich zur NTPDase1 eine deutlich höhere Stabilität. Inkubation unter reduzierenden Bedingungen und in Gegenwart von Coomassie Brilliant Blue G250 führte im Gegensatz zur NTPDase1 nur zu einer unwesentlichen Dissoziation der Multimerstrukturen. Die Substratspezifität der NTPDase2 änderte sich mit zunehmender Dauer der heterologen Expression. Die ADPase-Aktivität der NTPDase2 stieg nach sieben Tagen signifikant (p < 0,0001) um das vierfache im Vergleich zum ersten Tag der Expression. Dies erniedrigte das ATP:ADP-Verhältnis von 1 : 0,1 nach 24 h Expression zu 1 : 0,4 nach sieben Tagen. Die Änderung der Substratspezifität der NTPDase2 ging mit einer Änderung des multimeren Verteilungsmusters der NTPDase2 einher. Mit zunehmender Expressionsdauer nahm der relative Anteil an höheren Multimeren zu. Im Gegensatz zur NTPDase2 zeigte die NTPDase1 keine signifikanten Änderungen ihrer Substratspezifität und Multimerstruktur. Die durch unterschiedliche Verteilungsmuster der Multimere bedingte Änderung der Substratspezifität der NTPDase2 eröffnet eine neue Möglichkeit zur Modulation Nukleotid-vermittelter Signalübertragung. Es konnte keine signifikante Tendenz zur Ausbildung von Heteromultimeren aus NTPDase1 und NTPDase2 nachgewiesen werden.
In der vorliegenden Arbeit wurden 10 Typen der Gehölzvegetation und 14 Typen der Krautvegetation für das Untersuchungsgebiet Atakora vorgestellt. Dabei konnten nur Sonderstandorte, wie Galeriewälder und Lateritkrusten, klar abgetrennt werden. Viele Arten besitzen keine eindeutigen ökologischen Präferenzen, was sich gut mit der Einschätzung der lokalen Bevölkerung deckt, die für den Großteil der Arten angaben, dass diese wüchsen wo sie wollten. Dabei fällt auf, dass sich die Typen (vor allem in Gehölzschicht aber auch in Krautschicht) in den einzelnen Dörfern oft nur in Teilen entsprechen. Gründe dafür konnten nur teilweise in den unterschiedlichen ökologischen Gegebenheiten und unterschiedlichen Nutzungspräferenzen einzelner wichtiger Trennarten gegeben werden. Selten findet sich ein hundertprozentiges Zusammentreffen eines Gehölztyps mit einem Krauttyp. Damit bestätigt sich die Annahme unterschiedlicher Entwicklungsbedingungen und teilweise unabhängiger Entwicklung dieser beiden Elemente in der westafrikanischen Savanne. Gesellschaften, in denen eine Krautschicht mit einer Gehölzschicht eng korreliert sind, konnten nur für landwirtschaftlich nicht genutzte Sonderstandorten wie Galeriewälder und Lateritkrusten gebildet werden. Zudem zeigt sich, dass die Vegetation in der dichter besiedelten Ebene klarer strukturiert ist, als in der Bergregion. Dies trifft vor allem auf die Gehölzvegetation zu. Dennoch sind erstaunlich viele Gehölzarten auch in der intensiver genutzten Ebene anzutreffen, was für große Regenerationsfähigkeit und die Anpassung der hauptsächlichen Savannengehölze an das menschliche Wirken spricht. Die geringere Zahl an Gehölzarten in der Ebene ist hauptsächlich Resultat der wesentlich stärker degradierten Galeriewälder. In den Berggebieten sind zudem mehr Gehölzschichttypen und mehr krautige Arten angetroffen worden. Hier zeigt sich, dass Berggebiete auch in dieser Untersuchungsregion als Refugium für Vegetationsformationen und Arten gelten können. Die Nutzung von Wildpflanzen für verschiedene Zwecke wurde dokumentiert. Dabei konnte gezeigt werden, dass Präferenzen für diverse Nutzungen auf ethnischen, teilweise auch auf persönlichen Präferenzen, sowie auf der Verfügbarkeit der Pflanzen basieren. Dabei zeigte sich, dass die Präferenzen von Arten als Bau- und Brennholz eher auf der Verfügbarkeit basieren, während die Präferenzen für Medizinalpflanzen eher auf ethnischnen Vorstellungen von Wirksamkeit und teilweise auch auf kollektiven Erfahrungen basieren. Es erwies sich, dass die traditionelle Nutzung von Wildpflanzen als Brenn- und Bauholz und zu zusätzlichen Ernährung in dem Untersuchungsgebiet einen geringen Einfluß auf die Biodiversität hat, solange diese Pflanzen nicht kommerzialisiert werden. Es gibt genügend Pflanzenarten, die leicht zu finden sind und gute Eigenschaften für die eingesetzten Zwecke aufweisen, so dass man meist auf die jeweiligen in einem Dorfgebiet häufig anzutreffenden Arten ausweichen kann. Für diese geringe Auswirkung der traditionellen Nutzung von Gehölzpflanzen auf die Biodiversität sprechen auch die Aussagen der Bevölkerung über die geringere Verfügbarkeit von Gehölzpflanzen zu bestimmten Nutzungen. Dabei ergab sich eine Reihung von Nennungen, die von weniger Bauholz über weniger Brennholz zu weniger Gehölzpflanzen für die traditionelle Medizin abnahmen. Zudem wurde in allen Befragungen verneint, dass eine Art aus dem Dorfgebiet verschwunden wäre. Daraus läßt sich schließen, dass ein Großteil der wichtigen Gehölzpflanzen in dem Untersuchungsgebiet noch vorhanden ist, aber auf Grund der intensivierten Landwirtschaft nicht mehr in der Lage ist, sich zu richtigen Bäumen zu entwickeln. Da sich dadurch einige Gehölzpflanzen nur noch vegetativ vermehren können, kann eine genetische Verarmung von Populationen bestimmter Arten angenommen werden. Dies wäre ein interessanter Ansatzpunkt für zukünftige Forschungen. Ein negativer Einfluß auf die Biodiversität durch traditionelle Nutzungen ist bei der Nutzung von Gehölzpflanzen für die traditionellen Medizin größer, vor allem wenn Wurzeln verwendet werden. Dennoch lässt sich erkennen, dass der Einfluß der traditionellen Nutzungen von Wildpflanzen im Vergleich zu der landwirtschaftlichen Nutzung der Flächen einen marginalen Effekt auf die Vegetation hat. Im Rahmen der ethnobotanischen Befragungen wurden Pflanzennamen, Umweltwahrnehmung und die Vorstellungen von Krankheit der Bétamaribè und Wama dokumentiert. Diese weisen im Gegensatz zu den Vorstellungen anderer afrikanischer Völker kaum Differenzen auf. Die Vorstellungen von Krankheit sind dabei von einem starken Wandel betroffen, da man sich immer stärker auf westliche Konzepte und Medikamente verläßt. Ein positiver Effekt hiervon auf die Phytodiversität ist jedoch nicht zu erwarten, da die Medikamentkosten eine Intensivierung der Landwirtschaft erfordern. Über 240 traditionelle Heilrezepte wurden gesammelt. Die wichtigste Rolle spielen dabei Gehölzpflanzen. Dabei zeigt sich, dass sich die Präferenzen zwischen den einzelnen Dörfern stärker unterscheiden als bei der Nutzung von Pflanzen zu Brenn- und Bauholzzwecken. Auch erweisen sich große Unterschiede zu Verwendungen von Medizinalpflanzen in anderen Untersuchungsgebieten. Dies liegt an unterschiedlichen Vorstellungen und Erfahrungen zur Wirksamkeit von Pflanzen vor allem bei Krankheiten, die auch von alleine wieder vergehen wie Magen-Darm-Erkrankungen. Das Wissen über Heilpflanzen ist in der Ebene geringer ausgeprägt, als in den beiden Bergdörfern. Gründe hierfür können jedoch nicht alleine in den geringeren pflanzlichen Ressourcen gesehen werden. Ein Wandel in der Landwirtschaft bezieht sich hauptsächlich auf die Anbauprodukte. Während traditionelle angepaßte Cerealien seltener angebaut werden, baut man viele Produkte für den Verkauf an. Die herausragende Stellung darunter nimmt die anspruchsvolle und arbeitsintensive Baumwolle ein. Die Auszahlungsmodalitäten der halbstaatlichen Baumwollgesellschaft kommen dabei den bäuerlichen Bedürfnissen am ehesten entgegen. Um den finanziellen Ansprüchen der Verwandtschaft zu entgehen werden kurzfristige Strategien zur Geldbeschaffung angenommen. Es zeigt sich also, dass die Ursachen von Degradation eher in dem Kulturwandel und einer zunehmenden Abhängigkeit der Bauern von Bareinkünften zu sehen ist als in der oft pauschal genannten Überbevölkerung. Zukünftige Forschungen über Biodiversität und Vegetationswandel sollten auch den Kulturwandel stärker berücksichtigen. Die Degradation zeigt sich in dem Untersuchungsgebiet mehr in der Verarmung der Böden als in einem Rückgang der Biodiversität. Obwohl schon historische Vegetationsbeschreibungen von einer starken Beeinträchtigung der vermuteten natürlichen Wälder sprechen, ist nicht davon auszugehen, dass sich die Vegetation in dem Untersuchungsgebiet die letzten 50 Jahre stark verändert hat. Das in nördlicheren Gebieten von der lokalen Bevölkerung beobachtete Verschwinden von Arten wird kategorisch verneint. Bei den genannten zurückgehenden Arten handelt es sich hauptsächlich um wichtige Nutzarten. Da hierzu historische Daten fehlen, kann es sich auch um selektive Wahrnehmung der Bauern handeln. Dennoch ist anzunehmen, dass sich in Zukunft die Degradationsphänomene verschlimmern werden. Da die Bargeldbedürfnisse der Bauern nicht mehr zurückzuschrauben sind und zudem die Experimentiefreudigkeit in der recht unsicheren Umweltsituation gering ist, muss auf bestehende Produkte zurückgegriffen werden, um sowohl diese Bargeldbedürfnisse zu befriedigen, als auch die Umwelt zu schonen. Eine Chance hierfür könnte eine Vermarktung von Fonio, wie bereits in Mali geschehen, darstellen. Dieses anspruchslose, noch auf sehr ausgelaugten Böden wachsende und zudem sehr nahrhafte und wohlschmeckende Getreide sollte wieder vermehrt angebaut werden und auf lange Sicht die anspruchsvolle und Boden auslaugende Baumwolle ersetzten. Dies ist jedoch nur möglich, wenn Fonio über internationale Strukturen auch in Europa und Amerika vermarktet wird. Eine weitere finanziell nicht ausgeschöpfte Ressource bieten die Mangobäume. In der Hochzeit der Mangoernte werden die Bäume vielfach nicht mehr abgeerntet, weil die Preise für die Früchte stark sinken. Die Früchte fallen dann meist Flughunden und Vögeln zum Opfer. Wie das Beispiel Burkina Faso zeigt, könnten diese Früchte getrocknet, zu Marmelade oder Saft verarbeitet werden und selbst in Europa in dieser haltbaren Form verkauft werden. Leider sind bislang die entsprechenden Initiativen und Strukturen dazu in Benin noch nicht geschaffen. Eine weitere, wenn auch langfristigere Möglichkeit wäre die Ersetzung der Baumwollfelder durch Cashjew-Pflanzungen. Diese werden von der Bevölkerung immer mehr angenommen. Dabei könnten neue Gehölzresourcen geschaffen und die Bodenfruchtbarkeit erhöht werden. Einige Initiativen von kleinen NGO's, die das Pflanzen von Bäumen befürworten, finden großen Anklang. Es muß nur eine Möglichkeit gefunden werden, solche Produkte auch international zu kommerzialisieren, um die Böden stark belastende und zudem arbeitsaufwendige Baumwolle zu ersetzten. Zudem sind Initiativen von einzelnen Dörfern in der Atakoraregion, Teile des Dorfgebietes unter Schutz zu stellen und damit Ressourcen und Wissen vor allem für die traditionelle Medizin zu sichern, ermutigend. Es zeigt, dass die lokale Bevölkerung Bedrohungen ihrer Umwelt ernst nimmt und versucht mit Hilfe von NGO's Gegenmaßnahmen zu schaffen. In diesem Hinblick wäre es wichtig, dass sich zukünftige Forschungen mehr den pharmazeutischen Inhaltsstoffen von Heilpflanzen widmen, so wie dies in Südamerika bereits geschieht. Dabei sollten jedoch die Rechte der autochtonen Bevölkerung gewahrt werden. Zudem wäre es wichtig, mehr über die Ökologie einzelner Gehölzpflanzen unter Berücksichtigung der jeweiligen Nutzungsverhältnisse zu kennen. Hierbei wäre es auch interessant über die Naturverjüngung ausgewählter Arten zu arbeiten. Zudem sollten Forscher, die über Degradationsprobleme arbeiten, vor allem in angewandten Bereichen, mehr auf die Erfahrungen der lokalen Bevölkerung hören und weniger scheinbar offensichtliche und populäre Theorien wie Überbevölkerung strapazieren. Dabei sollten auch vermehrt historische Quellen zu Rate gezogen werden, da es scheint, dass die westafrikanische Savanne nicht so degradiert ist, wie es oft behauptet wird und noch große Potentiale besitzt, wenn diese richtig genutzt werden. Abschließend sei bemerkt, dass, wenn man Berichte aus anderen afrikanischen Regionen hört und sieht, der Norden Benins als "Insel der Glückseeligen" betrachtet werden kann. Die politische Lage ist stabil, die Bevölkerung aufgeschlossen und freundlich, es gibt kaum Kriminalität, große Krankheitsepedemien sind in den letzten Jahren ausgeblieben, Hunger wird selten erlitten und auch die Umweltdegradation hält sich in Grenzen. Möge die hier vorliegende Arbeit dazu beitragen, diese Region und die Bétamaribè ein wenig mehr ins Bewußtsein der Öffentlichkeit bringen und ein wenig dazu beitragen, dass die Situation der Region und ihrer Bevölkerung sich nicht verschlechtert.
P2X receptor subunits assemble in the ER of Xenopus oocytes to homomultimeric or heteromultimeric complexes that appear as ATP-gated cation channels at the cell surface. In this work it was intended to investigate the posttranslational modifications such as N-linked glycosylation and disulfide bond formation that is undergone by P2X1 receptors. In addition, the aim of this study was to examine the expression and the quaternary structure of selected P2X receptor isoforms in Xenopus oocytes. The investigation of the quaternary structure of the metabolically or surface labeled His-P2X2 receptor by BN-PAGE revealed that, while the protein complex is only partially assembling in oocytes, the plasma membrane form of the His-P2X2 receptor assembled into trimeric and even hexameric complex as was shown by the BN-PAGE analysis. Besides this finding, it is shown that the His-P2X5 protein that was purified from metabolically or surface labeled oocytes appeared as one single band corresponding to a trimer when analyzed by BN-PAGE. The present study signified that His-P2X6 alone does not reach a defined assembly status and possibly needs the hetero-polymerisation with other P2X subunits to assemble properly for insertion into the plasma membrane. Another finding of this study is that the P2X1 and P2X2 subunits could exist as heteromultimeric protein complexes in the plasma membrane of cells. Purification of surface expressed His-P2X2 subunit allowed the detection of co-injected P2X1 subunit and vice versa in Xenopus oocytes. Incubation with glutardialdehyde led to the cross-linking of P2X2 and P2X1 subunits to dimers and trimers. BN-PAGE analysis of the P2X2/P2X1 complex isolated under nondenaturing conditions from surface-labeled oocytes yielded one distinct band corresponding to a trimeric complex. The analysis of a C-terminally GFP tagged His-P2X1 fusion protein by confocal fluorescence microscopy revealed small clusters of the protein complexes, approximately 4-6 µm in diameter from a diffuse distribution of the protein in the plasma membranes of Xenopus oocytes. The cross-linking or BN-PAGE analysis of the fusion protein resulted in proteins that migrated quantitatively as trimers when purified in digitonin. The analysis of some chimeric constructs confirmed the results of others, which showed that desensitization can be removed from the P2X1 or P2X3 receptor by providing the N-domain from the P2X2 receptor (Werner et al., 1996) The exchange of this domain did not alter the quaternary structure of the chimeras, which showed to be present as trimers when expressed in oocytes. In addition, glycan minus mutants of His-P2X1 receptor were analyzed to examine whether carbohydrate side chains are important for P2X1 subunit assembly, surface expression, or ligand recognition. SDS-PAGE analysis of glycan minus mutants carrying Q instead of N at five individual NXT/S sequons reveals that 284N remains unused because of a proline in the 4 position. The four other sites (153Asn, 184N, 210N, and 300N) carry N-glycans, but solely 300N acquires complex-type carbohydrates. Like parent P2X1 receptor, glycan minus mutants migrate as homotrimers when resolved by blue native PAGE. Recording of ATP-gated currents revealed that elimination of 153N or 210N diminishes or increases functional expression levels, respectively. In addition, elimination of 210N causes a 3-fold reduction of the potency for ATP. If three or all four N-glycosylation sites are simultaneously eliminated, formation of P2X1 receptors is severely impaired or abolished, respectively. It is concluded that at least one N-glycan per subunit of either position is absolutely required for the formation of P2X1 receptors. The SDS-PAGE analysis of surface-labeled His-P2X2 and His-P2X5 receptors revealed that, while the His-P2X2 subunit acquires three complex-type carbohydrates, in case of His-P2X5 polypeptide, only two of the three N-glycans could obtain complex-type carbohydrates during transit of the Golgi apparatus. Furthermore, it was shown that DTT treatment blocked the appearance of newly made His-P2X1 at the plasma membranes of Xenopus oocytes. Also, it was revealed that the effects of DTT on His-P2X1 biogenesis are fully reversible. Removal of the reducing agent leads to subsequent folding and assembly into His-P2X1 receptor complex, followed by transport to the cell surface. The characterization of cysteine minus mutants by SDS PAGE and BN-PAGE demonstrated that, the cysteine substitution in the first cysteine rich domain (C1 - C6) does not have a major effect on assembly for the mutant receptors. In contrast, the replacement of the four cysteine residues (C7 - C10) from the second cysteine rich domain demonstrate a critical importance of this domain for the functional surface expression of P2X1 receptor. The investigations of several double cysteine mutants revealed that according to a similarity in the sensitivity to ATP, the C1 and C6, as well as C2 and C4 and finally C3 and C5 are pairs forming two disulfide bonds in each P2X1 subunit.
Die Mismatch-Reparatur (MMR) ist ein hochkonserviertes Kontroll- und Korrektursystem für die Erbinformation. Ihre Hauptaufgabe liegt in der Behebung von Kopierfehlern unmittelbar nach der Replikation (postreplikative Reparatur). Mutationen in Genen der Mismatch-Reparatur (vor allem in hMLH1 und hMSH2) führen beim Menschen zum "Erblichen nicht-polypösen kolorektalen Karzinom", HNPCC (Hereditary non-polyposis colorectal cancer). Diese Erbkrankheit geht mit einem gesteigerten Risiko einher, an verschiedenen Karzinomen, vor allem des Kolons, zu erkranken. Obwohl zumindest in Escherichia coli alle an der Mismatch-Reparatur beteiligten Proteine bekannt sind, ist ihr biochemischer Mechanismus nach wie vor ungeklärt. Es existieren drei verschiedene Modellvorstellungen zum Reparaturablauf: das Translocation model, das Sliding clamp model und das DNA bending model. Um einer Klärung des Reparaturmechanismus näherzukommen, sollten in dieser Arbeit die Bindungen der humanen Mismatch-Reparaturproteine an DNA und ihre Interaktionen untereinander näher untersucht werden. Im Zentrum stand dabei die Interaktion der heterodimeren ATPase hMutSa (hMSH2-hMSH6) mit den ebenfalls heterodimeren ATPasen hMutLa (hMLH1-hPMS2) und hMutLß (hMLH1-hPMS1). Die Hauptfunktion von hMutSa ist bekannt: das Dimer ist in der Lage, DNA-Paarungsfehler zu erkennen und an sie zu binden. Die Funktion von hMutLa liegt wahrscheinlich in der Weiterleitung des Signals "Fehler erkannt" von hMutSa an die Reparaturmaschinerie. Somit kommt der Interaktion von hMutSa mit hMutLa eine wesentliche Bedeutung in der Initiation der Reparatur zu. Die Funktion von hMutLß ist noch unbekannt. Zur Analyse der hMutSa-hMutL-Interaktion wurde eine neue Methodik entwickelt, bei der DNA-Substrate an magnetische Partikel gebunden, diese mit Proteinlösungen inkubiert und die gebundenen Proteine anschließend mit Salzlösungen eluiert wurden. Hierdurch konnten die Bindungsstärken anhand der Salzresistenz differenziert werden und die Bindungsreaktionen nach ATP-Zugabe bei verschiedenen DNA-Substraten verfolgt werden. Es konnte gezeigt werden, daß hMutSa zwar nicht quantitativ mehr, aber fester an DNA-Paarungsfehler band als an fehlerfreie DNA-Oligoduplices. Die Bindung reagierte empfindlich auf die Zugabe von ATP: auf Homoduplex-DNA bewirkte ATP unter geeigneten Bedingungen einen vollständigen Bindungsverlust von hMutSa, während es an Heteroduplex-DNA auch in Gegenwart des Nukleotidtriphosphates gebunden blieb. Eine weitere Wirkung von ATP bestand darin, daß hMutSa hMutLa und hMutLß rekrutierte. Dies geschah allerdings nur, wenn ausreichend lange DNA-Substrate (>= 81 Basenpaare) verwendet wurden. Für hMutLa konnte außerdem eine eigene DNA-Bindungsfähigkeit, und zwar vorzugsweise an Einzelstrang-DNA, nachgewiesen werden. Beide Ergebnisse zusammen genommen legen nahe, daß hMutSa und hMutLa nur interagieren können, wenn beide gleichzeitig an DNA gebunden sind. Obwohl nach bisherigen Erkenntnissen hMutLa, aber nicht hMutLß die Mismatch-Reparatur unterstützen kann, interagierte hMutLß ebensogut mit hMutSa. Dies läßt im Zusammenhang mit weiteren Ergebnissen vermuten, daß hMutLß eine modulierende Funktion in der MMR besitzen könnte. Alternativ könnte die hMutSa-hMutLß-Interaktion bei noch nicht charakterisierten anderen Prozessen von Bedeutung sein. Die weitere Untersuchung der Interaktion ergab, daß diese wahrscheinlich nicht von der ATP-Hydrolyse abhängt, sondern allein durch die Bindung des Nukleotidtriphosphates zustande kommt. Darüber hinaus spielen die ATPasen von hMutLa keine Rolle bei der Interaktion, da das Protein auch dann noch die Bindung einging, wenn seine Nukleotidbindungsstellen gezielt mutiert worden waren. Die Untersuchung zeigte außerdem, daß nur die hMutL-Untereinheiten hMLH1 und (in geringem Ausmaß) hPMS1 ATP-abhängig mit hMutSa interagierten, während hPMS2 alleine keine Bindung zeigte. Die sich daran anschließende Untersuchung von Fragmenten des hMLH1-Proteins erlaubte die Eingrenzung der Interaktionszone. hMutLa kontaktiert hMutSa demzufolge mit einem Proteinbereich, der innerhalb des N-Terminus von hMLH1 liegt. Zusammenfassend wird aufgrund der vorliegenden Ergebnisse für das DNA bending model der Mismatch-Reparatur plädiert. Dessen Reparaturablauf wird abschließend unter Berücksichtigung der vorliegenden Daten geschildert. In einem separaten Kapitel der Arbeit wird über die Identifizierung und Charakterisierung einer neuen Spleißmutation des humanen PTEN-Gens berichtet. Diese Mutation wurde bei einer Patientin mit dem Cowden-Syndrom, einem weiteren erblichen Krebssyndrom, nachgewiesen.
Stickstoffmonoxid (NO) ist ein kurzlebiges Gas, welches in biologischen Systemen verschiedene Funktionen übernehmen kann. Abhängig von der Konzentration ist NO ein zweischneidiges Schwert bezüglich seiner biologischen Effekte, da es in hohen Dosen proapoptotisch und in physiologischen Dosen anti-apoptotisch wirkt. Das von der eNOS in Endothelzellen gebildete NO ist ein wichtiger Faktor für die Gefäßrelaxation, ein antiinflammatorisches Molekül, ein zentraler Faktor für die Angiogenese und es inhibiert die Apoptose. Die reversible Modifikationen der Funktion von Zielproteinen durch S-Nitrosylierung ist ein Mechanismus, wie NO seine Effekte mediert. In den letzten Jahren sind eine Vielzahl von Zielproteinen entdeckt worden, deren Funktion durch S-Nitrosylierung modifiziert werden, die deutlich machen, dass S-Nitrosylierung die Funktion eines Signaltransduktionsmechanismus übernimmt. Da in humanen T-Zellen zum erstenmal auch eine Denitrosylierung beobachtet werden konnte, sollten in dieser Arbeit Mechanismen, die der Balance zwischen S-Nitrosylierung und Denitrosylierung zu Grunde liegen, untersucht werden. Dafür wurden zunächst Methoden zum Nachweis der S-Nitrosylierung etabliert. Zum einen zur Quantifizierung der S-Nitrosylierung in Endothelzellen der modifizierte Saville- Griess Assay und der DAN-Assay und zum anderen zur qualitativen Analyse der S-Nitrosylierung die biotin switch method. In dieser Arbeit konnte gezeigt werden, dass durch Stimulation der NO-Freisetzung mittels Applikation von laminarer Schubspannung der Gehalt an S-Nitrosylierung in HUVEC erhöht wird und auch die katalytische Untereinheit der Caspase-3 p17, ein bekanntes Zielprotein, verstärkt S-nitrosyliert wird. In einem in vitro Modell des Alterns konnte gezeigt werden, dass einhergehend mit der Reduktion der Proteinexpression der eNOS auch der Gehalt an S-Nitrosylierung, und damit die Bioverfügbarkeit von NO, reduziert ist. Nach Inkubation mit dem pro-apoptotischen TNFa und dem pro-atherogenen oxLDL konnte eine drastische Zunahme der Apoptosesensitivität von alternden HUVEC gegenüber diesen Stimuli beobachtet werden. Diese Ergebnisse unterstreichen die zentrale Rolle der Bioverfügbarkeit von NO für das Überleben der Endothelzelle. Zusätzlich konnte eine Denitrosylierung nach Inkubation von Endothelzellen mit TNFa oder oxLDL nach 18 h nachgewiesen werden. Durch Analyse mittels der biotin switch method wurde deutlich, dass dabei nicht nur der Gesamtgehalt an S-nitrosylierten Molekülen reduziert wird, sondern auch spezifische Zielproteine in unterschiedlicher Stärke denitrosyliert werden. Diese Daten machen deutlich, dass es sich bei der S-Nitrosylierung um einen differentiell regulierten Signaltransduktionsmechanismus handelt. Basierend auf diesen Ergebnissen wurde eine Strategie zur Identifizierung einer potentiellen Nitrosylase entwickelt, bei dem ein synthetisches, in vitro S-nitrosyliertes Peptid als Substrat verwendet wird. Weiterhin sollten neue Zielproteine für die S-Nitrosylierung identifiziert werden. Tatsächlich konnte ein neues Zielprotein für die S-Nitrosylierung, die Oxidoreduktase Thioredoxin identifiziert werden. Thioredoxin wird ubiquitär in Säugetierzellen exprimiert und ist ein essentieller Faktor für die Aufrechterhaltung des intrazellulären Redox-Status. Mit den Cysteinen an Position 32 und 35 besitzt Thioredoxin eine redox-regulatorische Domäne, die essentiell für seine Funktion als Oxidoreduktase ist. Neben seiner Funktion als Redox- Regulator, kann Thioredoxin Transkriptionsfaktoren wie z.B. NfK-B aktivieren und über die redox-regulatorische Domäne die pro-apoptotische Kinase ASK-1 binden und inhibieren. In dieser Arbeit konnte gezeigt werden, dass Thioredoxin an Cystein 69 S-nitrosyliert wird und dass der Gehalt an S-nitrosylierten Molekülen von der Proteinexpression des Thioredoxin abhängt. Desweiteren ist die S-Nitrosylierung von Thioredoxin in Endothelzellen wichtig für die Entfaltung seiner vollständigen Reduktaseaktivität. Für die zum erstenmal in Endothelzellen gezeigte anti-apoptotische Funktion von Thioredoxin wird sowohl die S-Nitrosylierung an Cystein 69 als auch die redox-regulatorische Domäne benötigt. Durch diese Experimente konnte eine neue wichtige Funktion von Thioredoxin für NOproduzierende Zellen beschrieben werden. Zusammenfassend zeigen die Ergebnisse dieser Arbeit, dass die S-Nitrosylierung in Endothelzellen ein Signaltransduktionsmechanismus ist, der sowohl durch protektive, als auch durch pathophysiologische Stimuli spezifisch reguliert wird. Die weitere Charakterisierung dieser Vorgänge könnte einen tieferen Einblick in die Biologie und Funktion der Endothelzelle geben. Zusätzlich konnte durch das neue Zielprotein Thioredoxin die direkte Verknüpfung von NO mit dem Redox-Status der Zelle und die zentrale Rolle von Thioredoxin für den Gehalt an S-Nitrosylierung in Endothelzellen gezeigt werden. Identifizierung weiterer Regulationsmechanismen für die S-Nitrosylierung könnte ein genaueres Verständnis dieses Wirkmechanismus von NO und somit eine bessere Protektion des Endothelzellmonolayers in den Gefäßen ermöglichen.
Wolinella succinogenes reduziert Fumarat mit H2 oder Formiat als Elektronendonor. Der Elektronentransport wird von der membranständigen Hydrogenase oder Formiat-Dehydrogenase und der Fumarat-Reduktase katalysiert. Redoxmediator zwischen beiden Enzymen ist Menachinon. Der Elektronentransport ist mit der Erzeugung eines elektro-chemischen Protonenpotentials (Dp) gekoppelt. Ziel dieser Arbeit war, den Mechanismus der Dp-Entstehung durch Rekonstitution der gekoppelten Fumarat-Atmung in Liposomen aufzuklären. Aus Wolinella succinogenes isolierte Hydrogenase und Fumarat-Reduktase wurden in Liposomen eingebaut, die Menachinon enthielten. Die resultierenden Proteoliposomen kataly-sierten die Reduktion von Fumarat mit H2. Die Wechselzahl der Enzyme im Elektronentrans-port von H2 zu Fumarat war etwa 10 % von der in Bakterien. In den Proteoliposomen waren sowohl Hydrogenase als auch Fumarat-Reduktase ausschließlich nach außen orientiert. Elektronenmikroskopische Aufnahmen zeigten, dass die Proteoliposomen sphärische Vesikel mit einem mittleren Außendurchmesser von 88 nm waren. Die Proteoliposomen enthielten statistisch 8,4 Hydrogenasemoleküle und 72 Fumarat-Reduktasemoleküle. Alle aktiven Enzymmoleküle waren in der Proteoliposomenmembran zufällig verteilt eingebaut und nahmen am Elektronentransport von H2 zu Fumarat teil. Der aus dem Protonenpermeabilitätskoeffizienten (PH = 8,1·10-3 cm·s-1) berechnete unspezifische Protonenfluß über die Proteoliposomenmembran war etwa 20mal langsamer als der durch den Elektronentransport von H2 zu Fumarat katalysierte Protonenfluß. Während der Fumarat-Reduktion mit H2 entstand ein elektrisches Protonenpotential über der Proteoliposomenmembran (Dø = -0,19 V; innen negativ), das die gleiche Richtung und Größe hatte wie das Dø während der Fumarat-Atmung in Zellen von W. succinogenes. Der H /e--Quotient für die Fumarat-Reduktion mit H2 war in Proteoliposomen in Gegenwart von Valinomycin und externem K etwa 1. Das gleiche Dø und der gleiche H /e--Quotient waren mit der Reduktion von 2,3-Dimethyl-1,4-naphthochinon (DMN) durch H2 verbunden, wenn die Proteoliposomen Menachinon und Hydrogenase mit oder ohne Fumarat-Reduktase enthielten. Proteoliposomen, die Menachinon und Fumarat-Reduktase mit oder ohne Hydrogenase enthielten, katalysierten die Reduktion von Fumarat durch DMNH2, die aber nicht mit der Entstehung von Dp gekoppelt war. Proteoliposomen, die Formiat-Dehydrogenase, Menachinon und Fumarat-Reduktase enthielten, katalysierten die Reduktion von Fumarat oder DMN durch Formiat. Beide Reaktionen erzeugten über der Proteoliposomenmembran ein Dø von -0,13 V (innen negativ). Der H /e--Quotient der Formiat-Oxidation durch Menachinon oder DMN war nahezu 1. Die Entstehung von Dø war von der Art des in die Proteoliposomen eingebauten Chinons abhängig. Während der Reduktion von DMN durch H2 entstand ein Dø, wenn die Proteoliposomenmembran Menachinon, Vitamin K2 oder das aus W. succinogenes isolierte Methylmenachinon enthielt. Proteoliposomen ohne Chinon oder mit Vitamin K1 erzeugten kein Dø während der DMN-Reduktion mit H2. Die Fumarat-Atmung mit H2 war nur in Gegenwart von Menachinon oder Vitamin K2 mit der Entstehung von Dø gekoppelt. In dieser Arbeit wurde erstmals die gekoppelte Fumarat-Atmung mit aus W. succinongenes isolierten Elektronentransportenzymen in Lipsomen rekonstituiert. Die Ergebnisse bestätigen die Hypothese, dass das durch die Fumarat-Atmung erzeugt Dp ausschließlich durch die Menachinon-Reduktion mit H2 oder Formiat entsteht, während die Menachinol-Oxidation mit Fumarat ein elektroneutraler Prozeß ist.
Der weltweiten Ausbreitung des humanen Immundefizienzvirus versucht man neben der Entwicklung eines präventiven HIV-Impfstoffes auch durch die Verbesserung der chemotherapeutischen Behandlung HIV-Infizierter entgegen zu wirken. Die hochwirksame antiretrovirale Kombinationsstherapie (HAART) hat neben der Anzahl der opportunistischen Infektionen und AIDS-bedingten Todesfälle auch die Viruslast in vielen HIV-Infizierten über einen langen Zeitraum unterhalb der Detektionsgrenze senken können. Es sind daher neben den klassischen Verlaufsmarkern wie der Viruslast und der Anzahl der CD4 T-Zellen neue Surrogatmarker zur Beurteilung der Effizienz der antiretroviralen Therapie notwendig. Der Einfluss der Viruslast auf den CD8 T-Zellaktivierungsstatus während der antiretroviralen Therapie zeigte sich durch den Vergleich von HAART-Respondern und den durch eine hohe Viruslast infolge eines Therapie-Versagens gekennzeichneten HAART-Non-Respondern. Die Beobachtung einer signifikant erhöhten Anzahl an basal, d.h. ohne vorangegangene in vitro Stimulation, aktivierten CD8 CD69 T-Zellen bei HAART-Non-Respondern (p = 0,0049) konnte die Rolle des T-Zell-Aktivierungsstatus als Marker der verbleibenden Viruslast unter HAART nachweisen. Um das Potential der von CD8 T-Zellen sezernierten HIVsupprimierenden ß-Chemokinen und IL-16 als HAART-begleitende Surrogatmarker zu untersuchen, wurde die Expression von MIP-1a, MIP-1ß und RANTES sowie des Lymphokins IL-16 im Serum und im Zellkulturüberstand aktivierter CD8 T-Zellen untersucht. Für HAART-Non-Responder konnte im Zellkulturüberstand von in vitro stimulierten CD8 TZellen eine signifikante Erhöhung der IL-16-Expression (p = 0,0077) und eine erhöhte Expression von MIP-1a im Vergleich zu HAART-Respondern gezeigt werden. Darüber hinaus wurde eine signifikant erhöhte MIP-1ß-Serumkonzentration bei HAART-Non- Respondern (p = 0,0175) nachgewiesen, die mit einer erhöhten Anzahl aktivierter CD8 CD69 T-Zellen assoziiert war. Im Rahmen dieser Untersuchungen konnte somit gezeigt werden, dass neben MIP-1a, vor allem das ß-Chemokin MIP-1ß und das Lymphokin IL-16 vielversprechende Surrogatmarker zur Beurteilung der Effizienz der antiretroviralen Therapie darstellen, die als sensitive therapiebegleitende Marker die rechtzeitige therapeutische Intervention vor einem signifikanten Anstieg der Viruslast ermöglichen könnten. Da trotz der intensiven Entwicklung und Verbesserung antiretroviral wirkender Therapeutika die vollständige Elimination des HI-Virus bislang nicht möglich ist, wurde in den vergangenen Jahren konzentriert an der Entwicklung neuer Impfstoffstrategien gearbeitet. Eine durch einen Impfstoff induzierte protektive Immunantwort gegen HIV sollte vor allem gegen Strukturproteine, sowie gegen die regulatorischen Proteine Tat und Rev gerichtet sein. Mit einem MLV-abgeleiteten Transfervektor für die SHIV-Gene tat, rev und env wurde in dieser Arbeit das immunogene Potential zur Induktion einer humoralen und zellulären Immunantwort im Rhesusaffen-Tiermodell untersucht. Durch die Etablierung einer stabilen Verpackungszellinie für den Transfervektor pMgDenv/tat/rev/Dlngfr konnte der effiziente Gentransfer in CD4 T-Zellen mittels [MLV(SHIV)]-Pseudotypvektoren gezeigt werden. Durch Optimierung der Transduktionsbedingungen konnte ein Transduktionstiter von 1-2 x 107 i.E./ml in primäre Rhesus-Lymphozyten erreicht werden. Um das immunogene Potential dieser HIV-Antigen-exprimierenden Zellen in vivo zu untersuchen, wurden in einer Immunisierungsstudie 0,7 - 3,4 x 107 Transfergen-positive PBMC in 3 aufeinander folgenden Transplantationen in einen Rhesusaffen reinfundiert. Die transplantierten Zellen waren nach der 3. Applikation bis zu 7 Tage nach Transplantation in vivo mittels PCR detektierbar. Eine HIV-gp120-spezifische Antikörperantwort konnte fünf Wochen nach der ersten bzw. zwei Wochen nach der letzten Immunisierung nachgewiesen werden. In einem ELIspot-Assay konnte erfolgreich die Induktion einer HIV-1-Env- und Rev-spezifischen CTL-Antwort in den nach 7,5 bzw. 10 Wochen nach der letzten Immunisierung entnommenen PBMCs nachgewiesen werden. Interessanterweise zeigten Sequenzanalysen, dass die induzierte CTL-Aktivität gegen die für einen effizienten Schutz bedeutenden Determinanten des HIV-1- Hüllproteins, gegen die variable Domäne des gp120 als auch gegen die CD4- Bindungsregion gerichtet war. In dieser Immunisierungsstudie war es somit erstmals möglich, durch die Transplantation autologer HIV-Antigen-exprimierender CD4 T-Zellen eine spezifische humorale wie auch zelluläre Immunantwort in vivo zu induzieren.
Die analytische Ultrazentrifuge ist ein unverzichtbares Instrument zur Charakterisierung von schwachen Protein-Protein-Wechselwirkungen und deren funktioneller oder regulatorischer Bedeutung. Eine besondere Gruppe von Untersuchungsobjekten bilden die integralen Membranproteine, die für eine Ultrazentrifugenanalyse solubilisiert, d.h. aus ihrer natürlichen, hydrophoben Umgebung in wäßriges Milieu überführt werden müssen. Diese Aufgabe wird vom Standpunkt der Erhaltung des natürlichen Proteinzustands am besten von nichtionischen Detergenzien erfüllt, wobei das biochemisch optimale Detergens von Protein zu Protein i.A. verschieden ist. Die notwendige Anwesenheit von Detergens während der Zentrifugenanalyse belastet diese andererseits, da freies wie proteingebundenes Detergens zusätzliche unbekannte Größen darstellen. Diese Unbekannten können durch experimentelle Gleichsetzung von Detergensdichte und Lösungsdichte eliminiert werden (Dichtekompensation). Die Möglichkeiten der etablierten Dichtekompensationsverfahren sind allerdings beschränkt, insbesondere Detergenzien mit hoher Dichte sind damit nicht erfaßbar - ein Mangel, der manche Untersuchung be- oder verhindert. Aus diesem Grund wurden neue Dichtekompensationsverfahren entwickelt und bestehende verbessert bzw. erweitert: zum einen die Erhöhung der Lösungsdichte durch Zusatz von Saccharose, Glyzerin oder einer Saccharose-D2O-Kombination, zum anderen die Anpassung der Detergensdichte durch Mischen von Detergenzien mit niedriger und mit hoher Dichte. Die neuen Verfahren wurden überprüft, indem ein integrales Membranprotein mit bekannten Eigenschaften, Cytochrom c-Oxidase von Paracoccus denitrificans, unter Anwendung sowohl der neuen Verfahren als auch der etablierten D2O-Methode im Sedimentationsgleichgewicht analysiert wurde. Der Vergleich der Ergebnisse zeigte zum einen die Äquivalenz der verschiedenen Methoden im Falle der Kompensation von Detergensdichten, die auf herkömmliche Weise kompensierbar sind, zum andern, daß nach Kompensation deutlich höherer Dichten das partialspezifische Volumen des Proteins zu korrigieren ist. Eine derartige Korrektur wurde nötig beim Vorhaben, den oligomeren Zustand des Cytochrom bc1-Komplexes von Paracoccus denitrificans zu bestimmen, da dieses Atmungskettenenzym nur in Gegenwart von DDM, einem Detergens mit hoher Dichte, stabil war. Die Unsicherheit, die sich aus der via Vergleich mit Cytochrom c-Oxidase durchgeführten Korrektur ergab, war nicht relevant, da sich der intakte bc1-Komplex in DDM-Lösung als einheitliche Substanz erwies und er damit ein "einfaches" Problem darstellte. Die Sedimentationsgleichgewichtsuntersuchung des Proteins unter der Bedingung der Dichtekompensation ergab nach Berücksichtigung des Korrekturterms, daß der solubilisierte, enzymatisch aktive bc1-Komplex als Dimer vorliegt. Dieses Ergebnis korreliert mit der aktuellen Vorstellung von der Funktionsweise des Enzyms, derzufolge die dimere Form für den Elektronentransfer notwendig ist. Komplizierter als der oligomere Zustand des bc1-Komplexes ist offenbar das Selbstassoziationsverhalten des Bande 3-Proteins, des Anionenaustauschers aus der menschlichen Erythrozytenmembran: Entgegen der vorherrschenden Meinung, eine in Detergenslösung vorliegende intakte Bande 3 bilde stabile Dimere, weisen die vorliegenden Ergebnisse darauf hin, daß das solubilisierte Protein aus mehreren Oligomeren besteht. So zeigen die vorhandenen Daten neben dimerer Bande 3 die Existenz von monomerem und tetramerem Protein, letztere Form vermutlich in unterschiedlichen Zuständen, und verweisen auf ein Assoziationsgleichgewicht zwischen den Oligomeren, vermutlich überlagert durch stabiles Dimer. Letzteres erscheint als "Grenzfall" eines Bande 3-Präparats, der nach langer Lagerung und/ oder nach suboptimaler Behandlung eintritt. Wegen der Komplexität des Bande 3-Verhaltens konnten die Zentrifugenuntersuchungen nur in Gegenwart von Detergenzien durchgeführt werden, deren Dichte eine Kompensation ohne Korrekturbedarf zuläßt. Darüber hinaus kamen wegen der offensichtlichen Empfindlichkeit der Bande 3 nur sehr milde Detergenzien zum Einsatz: C12E9 und Triton X-100 (reduzierte Form). Aus selbigem Grund wurde die Detergensdichte bevorzugt mit Saccharose oder Glyzerin kompensiert, deren proteinstabilisierende Wirkung bekannt ist.
Für viele pädiatrische Patienten mit Leukämie ist die Durchführung einer Hoch-Dosis- Chemotherapie mit anschließender Stammzelltransplantation oft die einzige Möglichkeit die Heilungsrate zu verbessern. Die Eliminierung der residualen leukämischen Blasten basiert einerseits auf der Konditionierung mit hoch-aggressiver Chemotherapie. Andererseits ist sie auf immunologische Reaktionen zwischen immunkompetenten Zellen, die entweder in dem Transplantat enthalten sind, oder aus diesem neu entstehen und den verbliebenen leukämischen Blasten zurückzuführen. Diese immunologische Interaktion wird auch als Graftversus- Leukämie-Reaktion (GVL) bezeichnet und hauptsächlich von T-und NK-Zellen vermittelt. Trotz zunächst erfolgreicher allogener Transplantation erleidet ein beträchtlicher Anteil der Patienten ein Rezidiv. Während ein offenes Rezidiv oft nicht mehr behandelbar ist, können Patienten mit drohendem Rezidiv oder minimaler Resterkrankung (MRD) durch Infusion immunkompetenter Zellen des Spenders, sogenannte Donor-Lymphozyten-Infusionen (DLI), teilweise erfolgreich behandelt werden. Die Behandlung mit DLI ist limitiert durch die Graft-versus-host-disease (GVHD), eine mit zum Teil schweren Komplikationen verbundene Reaktion, die potentiell tödlich verlaufen kann. Die gentechnische Veränderung der alloreaktiven Zellen mit einem Suizidgen ermöglicht eine kontrollierte, spezifische Eliminierung dieser Zellen im Falle einer GVHD Entwicklung. Im Rahmen dieser Arbeit wurden zwei verschiedene retrovirale Selektions/Suizid- Fusionsvektoren für die Transduktion von Spender T-Zellen im Kontext einer DLI entwickelt. Beide Selektions/Suizid-Fusionselemente wurden in einem für die Transduktion in T-Zellen optimierten retroviralen Vektor generiert. Die Selektionsmarker waren so gewählt, dass eine Anreicherung der Transgen-positiven Zellen über eine immunomagnetische Selektion möglich war. Ein Vektor kodierte für ein Fusionsmolekül aus dem zytoplasmatisch trunkierten humanen CD34-Oberflächenmarker (tCD34) und der Zellzyklus-abhängigen GCV-hypersensitiven HSVtk39 (Herpes-simplex Virus I Thymidin Kinase) Mutante. Durch GCV-Applikation konnte in den transduzierten, tCD34/HSV-tk39 exprimierenden Zellen spezifisch die Apoptose induziert werden. Der zweite Vektor wurde so konstruiert, dass ein Fusionsprotein aus dem humanen DLNGFR-Oberflächenmarker und der Zellzyklus-unabhängigen death-effector-domain (DED) des humanen FADD (Fas-associated-protein with death domain) Moleküls entstand. Über zwei zwischengeschaltete FKBP (FK506-binding protein) Domänen wurden die beiden Elemente miteinander fusioniert. In DLNGFR/Fv'Fv/DED-exprimierenden Zellen konnte die Apoptose durch die Applikation eines spezifisch an die beiden FKBP-Domänen bindenden synthetischen Substrats (AP20187), das die Dimerisierung des DED-Moleküls induzierte, ausgelöst werden. Durchflusszytometrische Analysen von transduzierten und selektierten humanen primären TZellen zeigten, dass beide Fusions-Transgene korrekt in den Zielzellen exprimiert wurden. Die spezifische Induktion der Apoptose durch Aktivierung des jeweiligen Suizidmoleküls wurde in Funktionalitätstestungen nachgewiesen. Beide Fusionsmoleküle vermittelten eine effiziente Eliminierung der transduzierten Zellen (90 %-98 %). In vergleichenden Analysen wurde gezeigt, dass die beiden Suizidmechanismen einer unterschiedlichen Kinetik unterlagen. Während die DED-induzierte Apoptose sehr schnell auf die Applikation des Suizidaktivators folgte, vermittelte der HSV-tk39 Mechanismus eine deutlich langsamere aber etwas effizientere Eliminierung der Zellen. Erste Untersuchungen einer Kombination beider Fusionsmoleküle deuten auf einen additiven/synergistischen Effekt hin, der zu einer schnellen und effizienten Eliminierung der Zellen führt (>=99 %). Zur Zeit stellt die Strategie der Suizidgen-transduzierten T-Zellen die am vielversprechendste Methode zur Kontrolle einer GVHD-Reaktion dar. Die hier entwickelten Vektoren ermöglichen eine effiziente, kontrollierte Eliminierung der Zellen und bieten Potential zur Weiterentwicklung einer optimierten Strategie.