Refine
Year of publication
- 2002 (1268) (remove)
Document Type
- Article (514)
- Doctoral Thesis (190)
- Part of Periodical (117)
- Part of a Book (97)
- Review (88)
- Working Paper (83)
- Book (49)
- Preprint (47)
- Conference Proceeding (23)
- diplomthesis (22)
Language
- German (862)
- English (360)
- French (18)
- Portuguese (11)
- mis (5)
- Spanish (5)
- Multiple languages (3)
- Turkish (2)
- Italian (1)
- Polish (1)
Has Fulltext
- yes (1268) (remove)
Is part of the Bibliography
- no (1268) (remove)
Keywords
- Rezension (49)
- Deutschland (26)
- Literatur (20)
- Frankfurt <Main> / Universität (17)
- Frankfurt <Main> (15)
- Theater (14)
- Vormärz (14)
- Phonetik (12)
- Deutsch (11)
- Phonologie (11)
Institute
- Physik (85)
- Extern (71)
- Medizin (66)
- Rechtswissenschaft (48)
- Biochemie und Chemie (47)
- Wirtschaftswissenschaften (38)
- Biowissenschaften (32)
- Gesellschaftswissenschaften (31)
- Pharmazie (25)
- Informatik (22)
Welches der vielen Internet-Bezahlsysteme sich am Markt durchsetzen wird, hängt entscheidend von der „gefühlten Sicherheit“ bei den Kunden ab. Dieses Fazit konnte man Ende Juni 2002 zum Abschluss des Symposiums „Digitales Geld“ im Institut für Telematik ziehen. Weitere Voraussetzungen für den wirtschaftlichen Erfolg sind einfache Bedienung, transparente und bequeme Abwicklung sowie niedrige Kosten für Verbraucher und Anbieter, waren sich die 14 Referenten aus Wissenschaft, Wirtschaft und Verbänden einig. Das Symposium zur Sicherheit von Internet-Bezahlsystemen verfolgten rund 30 Teilnehmer vor Ort und mehr als 100 durch Live-Übertragung im World Wide Web. Die technischen Probleme - so wurde klar - sind mehr oder weniger alle gelöst. Offen bleibt die Frage, wie für das Verträgeschließen und Bezahlen im Internet mehr gesellschaftliche Akzeptanz und juristische Absicherung erreicht werden kann. Nach dem übereinstimmenden Urteil der meisten Referenten sind Internet-Bezahlsysteme „selbst für die technische Avantgarde“ noch zu kompliziert zu bedienen. Verständlich sei der Wunsch nach einheitlichen Standards. Noch immer stellten für die Kunden die Überweisung nach Rechnung (fast 90% der Internet- Käufer), die Lastschriftabbuchung (über 70%) und die Nachnahme-Zahlung (rund 65%) die beliebtesten Zahlverfahren beim Online-Shopping dar, betonten Marktforscher und Verbraucherschützer. Den größten Bedarf für neue Verfahren, die sinnvollerweise auf den vorhandenen Abrechnungsmechanismen aufbauen sollten, sahen die Symposiums-Teilnehmer im Bereich der Abrechnung von Klein(st)-Beträgen, wie sie beim Kauf digitaler Güter (Software, Musik, elektronische Dokumente usw.) anfallen. Um rentabel arbeiten zu können, seien hier aber die Sicherheitsanforderungen geringer. Mobiles Bezahlen per Handy werde sich in Zukunft immer mehr durchsetzen. Das Sicherheitsproblem liege hier in der „Luftschnittstelle“, so ein Experte, denn das Abhören von Mobilfunkverkehr sei in Europa besonders weit verbreitet. In jedem Fall - so hochrangige Vertreter der Finanzwirtschaft - haben Verfahren im E- und M-Commerce dann eine Chance, wenn sie auf den weltweit bewährten Transaktionsmechanismen beruhen.
As there are apparently no doubts concerning the existence of Nazi anti-Semitism before 1933 regarding this topic – having largely been ignored by scholars of contemporary history – seems to be no use. This article tends to trace the role of anti-Semitism during the ascend of the Nazi-movement. Therefore, the author describes the theoretic function of this phenomena for the NSDAP by referring to Hitler’s Weltanschauung and the official program of the party. But how did this anti-Jewish ideology find its way into the party’s day-to-day agitation? By analysing Hitler’s political speeches it is shown how, after 1925/26, the Führer tried to present himself as a moderate politician – for he had realised that the NSDAP had to become a mass-movement in order to gain political power in Weimar Germany. Vis-à-vis the party’s antisemitic membership, mainly retailers and graduates, anti-Jewish stereotypes were pushed in propaganda. Yet, National Socialist anti-Semitism was not only opportunist in that it was played up or down depending upon when and where it hit responsive chords, it was also subject to the regional Gauleiter if this phenomena was promoted like in Streicher’s Franconia or restricted like in Württemberg, Hamburg or Danzig. Only after the world-wide economic crisis of 1929 the NSDAP had considerable success in the Reichstag’s elections. The party presented itself as the only power being capable to establish a new order in Germany. The propaganda focused on the main enemies of the National Socialists: Communism and the liberal democracy – in this context, the anti-Semitism was negligible.
Im Rahmen dieser Projektarbeit sollen drei Beispiele für Publikationsportale vorgestellt werden: das Bibliotheks und Informationssystem der Carl-von-Ossietzky-Universität Oldenburg, der Dokumenten und Publikationsserver der Humboldt-Universität zu Berlin mit Ausblick auf das Projekt ProPrint und das Publikationsportal der Universitätsbibliothek Kassel, das für den Titel dieser Arbeit Pate stand. Um deren Entstehung und Einbindung in einen aktiven Entwicklungsprozess zu verdeutlichen, werden zunächst einige wegweisende Initiativen auf dem Gebiet des elektronischen Publizierens beschrieben, sowie die Kriterien näher erläutert, die für das elektronische Publizieren von grundlegender Bedeutung sind. Es ist noch zu bemerken, dass nur Beispiele zum Publizieren von Monografien beschrieben werden, da das Einbeziehen von Zeitschriftenartikeln zu weit geführt hätte.
Elektronische Information ist ein immer wichtiger werdender Teil in der heutigen Informationsvermittlung und spielt auch für Bibliotheken eine zunehmend bedeutende Rolle. Da sie aber nicht mehr die einzigen Informationsvermittler sind, sondern auch private Anbieter diesen Markt entdeckt haben, müssen Bibliotheken dieser Konkurrenz durch Marketingstrategien entgegentreten. Dies ist eine neue Herausforderung im Bibliotheksbereich. Deshalb stellt sich die Frage, inwieweit Bibliotheken heute schon Marketing betreiben. Im Rahmen unseres Studiums an der Fachhochschule für Bibliothekswesen in Frankfurt am Main, haben wir diese Entwicklung zum Thema einer Projektarbeit gemacht, da sie eine aktuelle Bedeutung für uns als angehende Diplom-Bibliothekare hat. Unsere Ausgangsfragestellung entwickelten wir in der Auseinandersetzung mit den Thesen des Projekts Nutzung elektronischer wissenschaftlicher Informationen in der Hochschulausbildung von der Sozialforschungsstelle Dortmund zusammen mit dem Lehrstuhl für Soziologie der Universität Dortmund und der Gesellschaft für Angewandte Unternehmensforschung und Sozialstatistik mbH (GAUS) im Auftrag des Bundesministeriums für Bildung und Forschung (BMB+F), auch als SteFi-Studie (Studieren mit elektronischen Fachinformationen) bekannt (http://www.stefi.de/). Ziel unserer Arbeit ist es herauszufinden, welche Marketingstrategien bereits von Bibliotheken eingesetzt werden, welche Ziele damit verfolgt werden und wie diese neue Aufgabe organisiert wird. Dazu haben wir mittels eines Fragebogens eine Umfrage an zehn Bibliotheken gerichtet, an der sich neun Bibliotheken beteiligt haben. Diese befasst sich mit den Aspekten Marketingmaßnahmen, Stellenwert dieser Maßnahmen, Marketinggesamtkonzept und Finanzierung. Bei unseren Untersuchungen wurden ausschließlich Universitätsbibliotheken befragt, denen wir für ihre Mitarbeit und Hilfsbereitschaft danken.
Bei der Regulierung und Aufsicht auf den internationalen Wertpapiermärkten gibt es immer noch viele Unterschiede bei den Regelungsinhalten und in der Prioritätensetzung. Die steigende weltweite Verflechtung der Finanzsektoren und deren Akteure sowie die hohe Kapitalmobilität machen es jedoch zunehmend erforderlich, auch die Aufsicht zunehmend zu internationalisieren. Internationale Aufsichtsstandards wiederum können grenzüberschreitende Aktivitäten von Marktteilnehmern erleichtern und sicherer machen. Es ist inzwischen anerkannt, dass eine gute und effiziente Regulierung einen Finanzplatz gerade im internationalen Umfeld attraktiv macht und so dessen Wettbewerbsfähigkeit erhöht. Es ist daher von großer Bedeutung, die nationale Aufsicht internationalen Standards folgen zu lassen. Eine wichtige Funktion bei der Aufstellung dieser Standards haben die internationalen Organisationen wie IOSCO im Wertpapierhandel, die IAIS im Versicherungs- und der Baseler Ausschuss im Bankenbereich inne. In vielfältiger Weise ist deren Arbeit für den Finanzplatz Deutschland richtungsweisend. Das sind wichtige Gründe, weshalb die Teilnahme an Aktivitäten der IOSCO, Mitarbeit an Berichten, Standards und Resolutionen der IOSCO dem deutschen Kapitalmarkt und insbesondere dem Wertpapierhandel in Deutschland nützen kann. Um näher verständlich machen zu können, auf welche Weise IOSCO dem deutschen Kapitalmarkt in diesem Sinne nützlich sein kann, und Arbeiten in der IOSCO von Bedeutung für das deutsche Recht im Bereich des Wertpapierhandels sind, ist es zunächst wichtig, die Organisation IOSCO (1) , ihre Zielsetzung (2) und Struktur (3) zu verstehen, und die Bereiche zu kennen, in denen IOSCO arbeitet (4) sowie die Formen und jeweilige Bindungswirkung der Produkte der IOSCO (5). Wichtig in diesem Zusammenhang sind auch Art und Weise, auf die in IOSCO Beschlossenes unser Finanzsystem tangieren kann und bereits tangiert hat.
We present calculations of two-pion and two-kaon correlation functions in relativistic heavy ion collisions from a relativistic transport model that includes explicitly a first-order phase transition from a thermalized quark-gluon plasma to a hadron gas. We compare the obtained correlation radii with recent data from RHIC. The predicted R_side radii agree with data while the R_out and R_long radii are overestimated. We also address the impact of in-medium modifications, for example, a broadening of the rho-meson, on the correlation radii. In particular, the longitudinal correlation radius R_long is reduced, improving the comparison to data.
We calculate the kaon HBT radius parameters for high energy heavy ion collisions, assuming a first order phase transition from a thermalized Quark-Gluon-Plasma to a gas of hadrons. At high transverse momenta K_T ~ 1 GeV/c direct emission from the phase boundary becomes important, the emission duration signal, i.e., the R_out/R_side ratio, and its sensitivity to T_c (and thus to the latent heat of the phase transition) are enlarged. Moreover, the QGP+hadronic rescattering transport model calculations do not yield unusual large radii (R_i<9fm). Finite momentum resolution effects have a strong impact on the extracted HBT parameters (R_i and lambda) as well as on the ratio R_out/R_side.
We calculate the antibaryon-to-baryon ratios, anti-p/p, anti-Lambda/Lambda, anti-Xi/Xi, and anti-Omega/Omega for Au+Au collisions at RHIC (sqrt{s}_{NN}=200 GeV). The effects of strong color fields associated with an enhanced strangeness and diquark production probability and with an effective decrease of formation times are investigated. Antibaryon-to-baryon ratios increase with the color field strength. The ratios also increase with the strangeness content |S|. The netbaryon number at midrapidity considerably increases with the color field strength while the netproton number remains roughly the same. This shows that the enhanced baryon transport involves a conversion into the hyperon sector (hyperonization) which can be observed in the (Lambda - anti-Lambda)/(p - anti-p) ratio.
We make predictions for the kaon interferometry measurements in Au+Au collisions at the Relativistic Heavy Ion Collider (RHIC). A first order phase transition from a thermalized Quark-Gluon-Plasma (QGP) to a gas of hadrons is assumed for the transport calculations. The fraction of kaons that are directly emitted from the phase boundary is considerably enhanced at large transverse momenta K T ~ 1 GeV/c. In this kinematic region, the sensitivity of the R out/R side ratio to the QGP-properties is enlarged. Here, the results of the 1-dimensional correlation analysis are presented. The extracted interferometry radii, depending on K-Theta, are not unusually large and are strongly affected by momentum resolution effects.
In this paper, I investigate more closely the contribution of modal operators to the semantics of comparatives and I show that there is no need for a maximality or minimality operator. Following Kratzer s (1981, 1991) analysis of modal elements, I assume that the meaning of a modal sentence is dependent on a conversational background and an ordering source. For comparative environments, I demonstrate that the ordering source reduces a set of possible degrees to a single degree that is most (or least) wanted or expected, i.e., maximality and minimality readings of comparative constructions are an effect of the pragmatic meaning of the modal.
Invited talk at the International Workshop XXX on Gross Properties of Nuclei and Nuclear Excitations - Ultrarelativistic Heavy-Ion Collisions, Jan. 13-19, 2002, Hirschegg, Austria. Report-no: LBNL-49674. We discuss predictions for the pion and kaon interferometry measurements in relativistic heavy ion collisions at SPS and RHIC energies. In particular, we confront relativistic transport model calculations that include explicitly a first-order phase transition from a thermalized quark-gluon plasma to a hadron gas with recent data from the RHIC experiments. We critically examine the "HBT-puzzle" both from the theoretical as well as from the experimental point of view. Alternative scenarios are briefly explained.
Differenzierte Verdienststrukturen, wie zum Beispiel qualifikatorische Verdienstunterschiede, tragen der Heterogenität am Arbeitsmarkt und somit auch einer notwendigen Flexibilität der Löhne Rechnung. Trotz dieser bedeutenden Rolle der Lohnstruktur für den Arbeitsmarkt gibt es relativ wenig detaillierte empirische Evidenz zu deren Ausgestaltung und Dynamik für Westdeutschland. In dieser Arbeit werden auf Basis der Gehalts- und Lohnstrukturerhebungen für die Jahre 1990 und 1995 sowohl die Lohndispersion innerhalb bestimmter Erwerbsgruppen („Within-Dispersion“) als auch zwischen diesen Gruppen („Between-Dispersion“) untersucht. Im Fokus der Analysen steht dabei der Vergleich zwischen den Erwerbsgruppen der vollzeitbeschäftigten Männer, der vollzeitbeschäftigten Frauen und der teilzeitbeschäftigten Frauen nach den Qualifikationsniveaus: ohne Berufsabschluss, mit Berufsabschluss und mit Hochschulabschluss. Dichteschätzungen des Bruttotageslohns zeigen, dass vollzeiterwerbstätige Männer über die gesamte Verteilung den höchsten Verdienst aufweisen. Weiterhin deuten die Dichteschätzungen darauf hin, dass die geschlechtsspezifischen Lohndifferentiale mit zunehmendem Verdienst steigen. Der selbe Sachverhalt findet sich auch für die qualifikatorischen Verdienstunterschiede. Mit steigendem Qualifikationsniveau steigt sowohl der Lohn als auch die Dispersion. Besonders ausgeprägt ist die qualifikatorische Dispersion für Männer. Eine Analyse der Lohndifferentiale sowohl innerhalb der Erwerbsgruppen als auch zwischen Männern und Frauen weist darauf hin, dass in der Gruppe der teilzeiterwerbstätigen Frauen die größte Lohndispersion vorzufinden ist und dass diese im Zeitablauf zugenommen hat. Ferner sind die Lohndifferentiale im unteren Bereich der Verteilung kleiner als im oberen. Die weitere Disaggregation nach dem Qualifikationsniveau reduziert die Within-Dispersion, wobei die Lohnunterschiede innerhalb der Erwerbsgruppen mit steigendem Qualifikationsniveau tendenziell zunehmen. Schließlich nimmt die Within-Dispersion für vollzeitbeschäftigte Hochschulabsolventinnen im Zeitablauf zu, während sie für die Teilzeitbeschäftigten sinkt. Betrachtet man die Qualifikations- und die Verteilungsdimension, zeigt sich, dass in beiden Jahren lediglich für vollzeiterwerbstätige Frauen ohne Berufsabschluss bzw. mit Hochschulabschluss das geschlechtsspezifische Differential über die Verteilung hinweg steigt. Für alle anderen Gruppen geht es über die Verteilung hinweg zurück. Die Lohndifferentiale zwischen Männern und Frauen haben im Zeitablauf abgenommen. Das mittlere Reallohnwachstum zwischen 1990 und 1995 ist für teilzeiterwerbstätige Frauen mit 6,8% am höchsten und für vollzeiterwerbstätige Männer mit 0,7% am geringsten. Die Reduktion der geschlechtsspezifischen Unterschiede im Zeitablauf ist unter Berücksichtigung des Qualifikationsniveaus noch ausgeprägter. Dies gilt vor allem für teilzeiterwerbstätige Frauen ohne Berufsabschluss und mit Hochschulabschluss. Für teilzeiterwerbstätige Frauen und für vollzeiterwerbstätige Männer findet sich im Zeitablauf eine zunehmende Lohnspreizung, während für vollzeiterwerbstätige Frauen die Verteilung konstant bleibt. Eine Zunahme der Lohnspreizung ist dabei insbesondere bei Hochschulabsolventen festzustellen, sowohl für vollzeiterwerbstätige Männer wie Frauen. Im Unterschied dazu hat für diese Erwerbsgruppen die Lohndispersion bei den Mittelqualifizierten in den 90er Jahren abgenommen.
Diese Arbeit vergleicht die Verdienststrukturen in Westdeutschland für die Jahre 1990 und 1995 basierend auf der Gehalts- und Lohnstrukturerhebung und der IAB—Beschäftigtenstichprobe. Wir betrachten Verdienstunterschiede im Hinblick auf die berufliche Qualifikation, das Geschlecht, den Erwerbsstatus, die Branchenzugehörigkeit und das Alter. Die Analyse verwendet die Methode der Quantilsregressionen und ist rein deskriptiver Natur. Die beiden Datensätze unterscheiden sich teilweise in der Stichprobenzusammensetzung und es finden sich zum Teil Unterschiede in den geschätzten Verdienstrelationen. Qualitativ stimmen die Ergebnisse vor allem für Männer relativ gut überein. Die Verdienststrukturen erweisen sich als sehr differenziert, beispielsweise nehmen geschlechtsspezifische und qualifikatorische Verdienstunterschiede wie auch die Verdienstdispersion innerhalb einer Arbeitnehmergruppe typischerweise mit dem Alter zu. JEL - Klassifikation: C14 , J31 , C80
Über die Wirkung der Förderung der beruflichen Weiterbildung in Ostdeutschland sind in den letzten Jahren zahlreiche empirische Studien durchgeführt worden, die auf den methodischen Fortschritten der Evaluationsforschung aufbauen. Dieser Beitrag stellt die empirische Evidenz im Kontext der institutionellen Regelungen und der methodischen Probleme einer angemessenen mikro- oder makroökonomischen Evaluation dar. Insbesondere behandeln wir die im ostdeutschen Kontext wichtigen Probleme der Mehrfachteilnahmen und der Reduktion der Beschäftigungsquoten für die Teilnehmer kurz vor einer Weiterbildung ("Ashenfelters Tal"), die bislang in empirischen Analysen kaum Berücksichtigung finden. Die durchgeführten mikroökonomischen Evaluationsstudien basieren auf Umfragedaten mit kleinen Teilnehmerzahlen. Die erzielten Evaluationsergebnisse ergeben ein ernüchterndes Bild der Wirkung geförderter Weiterbildung: Es zeigen sich eher negative als positive Maßnahmeneffekte auf die Beschäftigung. Aufgrund der schwachen Datenbasis und verbleibender methodischer Probleme erlaubt die bisherige Evidenz jedoch noch keine wirtschaftspolitischen Schlussfolgerungen. Stattdessen sollten die eher negativen Ergebnisse von der politischen Seite zum Anlass genommen werden, die Voraussetzungen für eine angemessene und kontinuierliche Evaluation der aktiven Arbeitsmarktpolitik zu schaffen.
Die im Rahmen dieser Diplomarbeit entwickelte sehr einfach und kompakt aufgebaute Mikro-Ionenquelle basiert auf einer Mikro-Struktur-Elektrode (MSE). Mit dieser lässt sich bei einer Betriebsspannung von wenigen 100 Volt eine stabile Hochdruck-Glimmentladung erzeugen. Das Betriebsgas durchströmt die MSE-Pore und expandiert anschließend adiabatisch ins Vakuum, wobei die interne Temperatur des Strahls herabgesetzt wird. Der Vordruck des Gases kann bei dem vorhandenen Aufbau zwischen wenigen 100 hPa und etwa 0,5 MPa liegen. Mit einem ähnlichen Aufbau, jedoch mit deutlich größerer Saugleistung der Vakuumpumpen, konnte selbst bei Vordrücken über 3 MPa noch eine Entladung mit gleichen Eigenschaften betrieben werden. Es wurde gezeigt, dass Ionen durch Diffusion sowie die starke Gasströmung in der MSE-Pore aus dem Plasma extrahiert werden. Eine zusätzliche Beschleunigungsspannung zeigt einen deutlichen Einfluss auf die Formierung eines Ionenstrahls. Es kann ein schmaler Strahl mit maximal einigen mm Durchmesser erzeugt werden. Die Mikroentladung lässt sich mit zahlreichen Gasen betreiben. Erfolgreich getestet wurden Helium, Neon, Argon, Stickstoff und normale Luft sowie Mischungen davon. Auch eine Beimischung von Wasserstoff ist möglich und eröffnet die Erzeugung beispielsweise von molekularen HeH+-Ionen. Zur Extraktion der Ionen kann eine Beschleunigungsspannung von bis zu 5 kV angelegt werden. Der Ionenstrahl wird über ein differenzielles Pumpsystem durch einen Skimmer ins Hochvakuum überführt und dort analysiert. Es entstehen sowohl einfach als auch doppelt geladene Ionen. Bei einem Entladestrom von wenigen mA lässt sich ein Strom von bis zu 3 mA (ohne Sekundärelektronen-Unterdrückung) auf dem Skimmer messen. Die Stromdichte des Strahls ist jedoch zu hoch, um mit der verwendeten einfachen Diodenextraktion den gesamten Strom durch den Skimmer zu transportieren. Nur ein Anteil von ca. 1/50 bis 1/30 des gesamten Ionenstroms kann den Skimmer passieren. Hinter dem Skimmer liegt der Strom zwischen einigen 100 nA und einigen 10 µA. Durch Optimierung der Extraktionsgeometrie sollte hier eine deutliche Erhöhung erreicht werden. Im normalen Betrieb wird mit einem Entladestrom von 1-2 mA gearbeitet. Zum einen ist hier bereits, wie eben erwähnt, die maximale Stromdichte erreicht, die durch den Skimmer transportiert werden kann. Zudem sinkt mit steigendem Strom die Haltbarkeit der MSE-Elektroden aufgrund verstärkten Sputterns erheblich, auch dies spricht gegen einen Betrieb mit hohem Plasmastrom. Der maximale bisher erreichte Entladestrom in einem MSE-Plasma beträgt 50 mA. Der Elektrodenabtrag begrenzt momentan die Betriebsdauer einer MSE auf wenige Stunden. Durch die Einführung von Wolfram-Elektroden konnte bereits eine deutliche Steigerung der Haltbarkeit erreicht werden, für eine sinnvolle Anwendung der Ionenquelle muss jedoch noch eine Weiterentwicklung der MSE stattfinden. Dass sich der Kühleffekt aufgrund der adiabatischen Expansion auf im Plasma erzeugte metastabile He*-Atome auswirkt, wurde im Rahmen einer zweiten Diplomarbeit zum Thema Plasmajet gezeigt. Mit einem Aufbau nach demselben Prinzip, jedoch ohne Extraktionsspannung, wurde eine Apparatur zur Erzeugung eines spinpolarisierten metastabilen Helium-Targets realisiert [Jahn2002]. Es wurde gezeigt, dass zum einen der Energieeintrag ins Gas durch die Entladung sehr gering ist. Es handelt sich also beim MSE-Hochdruck- Plasma tatsächlich um eine nichtthermische Entladung. Zum anderen konnte in ergänzenden Flugzeitmessungen gezeigt werden, dass die Geschwindigkeitsverteilung der Metastabilen der eines herkömmlichen Gasjets entspricht. Der Kühleffekt wirkt also auf die Metastabilen genauso wie auf Gasatome im Grundzustand, ohne dabei die Metastabilen abzuregen. Um die Geschwindigkeitsverteilung der Ionen zu untersuchen, ist die verwendete Methode jedoch nicht ohne weiteres anwendbar. Aufgrund der Coulomb- Abstoßung der Ionen weist der unbeschleunigte Ionenstrahl eine starke Divergenz auf. Die Intensität des Ionensignals auf dem Detektor ist somit äußerst gering, was eine Flugzeitmessung kaum sinnvoll erscheinen lässt. Mit den vorhandenen Diagnosemethoden konnte daher ein Kühleffekt aufgrund der adiabatischen Expansion auf die Ionen nicht verifiziert werden. Mit der Mikro-Ionenquelle wurde jedoch gezeigt, dass es eine Wechselwirkung zwischen Ionen und Gasjet gibt: versucht man, die Ionen mit einer Extraktionsspannung zu beschleunigen, so erfahren sie aufgrund zahlreicher Stöße mit den langsameren Gasteilchen einen massiven Energieverlust. Man erhält einen Ionenstrahl mit stark verbreiterter Energieverteilung. Dies zeigt, dass sich die Ionen im Bereich hoher Dichte mit dem Jet bewegen. Stört man die Expansion, indem man die Ionen mittels der Beschleunigungsspannung aus dem Jet herausreißt, so erfahren sie durch die Wechselwirkung mit den Atomen im Jet einen erheblichen Energieverlust. Es ist daher zu vermuten, dass auch die Ionen gekühlt werden. Misst man mit Hilfe eines Quadrupol-Massenspektrometers das Spektrum von nicht beschleunigten Ionen, so erhält man scharfe Peaks, es tritt also kein Energieverlust auf. Zur Messung des Geschwindigkeitsprofils eignet sich diese Methode jedoch nicht. Es ist daher sinnvoll, in Zukunft mit einer entsprechend angepassten Apparatur auch für die Ionen eine Flugzeitmessung durchzuführen. Die schlechte Energieschärfe des Ionenstrahls ist ein erheblicher Nachteil für viele Anwendungen. Für zukünftige Weiterentwicklungen der Mikro- Ionenquelle muss eine geeignetere Extraktionsgeometrie gefunden werden. Eine Möglichkeit wäre, die Ionen mit dem Gasjet mitfliegen zu lassen und in größerem Abstand zu beschleunigen, wenn die Dichte im Jet stark abgefallen ist. In diesem Fall muss man jedoch eine sinnvolle Lösung für Größe und Position des Skimmers finden oder klären, ob auf einen Skimmer vollständig verzichtet werden kann. Es könnte bei dieser Lösung hilfreich sein, die Raumladungsdichte im Ionenstrahl durch Überlagerung mit einem Elektronenstrahl zu reduzieren und so die Divergenz des Strahls zu verringern. Man könnte die Divergenz auch verringern, indem man den Ionenstrahl durch ein Magnetfeld einschließt. Hierbei provoziert man aber vermutlich durch die Spiralbewegung der Ionen zusätzliche Stöße mit dem Jet. Denkbar wäre auch, die Ionen mit Hilfe elektrischer Felder aus dem Gasjet herauszulenken und anschließend zu beschleunigen. Bekommt man das Problem des Energieverlusts in den Griff, so erhält man eine leistungsfähige Ionenquelle, die ein großes Potential für Anwendungen bietet. Der kompakte Aufbau ermöglicht einen Verzicht auf Wechselspannungen, Mikrowellenstrahlung sowie magnetischen Einschluss. Da es sich um eine Gleichspannungsentladung mit wenigen Watt Leistung handelt, ist ein sehr energieeffizienter Betrieb möglich. Die gemessenen Ionenströme zeigen, dass eine Hochdruckentladung auf der Basis von MSE eine hohe Ionisationseffizienz aufweist. Der hohe Arbeitsdruck ermöglicht eine große Ausbeute an molekularen Ionen. Gelingt es, den Kühleffekt des Gasjets auf die Ionen zu nutzen, so erzeugt man einen Ionenstrahl mit sehr niedriger interner Temperatur, der für atomphysikalische Experimente interessant ist. Zudem ließe sich ein solcher Strahl auf sehr kleine Durchmesser fokussieren, was eine hohe Genauigkeit etwa bei Oberflächenmodifikationen erlaubt. Die Untersuchungen im Bereich Gasanalytik haben gezeigt, dass Hochdruckentladungen hier eine Alternative zu den herkömmlichen, auf Niederdruckentladungen basierenden, Messverfahren darstellen. Die sehr guten Nachweisgrenzen für Freon in Kombination mit dem einfachen und kompakten Aufbau sprechen für die Hochdruckentladung. Jedoch muss für eine sinnvolle Nutzung die Haltbarkeit der MSE noch deutlich erhöht werden.
Auf der methodologischen Grundlage objektiv-hermeneutischer Sequenzanalysen von vier Reden, die der Bundesverteidigungsminister Gerhard Stoltenberg (CDU) und der Bundesminister für Auswärtige Angelegenheiten Hans-Dietrich Genscher (FDP) im Januar 1991 sowie der Bundeskanzler Gerhard Schröder (SPD) und der Bundesminister für Auswärtige Angelegenheiten Joschka Fischer (Bündnis 90/Die Grünen) im November 2001 vor dem Deutschen Bundestag gehalten haben, zeigte sich, dass die militärische Abstinenz der Bundesrepublik im Golfkrieg und der Einsatz der Bundeswehr im Rahmen der Operation »Enduring Freedom«, dem „Krieg gegen den Terror“, auf den geteilten Umgang konservativer und progressiver Bundesregierungen mit dem Tabu des Militärischen zurückzuführen ist, das sich in Deutschland in Reaktion auf den Zweiten Weltkrieg gebildet hatte. Vor dem Hintergrund eines gesinnungsethisch dominierten politischen Diskurses in der Bundesrepublik schreckte die aus Union und Liberalen geführte Regierung von Bundeskanzler Helmut Kohl (CDU) wenige Wochen nach dem Vollzug der Deutschen Einheit und der Wiedererlangung der vollen Souveränität teilweise wider besseres Wissen vor einem Bruch dieses Tabus in Form einer Durchsetzung der Staatsräson zurück, weil sie fürchtete, im Falle einer aktiven Beteiligung deutscher Streitkräfte an den Kriegshandlungen zur Restitution des Völkerrechts, das durch die irakische Invasion Kuwaits gebrochen worden war, von der öffentlichen Meinung eines Rückfalls in die Ära des deutschen Militarismus bezichtigt zu werden. Da sich dieses Problem für Mitte-Links-Regierungen so nicht stellt, sondern ganz im Gegenteil die Aussicht auf eine positive Anrechnung der Verletzung von Tabus als Ausweis ihrer Lernfähigkeit besteht, war es der Koalition aus SPD und Bündnis 90/Die Grünen möglich, die Bundeswehr nach dem Präzedenzfall der NATO-Luftangriffe auf Jugoslawien auch an der militärischen Beantwortung der Terrorattacken vom 11. September 2001 zu beteiligen. Darüber hinaus verweist das Novum einer aktiven militärischen Beteiligung der Bundesrepublik an internationalen Kriegseinsätzen unter der Ägide der ersten rot-grünen Bundesregierung wohl auch auf einen allmählich von den Regierenden auf die Regierten übergehenden langfristigen Wandel auf der Ebene der Mentalitäten, der dadurch begünstigt worden ist, dass sich 1998 ein doppelter Machtwechsel im Bund vollzog, der erstmals seit 16 Jahren wieder eine der Tendenz nach linke Mehrheit etablierte und gleichzeitig einer neuen Generation die Regierungsverantwortung übertrug. Diese neue Generation hat es offenbar nicht nur verstanden, ihre Anhänger in langjährig erprobter ideologischer Abgrenzung von der konservativ-liberalen Regierung Kohl so fest an sich zu binden, dass diese ihr auch »in den Krieg« folgten, sondern sie drückte der deutschen Politik zugleich einen neuen Stil auf, der sehr bald selbst zum Programm werden könnte.
Einbindung und standörtliche Organisation von Ingenieurdienstleistern in der Automobilentwicklung
(2002)
Die Organisation der Automobilentwicklung unterliegt auch in den 1990er Jahren einem tiefgreifenden Wandel, der durch ein anhaltendes Engineering Outsourcing und eine zeitliche Parallelisierung von Entwicklungsaufgaben nach dem Konzept des Simultaneous Engineering zum Ausdruck kommt (vgl. Jürgens 2000a, Rentmeister 2001). Die Automobilhersteller sind dabei die zentralen Akteure. Mit neuen Formen unternehmensübergreifender Arbeitsteilung streben sie eine Reduzierung ihrer Entwicklungskosten und der Entwicklungszeiten für neue Fahrzeugmodelle an. Zugleich versuchen sie auf diese Weise, eine zunehmende Zahl an Modellen auf den Markt zu bringen und ihre Wettbewerbsfähigkeit zu erhöhen. Der wesentliche Grund für die gegenwärtige Reorganisation der Automobilentwicklung liegt in einem verschärften globalen Wettbewerb unter den Automobilkonzernen, die auf zunehmend weltweit integrierten Märkten im Wettbewerb zueinander stehen.
The corporate convergence debate is usually presented in terms of competing efficiency and political claims. Convergence optimists assert that an economic logic will promote convergence on the most efficient form of economic organization, usually taken to be the public corporation governed under rules designed to maximize shareholder value. Convergence skeptics counterclaim that organizational diversity is possible, even probable, because of path dependent development of institutional complementarities whose abandonment is likely to be inefficient. The skeptics also assert that existing elites will use their political and economic advantages to block reform; the optimists counterclaim that the spread of shareholding will reshape politics.
The venture capital market and firms whose creation and early stages were financed by venture capital are among the crown jewels of the American economy. Beyond representing an important engine of macroeconomic growth and job creation, these firms have been a major force in commercializing cutting edge science, whether through their impact on existing industries as with the radical changes in pharmaceuticals catalyzed by venture-backed firms commercialization of biotechnology, or by the their role in developing entirely new industries as with the emergence of the internet and world wide web. The venture capital market thus provides a unique link between finance and innovation, providing start-up and early stage firms - organizational forms particularly well suited to innovation - with capital market access that is tailored to the special task of financing these high risk, high return activities.
This article presents a structural overview of corporate disclosure in Germany against the background of a rapidly evolving European market. Professor Baums first makes the theoretical case for mandatory disclosure and outlines the standard, regulatory elements of market transparency. He then turns to German law and illustrates both how it attempts to meet the principle, theoretical demands of disclosure and how it should be improved. The article also presents in some detail the actual channels of corporate disclosure used in Germany and the manner in which German law now fits into the overall development of the broader, European Community scheme, as well as the contemplated changes and improvements both at the national and the supranational level.
Das Recht zur Verhinderung von Kursmanipulationen ist durch das 4. Finanzmarktförderungsgesetz, das am 1. Juli 2002 in Kraft getreten ist, grundlegend reformiert worden. Der Beitrag befasst sich mit den Hintergründen und der Ausgestaltung dieser Neuregelung sowie der Frage, wie diese zu bewerten ist. Verschiedene (wesentliche) Details waren im Gesetzgebungsverfahren hoch umstritten. Ein wichtiger Punkt, nämlich die subjektiven Voraussetzungen des § 20a Abs.1 S.1 Nr.2 WpHG, ist noch kurz vor Abschluss des Verfahrens geändert worden.
The paper was submitted to the conference on company law reform at the University of Cambridge, July 4th, 2002. Since the introduction of corporation laws in the individual German states during the first half of the 19th century, Germany has repeatedly amended and reformed its company law. Such reforms and amendments were prompted in part by stock exchange fraud and the collapse of large corporations, but also by a routine adjustment of law to changing commercial and societal conditions. During the last ten years, a series of significant changes to German company law led one commentator to speak from a "company law in permanent reform". Two years ago, the German Federal Chancellor established a Regierungskommission Corporate Governance ("Government Commission on Corporate Governance") and instructed it to examine the German Corporate Governance system and German company law as a whole, and formulate recommendations for reform.
Ich möchte diese Gelegenheit nutzen, um die amerikanische Sicht auf einen wohl immer bedeutenderen Bestandteil der deutschen Corporate Governance-Landschaft, das feindliche Übernahmeangebot, darzustellen. Ob Übernahmeangebote von einem ausländischen Bieter abgegeben werden (man denke nur an das Gebot von Vodafone an die Aktionäre von Mannesmann oder an das Gebot von Barilla für Kamps), oder ob es von einem einheimischen Bieter stammt – wer könnte Krupps Gebot für Thyssen vergessen ? –: Feindliche Übernahmegebote betreffen nicht nur die Führungsorgane der einzelnen Zielunternehmen, sondern, wegen ihrer Bedrohung für festgefahrene Geschäftsmuster, auch das ökonomische und politische Umfeld.
Das neue Wertpapiererwerbs- und Übernahmegesetz (WpÜG)1 weist den Wertpapierdienstleistungsunternehmen erstmals eine gesetzliche Rolle im Rahmen der Finanzierung von öffentlichen Übernahmeangeboten zu, indem es eine von einem solchen Unternehmen ausgestellte Bestätigung der Finanzierbarkeit zum zwingenden Bestandteil der Angebotsunterlage macht. Hieraus ergibt sich zum einen ein neues Geschäftsfeld für Kreditinstitute, zum anderen aber auch ein neues Haftungsrisiko.
Vorstandsvergütungen
(2002)
Vereinsrechtsreform
(2002)
Großvereine wie der ADAC – neben den Automobilclubs sind hier zum Beispiel noch die Vereine der Freien Wohlfahrtspflege (DRK, Arbeiterwohlfahrt usw.), die Technischen Verei-ne (TÜV5, DEKRA) und die Vereine der beiden Fußball-Lizenzligen6 zu nennen – entspre-chen nicht dem Leitbild des ideellen Vereins, das der Gesetzgeber bei der Schaffung des BGB-Vereinsrechts vor mehr als 100 Jahren vor Augen hatte. Zwar erfassen die §§ 21 ff. BGB dem Wortlaut nach sämtliche Vereine ungeachtet ihrer Mitgliederzahl, ihres Organisationsaufbaus und ihres Wirkungsbereichs. Doch war man sich schon zur Zeit der Entstehung des BGB darüber im klaren, daß diese Vorschriften nicht über den lokalen Kleinverein hinaus passen.
On April 24, 2001 the European Commission presented a proposal for a Directive1 introducing supplementary supervision of financial conglomerates (the Proposed Directive). The Proposed Directive requires a closer coordination among supervisory authorities of different sectors of the financial industry and leads to changes in the number of existing Directives relating to the supervision of credit institutions, insurance undertakings and investment firms.
In den vergangenen Jahren haben sich die Kapitalmärkte und das Anlegerinteresse an der Aktie in Deutschland stark verändert. Die Suche nach einer notwendigen und rentablen Ergänzung traditioneller Altersvorsorgeformen hat dazu ebenso beigetragen wie die Privatisierung von im Staatsbesitz gehaltenen Unternehmen. Aber auch der Börsengang einer Vielzahl junger Unternehmen sorgt in bisher nicht gekanntem Ausmaß für zusätzliches Interesse der „Erbengeneration“, der die Beteiligung kostengünstig über Online-Broker ermöglicht wird. Eine hervorragende Bedeutung kommt in diesem Zusammenhang dem Neuen Markt der Deutschen Börse zu, der sich seit seiner Einrichtung 1997 hinsichtlich der Zahl der Neuemissionen, der Marktkapitalisierung und der Börsenumsätze auch im internationalen Vergleich außergewöhnlich erfolgreich entwickelt hat. Der gegenwärtige Konjunkturabschwung, der von einem starken Rückgang der Kurse an den Börsen und darunter auch vor allem am Neuen Markt begleitet wurde, gibt Gelegenheit, über allfällige Verbesserungen des regulatorischen Umfelds nachzudenken, die helfen sollen, die Effizienz des organisierten Kapitalmarkts weiter zu steigern und das Vertrauen der Anleger in das ordnungsgemäße Funktionieren des Markts zu festigen. Die Deutsche Börse hat mit Verbesserungen des Regelwerks Neuer Markt bereits wichtige Schritte in diese Richtung unternommen.
It is an established policy in the United States to separate commercial banking (the business of taking deposits and making commercial loans) from other commercial activities. The separation of banking and commercial activities is achieved by federal and state banking laws, which enumerate the powers that banks may exercise, the activities that banks may engage in, and the investments that banks may lawfully make, and expressly exclude banks from certain activities or relationships. Some of these provisions could be circumvented if a nonbank company could carry on banking activities through a banking subsidiary and nonbanking activities either itself or through a nonbanking subsidiary.
Am 26.02.2002 hat die von der Bundesministerin der Justiz auf Empfehlung der Regierungskommission Corporate Governance eingesetzte Kodex-Kommission den Deutschen Corporate Governance Kodex (im folgenden: DCG-Kodex/Kodex) vorgelegt. Mit Inkrafttreten des Transparenz- und Publizitätsgesetzes4, voraussichtlich im August 2002, werden Vorstand und Aufsichtsrat börsennotierter Aktiengesellschaften künftig jährlich zu erklären haben, ob sie den Empfehlungen des Kodex folgen, und, soweit dies nicht der Fall ist, Abweichungen offen zu legen haben. Im folgenden ist zunächst das Kodex-Konzept, das dem angelsächsischen Rechtskreis entstammt, zu erläutern und die mit dem DCG-Kodex verfolgte Zielsetzung vorzustellen (dazu B.). Dem schließt sich ein Überblick über Regelungstechnik und Inhalt des DCG-Kodex sowie dessen gesetzliche „Flankierung“ durch das TransPuG an (dazu C.). Sodann werden die Entsprechens-Erklärung (dazu D.) sowie Haftungsfragen im Zusammenhang mit dem DCG-Kodex (dazu E.) behandelt.
Das am 01.01.2002 in Kraft getretene Gesetz zur Regelung von öffentlichen Angeboten zum Erwerb von Wertpapieren und von Unternehmensübernahmen (WpÜG) beschränkt sich - anders als noch der Diskussionsentwurf des WpÜG - nicht auf die Regelung von öffentlichen Angeboten zum Erwerb von Wertpapieren, die auf den Erwerb der Kontrolle an einer Zielgesellschaft gerichtet sind oder eine bereits bestehende Kontrollmehrheit voraussetzen, sondern trifft darüber hinaus mit den §§ 10 - 28 WpÜG Bestimmungen für jegliche öffentlichen Angebote zum Erwerb von Wertpapieren. Die naheliegende Frage, ob hierzu auch öffentliche Angebote zum Rückerwerb eigener Aktien, namentlich aufgrund Hauptversammlungsermächtigung gemäß § 71 Abs. 1 Nr. 8 S. 1 AktG, rechnen, lässt das Gesetz unbeantwortet. Erste Stellungnahmen in der Literatur gehen davon aus, daß das WpÜG auch auf solche self tender offers unmittelbar Anwendung finde, einzelne nicht passende Bestimmungen der §§ 10 - 28 WpÜG allerdings teleologisch zu reduzieren seien. Die Verfasser widersprechen der These einer unmittelbaren Anwendbarkeit des WpÜG auf öffentliche Angebote zum Rückerwerb eigener Aktien und befassen sich sodann mit der Frage, ob einzelne Vorschriften des WpÜG auf self tender offers analoge Anwendung finden.
Die rechtzeitige Diagnose und Behandlung kindlicher Katarakte ist von großer Wichtigkeit. Ein Hindernis in der visuellen Achse während der Periode sensorischer Vulnerabilität führt zur Amblyopie, insbesondere wenn diese innerhalb der ersten 3 Lebensmonate stattfindet.Wir untersuchten inwiefern sich das Wachstum der Augen je nach verschiedenen Kataraktformen verhält. In unserer Studie wurden retrospektiv die Krankenakten von 44 Patienten mit 58 erkrankten Augen ausgewertet, die im Zeitraum von 1992-1996 an der Augenklinik des Frankfurter Universitätsklinikums, Abteilung für Kinderaugenheilkunde, operiert wurden. Das Alter zum Zeitpunkt der Operation reichte in der Gruppe der 29 (50,0%) kongenitalen Katarakte von 1 Woche bis 10 Jahren, mit einem Durchschnitt von 2 Jahren und 5 Monaten. Die 16 (27,6%) Augen mit entwicklungsbedingter Katarakt waren in einem Alter zwischen 3 und 14 Jahren, mit einem Durchschnittsalter von 6 Jahren und 11 Monaten operiert worden, während das Alter zum Zeitpunkt der Operation bei den 13 (22,4%) traumatischen Katarakten von 3 Jahren und 4 Monaten bis 9 Jahren reichte, mit im Mittel 6 Jahren und 3 Monaten. Die Bulbuslängen veränderten sich in einem mittlerem Beobachtungszeitraum von 3 Jahren und 1 Monat bei den kongenitalen Katarakten um durchschnittlich 2,34 mm von 19,80 auf 22,14 mm, in der Gruppe der entwicklungsbedingten Katarakte um durchschnittlich 0,86 mm von 22,33 auf 23,19 mm und bei den Augen mit traumatischer Katarakt um durchschnittlich 1,53 mm von 21,95 auf 23,48 mm. Unsere mit dem U-Test nach Mann und Whitney durchgeführten Vergleiche ergaben, bis auf zwei Ausnahmen, keine signifikanten Unterschiede zwischen dem Bulbuslängenwachstum in den verschiedenen Alters- und Ursachengruppen. Als wichtig erwies sich jedoch das signifikant unterschiedliche Bulbuslängenwachstum von 1,52 mm im Vergleich der 18 Augen mit schlechter Sehschärfe (Augen mit einem Visus von 0,2 und darunter) zu den 34 Augen mit guter Sehschärfe (Augen mit einem Visus von 5,0 und darüber). Augen mit schlechter Sehschärfe zeigten ein signifikant höheres Längenwachstum als Augen mit guter Sehschärfe. Bei dem Vergleich der 14 kongenital beidseitig aphaken Augen zu den 13 entwicklungsbedingt beidseitig pseudophaken Augen zeigte sich ein signifikant höheres Wachstum von Augen mit kongenitaler Katarakt. Einschränkend auf dieses Ergebnis wirkt, dass die entwicklungsbedingte Katarakt in einem Alter entstanden ist, als die Phase mit dem größten Wachstumsschub der Augen schon vorüber war. Dadurch nimmt sie weniger Einfluß auf die Längenentwicklung des Auges als eine kongenitale Katarakt. Das Alter zum Zeitpunkt der Operation scheint der wichtigste Faktor für die Längenentwicklung des Augen zu sein. Eine kongenitale Katarakt mit ihrem frühen Operationszeitpunkt hat großen Einfluß auf die Längenentwicklung des Auges. Kongenital einseitig aphake Augen zeigten allgemein im Vergleich zu anderen Gruppen nach der Geburt und Operation häufig das größte Bulbuslängenwachstum. Die Früherkennung und frühest mögliche Behandlung einer kindlichen Katarakt sowie die Amblyopienachbehandlung sind neben einer erfolgreichen Operation für das Erreichen einer guten Sehschärfe von größter Bedeutung.
Einführend wird die Entdeckungs- und Besiedelungsgeschichte der Mascarenen, zu denen Mauritius gehört, an Hand von Karten und Dokumenten zusammengefasst und die strategische Bedeutung der Inselgruppe als 'Stern und Schlüssel des Indischen Ozean' bis in die Gegenwart nachgewiesen. Es folgen Materialien über den Import von Kulis ('indentured labourers') aus Indien seit 1835 ff., als nach Abschaffung der Sklaverei die Zuckerrohr-Wirtschaft von Mauritius zusammenzubrechen drohte. Am Beispiel des 1771 von zwei hohen französischen Kolonialbeamten aus Indien gegründeten 'Bénarès Sugar Estate', eine der ersten Plantagen auf der Insel überhaupt, wird die Entwicklung der modernen Zuckerindustrie von Mauritius bis in die Gegenwart veranschaulicht und im nachfolgenden Kapitel kontrastiert mit den immer noch einfachen Verfahren zur Gewinnung von 'Gur' im Benares-Distrikt des heutigen Indien, wo der Verfasser von 1964 bis 1967 gelebt und seitdem immer wieder zu sozialanthropologischen Fragen gearbeitet hat. Auf Grund der dort zuerst einsetzenden und besonders nachhaltigen Ausbeutung durch die East India Company waren die verarmten Regionen um Benares während des 19. Jahrhunderts das Hauptrekrutierungsgebiet für 'indentured labourers' in die Zucker-Kolonien des British Empire. Daher ist der dortige Hindi-Dialekt 'Bojpuri' noch heute die häufigste der auf Mauritius gesprochenen indischen Sprachen. Die Studie schließt ab mit einem Überblick zur Ausbreitung der ab 1802 in Berlin entwickelten Produktionsverfahren von Rübenzucker sowie einer Reflektion über die besondere Bedeutung von Zucker als 'Baustein des Lebens an und für sich' im Rahmen buddhistischer Erkenntnistheorie von Leere.
Dies ist –virtuell & überhaupt- das erste Buch über den Schweizer Dichter & Filmemacher MATTHIAS ZSCHOKKE. Das Libell will eine Hinführung, Einführung & Verführung zu Zschokke sein. Nicht mehr - nicht weniger. Die umfangreiche Bibliographie weist Materialien für weitere Studien über Zschokke nach, mag eine Basis für den akademischen Diskurs bilden. Eine biographische Zeittafel rundet das Libell ab. "Nein, zur Herde der Augenblicks - Schriftsteller gehört dieser Matthias Zschokke nicht... Bereits im ersten Buch hat er unverwechselbar seinen Stil gefunden, und sein ureigener literarischer Ton macht Zschokke unter den Autoren seiner Generation zu einem Exponenten der neuen deutschsprachigen Belletristik in den achtziger und neunziger Jahren. Und auch im 21. Jahrhundert bleibt er hochaktuell."
Dutch nominalised infinitives have been notoriously difficult to analyse, partly because they seem to show mixed verbal and nominal properties interspersed across the structure. In this paper, it is argued that at least two types of such infinitives should be distinguished, one which contains a high level of verbal functional structure, and one that differs at least in not projecting TP. On the basis of this distinction it is possible to show that Dutch nominalised infinitives have much more predictable properties than could previously be identified. They show evidence of conforming to a model of analysing mixed categories in terms of category switch within the constituent. In order to account for the seemingly interspersed nature of nominal and verbal properties in Dutch nominalised infinitives I propose that Dutch of-phrases (van-phrases) may merge inside the VP, provided they have access to nominal functional structure for feature checking. I will show that if D° is filled by a special type of non-deictic demonstratives van-phrases may even occur in SpecDP.
Removal of apoptotic cells by macrophages or resident semi-professional phagocytes is a prominent principle with important implications for the pathophysiology of chronic inflammatory diseases, viral infections, or cancer. To characterize mechanisms which may determine the fate of apoptotic cells, I investigated chemokine expression in apoptotic promonocytic U-937 cells or PBMC. Exposure of U-937 cells to the anti-cancer drug etoposide (VP-16), an inducer of apoptosis in these cells, was associated with increased expression of the chemokines IL-8 and macrophage inflammatory protein 1alpha (MIP-1alpha). Upregulation of IL-8 mRNA expression by VP-16 was observed as early as 4 h after onset of treatment and was still detectable after 19h of exposure. A serine protease inhibitor prevented both VP-16-induced apoptosis and release of IL-8, whereas inhibition of p38 MAP-kinases reduced IL-8 secretion only. Moreover, I observed that incubation with 2-chlorodeoxyadenosine (CdA) upregulated release of IL-8 from adherent PBMC in parallel to induction of apoptosis. In these cells a modest but significant induction of TNF-alpha release by CdA was also detected. In addition, CdA augmented release of IL-8 from whole blood cultures. By facilitating adequate recruitment of phagocytes to sites of cell death, stress-induced upregulation of chemokines associated with apoptosis may contribute to mechanisms aiming at efficient removal of apoptotic cells.
Die hier durchgeführten Untersuchungen an Staphylococcus aureus ATCC 6538 unter Verwendung von Silbernitrat als Desinfektionsmittel auf Standard-CSA sowie Agar-Agar mit Kalliumtelluritzusatz hatten das Ziel, den Einfluss von Silbernitrat-Ionen auf den Keim zu untersuchen. Hier galt es nicht nur die Schädigung von Silbernitrat-Ionen auf Staphylokokken zu untersuchen, sondern zusätzlich zu prüfen, ob eine Reduzierung der Pathogenität der Keime nach vorheriger Desinfektion stattfindet. Die Empfindlichkeit der geschädigten Bakterien gegenüber Tellurit, wie in diesen Untersuchungen verwendet, löste das früher verwendete Mäusepathogenitätsmodell ab. Die Ergebnisse zeigten deutlich, dass die Keimzahl zum einen durch eine erhöhte Konzentration des Silbernitrats, zum anderen durch eine verlängerte Einwirkzeit reduziert wurde. Weiterhin ist ersichtlich, dass eine Minderung der Pathogenität nach Desinfektion eintrat. Der mit Tellurit versetzte CSA-Agar hemmte das Wachstum stärker als bei den Platten ohne Zusatz. Dies zeigt eine erhöhte Empfindlichkeit der Keime gegenüber Tellurit. Eine weitere Virulenzminderung trat mit zunehmender Telluritkonzentration auf. Dies lässt die Schlussfolgerung zu, dass Kalliumtellurit eine Wachstumshemmung auf das Bakterium Staphylococcus aureus bewirkt. Da sich in den Kontrollansätzen ohne Desinfektionsmittel die Keimzahl ebenfalls mit zunehmender Telluritkonzentration reduzierte, bestätigt dies, dass die Eignung von Hemmstoffen - im vorliegendem Fall Kalliumtellurit - nur in einem engen Konzentrationsbereich für die Erfassung geschädigter Keime geeignet ist.
Ziel der vorliegenden Studie war es , drei moderne Ni-Ti- Instrumentensysteme hinsichtlich ihrer Aufbereitungsfähigkeiten an stark gekrümmten Kanälen (Kriterium nach Schneider et al, 1971) zu vergleichen. 60 gekrümmte Kanäle extrahierter humaner Molaren des Oberkiefers wurden, nach Vorverteilung der Krümmungswinkel, randomisiert in die drei Testgruppen verteilt. Der Versuchsaufbau entsprach einer modifizierten Bramante-Methode. Jeder Kanal wurde dabei, von der apikalen Region ausgehend, in mindestens 5 Querschnitte zersägt. Nach Repositionierung im Testbehältnis wurden alle Kanäle mit Hilfe des EndoSteppers® von einem Behandler aufbereitet. Prä- und postoperative Bilder der Kanalquerschnittsflächen wurden digitalisiert und mit Hilfe einer Bildverarbeitungs-software (Image 2000) vermessen. Die Flächenveränderungen, die Aufbereitungs-zeiten, sowie die Arbeitslängenverluste und die Frakturhäufigkeit wurden erfasst und mittels One-Way-ANOVA, dem Kruskal-Wallis-Test und dem Duncan-Test statistisch ausgewertet. Die mittlere Arbeitszeit war bei RaCe TM signifikant geringer als bei FlexMaster®. Die signifikant höchsten Abträge an der Kanalwand wurden bei RaCe TM, im Vergleich zu den beiden anderen Testgruppen, verzeichnet. Arbeitslängenverluste waren bei allen Instrumentensystemen zu verzeichnen, wobei FlexMaster® einen signifikant geringeren Mittelwert im Vergleich zu RaCe TM aufwies. 17 Instrumente frakturierten, wobei mit 11 Brüchen bei RaCe TM die größte Zahl zu vermerken war. FlexMaster®-Instrumente frakturierten nicht. Klinische Relevanz: Im Zuge dieser Studie konnte festgestellt werden, dass sich FlexMaster®-Instrumente aufgrund einer näher an der ursprünglichen Kanalform liegenden Aufbereitung in Verbindung mit dem EndoStepper® besonders zur Aufbereitung von stark gekrümmten Wurzelkanälen eignen. Von der Benutzung der RaCe TM-Instrumente ist, zumindest in Verbindung mit der hier verwendeten EndoStepper®-Software, aufgrund des hohen Frakturrisikos abzuraten.
Fettsäuren haben vielfältige Funktionen im Organismus. Sie sind der wichtigste Energieträger des menschlichen Körpers. Fettsäuren sind Bestandteil menschlicher Membranen und Ausgangspunkt für die Biosynthese biologisch aktiver Substanzen. Der Abbau der Fettsäuren und deren energetische Verwertung geschieht im Mitochondrium, dem Ort der ß-Oxidation. Hierfür werden die Fettsäuren mit Hilfe des aus 3 Enzymen bestehenden Carnitin- Palmitoyltransferase-Systems aus dem Cytosol in das Mitochondrium transportiert. Dazu werden langkettige Fettsäuren durch die Acyl-CoA-Synthetase aktiviert und - an Carnitin gebunden - in das Innere der Mitochondrien geschleust. Die Carnitin-Palmitoyltransferase 1 (CPT 1) ist an der Innenseite der äußeren Mitochondrienmembran gebunden und katalysiert die Kopplung von L-Carnitin an die aktivierte Fettsäure unter Freisetzung von Coenzym A. Das so enstandene Acyl-Carnitin passiert mit Hilfe der Carnitin- Acylcarnitin-Translokase (CAC) die innere Mitochondrienmembran. An der Innenseite der mitochondrialen Innenmembran überträgt die Carnitin-Palmitoyltransferase 2 (CPT 2) den Fettsäurerest des Acyl-Carnitins auf Coenzym A, wobei Acyl-CoA und freies Carnitin entsteht. Nun schließt sich der Abbau der Fettsäuren, die ß-Oxidation an. Ziel dieser Arbeit war die Untersuchung der Carnitin-Palmitoyltransferase 1 in Entzündungszuständen und die Klärung der Frage, ob Stickstoffmonoxid (NO) einen Einfluss auf die Regulation der CPT 1 hat. Darüberhinaus wurde die Wirkung von PPAR-a (peroxisome proliferator-activated receptor-a) auf die induzierbare NO-Synthase (iNOS) und damit die Generierung von NO untersucht. Die Experimente wurden an Ratten-Mesangiumzellen durchgeführt. Interleukin 1ß stimuliert die Expression der CPT 1 auf mRNA und Protein-Ebene. In Kombination mit Palmitat und Carnitin konnte die Expression der CPT 1 signifikant gesteigert werden. Es konnte gezeigt werden, dass NO ein potenter Stimulator der Carnitin-Palmitoyltransferase 1 ist. Mesangiumzellen, die mit NO und IL-1ß kombiniert stimuliert wurden, zeigten bereits nach 2 Stunden eine Reduktion der Expression auf das Niveau der unstimulierten Kontrolle. IL-1ß und L-NG-Monomethyl- Arginin (L-NMMA), ein spezifischer Inhibitor der induzierbaren NO-Synthase erhöhen die CPT-1 Expression. In einem Tiermodell des hämorrhagischen Schocks wurde die CPT 1 mRNA Expression signifikant reprimiert, die Gabe eines iNOS-Inhibitors konnte diese Herunterregulierung wieder aufheben. Stickstoffmonoxid spielt eine sehr wichtige Rolle bei Entzündungsreaktionen. Die induzierbare NO-Synthase ist das verantwortliche Enzym für die Produktion von großen Mengen NO. Die NO-Synthase (NOS) katalysiert die Umsetzung von L-Arginin unter Sauerstoffverbrauch in Citrullin unter Entstehung von NO. Der Mechanismus , der für einen verzögerten Beginn der Transkription von vier Stunden mit darauf folgender mehr als 24-stündiger immenser mRNA Synthese. nach einer Zytokinstimulation verantwortlich ist, ist noch nicht verstanden. Der Untersuchung dieser verzögerten und anhaltenden iNOS Expression lag die Hypothese zugrunde, dass die Zytokin-induzierte iNOS Transkription zuerst durch NFkB und C/EBP Transkriptionsfaktoren ausgelöst und anschließend durch andere Mediatoren verlängert und verstärkt wird. Zur Identifizierung möglicher regulatorischer Elemente wurden 4,5 kb der 5' flankierenden Region des iNOS Promotors aufwärts des Transkriptionsstarts kloniert. Mittels Analyse der DNase 1 hypersensitiven Bereiche der 5'Region des iNOS Gens konnten zwei hypersensitive Stellen identifiziert werden (DHS1: 1300bp; DHS2: 3000bp). Beide Stellen enthalten putative PPAR-Bindestellen. Zur weiteren Untersuchung wurde die Wirkung des PPAR-a auf die iNOS analysiert. Dabei konnte gezeigt werden, dass der PPAR-a Agonist Wy 14643 in Kombination mit IL-1ß in der Lage ist sowohl Aktivität, Protein als auch die mRNA der iNOS zu steigern. Transfektionsexperimente mit deletierten und mutierten iNOS Promotorfragmenten zeigten, dass DHS1 das für die Stimulation verantwortliche DNA Fragment enthält. Mittels Elektrophoretic-Mobility-Shift-Assay konnte gezeigt werden, dass der PPAR-a Agonist Wy 14643 die Bindung des PPA-Rezeptors an DHS1 verstärkt.
Mithilfe der klinischen Routinemethode, TRAK-Assay®, wurden bei Patienten TSH-Rezeptor-Antikörpern (TRAK) nachgewiesen, um die Diagnose M. Basedow zu erhärten oder auszuschließen. Diese Methode ist aber nur in der Lage die Gesamtheit aller TRAK zu erfassen. In dieser Studie wurde eine andere Methode, der cAMP-Assay verwendet, bei welchem Chinesische Hamster Ovarien (CHO)-Zellen eingesetzt wurden, die auf ihrer Oberfläche stabil exprimierte humane TSH-Rezeptoren besitzen, und welcher in der Lage ist, zwischen dem Vorhandensein von funktionsstimulierenden und funktionsblockierenden Antikörpern zu unterscheiden. Die Differenzierung zwischen diesen verschiedenen Antikörper-Typen kann wichtige Hinweise dafür liefern, warum das klinische Bild bei vielen Erkrankten nicht mit dem Vorhandensein oder der Höhe der TRAK korreliert und Anhaltspunkte über die Prognose über den weiteren Verlauf der Erkrankung geben. Große Patientenkollektive von insgesamt mehr als 300 Patienten wurden auf das Vorhandensein von TRAK im Serum untersucht, getrennt nach TRAK mit stimulierender und blockierender Funktion. Neben Patienten mit M. Basedow wurden in diese Studie auch Patienten einbezogen, welche an Hashimoto-Thyreoiditis, an einer anderen Autoimmunerkrankung, an nicht-autoimmunen Schilddrüsenerkrankungen oder an Thyreoiditis de Quervain erkrankt waren. Bei Patienten mit M. Basedow wurde außerdem der Einfluß der thyreostatischen Behandlungsdauer auf das Auftreten von TRAK mit stimulierender und blockierender Funktion untersucht. Material und Methode Es wurde die CHO- Zelllinie JP 26 verwendet. Die Zellen wurden kultiviert mit IMDM- Medium, 100 U/ml Penicillin, 100 U/ml Streptomycin, 5% FCS in einer 5%igen CO2-Atmosphäre bei 37°C. Für den cAMP-Assay wurden die Zellen in 96-Well-Platten angezüchtet. 24 Stunden später wurden die CHO-Zellen, nach Entfernung des Kulturmediums, zur Ermittlung funktionsstimulierender TRAK, mit 60 µl hypotonem KRB- Puffer, 20 µl IMBX (Isobutylmethylxanthine) und 20 µl Patientenserum für zwei Stunden inkubiert. Zur Ermittlung funktionsblockierender TRAK wurden 40 µl KRB, 20 µl IMBX, 20 µl Patientenserum und 20 µl TSH (Konz. 0,5 mU/ml) verwendet. Die cAMP-Konzentration wurde mittels eines kompetitiven Radioimmunoassays (BIOTRAK® cAMP) und eines Gamma-Counters gemessen. Ergebnisse Mit dieser Methode läßt sich zeigen, dass nicht nur bei Patienten mit M. Basedow signifikant hohe Titer mit funktionsstimulierenden und funktionsblockierenden Antikörpern vorhanden sind. Funktionsstimulierende TRAK wurden bei 25,7% der Hashimoto-Thyreoiditis-Patienten, bei 5,56% der Patienten mit schilddrüsenunabhängigen Autoimmunerkrankungen (M. Addison, Diabetes mellitus Typ 1) und bei 17,4% der Patienten mit nicht-autoimmunen Schilddrüsenerkrankungen detektiert. Funktionsblockierende TRAK waren in signifikanter Höhe bei 19,15% der Patienten mit Hashimoto-Thyreoiditis, bei 27,78% mit schilddrüsenunabhängigen Autoimmunerkrankungen und bei 50% mit nicht-autoimmunen Schilddrüsenerkrankungen aufzufinden. Die Gruppe der Thyroiditis-de Quervain-Patienten zeigte keine signifikanten Unterschiede im Vorkommen von Antikörpern zur Kontrollgruppe. In der Gruppe der M. Basedow-Patienten konnten bei 52,1% funktionsstimulierende Antikörper entdeckt werden. Bei den Patienten, welche weniger als vier Wochen thyreostatisch behandelt wurden, konnten in ca. 10% mehr Antikörper-positive Fälle detektiert werden, als bei Patienten mit einer Behandlungsdauer von mehr als neun Monaten. Nur 9,62% der M. Basedow-Patienten hatten laut cAMP-Assay TRAK mit blockierender Funktion. Diese verteilen sich ausschließlich auf Patienten, welche seit mindestens neun Monaten in thyreostatischer Behandlung waren. Der hier verwendete cAMP ist ein geeignetes Verfahren zur Differenzierung unterschiedlicher TRAK-Typen, was mit dem herkömmlichen TRAK-Assay® nicht möglich ist. In dieser Studie konnte gezeigt werden, dass Antikörper gegen den TSH-Rezeptor nicht nur bei Patienten mit M. Basedow vorkommen, sondern auch bei Patienten anderer Schilddrüsen- und Autoimmunerkrankungen. Es wird außerdem deutlich, dass eine thyreostatische Behandlung mit einer Dauer über neun Monaten bei M. Basedow-Patienten zum gehäuften Auftreten von funktionsblockierenden Antikörpern führt.
Einleitung und Zielsetzung: In der vorliegenden Arbeit sollte der Nachweis von TSH-Rezeptorantikörpern mittels eines Bindungsassays und JP26- Zellen erbracht werden. TSH-Rezeptorantikörper (TRAK) werden in Seren von vielen Patienten mit einer Autoimmunthyreoiditis entdeckt. Der in dieser Arbeit ausgewählte Radioimmunassay verwendet chinesische Hamster Ovarienzellen (CHO-Zellen), die humanen TSH-Rezeptoren exprimieren. Der Bindungsassay basiert auf dem Prinzip der Verdrängung von radioaktiv markiertem bovinem-TSH (Tracer) durch vorhandene TSH-Rezeptorantikörper im Patientenserum. Dabei ist es nicht entscheidend, ob es sich um funktionsblockierende oder funktionsstimulierende TRAK handelt. Der verwendete Bindungsassay gilt als einer der sensitivsten, kompetitiven Bindungsassays für die Detektion von TRAK und kann deshalb ein relevanter Verlaufsmarker bei Patienten mit Morbus Basedow und Hashimoto sein. Material und Methode: Die JP26-Zellen wurden ausgewählt, weil sie sich mit einer Anzahl von 2.000 TSH-Rezeptoren an ihrer Oberfläche gut mit der TSH-Rezeptordichte humaner Thyreozyten vergleichen lassen. Die verwendeten Patientenseren wurden unterteilt in 5 Gruppen: Gruppe 1: Morbus Basedow (n = 85), Gruppe 2: Kontrollgruppe (n = 76), Gruppe 3: Hashimoto-Thyreoiditis (n = 29), Gruppe 4: Andere Autoimmunerkrankungen (n = 14), Gruppe 5: Nicht-autoimmune Schilddrüsenerkrankungen (n = 38). Die Morbus Basedow-Gruppe wurde zusätzlich untergliedert in floride und länger als 9 Monate behandelte Gruppen sowie in TRAK positive und TRAK negative Gruppen: Gruppe 1A: floride und positive TRAK, Gruppe 1B: floride und negative TRAK, Gruppe 1C: behandelt und positive TRAK, Gruppe 1D: behandelt und negative TRAK. Die kultivierten JP26-Zellen wurden mit einer Zellanzahl von 300.000 Zellen / Well zusammen mit IMDM-Medium in 24-Lochplatten aufgeteilt. Am nächsten Tag wurden die in 5 %iger CO2-Atmosphäre bei 37°C inkubierten Lochplatten mit PBS gewaschen. Danach wurde 150 ml modifizierter KRB-Puffer, 50 ml Serum und 50 ml 125 I-bTSH in jede Vertiefung pipettiert. Die bestückten Lochplatten wurden diesmal bei 4°C über 24 Stunden inkubiert. Anschließend wurden die JP26-Zellen mit 0,5 ml 4 °C kalten KRB-Puffers gewaschen und mit 0,5 ml 1 N Natronlauge (NaOH) gelöst. Die verbliebene Radioaktivität wurde zuletzt im gamma-Counter gemessen. Ergebnisse: Gruppe 1: 31 %, Gruppe 2: 5 %, Gruppe 3: 17 %, Gruppe 4: 0 %, Gruppe 5: 16 %. Gruppe 1A: 80 %, Gruppe 1B: 0 %, Gruppe 1C: 36 %, Gruppe 1D: 14 %. Schlußfolgerung: Die Sensitivität der TRAK-Nachweise in der MB-Gruppe war entgegen aller Erwartungen niedriger als im Routinelabor. Dies lag vermutlich auch an einer sehr hohen Affinität des verwendeten bovinen-TSH-Tracers für TSH-Rezeptoren. Es fanden sich jedoch bemerkenswerte Ergebnisse in der Gruppe der Hashimoto- Thyreoiditis und der nicht-autoimmunen Schilddrüsenerkrankungen. In beiden Gruppen konnten in mehreren Seren ( 17 bzw. 16 % ) positive TRAK-Werte nachgewiesen werden. Daraus läßt sich schließen, daß die in vorliegender Arbeit angewendete Untersuchungsmethode eine höhere Sensitivität zum Nachweis von TRAK bei Hashimoto- Thyreoiditis besitzt. Gewichtige und neueste Studien, sowie Ergebnisse von Untersuchungen der gleichen Arbeitsgruppe, die sich mit zwei unterschiedlichen Assays zur Unterscheidung funktionsblockierender und funktionsstimulierender TRAK befaßt haben, stützen diese Aussage. Letztlich liegt der Schluß nahe, daß es sich bei den in diesen beiden Gruppen nachgewiesenen TSH-Rezeptorantikörpern, um überwiegend funktionsblockierende TRAK handelt. Dagegen erscheint zum TRAK-Nachweis, insbesondere funktionsstimulierender TRAK bei Morbus Basedow Patienten, die Anwendung einer auf kompetitiver Hemmung beruhende Untersuchungs-methode nur unzureichend sensitiv. Das in vorliegender Arbeit angewendete Verfahren eignet sich offenbar vergleichsweise besser zur Detektion funktionsblockierenden TRAK.
Verschiedene Nanopartikel, darunter Gelatine- und Albuminnanopartikel und Cyanoakrylatnanopartikel mit Butyl- und Hexylseitenketten, wurden in dieser Arbeit auf ihre Tauglichkeit als Trägersystem zum Einsatz für einen späteren Gentransfer in Bronchialepithelzellen erprobt. In der Zellkultur wurden dazu an primären humanen Bronchialepithelzellen und an der Zelllinie 16HBE14o Zytotoxizitätstest nach Inkubation mit oben genannten Nanopartikeln durchgeführt. Weiterhin wurden qualitative und quantitative Aspekte der Anreicherung von fluoreszenzmarkierten Gelatine- und Albuminnanopartikeln in diese Zellen mit dem konfokalen Laserrastermikroskop und dem Durchflußzytometer untersucht. Zusätzlich evaluiert wurde die inflammatorische Potenz von Gelatine- und Albuminnanopartikeln mittels einer quantitativen Interleukin-8-Bestimmung. Es konnte gezeigt werden, dass Cyanoakrylate aufgrund eines hohen zytotoxischen Effekts nicht für die Behandlung von Bronchialepithelzellen geeignet sind. Hierbei zeigten Cyanoakrylate mit kurzen Butylseitenketten eine ausgeprägtere Zytotoxizität als jene mit langen Hexylseitenketten. Gelatine- und Albuminnanopartikel hingegen zeichneten sich durch sehr geringe bis fehlende Zytotoxizität aus. Mit dem konfokalen Laserrastermikroskop konnte die Aufnahme von fluoreszenzmarkierten Gelatine- und Albuminnanopartikel in das Zellinnere von primären Bronchialepithelzellen dokumentiert werden. Erstmals wurde somit eine Nanopartikelaufnahme in Zellen nachgewiesen, die nicht zum mononukleären Phagozytensystem gehören. Die Versuche zur zellulären Aufnahme der Nanopartikel mit verschiedenen Inkubationsbedingungen zeigten, dass primäre Bronchialepithelzellen und 16HBE14o-Zellen Gelatine- und Albuminnanopartikel in einem aktiven, stoffwechselabhängigen Prozess aufnehmen, der am ehesten der Phagozytose entspricht. Ferner haben sich Albuminnanopartikel im Rahmen dieser Versuche als bioadhäsiv erwiesen. Mit dem Durchflußzytometer ließ sich schließlich eine Konzentrationsabhängigkeit der Aufnahme fluoreszenzmarkierter Gelatine- und Albuminnanopartikel zeigen und feststellen, dass alle Zellen einer Zellpopulation von primären Bronchialepithelzellen oder 16HBE14o-Zellen Nanopartikel aufnehmen. Selbst primäre Zellen, die durch die Kultur auf Membraneinsätzen auf einem hohen Differenzierungsniveau gehalten wurden, nahmen Nanoparikel auf. Eine quantitative Interleukin-8-Bestimmung zeigte schließlich, dass Gelatine- und Albuminnanopartikel keine Inflammation in primären humanen Bronchialepithelzellen und der Zelllinie 16HBE14o verursachen. Abschließend lässt sich sagen, dass die hier erprobten Nanopartikel bezüglich ihrer Zytotoxizität und ihrem inflammatorischem Potenzial als geeignet für den Gentransfer erscheinen. Die Aufnahme der Nanopartikel in das Zellinnere ist vielversprechend für eine spätere Expression von Transgenen in Bronchialepithelzellen.
Ziel dieser Arbeit war die Klärung des pathogenen Mechanismus einer Mutation im kardialen Myosinbindungsprotein C Gen. Diese Mutation (eine G-Insertion), die zu einer intern deletierten mRNA mit vorzeitigem Stop Codon führt, wurde im Rahmen einer HCM- Familienanalyse identifiziert. Ein C-terminal verkürztes MyBP-C war jedoch im Herzgewebe eines Patienten nicht nachweisbar (Moolman et al., 2000). Es stellte sich die Frage, ob die Krankheit in dieser Familie auf einen "dominant-negativen" Effekt von sehr wenigen veränderten Proteinen oder auf einen Mangel an normalem MyBP-C (Haploinsuffizienz) zurückzuführen ist. Zur Überprüfung einer möglichen Suppression des mutierten Allels auf mRNA Ebene wurde eine semiquantitative RT-PCR-Analyse myokardialer RNA durchgeführt. Dabei wurde festgestellt, dass die nicht-mutierte mRNA in einem vierfachen Überschuß gegenüber der mutierten mRNA im Patienten-Herzgewebe vorliegt. In Modellversuchen wurde sodann die Expression der intern deletierten mRNA in transient transfizierten Zellen untersucht. Hierfür wurden drei MyBP-C cDNAs verwendet: (1) die vollständige Wildtyp cDNA (WT), (2) eine intern deletierte cDNA, die mit dem vorzeitigen Stop-Codon endet (MTI) und (3) eine cDNA, die sich nur durch die interne Deletion von der WT-Sequenz unterscheidet (MTII). Aufgrund einer Leserahmenverschiebung enthält die cDNA MTII (wie die mutierte Patienten-mRNA) zusätzlich zum nativen Stop-Codon ein vorzeitiges Terminationscodon. In COS-1 Zellen führten alle drei cDNAs zur Synthese der erwarteten Genprodukte. In neonatalen Kardiozyten wurde nur das verkürzte Protein vom Typ MTI eindeutig exprimiert. Die cDNA MTII führte nicht, bzw. nur in sehr geringem Ausmaß zur Synthese eines verkürzten MyBP-C (Western Blot). Die Analyse immunfluoreszent markierter Kardiozyten für das c-myc/MyBP-C-Fusionsprotein und für Titin ergab folgende "steady state" Expressionen: WT>MTI>>MTII. In der Mehrzahl der Zellen, die MTI oder MTII exprimierten, lagen die Rumpfproteine diffus im Cytoplasma vor, ohne eine erkennbare Veränderung der endogenen Sarkomerstruktur hervorzurufen. Ein relativ geringer Anteil von Zellen zeigte eine korrekte, sarkomere Inkorporation der verkürzten Proteine. Aufgrund der unterschiedlichen "steady state" Konzentration von MTI und MTII in Kardiozyten und aufgrund der Expressionsunterschiede in den verschiedenen Zelltypen wurde ein zelltypspezifischer und intron-unabhängiger Mechanismus vermutet, der die Suppression der Nonsense-mRNA (MTII) und damit eine Reduktion der Synthese des verkürzten MyBP-C bewirkt. Dieser Effekt wurde auf den Einfluß von Sequenzen zurückgeführt, die sich in der reifen mRNA 3' vom vorzeitigen Stop-Codon befinden. Zur Eingrenzung dieser Sequenzen wurde der Bereich zwischen dem vorzeitigen und dem nativen Stop-Codon in überlappende Fragmente unterteilt und an das Stop-Codon der cDNA MTI angefügt. Die transiente Expression dieser cDNA-Konstrukte (MTI-DSE I, II, III, I/II) führte in Kardiozyten ebenfalls zu einer reduzierten Synthese des verkürzten MyBP-C. Die erhaltenen Ergebnisse, d.h. sowohl die reduzierte Transkriptmenge des mutierten MyBP-C Allels im Patienten- Herzgewebe als auch die geringe Akkumulation verkürzter MyBP-C Proteine in transient transfizierten Kardiozyten erklären den pathogenen Mechanismus der untersuchten MyBP-C Mutation nicht vollständig. Jedoch unterstützen sie die Vermutung, dass die Abwesenheit des verkürzten MyBP-C auf einer Suppression der MyBP-C Nonsense-mRNA basiert und bekräftigen die Vorstellung, dass die HCM in der untersuchten Familie mit einem Mangel an Myosinbindungsprotein C im Myokard assoziiert ist (Haploinsuffizienz). Ein "dominant- negativer" Effekt einer sehr geringen Menge von veränderten Molekülen auf die Struktur oder auf die regulatorische Funktion der kardialen Sarkomere kann allerdings nicht völlig ausgeschlossen werden.
Die Peritonitis bezeichnet eine durch Bakterien oder chemische Noxen ausgelöste Entzündung des Peritoneums. Entwickelt sich aus der lokalisierten Entzündung der Bauchhöhle durch Abstrom bakterieller Bestandteile in die systemische Zirkulation eine generalisierte Sepsis mit multiplem Organversagen, beträgt die Letalität trotz chirurgischer Herdsanierung, intensivmedizinischer Betreuung und potenter Antibiotikatherapie 20-50%. Eine entscheidende Rolle in der Abwehr der Peritonitis tragen polymorphkernige Leukozyten. PMNL werden bei einer Infektion der Abdominalhöhle durch chemotaktile Botenstoffe zum Fokus gelockt und tragen durch Phagozytose der Bakterien und Sauerstoffradikalproduktion entscheidend zur Elimination der Mikroorganismen bei. Viele Untersuchungen weisen jedoch auch darauf hin, daß überschießend aktivierte zirkulierende PMNL für die Pathologie des septischen multiplen Organversagens mitverantwortlich sind. Die vorliegende Studie dient der Charakterisierung der Sauerstoffradikalproduktion emigrierter und zirkulierender PMNL bei Patienten mit sekundärer Peritonitis. Hierfür wurde mit Hilfe der luzigenin- bzw. luminolverstärkten Chemilumineszenz die extra- sowie intrazelluläre Sauerstoffradikalproduktion polymorphkerniger Leukozyten bestimmt. Dabei wurde die Sauerstoffradikalproduktion von Patienten mit unkompliziertem Verlauf einer Peritonitis mit der der Peritonitispatienten mit systemischen Komplikationen (septischer Schock, multiples Organversagen) verglichen. Acht Patienten nach abdominalchirurgischer Operation ohne Infektion dienten als Kontrollen. Eine Aktivierung der extrazellulären und intrazellulären Sauerstoffradikalproduktion polymorphkerniger Leukozyten war durch rezeptorabhängige und rezeptor-unabhängige Stimuli möglich. Bei Patienten nach abdominalchirurgischer Operation ohne Infektion war die Sauerstoffradikalproduktion der in die Bauchhöhle emigrierten PMNL höher als die zirkulierender PMNL. Auch bei Patienten mit einer unkomplizierten Peritonitis war die Sauerstoffradikalproduktion der intraabdominalen Granulozyten stärker aktivierbar als die der zPMNL. Im Gegensatz hierzu war jedoch bei Peritonitispatienten mit systemischen Komplikationen die extrazelluläre sowie auch die intrazelluläre Sauerstoffradikal-produktion emigrierter, intraabdominaler PMNL reduziert. Die stimulierte Sauerstoff-radikalproduktion zirkulierender PMNL war bei Patienten mit schwerer Peritonitis hochgradig aktivierbar und übertraf die der emigrierten PMNL. Die hohe Sauerstoffradikalproduktion zirkulierender PMNL bei Patienten mit kompliziertem Verlauf einer Peritonitis verbunden mit einer erniedrigten Sauerstoffradikalproduktion emigrierter polymorphkerniger Leukozyten sprechen für eine überaus starke systemische Aktivierung der Leukozyten. Dagegen scheint die lokale Abwehr im Rahmen einer schweren Peritonitis supprimiert. Die bei der vorliegenden Untersuchung erfaßten hohen intraabdominalen Zytokinkonzen-trationen könnten für eine Deaktivierung emigrierter Leukozyten verantwortlich sein. Zudem könnte die systemische Hyperinflammation polymorphkerniger Leukozyten mit einer vorzeitigen Einleitung der Apoptose und konsekutiver lokaler Immunparalyse verbunden sein. Wenig ist bis heute über die Modulierbarkeit emigrierter, intraabdominaler polymorphkerniger Leukozyten durch antiinflammatorische Substanzen bekannt. Daher wurde in der vorliegenden Untersuchung die Suppression der Sauerstoff-radikalproduktion emigrierter polymorphkerniger Leukozyten durch verschiedene antiinflammatorische Substanzen erprobt. Der Einfluß dieser Substanzen auf die Phagozytoseaktivität emigrierter PMNL wurde mit Hilfe der Durchflußzytometrie evaluiert. Chloramin, Buflomedilhydrochlorid und Pentoxiphyllin konnten die Sauerstoffradikal-produktion der emigrierten polymorphkernigen Leukozyten supprimieren, ohne die Phagozytosekapazität der Leukozyten zu beeinträchtigen.
Es wurden 1000 von der Polizei in und um Frankfurt am Main in der Praxis ermittelte AAK-Messwerte und die entsprechenden BAK, die im Zentrum der Rechtsmedizin der Johann Wolfgang Goethe-Universität in Frankfurt am Main bestimmt wurden, einer statistischen Auswertung unterzogen. In die Auswertung sind alle aus den Untersuchungsunterlagen entnehmbaren Parameter, wie Geburtsdatum der Probanden, Geschlecht, Datum und Uhrzeit der AA-Entnahme, AAK, Datum und Uhrzeit der Tat, zuständiges Polizeirevier, AAK-Messgerät, BAK, Datum und Uhrzeit der Blutentnahme, eingeflossen. Die statistische Auswertung hat ergeben, dass die durchschnittliche Differenz aller AAK- und BAK-Werte bei -0,02 Promille liegt, mit einer Standardabweichung von ±0,35 Promille bei einer maximalen Differenz von -1,13 Promille nach unten und +2,81 Promille nach oben. Die Standardabweichung von ±0,35 Promille wurde als Grenzwert zur Überprüfung der Korrelation der wahrscheinlichen BAK zum Zeitpunkt der AAK-Bestimmung gewählt. Trotz der großen Spanne des Grenzbereichs von 0,7 Promille wurden nur 77,9% der AAK-BAK-Paare als korrelierend ermittelt. Bei Festlegen individueller Grenzwerte, gebildet aus der minimalen bzw. der maximalen BAK zum Zeitpunkt der AAK-Bestimmung, erwiesen sich nur noch 34,7% der Wertepaare als korrelierend. Der durchschnittliche BAK-AAK-Quotient betrug 1:2181, mit einer Standardabweichung von ±1:473. Die Quotientenspanne lag zwischen 1:0 und 1:4480. Als einziger, eindeutig nachzuweisender Faktor für die Beeinflussung der AAK-Messwerte galt die tatsächliche Höhe der BAK. Je höher die Probanden-BAK war, umso größer waren die AAK-Abweichungen von der BAK. Erwähnenswert ist, dass die AAK-Messgeräte der Firma Dräger (Alcotest® 7310 und 7410), auf Redox-Halbleiter-Gassensoren aufbauend, die indirekte BAK im Durchschnitt zu hoch, während die Brennstoffzellen-Geräte LMB S-D3 der Firma LMB Laborservice GmbH die indirekte BAK im Durchschnitt zu niedrig angaben. Die Untersuchung der Wertepaare aus AAK und minimaler BAK zum Zeitpunkt der AAKBestimmung im Vergleich zu den vom Gesetzgeber vorgegebenen Promille-Stufen für ein bestimmtes Strafmaß (0,3 Promille, 0,5 Promille, 0,8 Promille, 1,1 Promille, 1,6 Promille, 2,0 Promille, 3,0 Promille) hat ergeben, dass bei dem vorliegenden Datenmaterial 203 Probanden eine zu niedrige und 239 Probanden eine zu hohe Strafe erhalten hätten, wenn die AAK als alleiniges Maß verwendet worden wäre. Diese Fehleinschätzung wäre eingetreten, weil die AAK der Probanden über bzw. unter den oben genannten Grenzwerten lag und sich ihre BAK umgekehrt unter bzw. über denselben Werten befand. Es lässt sich feststellen, dass eine Berechnung der BAK aus dem Ethanolgehalt der Atemluft nicht möglich ist, weil viele Faktoren die AAK-Messung beeinflussen, die bisher unberücksichtigt blieben und auch von modernen, hochpräzisen AAK-Messgeräten schwerlich erfasst werden können. Daher gilt die Empfehlung, die AAK-Messung nur als Vorprobe und zum Screening zu verwenden. Bei juristischen Begutachtungen sollte nur die BAK verwendet werden, weil diese als einziger Wert präzise und beweissicher ist und außerdem über den Trunkenheitszustand eindeutig informiert. Betroffene sollten auf jeden Fall auf einer BAK-Untersuchung bestehen und die AAK als Messwert in Frage stellen.
Die verschiedenen Typen von Nervenzellen sind durch die differentielle Expression terminaler Differenzierungsgene charakterisiert. Dies sind z.B. Gene, deren Produkte die Synthese und den Transport der verwendeten Neurotransmitter gewährleisten. Die Expression dieser Gene wird während der Entwicklung durch spezifisch exprimierte Transkriptionsfaktoren reguliert. In der Entwicklung sympathischer Nervenzellen sind Mitglieder aus der Familie der basic Helix-Loop-Helix-(bHLH)-Transkriptionsfaktoren und der paired-Homöodomänen-Faktoren identifiziert worden, deren Expression in Vorläuferzellen aus der Neuralleiste durch das Signalmolekül BMP4 induziert wird und die an der Regulation des sympathischen Phänotyps beteiligt sind. Nullmutanten des bHLH-Faktors Mash1 und des Homöodomänen-Faktors Phox2b zeigen eine stark gestörte Entwicklung der sympathischer Nervenzellen. Weitere bHLH-Faktoren, dHand und eHand, vermögen in vitro die Expression noradrenerger Differenzierungsgene in Neuralleistenzell-kulturen zu induzieren. Ob diese Faktoren in vivo eine Rolle in der entwicklungsabhängigen sympathischen Differenzierung spielen, kann im Mausmodell nicht untersucht werden, da die Nullmutanten noch vor der Sympathogenese sterben. Das Huhnembryo bietet das ideale Modellsystem, die Rolle von Transkriptionsfaktoren in vivo zu untersuchen und durch Kopplung embryologisch-experimenteller und molekularer Verfahren die Faktoren gezielt in bestimmten Geweben zu exprimieren. In dieser Arbeit werden Experimente dargestellt, welche die Rolle dieser Transkriptionsfaktoren genauer definieren. Durch die viral induzierte Expression von Phox2a und Phox2b im Huhnembryo wird gezeigt, dass die Expression dieser Faktoren ausreicht, in multipotenten Vorläuferzellen des Brachialnervs und des Hinterwurzelganglions die Differenzierung sympathischer Nervenzellen zu induzieren. Dieser Phänotyp umfasst neben der Expression typisch noradrenerger und panneuronaler Gene ebenfalls die Expression der Transkriptionsfaktoren Phox2a und -b, dHand und Cash1. Es wird gezeigt, dass dHand im Laufe der sympathischen Entwicklung noch vor den noradrenergen und panneuronalen Differenzierungsgenen exprimiert wird. Auch dHand ist in der Lage, nach viraler Misexpression in multipotenten Vorläuferzellen des Embryos Differenzierung zu sympathischen Nervenzellen auszulösen. Weiter wird gezeigt, dass die Überexpression von BMP4 im Huhnembryo dazu führt, dass undifferenzierte Vorläuferzellen im Brachialnerv zu sympathischen Nervenzellen differenzieren. Mash1 vermag nach Überexpression die Expression neuronaler Gene im Brachialnerv und umliegenden Mesoderm zu induzieren. Die Bildung sympathischer Nervenzellen im Bereich des Brachialnervs wird ebenfalls induziert. Diese exprimieren wiederum neben den noradrenergen und panneuronalen Genen auch die Transkriptionsfaktoren Phox2a/b und dHand. Die Ergebnisse zeigen überzeugend das Vermögen der Transkriptionsfaktoren Phox2a/b, dHand und Mash1 den komplexen sympathischen Phänotyp in multipotenten Vorläuferzellen aus der Neuralleiste zu induzieren. Besonders wichtig sind hierbei die Ergebnisse nach dHand-Überexpression. Hiermit wird erstmals gezeigt, dass dieser bHLH-Transkriptionsfaktor in vivo eine hervorragende Rolle innerhalb der Regulation noradrenerger und neuronaler Gene einnimmt. Die Ergebnisse der verschiedenen Untersuchungen zeigen darüber hinaus, dass während der Normalentwicklung in Vorläuferzellen des peripheren Nervensystems die Expression einer Gruppe von Transkriptionsfaktoren induziert wird. Deren Mitglieder werden in einer festgelegten zeitlichen und epistatischen Reihung exprimiert. Jeder Einzelne dieser Transkiptionsfaktoren ist ausreichend, in Vorläuferzellen die Entstehung sympathischer Nervenzellen auszulösen. Dabei wird die Expression der anderen Mitglieder dieser Gruppe induziert. Es handelt sich also nicht um eine lineare Kaskade von Transkriptionsfaktoren, sondern um ein Netzwerk von Faktoren, die ihre Expression gegenseitig regulieren und vermutlich gemeinsam die Expression terminaler Differenzierungsgene steuern.
Mechanismus der funktionell relevanten Kopplung von Kontaktallergenen in dendritischen Zellen
(2002)
Über die Signaltransduktion in Langerhanszellen, den antigenpräsentierenden Zellen der Epidermis, ist bisher nur wenig bekannt. Mit ein Grund dafür ist die schlechte Verfügbarkeit reiner Langerhanszellen aufgrund ihrer geringen Zahl und der schwierigen Präparation, die häufig schon zur Voraktivierung dieser Zellen führt. Humane unreife und reife dendritische Zellen erwiesen sich als geeignete Modellzellpopulation für kutane antigenpräsentierende Zellen. Mit Hilfe dieser Modellzellen wurde die Beteiligung von zentralen Signaltransduktionswegen nach Interaktion mit dem Kontaktallergen TNCB untersucht. 1. Zum ersten Mal wird gezeigt, dass TNCB in den ersten 10 Minuten nach der Haptenisierung bei dendritischen Zellen intrazellulär lokalisiert ist. Die Stimulation von DC mit dem starken Kontaktallergen TNCB führte zu einer Aktivierung der ERK1/2 MAP Kinase. Dieses Ergebnis entspricht der Vorstellung, dass starke Kontaktallergene in subtoxischen Konzentrationen zellulären Streß bei MAP Kinasen auslösen und somit zu einer für die Kontaktallergie typischen Antigenpräsentation führen. 2. Die Tyrosinphosphorylierung wurde bereits in vorausgegangenen Arbeiten (Kuhn, 1998; Brand, 2002) als Charakteristikum für haptenbehandelte Monozyten und humane dendritische Zellen herausgestellt. Diese Ergebnisse konnten mit humanen unreifen und reifen DC weitergeführt werden. Proteinbiochemisch ergab das Kontaktallergen TNCB ein spezifisches und reproduzierbares Muster hyperphosphorylierter Proteinbanden. Der gemessene Anstieg an Phosphotyrosin beruhte auf der gesteigerten Aktivität von Protein Tyrosin-Kinasen. 3. In weiteren Untersuchungen wurden Proteine massenspektrometrisch analysiert, die tyrosinphosphoryliert waren und gleichzeitig TNCB gebunden hatten. Es wurden drei Proteine identifiziert: Gewebstransglutaminase bei 74-80kD, Thyroidhormon Bindeprotein bei 58kD und Aktin bei 38kD. Nach Literaturrecherchen war die Transglutaminase am vielversprechendsten und wurde auf ihre Aktivität innerhalb der Kontaktallergen-induzierten Signaltransduktionskaskade hin untersucht. Drei strukturell verschiedene Stoffe, das Kontaktallergen TNCB, die Retinsäure (RA) und ein Phorbolester (PMA) induzierten eine starke, proteinbiochemisch meßbare Tyrosinphosphorylierung der ERK1/2 MAP Kinase. Aus der Literatur war die RA für eine Aktivierung der tTG bekannt (Antonyak et al., 2002) und PMA als Stimulator der ERK1/2 MAP Kinase (Chen et al., 2002; Lee et al., 2002) - aus diesem Grund wurden sie als Positivkontrolle mitgeführt. 4. Mittels Immunpräzipitation wurde der Nachweis, dass TNCB an die tTG bindet, erbracht. Dies war der erste Indikator für eine Bedeutung der tTG als Zielstruktur für ein Kontaktallergen. 5. TNCB, RA und PMA lösen eine gesteigerte Transamidierungsaktivität der tTG aus, die essentiell zur Induktion der ERK-Phosphorylierung ist. Dies wurde durch einen Transamidierungs Aktivitäts Assay bestimmt (Zhang et al., 1998), einem Nachweis der tTG Aktivität mittels Inkorporation von biotinylierten Polyaminen in lokale Proteine. 6. Sowohl die tTG Aktivität als auch die ERK-Phosphorylierung nach TNCB Stimulation konnten durch den spezifischen Inhibitor der Transamidierungsaktivität der tTG MDC gehemmt werden. Dies war ein zweiter Hinweis, dass die enzymatische Aktivität der tTG eine große Rolle spielt. Das gleichzeitige Ausbleiben der Transamidierung und der ERK-Phosphorylierung deutet auf den deutlichen Einfluß der tTG auf den Signaltransduktionsweg der ERK1/2 MAP Kinase hin. Analysen mit anderen starken Kontaktallergenen, wie z.B. Thiomersal und Chlormethylisothiazolon/ Methylisothiazolon bieten zukünftige Forschungsansätze zur weiteren Charakterisierung der funktionellen Bedeutung der tTG und des ERKWeges. Interessant wären auch Untersuchungen zur Hochregulation der tTGExpression in DC von 24-72 Stunden nach einer Inkubation mit TNCB, RA und PMA. Auch sind weitere Untersuchungen zur Signaltransduktionskaskade im Hinblick auf die erforderlichen, nachgeschalteten Elemente interessant, wie z.B. der von der tTG aktivierten Protein B Kinase AKT (Antonyak et al., 2002) sowie beteiligter Kinasen des ERK-Weges.
Die Messung von heteronuklearen 15N-Relaxationszeiten (Longitudinale, transversale sowie heteronukleare NOE) bei verschiedenen Magnetfeldstärken (500, 600 und 800 MHz 1H Larmorfrequenz) ergeben Informationen über interne dynamische Prozesse in Biomolekülen. Diese verschiedenen Relaxationsraten sind voneinander abhängig und über die spektrale Leistungsdichtefunktion miteinander gekoppelt. Die mikrodynamischen Parameter des NH-Peptidrückgratvektors (der Ordnungsparameter S2 und die effektive interne Korrelationszeit te) sowie der Beitrag des konformationellen Austausches zur transversalen Relaxationsrate der Austauschparameter Rex wurden für einige Proteine errechnet und angepaßt. Das Human ILBP gehört zur Familie der intrazellulären Lipidbindungsproteine (LBP), die in der Lage sind, Fett- und Gallensäuren spezifisch zu binden und in Cytosol zu transportieren. Viele verschiedene Typen von LBPs sind bis heute identifiziert worden. Diese Proteine enthalten 127 - 135 Aminosäurereste und werden nach dem Gewebe benannt, aus dem sie isoliert wurden. Human-ILBP enthält 127 Aminosäurereste und besteht haupsächlich aus 10 antiparallelen beta-Faltblattsträngen, die eine beta-Fassstruktur mit einer großen Bindungstasche bilden, und zwei alpha-Helices. ILBP hat die Tendenz, Gallensäuren oder Fettsäuren zu binden. Diese geringe Tendenz zur liganden Spezifität ist entweder in der Struktur oder in seiner Dynamik begründet. Aus diesem Grund kann die Untersuchung der Dynamik des Human ILBP (apo- und holo-Form) in zwei Zeitfenstern zum besseren Verständnis der Funktion führen. Für die nicht-terminalen Peptidrückgratgruppen wurde ein S2-Parameter> 0,8 mit einen Durchschnitt von 0,88 beobachtet, was auf eine niedrige Mobilität im ganzen Protein in einem Nano- zu Picosekunden-Zeitfenster deutet, wobei eine Korrelationszeit von tc = 6.25 ns für ILBP (apo-form) und tc = 6.10 ns für ILBP (holo-Form) beobachtet wurde. Apo- und holo-Form (mit Taurocholat als Ligand) zeigen eine ähnliche Dynamik in diesem Zeitfenster. Überdurchschnittliche S2-Werte der alpha-Helix I deuten eine geringe Flexibilität des Peptidrückgrats an, während alpha-Helix II als Teil der Portalregion eine höhere Beweglichkeit zeigt. Austauschparameter Rex wurden hauptsächlich in den Regionen der Ligandenbindung nachgewiesen. Die hier beschriebenen Eigenschaften unterscheiden sich von denen des H-FABP und des E-FABP. Offensichtlich unterscheiden sich verschiedene Mitglieder der LBP-Familie wie ILBP (Human oder Schwein), H-FABP und E-FABP in der Funktion und Dynamik des Peptidrückgrats. In der vorliegenden Arbeit wurden die transversalen 15N CSA/DD-kreuzkorrelierten Kreuzrelaxationsraten bestimmt. Für die Bestimmung der Anisotropie des chemischen Verschiebungstensors wurde des Verhältnis zwischen den Auto- und Kreuzrelaxationsraten in Abhängigkeit von der magnetischen Feldstärke genutzt, wobei es möglich war, die Orientierung und Größe des CSA-Tensors einzelner Aminosäurereste zu bestimmen. Bei dieser Methode (wie auch in vielen anderen Studien gezeigt) wurde keine Korrelation zwischen der Sekundärstruktur des Proteins und den 15N CSA-Werten festgestellt. Zum Vergleich der CSA-Konstanten der ILBP-Spezies wurden die entsprechenden Parameter der RNaseT1 gemessen. Alle Daten wurden im Hinblick auf strukturelle Details kritisch diskutiert.
Für diese Arbeit wurden anhand zweier relativ kleiner Kollektive von 35 DAT-Patienten und 12 gesunden Non-DAT-Kontrollpersonen (Rechtshänder) 18F-FDG-PET-Bilddatensätze des Gehirns angefertigt und standardisiert mit dem halbautomatischen Regionalisierungsverfahren RegWindow hinsichtlich der Stoffwechselraten in interessierenden Hirnregionen nach HERHOLZ et al. (1990) in der Überarbeitung nach HALBER et al. (1995) für das PC-Programm RegWindow analysiert und ausgewertet. Für die Non-DAT-Kontrollgruppe läßt sich ein signifikanter Zusammenhang zwischen den mit RegWindow und Metabolischer Index ermittelten Metabolic Ratios bestätigen. Die Metabolic Ratios stimmen bezüglich den Literaturangaben der beiden Referenzstudien nach HALBER (1995) und HERHOLZ et al. (1990) sehr gut überein. Mit der Non-DAT-Kontrollgruppe ist auf einem Signifikanzniveau von P=0,95 eine direkte Proportionalität zwischen dem Alter und dem daraus resultierend erniedrigten Metabolic Ratios abzuleiten. Jeweils zehn Lebensjahre führen zu einer Minderung des Metabolic Ratios um 2 Prozent. Für das in dieser Arbeit untersuchte DAT-Gesamtkollektiv wird eine lineare Abhängigkeit des Metabolic Ratios vom MMST-Score des psychometrischen Tests mit hoher Signifikanz nachgewiesen. Die Abhängigkeit liefert eine eindeutige 1:1 Korrelation: Eine Minderung des Score-Wertes um eins hat im Mittel eine Minderung des Metabolischen Ratios um 1 Prozent zur Folge und umgekehrt. Aus den Ergebnissen dieser Arbeit läßt sich ein Cut-off-Wert von 1,075 zur Trennung des Non-DAT- vom DAT-Kollektiv berechnen. Dieser ermöglicht eine vollständige Trennung beider Kollektive bei einer Sensitivität und Spezifität von 100 Prozent. Die Ergebnisse der Stoffwechselratenanalyse bestätigen eine signifikante Stoffwechselratenminderung in drei von den vier nach HALBER (1995) und HERHOLZ et al. (1990) typischerweise betroffenen (affected) Hirnregionen. In der Reihenfolge vom höchsten zum niedrigeren Einfluß der DAT auf die Stoffwechselminderungen ergibt sich die Rangfolge Gyrus angularis, gefolgt von Gyrus temporalis inferior, Gyrus supramarginalis und Gyrus temporalis medius. Als typischerweise nicht betroffene (non-affected) Regionen konnten die Gyri praecentralis und postcentralis sowie Cuneus bestätigt werden. Als eindeutig non-affected kann zusätzlich der Thalamus klassifiziert werden. Für einige nicht klassifizierte Hirnregionen werden ebenfalls signifikante Stoffwechselratenminderungen nachgewiesen, deren Aufnahme als typischerweise betroffene Hirnareale in den Algorithmus für RegWindow zur Berechnung des Metabolic Ratios vorgeschlagen wird. Diese lauten: Lobulus parietalis inferior, Praecuneus, Hippocampus, Lobulus parietalis superior und Gyrus frontalis superior. Internationale Arbeitsgruppen (siehe Kapitel 4.4.1) konnten für diese Hirnregionen im PET Stoffwechselratenminderungen bestätigen sowie in anderen bildgebenden Diagnoseverfahren Atrophien und Perfusionsdefizite ebenfalls nachweisen. Für die Gyri angularis, temporalis inferior und medius, supramarginalis und den Lobulus parietalis inferior konnte ein unilateraler Befall mit Stoffwechselratenminderung im Anfangsstadium der DAT nachgewiesen werden.
Effektivität und Effizienz der hochauflösenden MRT in der Diagnostik akuter Handgelenksverletzungen
(2002)
Die konventionelle Röntgendiagnostik stellte lange Zeit das dominierende diagnostische Instrument zur Beurteilung von akuten Verletzungen des Handgelenkes und der umliegenden Strukturen dar. Da der klinische Verlauf nach Verletzungen des Handgelenkes häufig unbefriedigend und langwierig ist und nicht adäquat therapierte Verletzungen dieser Region mit einer hohen Rate an Sekundärkomplikationen einhergehen, galt es, die Diagnostik des Handgelenkes zu optimieren, da mit der konventionellen Röntgendiagnostik zum einen Frakturen übersehen, umgekehrt aber auch überdiagnostiziert werden können und zum anderen naturgemäß Bandverletzungen nicht ausreichend beurteilbar sind. Da Verletzungen des Handgelenkes meist bei berufstätigen jüngeren Menschen beobachtet werden, stellt dies ein großes ökonomisches Problem dar. Ziel dieser Arbeit war es zu untersuchen, ob durch den gezielten Einsatz der Magnetresonanztomographie in der Frühphase nach einem akuten Handgelenkstrauma, die Diagnostik verbessert werden kann, und inwieweit dies Einfluss auf die nachfolgende Therapieplanung und Therapie hat. Es gelang durch den Einsatz der MRT beim akuten Handgelenkstrauma in Fällen mit einer Diskrepanz zwischen dem unauffälligen oder unklaren konventionellen Röntgenbild und der deutlichen klinischen Symptomatik nicht nur in 10,7% der Fälle (n=6) der Nachweis einer okkulten Fraktur, sondern auch in 64,3% der Fälle (n=36) der Nachweis von Begleitverletzungen im Bereich der ligamentären Strukturen und des TFCC. In 39,3% (n=22) konnte durch die MRT der Verdacht auf eine Fraktur ausgeräumt, in weiteren 5,4% (n=3) eine Änderung bezüglich der Frakturlokalisation vorgenommen werden. Nur 11 der ursprünglich 36 konventionell radiologisch befundeten Verdachtsdiagnosen einer Fraktur konnten im MRT bestätigt werden. In 55,4% wurde die Diagnose und in 66,1% die Therapie geändert (bezugnehmend auf die Daten des ersten Radiologen, Tabelle IV-12). Den verbesserten chirurgischen Therapiemöglichkeiten insbesondere der ligamentären Verletzungen musste durch die Optimierung der MRT Rechnung getragen werden. Es gelang im Rahmen dieser Promotionsarbeit ein zeitsparendes Untersuchungsprotokoll zu erstellen, das es ermöglicht, eine optimale Diagnostik der knöchernen Strukturen des Handgelenkes sowie des Weichteilapparates in weniger als 10 Minuten Untersuchungszeit durchzuführen. T1- und T2-gewichtete STIR-Sequenzen in koronarer Schichtorientierung erwiesen sich als diagnostisch relevant. Aufgrund der verbesserten Diagnostik war es möglich, die Patienten rasch der jeweils optimalen Therapie zuzuführen. So konnten zum einen initial okkulte Frakturen und ausgeprägte Band- und Diskusverletzungen adäquat behandelt und zum anderen durch den sicheren Ausschluss von ossären Verletzungen frühzeitig lange Immobilisationszeiten vermieden werden. Dies stellte einen wesentlichen Benefit für die Patienten dar, da wiederholte Krankenhausbesuche und Röntgenaufnahmen, unnötige Immobilisationszeiten von bis zu 12 Wochen sowie inadäquate - gegebenenfalls invasive - Diagnostik (Arthrographie, Operation) vermieden werden konnten. Durch den frühzeitigen Ausschluss von Frakturen und relevanten ligamentären Läsionen mittels MRT konnte so eine Verkürzung der Arbeitsunfähigkeit in 15 Fällen erreicht werden, in 8 Fällen musste die Dauer der Arbeitsunfähigkeit aus therapeutischen Gründen verlängert werden. Dies spielt sowohl für den Arbeitnehmer als auch für den Arbeitgeber und - bei längeren Krankschreibungszeiten - für die Krankenkassen eine große Rolle. Betriebsausgaben durch Entgeltfortzahlung im Krankheitsfall können so reduziert werden. Aufgrund der wirtschaftlichen Folgen sollte nach unseren Erfahrungen in Fällen mit einem klinischen Verdacht auf eine Fraktur oder schwere Weichteilverletzungen im Bereich des Handgelenkes bei unauffälligem oder unklarem Nativröntgenbild der Einsatz der MRT unmittelbar, möglichst am Tag der Verletzung, erfolgen. Trotz der initial hohen Kosten der kernspintomographischen Untersuchung erscheint uns das Verfahren in der Akutdiagnostik von Handgelenkesverletzungen bei Diskrepanz zwischen dem unauffälligen Röntgenbild und der klinischen Symptomatik indiziert und kosteneffektiv, da durch die adäquate Therapie chronische Handgelenksinstabilitäten und Pseudarthrosen vermieden werden können und auf diese Weise eine Reduktion der Folgekosten möglich ist. Für die Zukunft werden weitere Studien notwendig sein, die die klinische Relevanz des Langzeitverlaufes der in der MRT erhobenen Befunde überprüfen.
Die Osseointegration in der dentalen Implantologie wurde anhand einer Literaturübersicht dargestellt und ausgewertet. Die Literaturübersicht beinhaltet Verlaufsstudien, in vitro und in vivo Studien, die ultrastrukturelle, biomechanische und biochemische Untersuchungen und deren Resultate aufzeigen. Im 1. Kapitel wurden die Kriterien zur Beurteilung des Implantaterfolges dargestellt. Es lässt sich feststellen, dass nicht nur ein Implantatverlust als Misserfolg zu bewerten ist, sondern auch klinische und röntgenologische Erfolgskriterien eine Rolle spielen. Die Mobilität, der Knochenabbau, Entzündungsreaktionen, Schädigungen von anatomischen Strukturen und die Funktionstüchtigkeit des Implantates werden mitbewertet. Im 2. Kapitel wurden die Voraussetzungen für die Erzielung der Osseointegration aufgezeigt. Zu diesen gehören die Physiologie der Knochenheilung, die Implantatwerkstoffe, das operative Vorgehen und die Einheilungsphase. Der Vorgang der Knochenheilung, speziell der primären Frakturheilung, wird der Implantateinheilung gleichgesetzt. Dies bedeutet, dass ein ausreichender belastungsfreier Zeitraum für die Implantateinheilung einzuhalten ist. Bei den Implantatwerkstoffen wurden die Metalle und die Keramiken verglichen. Der Implantatwerkstoff der Wahl ist aufgrund seiner mechanischen und biokompatiblen Eigenschaften das Titan. Andere Materialien, wie z.B. Tantal und Hydroxylapatit, haben sich als problematisch erwiesen. Beim operativen Vorgehen haben sich die Aspekte der atraumatischen, aseptischen und standardisierten Operationsbedingungen als vorteilhaft erwiesen. Der Einfluss der Knochenqualität und des Implantatdesigns auf die erreichbare Primärstabilität wurde dargestellt. Bei der Einheilphase wurde eine Übersicht über die bis dato gültigen Einheilzeiten gegeben. Die Vorgänge während der Implantateinheilung wurden unter Bezug auf die ultrastrukturellen Aspekte dargestellt. Der Einfluss von osteogenetischen Faktoren wurde speziell aufgezeigt. Die Implantateinheilung ist als komplexer Vorgang zu verstehen, bei dem die Wechselwirkung der verschiedenen Faktoren eine wichtige Rolle spielt. Die Morphologie des Interface wurde anhand von Studien diskutiert. Unterschiede in der Morphologie sind in Abhängigkeit von den Implantatwerkstoffen, der Remodelingphase und den verschiedenen Versuchstieren zu finden. Im 3. Kapitel wurden die Voraussetzungen für den Erhalt der Osseointegration besprochen. Zu diesen gehören die Knochenbelastung, die Konstruktionsprinzipien dentaler Implantate, die prothetischen Konzepte und Implantat-Systembeispiele. Bei der Knochenbelastung wurden die Aspekte der okklusalen Überbelastung, der axialen bzw. nicht-axialen Krafteinleitung, Zahn-Implantat- und rein implantat-getragene Rekonstruktionen und materialabhängige Faktoren der Suprakonstruktion berücksichtigt. Hierbei stellte sich heraus, dass Überbelastungen vermieden werden sollten. Die Art der Krafteinleitung sowie die Verbindung von Implantaten mit der natürlichen Bezahnung haben keinen negativen Einfluss auf die Osseointegration. Rekonstruktionen auf Kuststoffbasis werden als problematisch dargestellt. Bei den Konstruktionsprinzipien wurden die Bereiche des enossalen Teils, die Implantatdimension, die Implantatform, der Durchtritt durch die Weichgewebe und die Position der Implantatoberkante dargestellt. Die Unterschiede in den Konstruktionsprinzipien der dentalen Implantate sind heutzutage gering und sind in der Strukturierung der Oberflächen, der Positionierung der Implantatoberkante und im Durchtritt durch die Weichgewebe zu finden. Die Bedeutung der Weichgewebsmanschette beim Osseointegrationsvorgang wurde hervorgehoben. Die Vorteile von konischen Schraubenimplantaten im Vergleich zu Zylinderimplantaten werden aufgezeigt. Ein wurde ein Überblick über die etablierten Okklusionskonzepte und prothetischen Konzepte gegeben. Eine Abhängigkeit von der Ausgangssituation im natürlichen Restgebiss wurde festgestellt, so dass das Konzept sich nach dieser richten muss. Bei den Systembeispielen wurden sechs Implantattypen dargestellt: das Brånemark-System, das Astra-System, das Ankylos-System, das Frialit 2, das ITI- und das 3i-System. Im 4. Kapitel wurden weitere Einflüsse auf die Osseointegration diskutiert. Dazu gehören die Knochenqualität, die Regenerationsfähigkeit des Knochens, neue OP-Verfahren, "neue" Oberflächen und deren Wirkung auf die zelluläre Umgebung, die fraktionierte Lasteinleitung und die Früh- und Sofortbelastung. Die Beurteilung der Knochensituation, d.h. das Erkennen von Veränderungen, die Evaluation der Knochendichte und die Regenerationsfähigkeit des Knochens wurden als prächirurgische Aspekte besprochen. Neue Op-Verfahren wie die Knochen -kondensation und -verdrängung wurden als Möglichkeit vorgestellt, die eine Implantatversorgung auch in schwierigen anatomischen Verhältnissen erlaubt. Der Einfluss der Implantatoberfläche auf den Knochen-Implantatkontakt, die Verankerungsfestigkeit und die Zellaktivität wurde dargestellt. Bei den Implantatoberflächen ist erkennbar, dass eine Vergrößerung der Gesamtoberfläche durch Mikro und -Makrostruktur angestrebt wird. Eine optimale Primärstabilität durch einen besseren Verzahnungseffekt wird dadurch möglich. Die Prinzipien der fraktionierten Lasteinleitung und des progressive bone loadings, sowie die Früh- und Sofortbelastung wurden vorgestellt. Eine Verkürzung der Einheilphase und somit eine Frühbelastung ist unter optimierten Bedingungen möglich. Ein sich anschließendes Knochentraining verbessert die vorgefundene Knochensituation und somit die Prognose der Implantattherapie. Zusammenfassend lässt sich feststellen, dass eine Osseointegration unter Einhaltung von standardisierten Operationsbedingungen mit jedem der hier vorgestellten Implantattypen erzielbar ist. Beim Erhalt der Osseointegration spielen die Unterschiede bei den Implantattypen und die Belastung über die prothetische Versorgung eine wichtige Rolle.
Lipophile, sedimentgebundene Substanzen sind für endobenthische Tiere in hohem Maße bioverfügbar und können von diesen aufgenommen und angereichert werden. Für benthivore Fische besteht damit das Risiko, diese Chemikalien mit der Nahrung aufzunehmen. Die Aufkonzentrierung sedimentgebundener Chemikalien über zwei oder mehr trophische Ebenen (Biomagnifikation) kann somit durch die Bestimmung der Biokonzentration von Chemikalien in Fischen nach der OECD-Richtlinie 305 (OECD 1996) nicht adäquat erfasst werden. Zur standardisierten Bestimmung der Bioakkumulation und Biomagnifikation wurde eine einfache, zwei trophische Stufen umfassende Labornahrungskette etabliert. Diese bestand aus dem endobenthischen Oligochaeten Tubifex tubifex (MÜLLER) als Beute und dem Dreistachligen Stichling (Gasterosteus aculeatus LINNÉ) als Prädator. Die Experimente wurden mit 14C-markiertem Hexachlorbenzol und Terbutryn in dotiertem künstlichem Sediment und rekonstituiertem Wasser durchgeführt. Um den Einfluss einzelner Expositionspfade an der Gesamtanreicherung der Modellchemikalien zu quantifizieren, wurden die Fische gegenüber dotiertem Wasser bzw. dotiertem Sediment (Biokonzentrationsszenario), vorexponierten Würmern (Biomagnifikationsszenario) und Kombinationen dieser Aufnahmepfade (Bioakkumulationsszenario) exponiert. Sedimentgebundenes HCB wurde im Bioakkumulationsszenario sowohl in den Tubificiden (BAFWurm/Sediment (FG/FG) = 7,8) als auch in den Fischen (AFFisch/Wasser (FG/FG) = 52500; AFFisch/Sediment (FG/FG) = 47; AFFisch/Wurm (FG/FG) = 3,2) deutlich angereichert. Da die Gewebekonzentration von HCB im Räuber, auch auf Basis lipidnormierter Konzentrationen, die Konzentration in seiner Beute überstieg (AFFisch/Wurm (lipidnormiert) = 1,3), kann von einer Aufkonzentrierung der Chemikalie entlang der Labornahrungskette ausgegangen werden (Biomagnifikation). Es konnte gezeigt werden, dass die Exposition gegenüber der Kombination sämtlicher Aufnahmepfade zu deutlich höherer Anreicherung in den Fischen führte als im Falle einzelner Expositionspfade. Ein Vergleich der Ergebnisse der einzelnen Expositionsszenarien erlaubt den Schluss, dass HCB von den Fischen im Bioakkumulationsszenario zu ungefähr gleichen Teilen über das Wasser (45%) und über die Nahrung (41%) aufgenommen wurde, während die Anwesenheit kontaminierten Sediments nur mit 14% zur Gesamtanreicherung beitrug. 14C-Terbutryn wurde im Bioakkumulationsszenario - auf Basis der Gesamtradioaktivität - sowohl in den Tubificiden (AF Wurm/Sediment (FG/FG) = 4,4) als auch in den Fischen (AFFisch/Wasser (FG/FG) = 323; AFFisch/Sediment (FG/FG) = 10; AFFisch/Wurm (FG/FG) = 1,4) angereichert. Allerdings wurde Terbutryn in den Stichlingen zum überwiegenden Teil zu einem polareren Metaboliten transformiert (84%). Daher müssen zur Abschätzung der Anreicherung von Terbutryn die auf den Gehalt an Ursubstanz korrigierten Gewebekonzentrationen und Anreicherungsfaktoren betrachtet werden. Hierbei wird deutlich, dass Terbutryn nicht entlang der Labornahrungskette aufkonzentriert wurde (AFFisch/Wurm = 0,09). Ein Vergleich der Ergebnisse der einzelnen Expositionsszenarien zeigt, dass der Hauptaufnahmepfad von 14C-Terbutryn in Stichlingen das umgebende Wasser ist, während die Anwesenheit kontaminierten Sediments und die Aufnahme über die Nahrung eine untergeordnete Rolle spielen. Da die Messung der Bioakkumulation und Biomagnifikation von sedimentassoziierten Substanzen sehr aufwendig ist, werden zur Abschätzung ihres Risikopotentials vermehrt mathematische Modelle entwickelt und eingesetzt, die eine Chemikalienanreicherung in Nahrungsketten vorhersagen sollen. Im Rahmen der vorliegenden Arbeit wurden die Vorhersagen dreier Modelle mit den experimentell ermittelten Daten verglichen. Hierdurch sollte sowohl die Eignung des entwickelten Testsystems als auch der verwendeten Modelle als nützliche Instrumente des environmental risk assessment überprüft werden. Die Vorhersagen der drei Modelle bei Applikation auf die Daten der Labornahrungskette stimmen gut mit den experimentell bestimmten Konzentrationen von HCB und Terbutryn in den Tubificiden und Fischen überein. Für HCB sagen alle drei Modelle eine Biomagnifikation in der Labornahrungskette vorher. Die Modelle unterschätzen die gemessenen Konzentrationen in den Fischen mit einem Faktor von 1,1 - 1,7 nur geringfügig. Die Konzentration in den Tubificiden wird vom Gobas/Morrison-Modell sehr präzise vorhergesagt (Unterschätzung um Faktor 1,1), während sie im Campfens/Mackay-Modell (Faktor 2,1) und Gobas-Modell (Faktor 6,3) deutlicher unterschätzt wird. Speziell die dem Campfens/Mackay- und Gobas-Modell zugrunde liegenden Annahmen zur Anreicherung in benthischen Organismen erwiesen sich für HCB und Tubificiden als unzureichend zu sein, da die Modelle hierbei nur die Aufnahme aus dem Porenwasser berücksichtigen. Für Terbutryn sind die Modellvorhersagen sehr viel ungenauer als für HCB, da vor allem die starke Metabolisierung von Terbutryn in den Stichlingen unterschätzt wird. Dies resultiert in einer Überschätzung der Terbutryn-Konzentration in den Fischen (Faktor 5,8 - 6,4). Allerdings bleiben zwei Punkte festzuhalten: 1) Die Modelle sagen keine Biomagnifikation von Terbutryn in der Labornahrungskette vorher. 2) Die Modellvorhersagen bestärken die Annahme, dass die Anreicherung von Terbutryn in den Fischen dominiert ist von der Aufnahme aus dem umgebenden Wasser über die respiratorische Oberfläche. Die analysierten Modelle können bei entsprechender Weiterentwicklung als nützliche Instrumente für eine erste Abschätzung des Risikos der Bioakkumulation sedimentgebundener, hoch lipophiler Substanzen in aquatischen Nahrungsketten im Rahmen der Risikoabschätzung (environmental risk assessment) dienen. Zum gegenwärtigen Entwicklungsstand ist die Labornahrungskette jedoch den Modellen vorzuziehen, da sie die konservativeren Daten liefert. Für eine abschließende Beurteilung der vorgestellten Methoden bedarf es allerdings einer Verbreiterung der Datenbasis.
In NE-Burkina Fasos wurden die Boden- und Reliefgenese (Erkundung des oberflächennahen Untergrunds, OSL-Datierungen) und die aktuelle Geomorphodynamik (Beregnungs- und Infiltrationsversuche, Luftbildauswertungen) der sahelischen Altdünenlandschaft und der angrenzenden endorheischen Becken untersucht. Zentrale Fragestellungen sind (1) die Altersstellung des häufig als erg récent bezeichneten Sekundärdünenreliefs auf dem Dünentop der spätpleistozänen Dünenzüge, (2) die jüngere Relief- und Bodenentwicklung vor dem Hintergrund der langen Nutzungsgeschichte (Hirsefeldbau und Viehzucht), und (3) die qualitative und quantitative Erfassung der aktuellen, denudativen und linearerosiven Prozesse, vorwiegend auf den Altdünen, in Abhängigkeit von Substrat, Oberflächenzustand und Nutzung. Die Akkumulation der Sekundärdünen fand während der spätpleistozänen ariden Periode (Ogolien) statt (19,6±1,1 ka und 23,8±1,6 ka v. H). Gleiches gilt für die äolischen Liegendsedimente der Nordabdachungen der Dünenzüge (21,9±2,1 ka und 23,2±2,1 ka v. H.). Unter Einbeziehung früherer Untersuchungen (ALBERT et al. 1997) ergibt sich daraus, dass sowohl die Dünenzüge an sich als auch ihr asymmetrisches Relief im N-S-Profil bereits während des Ogolien angelegt wurden. Die holozäne Landschaftsentwicklung ist durch Bodenbildung in den Altdünen und durch die fluvial-limnische Sedimentation in den endorheischen Becken (Mares) gekennzeichnet. Der häufig in der Literatur genannte aride Einschnitt um 8,2 ka v. H. kann weder absolutchronologisch noch paläopedologisch nachgewiesen werden. Vielmehr deutet die Verbreitung der Cambic bis Luvic-Chromic Arenosols, über dichtem Untergrund auch Gleyic Arenosols auf standörtlich unterschiedliche Bodenbildungsintensitäten und -prozesse in Abhängigkeit von Wasserhaushalt und geomorphodynamischer Beeinflussung hin. Die jüngere Landschaftsgeschichte ist zunehmend durch Landnutzung beeinflusst. Zwar konnte mit OSL-Altern von 4,5±0,2 ka und 4,7±0,8 ka v. H. lokal Sedimentumlagerung im Zusammenhang mit Later Stone Age-Aktivitäten nachgewiesen werden, für anthropogen induzierte Bodenerosion in größerem Umfang fehlen indessen die Hinweise. Der Wandel zur Kulturlandschaft setzte mit der eisenzeitlichen Siedlungsperiode ein. Kennzeichnend für diese, von der Zeitenwende bis zum 15. Jh. dauernden Epoche, ist der Nachweis des verbreiteten Hirseanbaus auf den Altdünen. Degradierte Böden auf den ehemaligen Feldern und mehrschichtige Kolluvien unterhalb, flächenhafte Bodendegradation in der Umgebung der alten Siedlungen sowie zunehmender Sedimenteintrag in die Mares sind die wichtigsten Indizien des 'human impact' dieser Epoche. Der Bezug zwischen der Nutzungsgeschichte und den korrelaten Sedimenten konnte im Einzelfall absolutzeitlich hergestellt werden (1064-979 cal. BP 14C). Aktuelle Bodendegradation findet in der Sahelzone sowohl fluvialerosiv als auch äolisch statt. Die fluvialerosive Bodenerosion überwiegt dabei flächenmäßig - auf den Glacis durch alle Prozesse des flächenhaften bis linearen Abtrags sowie auf den Altdünen überall dort, wo Bodenkrusten Oberflächenabfluss ermöglichen. Die feldbaulich genutzten Altdünenbereiche auf der Südseite der Dünenzüge und entlang der Nordhänge mit ihren pedogenetisch verfestigten Sanden und verkrusteten Oberflächen weisen stark reduzierte Infiltrationsraten auf und produzieren mit runoff-Koeffizienten von 21-94 % verstärkt Oberflächenabfluss. Neben flächenhafter Denudation tritt hier, überwiegend in Verbindung mit Trittbelastung, gehäuft Rinnen- und Gully-Erosion auf. Aufgrund der Verfestigung bieten diese Böden der äolischen Dynamik kaum Angriffsflächen. Einzig die kaum konsolidierten Sekundärdünen auf dem Dünentop sind die Landschaftseinheit mit dominierender Bodenerosion durch äolische Prozesse.
Untersucht wurde die spätpleistozäne und holozäne Diatomeenflora aus drei Teilgebieten der westlichen Ostsee, dem Kattegat, der Kieler Bucht und der Pommerschen Bucht. Die Ergebnisse bestätigen die hervorragende Eignung der Diatomeen als Indikatororganismen in der Paläoökologie. Anhand der Mikroflora war es möglich, die wechselhafte Geschichte der verschiedenen Ostsee-Teilgebiete detailliert nachzuvollziehen. Es konnten Lage und Ausdehnung der Paläogewässer während der verschiedenen Stadien der Ostsee-Entwicklung sowie verschiedene abiotische Faktoren der Paläoumwelt - Salinität, pH-Wert, Trophie, Temperatur und Wassertiefe - rekonstruiert werden. Zur Rekonstruktion von Salinität, Trophie und pH-Wert kamen erstmals verschiedene Indikationssysteme - der Halobienindex nach ZIEMANN (1971), das Trophie-Indikationssystem nach HOFMANN (1994) und die pH-Rekonstruktion nach ARZET (1987) - zur Anwendung. Kattegat Der Schwerpunkt der Untersuchung lag auf dem südwestlich der Insel Anholt gelegenen Teil des Kattegats. In den 22 Kernprofilen konnten insgesamt 596 Diatomeentaxa registriert werden. In den Ablagerungen des Spätglazials waren im gesamten Untersuchungsgebiet keine silifizierten Mikrofossilien nachweisbar. Die anhand der seismoakustischen Untersuchungen aufgestellte Gliederung der holozänen Sedimente in die Abschnitte Holozän 1 (H1), Holozän 2 (H2) und Holozän 3 (H3) konnte durch die Analyse der Diatomeenfloren bestätigt werden. Die Ablagerungen des Sedimentabschnitts H1 entstanden während einer Transgressionsphase. Das in Alleröd und Jüngerer Dryas trockengefallene Untersuchungsgebiet wurde zu Beginn des Präboreals vollständig transgrediert. Durch das Auftreten halobionter Diatomeentaxa konnte der Beginn der Transgression im Untersuchungsgebiet auf den Anfang des Präboreals und ein Alter von 10.200 Jahren BP datiert werden. Für die Hauptphase der Transgression wurde ein Alter von rund 9.700 bis 9.300 Jahren BP ermittelt. In Übereinstimmung mit den seismoakustischen Befunden und den Ergebnissen der Makrofossil-Analyse konnte der Sedimentabschnitt H2 als Ablagerung aus dem Mündungsgebiet eines Fließgewässers identifiziert und auf ein Alter von rund 9.300 bis 8.300 Jahren BP datiert werden; wahrscheinlich entwässerte der Ancylus-See zumindest zeitweilig über den großen Belt in diesen Abschnitt des Paläokattegats. Die Diatomeenflora indiziert eine überwiegend durch den Einstrom von Süßwasser beeinflusste Paläoumwelt und ein alkalisches und eutrophes Milieu. Das charakteristische Merkmal der Thanathozönosen ist der hohe Anteil an allochthonen Schalen. Die Analyse der autökologischen Präferenzen zeigt, dass durchschnittlich 30 % der Taxa ursprünglich aus anderen Gewässertypen stammen. Mithilfe der Diatomeenflora konnte der Sedimentabschnitt H2 in drei Abschnitte untergliedert werden. Der Abschnitt H2a wurde während der Bildung einer Landzunge abgelagert, die die Mündung des Fließgewässers vom Paläokattegat trennte. Die Thanathozönosen indizieren die zunehmende Beeinflussung durch den Einstrom von Süßwasser. Der Abschnitt H2b wurde vor rund 8.800 Jahren BP deponiert, während die Landzunge ihre größte Ausdehnung und Isolationskraft erreichte. Die Diatomeenflora indiziert die maximale Beeinflussung durch den Zustrom von Süßwasser. Im Sedimentabschnitt H2c indizieren die Thanathozönosen die Verlagerung der Landzunge infolge küstendynamischer Prozesse und eine zunehmende Beeinflussung durch Meerwasser. Der Sedimentabschnitt H3, der während einer erneuten Transgression vor ca. 8.300 Jahren BP deponiert wurde, ist in weiten Bereichen vollständig frei von silifizierten Mikrofossilien. Eine autochthone, aus überwiegend halobionten Taxa zusammengesetzte Diatomeenflora ließ sich lediglich in einem der Kernprofile nachweisen. Das charakteristische Taxon der Transgressionsfloren in den Sedimentabschnitten H1 und H3 ist Paralia sulcata. Typisch sind des Weiteren Actinoptychus senarius, Cymatosira belgica, Dimeregramma minor, Ehrenbergia granulosa und Plagiogramma staurophorum. Kieler Bucht Aus der Kieler Bucht stand ein Kernprofil zur Verfügung. In diesem Profil konnten insgesamt 344 Diatomeentaxa nachgewiesen werden. Die brackischen Ablagerungen entstanden in der Mastogloia-Phase und konnten mithilfe der Diatomeenflora in zwei Abschnitte - Mastogloia 1 (M1) und Mastogloia 2 (M2) - untergliedert werden. Der Sedimentabschnitt M1 wurde deponiert, während das Milieu des Paläogewässers durch sporadische Ingressionen über den Großen Belt beeinflusst wurde. Die Diatomeenflora indiziert einen Paläosalzgehalt von maximal 9 Promille, ein eutrophes und alkalisches Paläomilieu und eine geringe Wassertiefe. Die Veränderungen im Artgefüge der Thanathozönosen innerhalb des Sedimentabschnitts M2 belegen einen kontinuierlichen Anstieg der Salinität um mindestens 8 Promille und das Auftreten starker Strömungen. Die Sedimentation erfolgte während des Übergangs vom brackigen Mastogloia-Stadium zur marinen Littorina-Phase. Mithilfe der Diatomeenflora konnte nachgewiesen werden, dass sich in dem Paläogewässer der Kieler Bucht frühestens vor 7.100 Jahren BP marine Verhältnisse etablierten. Die Flora indiziert einen Anstieg des Paläosalzgehalts auf mindestens 17 und maximal 30 Promille. In Übereinstimmung mit den Ergebnissen der Sedimentanalyse konnten die Ablagerungen der Littorina-Phase anhand der Diatomeenflora in zwei Subzonen - Littorina 1 (L1) und Littorina 2 (L2) - untergliedert werden. Während das Artgefüge in dem Abschnitt L1 auf große Strömungsgeschwindigkeiten während der Sedimentation hinweist, belegt die Flora in dem Abschnitt L2 eine deutliche Abnahme der Strömungsintensität. Pommersche Bucht In den neun Kernprofilen aus der Pommerschen Bucht konnten insgesamt 265 Diatomeentaxa identifiziert werden. In Übereinstimmung mit den Ergebnissen der geologischen Untersuchungen zeigt die Diatomeenflora, dass sich der südliche Abschnitt der Pommerschen Bucht nach dem Rückzug des Eisschildes bis in das Atlantikum hinein unabhängig vom nördlichen Teil entwickelte; erst während der Littorina-Phase wurde auch der südliche Abschnitt transgrediert. Mithilfe der Diatomeenflora wurde belegt, dass sich im Spätglazial vor ca. 12.000 Jahren BP im Süden der Pommerschen Bucht ein alkalischer, meso- bis schwach eutropher Süßwassersee etablierte. Die Thanathozönosen indizieren erhebliche Milieuunterschiede zwischen diesem See und dem Baltischen Eisstausee, der zeitweise den nördlichen Abschnitt der Pommerschen Bucht bedeckte. Im frühen Holozän entwickelte sich im südlichen Abschnitt der Pommerschen Bucht an gleicher Position wie im Spätglazial wiederum ein Süßwassersee, während der nördliche Abschnitt der Pommerschen Bucht vom Ancylus-See bedeckt war. Die Diatomeenfloren belegen, dass sich die Umweltbedingungen in beiden Paläogewässern ähnelten; sowohl im Norden als auch im Süden lag ein alkalisches und überwiegend eutrophes Milieu vor. Der Beginn der Mastogloia-Phase ist durch einen drastischen Wechsel im Artgefüge der Diatomeenflora gekennzeichnet; Taxa mit höherer Salinitätstoleranz, z. B. Epithemia turgida und Diploneis didyma, ersetzten die rein oligohalobe Ancylus-Flora. Die Veränderungen indizieren einen schwachen aber deutlichen Anstieg der Salinität im Norden der Pommerschen Bucht. Das charakteristische Taxon der Littorina-Phase ist die polyhalobe Planktonart Thalassionema nitzschioides. Es indiziert einen Anstieg des Paläosalzgehalts auf mindestens 13 Promille. Des Weiteren belegen die Diatomeen den stetig steigenden Wasserspiegel zu Beginn der Littorina-Phase. Chrysophyceen-Zysten, Chaetoceros-Sporen und die Skelette des Silicoflagellaten Distephanus speculum stellen in der Pommerschen Bucht wichtige Leitfossilien dar. Während Chrysophyceen-Zysten typisch für die Sedimente der Mastogloia-Phase sind, haben Chaetoceros-Sporen und Distephanus speculum charakteristischerweise ihren Verbreitungsschwerpunkt in den Ablagerungen des Littorina-Meers.
The mechanism of peptide transport has been studied on two different ABC transporters of S. cerevisiae. Thereby, the aim of this PhD thesis was to characterise the transporter function on molecular level and shed light on the physiological role of these transporters. The ABC gene YLL048 encodes a novel intracellular transporter translocating peptides from the cytosol to the lumen of the ER. Deletion of the gene resulted in loss of peptide transport activity. The transport activity was fully restored after transformation of the deletion mutant by plasmid-encoded YLL048. Studying the substrate specificity using randomized peptide libraries it was demonstrated that peptides of the size from 6 to 56 amino acids are recognized. So far, no upper limit of the substrate size was obtained. Introduction of D-amino acids in various positions of a nonamer peptide did not impair transport activity. The physiological function of YLL048p is not well understood. The gene product is not essential for cell viability as the deletion mutant did not show any growth phenotype. To examine the possibility that YLL048 encoded protein is part of a quality control of yeast cells involved in the unfolded protein response (UPR), upregulation of YLL048 transcription by heat shock and stress conditions were investigated. We could not observe an influence of stress factors on YLL048 mRNA level. Upregulation of gene expression by the transcription factors Pdr1p and Pdr3p was excluded. The ABC transporter Mdl1p has been identified as peptide transporter of the inner mitochondrial membrane. This protein is required for the export of peptides with the size of 6 to 21 amino acids from the matrix into the intermembrane space. These peptides are generated by m-AAA proteases degrading non-assembled or missfolded membrane proteins. In order to understand the transport mechanism in detail, Mdl1p was expressed in S. cerevisiae and E. coli. Partially enriched protein was reconstituted into liposomes and was active in ATP binding. The association of the NBDs has been described as a central step of the ATPase cycle of ABC transporters, but it is still controversial how both motor domains cooperate and coordinate ATP hydrolysis. To address this question, the Mdl1p-NBD was overexpressed in E. coli and purified to homogeneity. The isolated NBD was active in ATP binding and hydrolysis with a turnover of 0.5 ATP per min and a Km value of 0.2 mM. Isolated NBDs did not show cooperativity in ATPase activity. However, the ATPase activity was observed to be non-linearly dependent on protein concentration suggesting the active form of this enzyme is not a monomer. Very importantly, for the first time an ATP-induced dimer was observed after trapping the NBD by ortho-vanadate or BeFx. The nucleotide composition of the trapped intermediate state was determined and two ADP molecules were simultaneously bound per dimer. An ATP-induced dimer of the ATPase inactive mutant (E559Q) was observed already in the absence of ATPase inhibitor. The E599Q dimer contained two ATP molecules in the absence of Mg2+ at 4°C. Prolonged incubation at 30°C in the presence of Mg2+ induced a stable dimer in which one ATP and ADP molecule were trapped at the same time. Based on these experiments, a new cycle for ATPase activity of ABC transporters was proposed. Binding of ATP to two NBD monomers induces dimerization. Both nucleotides are hydrolysed sequentially. During the hydrolysis cycle the nucleotides cannot be released from the dimer. After hydrolysis of two ATP molecules the domains dissociate and start a new cycle.
Die Lösung unbekannter Strukturen aus Pulverbeugungsdaten ist keineswegs eine Routineanwendung, und es steht noch einiges an Arbeit an, um die vorhandenen Methoden so weit zu automatisieren, daß sie von Nichtspezialisten, auch solchen mit kristallographischen Kenntnissen, direkt verwendet werden können. In dieser Arbeit konnte überzeugend dargelegt werden, daß die Anwendung des älteren Verfahrens der Fragmentsuche eine sehr gute Möglichkeit bietet, den Schwierigkeiten der Strukturlösung aus Pulverdaten erfolgreich zu begegnen. Durch graduelle Steigerung des Schwierigkeitsgrads bzw. der Komplexität der Strukturlösung von der anfänglichen Verwendung simulierter Pulverbeugungsdaten bekannter Strukturen über die Messung von Pulverbeugungsdiagrammen bekannter Strukturen bis hin zur Lösung unbekannter Strukturen konnte die sinnvolle Anwendbarkeit des Fragmentsuchprogramms PATSEE zweifelsfrei belegt werden. Die in den einzelnen Stadien der Untersuchungen diskutierten Einflüsse, wie die benötigte minimale Fragmentgröße oder die Fragmentqualität, lieferten entscheidende Hinweise für das Aufstellen einer einfachen Strategie zur Strukturlösung aus Pulverdaten mit PATSEE. So konnte gezeigt werden, daß für einen sinnvollen Strukturlösungsversuch in der Regel mehr als 50% des relativen Streubeitrags aller Atome in der asymmetrischen Einheit benötigt werden und daß sich diese Grenze nur durch die Verwendung qualitativ hochwertiger Pulverbeugungsdaten, wie sie an modernen Synchrotronringen erhalten werden können, durchbrechen läßt. Auch die Variation eines Torsionsfreiheitsgrads im Zuge der Rotationssuche kann entscheidende Vorteile verschaffen, wenn zwei für sich genommen zu kleine starre Bereiche miteinander kombiniert werden. Außerdem konnte die prinzipielle Verwendbarkeit sowohl mittels Kraftfeldmethoden berechneter als auch experimentell bestimmter Fragmente, wie sie in der CSD in großer Zahl bereitstehen, bestätigt werden. Die in PATSEE verwendete Vielzahl an Gütekriterien zur Beurteilung einer Lösung konnte auch im Falle von Pulverdaten im wesentlichen überzeugen. Zwar ist die Diskriminierung zwischen richtigen und falschen Lösungen bei weitem nicht so eindeutig in bezug auf alle Gütekriterien, aber zumindest wird eine sehr gute Bewertung hinsichtlich von CFOM - dem Gütekriterium, nach dem die Lösungen sortiert werden - und den beiden R-Werten RE(1) und RE(2) erreicht. Als etwas problematisch hat sich die Rotationssuche erwiesen, die nur auf der Beurteilung eines einzigen Gütekriteriums beruht. Da aber gerade der Rotationssuche als erstem Schritt der Fragmentsuche eine wichtige Bedeutung zukommt, ist der Anwender zu großer Sorgfalt bei deren Durchführung verpflichtet. Eine Grenze für Strukturlösungsversuche mit PATSEE stellen derzeit Strukturen mit mehreren Molekülen in der asymmetrischen Einheit dar. Da im einfachsten Fall (Z'= 2) bereits ein komplettes Molekül als Suchfragment einen relativen Streubeitrag von unter 50% aufweist, wird eine erfolgreiche Orientierung und Positionierung mit PATSEE nur noch für hervorragende Datensätze möglich sein. Für noch schwierigere Fälle (Z'> 2) oder für Verbindungen, bei denen nicht das gesamte Molekülgerüst als Suchfragment verwendet werden kann, bestehen dann praktisch keine Aussichten mehr auf eine erfolgreiche Strukturlösung mit PATSEE. Basierend auf diesen Ergebnissen, konnten PATSEE-Parameter empfohlen werden, die sowohl für große Fragmente als auch für den Grenzbereich der minimal benötigten Fragmentgröße gute Erfolgsaussichten für die Strukturlösung gewährleisteten. Dabei wichen die empfohlenen Parameter nur in geringem Maße von den für Einkristalldaten optimierten Werten ab. Anhand zweier unbekannter Strukturen konnte die empfohlene Strategie verifiziert werden. Zusätzlich wurde für eine der beiden Strukturen eine Einkristallstrukturbestimmung vorgenommen, welche die aus Pulverdaten gelöste Struktur bestätigte. Auch wenn einerseits die prinzipielle Anwendbarkeit der Fragmentsuche mit PATSEE auf Pulverbeugungsdaten bewiesen werden konnte und andererseits eine allgemeine Strategie zur Vorgehensweise geliefert wurde, sind doch noch nicht alle interessanten Fragestellungen geklärt. Hier sind zum einen die unbefriedigenden Möglichkeiten bei Strukturen mit mehreren Molekülen in der asymmetrischen Einheit zu nennen. Eine sinnvolle Erweiterung der Zahl simultan suchbarer Fragmente in PATSEE könnte diesen Schwachpunkt beheben. Zugleich könnte mit dieser Erweiterung die Anwendbarkeit auf flexiblere Molekülgeometrien ausgedehnt werden, so daß im Endeffekt eine Steigerung der einsetzbaren Fragmentgröße erreicht wird. Diese Erweiterung sollte bei der enormen Rechenleistung moderner Computersysteme kein unüberwindliches Hindernis darstellen, so daß die benötigte Zeit für einen PATSEE-Lauf mit mehreren zu suchenden Fragmenten auf maximal einige wenige Stunden ansteigen würde. Alternativ wäre zu überlegen, ob nicht das Aufheben der strikten Trennung von Rotationssuche und Translationssuche, also eine 6-dimensionale Fragmentsuche, die bisweilen zu beobachtenden Probleme der Rotationssuche beheben würde. Auch bei dieser Änderung der Vorgehensweise in PATSEE könnten moderne Computer sinnvoll eingesetzt werden. Vorteilhaft für die Strukturlösung wäre hier die Kombination der sehr erfolgreichen Diskriminierung der Gütekriterien bei der Translationssuche mit der bisher kritischen Bestimmung der Orientierung. Eine zweite Fragestellung, die im Rahmen dieser Arbeit nicht geklärt werden konnte, betrifft die Anwendbarkeit auf makromolekulare Verbindungen, die über eine große interne Regelmäßigkeit verfügen, wie beispielsweise kleinere Peptide mit alpha-helikaler Struktur oder einer beta-Faltblattstruktur. Verschiedene Testreihen an derartigen Verbindungen belegen die prinzipielle Machbarkeit, und außerdem konnte bereits in mindestens einem ähnlich gelagerten Fall [17] gezeigt werden, daß derartige Strukturlösungsversuche bei sehr großen Verbindungen durchführbar sind. Insbesondere wegen der erheblichen Schwierigkeiten bei der Kristallisation derartiger Verbindungen und dem großen wissenschaftlichen Interesse an ihrer Struktur könnten erfolgversprechende Ansätze zur Strukturlösung aus Pulverdaten einen wichtigen Beitrag in der Pharmazie, der Pharmakologie, der Biologie und nicht zuletzt in der Medizin leisten.
Die vorliegende Vergleichsstudie untersucht 28 schizoaffektive Patienten (ICD F25) gegenüber 38 bipolar-depressiven Patienten (ICD F31) und 43 Patienten einer orthopädisch erkrankten Kontrollgruppe. Die motivierende Fragestellung war, ob sich durch ein standardisiertes Testverfahren wie den Gießen-Test Merkmale eruieren lassen, die für die Selbst-Objekt-Beziehungen schizoaffektiver Patienten charakteristisch sind. Die soziodemografischen Daten wurden anhand eines halbstandardisierten Interviews erfasst. Der Interviewleitfaden gliedert sich in die Bereiche sozialer, beruflicher und familiärer Status, Krankheitsdaten, Fragen zu Kindheit und Familie sowie Fragen zur aktuellen sozialen Situation. Zur Erfassung der depressiven Symptomatik wurden die Patienten mit der Hamilton-Depressions-Skala zur Fremdbeurteilung überprüft. Mittels Gießen-Test wurde neben der Selbstbeurteilung (aktuelles Selbstbild, Idealbild und normatives Bild) auch die individuelle Fremdbeurteilung der primären Bezugspersonen sowie der gegengeschlechtlichen Partner der jeweiligen Patientengruppe untersucht. Fragekomplex 1: Wie sind Selbstbild und Selbstwertigkeit von schizoaffektiven und bipolar-depressiven Patienten beschaffen? Hypothese: Bei schizoaffektiven und bipolar-depressiven Patienten bestehen signifikante Unterschiede zwischen den drei Selbstbildern, wohingegen bei der Kontrollgruppe orthopädischer Patienten seltener von signifikanten Unterschieden ausgegangen wird. Die hier gewonnenen Ergebnisse zum Selbstbild zeigen, dass zwischen den drei Selbstbildern schizoaffektiver und bipolar-depressiver Patienten häufiger signifikante Unterschiede bestehen als bei der Kontrollgruppe. Hiermit konnte die Hypothese zum Fragenkomplex 1 bestätigt werden. Fragenkomplex 2: Welche Beziehung besteht zwischen dem Selbstbild der Patienten und dem Bild, das sie von ihren Eltern haben? Hypothese: Bei schizoaffektiven Patienten und bei bipolar-depressiven Patienten ist die Distanz zwischen Selbstbild und Mutterbild geringer als bei der somatischen Kontrollgruppe. Die Distanz zwischen Selbstbild und Vaterbild schizoaffektiver und bipolar-depressiver Patienten wird größer erwartet als bei der Kontrollgruppe. Ein signifikanter Unterschied zwischen schizoaffektiven und bipolar-depressiven Patienten wird nicht erwartet. Auffällig ergibt sich aus der vorliegenden Untersuchung das signifikant von der Norm abweichende depressive Selbstbild beider Gruppen in Zusammenhang mit einer ebenfalls depressiv erlebten Mutter. Des Weiteren fällt auf, dass sich die Differenz zwischen Selbstbild und Vaterbild einmal wider Erwarten signifikant zwischen Schizoaffektiven und Bipolar-Depressiven unterscheidet. Ansonsten konnten die Hypothesen zum Fragenkomplex 2 bestätigt werden. Fragenkomplex 3: Unterscheiden sich die interpersonellen Beziehungen von Patienten mit schizoaffektiver Psychose von denjenigen mit bipolar-depressiver Psychose? Hypothese: Es wird erwartet, dass in den Partnerschaften schizoaffektiver und bipolar-depressiver Patienten die Tendenz zu komplementären Beziehungsmustern im Vergleich zur Kontrollgruppe überwiegen. Signifikante Unterschiede der Selbst- und Fremdbilder von schizoaffektiven und bipolar-depressiven Patienten werden nicht erwartet. In dieser Studie weisen Partnerschaften schizoaffektiver Patienten eher auf eine Tendenz zu komplementären Beziehungsmustern hin als Partnerschaften bipolar-depressiver Patienten. Sowohl für Schizoaffektive als auch für Bipolar-Depressive findet sich bei der vorliegenden Untersuchung eine weitgehende Übereinstimmung zwischen dem Selbstbild des Patienten und dem Bild, das der Partner vom Patienten hat. Wider Erwarten gab es jedoch wenige signifikante Unterschiede zwischen Selbst- und Fremdbildern von schizoaffektiven und bipolar-depressiven Patienten. Die Hypothese zum Fragenkomplex 3 konnte dennoch zum größten Teil bestätigt werden. Die Antwort auf die Frage, ob sich für schizoaffektive Patienten charakteristische Selbst-Objekt-Beziehungsmuster heraus arbeiten lassen, muss nach der hier durchgeführten Untersuchung zunächst offen bleiben. Angesichts der prognostischen Bedeutung psychosozialer Variablen im Langzeitverlauf schizophrener und affektiver Störungen (vgl. Kröber, 1993) empfiehlt sich die Durchführung einer Mehr-Zeitpunkte-Untersuchung an einer größeren Stichprobe schizoaffektiv Erkrankter.
In der vorliegenden Arbeit wird untersucht, inwieweit sich quantenoptische Zufallsgeneratoren, bei denen die "Welcher-Weg-Entscheidung" einzelner Photonen am Strahlteiler bzw. Faserkoppler zur Zufallsgenerierung verwendet wird, zur Erzeugung von Zufallsbitströmen eignen. Es werden hierbei im wesentlichen vier verschiedene Varianten aufgebaut, die sich durch die eingesetzte Lichtquelle und die Realisierung des optischen Aufbaus unterscheiden, um zu erkennen, welche Detailprobleme sich beim Aufbau solcher Generatoren zeigen. Als Lichtquellen werden eine Einphotonenquelle auf Basis der parametrischen Fluoreszenz und eine Quelle, die stark abgeschwächte, gepulste Poisson-Lichtfelder abstrahlt, eingesetzt. Bei der optischen Realisierung wird jeweils einmal Freistrahl- und einmal Faseroptik für das Zufall generierende Element verwendet. Die Rohdaten-Bitströme der verschiedenen Varianten werden mit Hilfe von statistischen Verfahren untersucht, die für Tests von physikalischen Zufallsgeneratoren geeignet sind. In der Diskussion werden die verschiedenen Testverfahren hinsichtlich ihrer Eignung zum Aufdecken tieferliegender Defekte bewertet. Thermische Einflüsse auf die Rohdaten-Ströme werden dargelegt, Methoden zur Verringerung der Einflüsse angegeben und gezeigt, wie mit Hilfe von mathematischen Regularisierungsverfahren ideale Bitströme aus den Rohdaten erzeugt werden können. Anhand von (mehrstufigen) Autokorrelationskoeffiziententests werden die Auswirkungen von Problemen mit verschiedenen Datenaufnahme-Elektroniken auf die Rohdaten- Ströme analysiert. Die Ursachen der Probleme werden diskutiert, mögliche Lösungen, wie sich die Probleme stark verringern bzw. vermeiden lassen, werden vorgeschlagen und experimentell untersucht. Die Einflüsse der Eigenschaften der verwendeten Photonenquellen im Zusammenspiel mit den verwendeten optischen Komponenten und Detektoren werden analysiert und ihre Auswirkungen auf die Zufallsgenerierung diskutiert. Zur Erhöhung der Ausgangbitrate quantenoptischer Zufallsgeneratoren werden verschiedene Ausführungen von Mehrfachzufallsgeneratoren vorgeschlagen, insbesondere für den quantenoptischen Zufallsgenerator auf Basis der parametrischen Fluoreszenz. Als weitere, interessante Variante eines quantenoptischen Zufallsgenerators wird das theoretische Konzept für den "HOM-Generator" präsentiert, bei dem beide Photonen eines Photonenpaares bei einer gemeinsamen "Welcher-Weg-Entscheidung" zur Zufallsgenerierung verwendet werden. Die vorgeschlagenen Varianten quantenoptischer Zufallsgeneratoren werden hinsichtlich ihrer Eignung für einen praktischen Einsatz diskutiert und bewertet. Für den Dauereinsatz quantenoptischer Zufallsgeneratoren als Komponente in Sicherheitsinfrastrukturen, wie z.B. Trustcentern, werden Optimierungen, Möglichkeiten der Kostenreduzierung und weitere Aufbauvarianten vorgeschlagen. Die Optimierungen werden hinsichtlich ihrer Praxistauglichkeit diskutiert und gewertet. Mögliche Angriffe auf quantenoptische Zufallsgeneratoren werden diskutiert und zur Erkennung von Manipulationen an physikalischen Zufallsgeneratoren werden verschiedene Möglichkeiten vorgestellt, um künstliche Signaturen einzufügen, sie vor Verwendung der Zufallsdaten zu verifizieren und aus dem Zufallsstrom zu entfernen.
Das Thema der vorliegenden Promotion war die Aufklärung von Neutralisationsmechanismen auf Lymphozyten und Makrophagen unterschiedlicher primärer HIV-1-Subtypen im Verlauf der Krankheitsprogression. Ausgangspunkt für die Experimente war die Tatsache, dass humane Seren von HIV-1 infizierten Patienten bereits kurz nach der Serokonversion autologe Virusisolate auf Makrophagen, nicht aber auf Lymphozyten neutralisieren können (Ruppach et al., 2000). Bei Neutralisationsexperimenten mit einem dem V3-loop des gp120 komplementären P1 -Peptids (Subtyp B), sollte der Nachweis von neutralisierenden Antikörpern im Serum erbracht werden. Weiterhin sollte gezeigt werden, inwieweit die Neutralisation auf Makrophagen durch V3-Antikörper begründet ist. Nach erfolgter Neutralisation auf Makrophagen mit und ohne P1-Peptidvorinkubation konnte gezeigt werden, dass es zu keinen Veränderungen im Neutralisationsverhalten durch Vorinkubation mit einem V3-Peptid gekommen war. Daraus ließ sich folgern, dass es nicht die V3-Antikörper sind, die eine Neutralisation auf Makrophagen hervorrufen können. Als nächstes wurde das Neutralisationsverhalten eines frühen lsolates (8 Monate nach der Infektion) und einer späten Folgeprobe (27 Monate nach der Infektion) durch autologes Serum auf Lymphozyten und auf Makrophagen verglichen. Dabei konnte gezeigt werden, dass sowohl Ursprungs- wie auch Folgeisolat auf Makrophagen eine große Neutralisationsaktivität aufweisen, die auf Lymphozyten fehlt. Um besser eingrenzen zu können, welche Antikörper bei Neutralisationsreaktionen auf Makrophagen eine Rolle spielen, wurden Neutralisationsexperimente mit Serumimmunglobulinen eines frühen Isolates durchgeführt. Als Ergebnis konnte festgehalten werden, dass autologe IgG' s auf Makrophagen eine Neutralisationsreaktion herbeiführen können. Weiterhin stellte sich die Frage, ob autologe Immunglobuline in der Lage sind, heterologe Virusisolate zu neutralisieren. Dabei zeigte sich, dass im Test unterschiedlicher Subtypen, es zu einer hohen Kreuzneutralisationsaktivität gekommen war. Zusammenfassend konnte im Verlauf der Promotion erfolgreich dargestellt werden, dass die Serumimmunglobuline für die Neutralisation auf Makrophagen verantwortlich sind und, dass diese heterologe Eigenschaften besitzen.
Die Verwendung von Fettemulsionen mit ausschließlich langkettigen Triglyceriden (LCT) und dadurch hohem Anteil an mehrfach ungesättigten Fettsäuren zur parenteralen Ernährung kann zu Veränderungen in der Fettsäurezusammensetzung von Phospholipiden mit entsprechenden Effekten auf die Metaboliten der Arachidonsäure und der Zellmembranen führen. Die Eliminationsgeschwindigkeit mittelkettiger Triglyceride (MCT) soll nach parenteraler Gabe schneller sein als die von langkettigen Triglyceriden. Nach Infusion gleicher Fettmengen an MCT werden niedrigere Triglyceridwerte gemessen als nach LCT-Gabe. In der vorliegenden Arbeit wurden Elimination und Stoffwechseleffekte verschiedener MCT/LCT-Mischemulsionen im Rahmen einer klinischen Prüfung der Phase 1 untersucht. Dazu wurden stoffwechselgesunden männlichen Probanden zwei neu entwickelte 20%ige Fettemulsionen der Firma Laevosan (Lipidol MCT 1/2 mit 50% und Lipidol MCT 1/3 mit 33% MCT-Anteil) in unterschiedlichen Dosierungen infundiert. Es wurden folgende Versuchsansätze verwendet: 10 g Fett als Bolus in 3 Minuten, eine Kurzinfusion von 50 g Fett in 30 Minuten, eine 12 stündige Dauerinfusion mit 0,1 g Fett/kg KG/h und eine hochdosierte Dauerinfusion über 8 Stunden mit 0,25 g Fett/kg KG/h. Die an Versuchspersonen vorgenommenen Untersuchungen wurden durch tierexperimentelle Leberperfusionen ergänzt. Die Umsatzkapazität für die beiden Fettemulsionen mit Zusatz von MCT lag im gleichen Bereich wie die Umsatzkapazität für vergleichbar zusammengesetzte Fettemulsionen. Die Halbwertszeiten für die Elimination der Triglyceride betrugen 15,1 Minuten für MCT 1/2 20% und 27,9 Minuten für MCT 1/3 20% nach Bolusapplikation von 10 g Fett. Nach Kurzinfusion von 50 g Fett lagen die Eliminationshalbwertszeiten bei 46,2 Minuten für MCT 1/2 20% und bei 54.6 Minuten für MCT 1/3 20%. Unter niedrig dosierter Dauerinfusion (0,1 g Fett/kg KG/h) wurde ein Fließgleichgewicht erreicht. Hingegen erwies sich die höhere Dosierung von 0,25 g Fett/kg KG/h als überdosiert, der stetige Anstieg der Triglyceridkonzentration während der 8stündigen Infusion zeigte an, dass mit dieser Dosierung kein Fließgleichgewicht mehr zu erreichen war. Damit war die Eliminationskapazität für die untersuchten Emulsionen bei dieser Dosierung ebenso wie bei Emulsionen mit reinem LCT-Anteil überschritten. Der Zusatz von MCT hat dementsprechend nicht zu einer Erhöhung der Umsatzkapazität für Fettemulsionen geführt. Der erhebliche Anstieg der Fettsäurekonzentrationen während und nach Applikation der Fettemulsionen ist Ausdruck der raschen Hydrolyse der Triglyceride. Die gaschromatographische Differenzierung der Fettsäurekonzentrationen im Serum ergab, dass der Anstieg der Fettsäuren insbesondere auf das Verhalten der mittelkettigen Fettsäuren zurückzuführen war. Sowohl unter hochdosierter Kurzinfusion von 50 g Fett (= 0,625 g-0,667 g Fett/kg Kg bezogen auf das durchschnittliche Probandengewicht) als auch unter hochdosierter Dauerinfusion von 0,25 g Fett/kg KG/h erfolgte dementsprechend mit beiden Fettemulsionen ein Anstieg der Konzentrationen der freien mittelkettigen Fettsäuren (Capryl- und Caprinsäure) auf außerordentlich hohe Werte, wie sie unter physiologischen Bedingungen kaum jemals gemessen werden (5,2 mmol/l mit MCT 1/3 20% und 5,5 mmol/l mit MCT 1/2 20% nach 50 g Fett, 2,4 mmol/l mit MCT 1/3 20% und 3,6 mmol/l mit MCT 1/2 20% unter 0.25 g Fett/kg KG/h). Von einigen der Probanden wurde deutliche Übelkeit als Nebenwirkung der hochdosierten Fettemulsion angegeben. Erwartungsgemäß kam es mit beiden MCT-haltigen Fettinfusionen neben einem Anstieg der Konzentration der freien Fettsäuren auch zu einer deutlichen Erhöhung der Konzentration der Ketonkörper. Der Anstieg war deutlich höher, wenn der Anteil an MCT erhöht war. Außerdem war der Ketonkörperanstieg vor allem unter den beiden hohen Dosierungen bei Verwendung der Emulsion mit dem höheren Anteil an MCT deutlich stärker ausgeprägt als bei der anderen Emulsion mit dem niedrigeren Anteil an MCT. Es wurden dabei nach Kurzinfusion von 50 g Fett Konzentrationen (berechnet als Gesamtsumme an ß-Hydroxybutyrat und Acetoacetat) von lediglich 7,7 mg/dl mit MCT 1/3 20% im Vergleich zu 11,2 mg/dl mit MCT 1/2 20% erreicht. Unter Gabe von 0,25 g Fett/kg KG/h stieg die Gesamtketonkörperkonzentration mit MCT 1/3 20% auf 8,4 mg/dl während es auch hier mit MCT 1/2 20% zu einem höheren Anstieg auf 12,1 mg/dl kam. Auch in der isoliert perfundierten Rattenleber erfolgte ein rascher Umsatz der in den Fettemulsionen enthaltenen Triglyceride. Dabei kam es zu einer extrem schnellen und vor allem nahezu vollständigen Elimination bevorzugt von mittelkettigen Fettsäuren. Dies führte zu erheblichen Anstiegen des ß-Hydroxybutyrats und Acetoacetats, mit beiden Fettemulsionen bis auf Ketonkörperkonzentrationen um 100 mg/dl. Dies entsprach prozentualen Anstiegen von 645,6-750.5 % für ß-Hydroxybutyrat und von 1099,6-1194,8 % für Acetoacetat. Die Glycerin-Konzentration blieb während der Perfusionen niedrig, dies bedeutete, dass das bei der Hydrolyse der Triglyceride gebildete freie Glycerin in der Leber rasch umgesetzt wurde. Bei einer starken Anflutung von freien mittelkettigen Fettsäuren in der Leberzelle zeigte sich, dass es neben der ß-Oxidation vor allein auch zu einer gesteigerten Lipogenese kam. Die in den geprüften Fettemulsionen enthaltenen MCT wurden ebenso wie langkettige Triglyceride rasch hydrolysiert, wie die hohe Konzentration an mittelkettigen Fettsäuren im Serum aufwies. Die Ursache für die hohe Konzentration der mittelkettigen Fettsäuren könnte sein, dass auch die durch Hydrolyse im peripheren Bereich entstandenen mittelkettigen Fettsäuren vorwiegend über die Leber eliminiert werden. Der Anteil der Leber an der Elimination und am Metabolismus der mittelkettigen Fettsäuren ist aus dem Anstieg der Ketonkörper zu erkennen. Diese Beziehung ist bei der Wertung der im Experiment mit der isoliert perfundierten Rattenleber erhobenen Ergebnisse besonders gut zu erkennen. Es konnten keine Anhaltspunkte dafür gefunden werden, dass die Ergänzung von Sojaöl durch MCT in Fettemulsionen zu einer Steigerung des Umsatzes der infundierten Triglyceride führt. Zu beachten wären allerdings die hohen Konzentrationen vor allem an freien mittelkettigen Fettsäuren, die während der Infusion von MCT-haltigen Emulsionen zu messen sind. Da für diese Messung Spezialmethoden erforderlich sind, sind derartige Bestimmungen bei Routineanwendung allerdings nicht möglich.
In der vorliegenden Untersuchung wurden an 35 gynäkologischen Patientinnen die Unterschiede zwischen Desfluran und Isofluran auf das EEG-Frequenzverhalten, die SEF 95% und die somatosensorisch evozierten Potentiales des N. medianus untersucht. Dabei wurden die Einflüsse steigender Narkosegaskonzentrationen und nocizeptiver Reize sowie die Veränderungen in der Aufwachphase auf die oben genannten Parameter verglichen. Die Untersuchung wurde als prospektive und randomisierte Studie durchgeführt. Es konnte der Nachweis geführt werden, dass es keinen Anhalt für Unterschiede in der Beeinflussung der EEG-Parameter Powerspektrum und SEF 95%, sowie der somatosensorisch evozierten Potentiale zwischen Desfluran und Isofluran gibt. Dies gilt für equipotente Narkosegaskonzentrationen ebenso wie für die Unterdrückung nocizeptiver Reize. Anders stellt sich das Bild in der Aufwachphase dar. Dort führt die langsamere Eliminierung des Isofluran zu einer Aktivierung im EEG mit einer starken Ausprägung der beta-Wellen. Einen Einfluss auf klinische Befunde wie Vigilanz, Schmerzempfindung oder Entlassung aus dem Aufwachraum durch diese EEG-Veränderungen ließ sich bei den von uns untersuchten Patienten nicht nachweisen, jedoch konnte in anderen Studien eine Verbesserung der Wiederkehr kognitiver Funktionen besonders bei älteren Patienten nach Desflurannarkosen im Vergleich zu Isoflurannarkosen beobachtet werden [35]. Diese Beobachtung lässt sich durch die Veränderungen in der EEG-Frequenzanalyse mit einem Frequenzmuster wie unter Sedierung erklären.
For palaeotropical regions, only a few anecdotal reports had been published on the existence of 'ant-gardens' before this study started. As opposed to this, 'ant-house epiphytes' (i.e. domatiabearing epiphytes) were reported to be highly abundant in Southeast Asia and were presumed to be a second type of ant-epiphyte interaction. In the much better studied neotropical regions the situation seemed to be the reverse: Many reports on AGs in contrast to very few reports on anthouse epiphytes. In this study, I have presented extensive data which may help towards a better understanding of the 'Southeast Asian part' of this 'ant-epiphyte puzzle'. In Peninsular Malaysia, Borneo, Java, and Southern Thailand, a great variety of formerly unknown AG systems were discovered. 18 ant species (from 5 genera, 4 subfamilies) were identified as true AG ants, i.e. these ants actively retrieved seeds of certain epiphyte species into their carton nests. Another 49 ant species inhabited AGs as secondary, opportunistic settlers. On the epiphyte side, 84 plant species were found growing on AGs, 51 (19 genera, 12 families) of which were probably true AG epiphytes, i.e. ants retrieved the seeds to their arboreal carton nests, on which the epiphytes were then cultivated. Most of the epiphyte flora of lowland forests in Peninsular Malaysia (except for ferns, orchids and facultative epiphytes) seemed to be totally dependent on ants for their establishment in the canopy. Together with the high number of opportunistic AG inhabitants (ants, epiphytes, and many arthropod guests), these facts suggest that AGs function as pioneers in the canopy of Southeast Asian rain forests. Moreover, AG-associations might even have accounted for the unusual species richness in the epiphyte genera Dischidia, Hoya (Asclepiadaceae), Myrmecodia, and Hydnophytum (Rubiaceae). The definition of the term ant-garden only describes the basic interactions. In the ant-garden associations investigated in this study, interactions going beyond these basic ones varied depending on ant and epiphyte species. Ant-gardens initiated by Diacamma spKfmA111 were regarded as the 'most primitive' type, because this ponerine was totally dependent on preformed cavities for nest establishment, did not tend any trophobionts, and was the least selective in its seed-retrieving behavior. On the other end of the scale, Crematogaster spKfmA18 and Camponotus spKfmA9 were rated as 'most advanced' because both lived in free (i.e. cavityindependent) AGs, tended trophobionts underneath their nests, were associated with a couple of other organisms, and were highly selective in their seed-retrieving behavior. Moreover, Camponotus spKfmA9 occurred preferentially with one single epiphyte species, Hoya elliptica (Asclepiadaceae), and Crematogaster spKfmA18 was specialized on some species of giant bamboo as phorophyte. Philidris spKfmA160, which occupied a medium position in relation to the other AGs was particularly interesting for several reasons. This ant species was mainly associated with ant- house epiphytes and occurred in the heath forests of Borneo. However, the major part of the colonies, including the queen, was located underneath carton structures near the surface of the host tree and not inside the domatia of the associated plants. Moreover, very young Philidris spKfmA160 colonies had only small seedlings growing on their carton nests. The ant workers actively retrieved the seeds of their epiphyte partners into the nests. These results indicate that associations with ant-house epiphytes must be regarded as a special case of ant-gardens. I therefore suggest using the term 'ant-house' only to describe the epiphytes, but not to describe the association, and to include this type of association in the group of AGs. Strict species-specificity never occurred, but some epiphytes showed great preference for growing on the nests of certain ant species, while others occurred over a wider range. Vice versa, most ant species had several epiphytes growing on their nests, while others were mostly found with one or very few epiphyte species. These patterns were shown to be the effect of different factors, including common microclimatic preferences of ants and epiphytes, interspecific competition of epiphytes, and selective seed retrieval of AG ants. The main behavioral trait responsible for the establishment of AGs was the selectivity shown by the ants in the epiphyte seeds they carried. However, details of the mechanisms, i.e. what characteristics of the seeds are important and what motivates the ants to retrieve them, varied widely. In many cases, seed compounds located on the surface triggered carrying behavior. Detailed experimental investigations combined with literature data from the two other known 'myrmecochory systems', terricolous myrmecochores and neotropical AGs, suggested that myrmecochory is frequently triggered by a two-stage system. One relatively unspecific compound (or a combination of such compounds) constitutes the basic attractiveness for a number of ant species. Other seed characteristics (elaiosomes, mechanical properties, other surface-compounds) modulate this basic signal, accounting for species-specific preferences of ants towards certain plant species. A comparison of AGs in Southeast Asia and the neotropics shows that the numbers of AG ant and epiphyte species in each case are almost equal. Southeast Asian AG epiphytes might even turn out to outnumber the neotropical ones. Thus, not only was it possible to break down the distinction between ant-house and AG associations, but also to show that AGs in Southeast Asia are present in such high diversity and abundance as to diminish the apparent contrast between the two biogeographical regions yet further. These data help to solve at least the Southeast Asian part of the 'ant-epiphyte puzzle'.
In der vorliegenden Arbeit sollten die in unserer Arbeitsgruppe identifizierten Splice- Varianten des murinen ARVCF (mARVCF) cloniert und charakterisiert werden. Es wurde gezeigt, daß alle 8 putativen Isoformen im gleichen Maße mit den Zelladhäsions-Molekülen M-, E- und N-Cadherin interagieren können und mit diesen an der Plasmamembran bzw. den Zell-Zellkontakten colocalisieren. Dabei nimmt N-Cadherin eine Sonderstellung ein. Zum einen ist die Interaktion mit endogenem N-Cadherin abhängig vom Zellkontext und zum anderen konnte mit Hilfe des MOM recruitment assays gezeigt werden, daß, im Gegensatz zu MOM-M- und MOM-E-Cadherin, eine Assoziation von mARVCF und MOM-N-Cadherin nicht in jeder Zelle stattfindet. Eine mögliche Konkurrenz von mARVCF mit dem nahe verwandten armadillo repeat Protein p120(ctn) um die Bindestelle in N-Cadherin konnte dabei als Ursache ausgeschlossen werden. Als nächstes wurde im Rahmen dieser Arbeit gezeigt, daß mARVCF eine duale Lokalisation an der Plasmamembran und im Zellkern aufweist. Dabei unterliegt mARVCF einem effektiven Exportmechanismus. Dieser Export kann durch Leptomycin B inhibiert werden, scheint somit also CRM1/exportin1-vermittelt zu sein und wird offenbar durch zwei verschiedene NES (nuclear export signal)-Sequenzen in mARVCF reguliert. Das in der p120(ctn) Subfamilie (zu der auch mARVCF gehört) konservierte NLS (nuclear localisation signal) konnte als für den Protein-Import unwirksam charakterisiert werden. Weiterhin wurde das LIM-only Protein FHL2 als neuer Interaktionspartner von mARVCF identifiziert. Dabei wirkt mARVCF als Mediator zwischen dem Cadherin- Catenin Komplex an der Plasmamembran und dem Interaktionspartner der Integrine FHL2. mARVCF ist in der Lage, FHL2 aus den Fokalkontakten zum Cadherin- Catenin Komplex an der Membran zu translozieren und in den Komplex einzubinden.
Die Physik beschäftigt sich seit jeher mit der Frage nach dem Aufbau und der Struktur der Materie. Die Antworten änderten sich im Laufe der Zeit, der gegenwärtige Stand der Erkenntnis ist im sogenannten Standardmodell zusammengefasst. Dort werden die Elementarteilchen in Leptonen und Quarks unterteilt, die Wechselwirkungen zwischen ihnen beschreibt man durch vier fundamentale Kräfte: die Gravitation, die elektromagnetischen Kraft, die schwache und die starke Kernkraft. Gemäß dem Standardmodell sind Nukleonen, also Protonen und Neutronen, aus Quarks aufgebaut. Das Proton ist beispielsweise ein gebundener Zustand aus zwei up und einem down Quark. Die Nukelonen bilden ihrerseits die Atomkerne, welche die Systematik der Elemente bestimmen. Quarks treten in sechs verschiedenen Arten (flavours) auf: up, down, strange, charm, bottom und top. Freie Quarks konnten bislang nicht nachgewiesen werden, sie werden nur als Quark-Antiquark Paar (Meson) oder als Kombination aus drei Quarks (Baryon) beobachtet. Mesonen und Baryonen werden unter dem Begriff Hadronen zusammengefaßt. Die starke Kernkraft beruht letztlich auf der Wechselwirkung zwischen Quarks, diese wird durch die Quantenchromodynamik (QCD) beschrieben. Ähnlich der Glashow- Salam-Weinberg Theorie (GSW), die die elektromagnetische und die schwache Kernkraft beschreibt, ist die Quantenchromodynamik durch Austauschteilchen charakterisiert. Im Fall der GSW wurden die Photonen bzw. W± oder Z-Teilchen als Austauschteilchen identifiziert, in der QCD fungieren Gluonen als Austauschteilchen. Photonen vermitteln die elektromagnetische Kraft zwischen allen Teilchen, die elektrische Ladung tragen. Analog wirkt die Kraft, die durch den Austausch von Gluonen beschrieben wird, zwischen Teilchen, die eine Farbladung tragen. Anders als das neutrale Photon trägt das Gluon selbst Farbe und wechselwirkt daher mit anderen Teilchen, die Farbe tragen. Dieser Umstand zeigt bereits, dass in der QCD ganz andere Phänomene zu erwarten sind als in der GSW. Die Tatsache, dass Quarks nur in gebundenen Zuständen vorliegen, erschwert die direkte Beobachtung der Wechselwirkung zwischen ihnen. Ein indirekter Weg, um die Wirkungweise diese Kraft zu untersuchen, liegt in der Erzeugung hoher Kernmateriedichten und hoher Kerntemperaturen. Die Idee besteht darin, das Phasendiagramm von Kernmaterie experimentell zu bestimmen (Abbildung 1.3) und dann auf die zugrundeliegende Kraft zu schließen. Unter anderem führen die Kräfte, die zwischen den Einzelteilchen des Mediums herrschen, zu charakteristischen Phasenübergängen. Im Fall der Kernmaterie hofft man insbesondere, den Übergang von gebundenen Zuständen in eine Quark-Gluon-Plasma Phase (QGP), in der sich Quarks und Gluonen frei bewegen, zu beobachten. Zwei prominente Beispiele demonstrieren, warum die Eigenschaften dieses Materiezustandes - und ob er überhaupt existiert - auch für andere Teilgebiete der Physik von großem Interesse sind. Zum einen geht man davon aus, dass in der Frühphase des Universums, 10-12 s nach dem Urknall, die Energiedichte so hoch war, dass die Materie in einem Plasmazustand vorlag. In diesem Bild führt die Expansion des Raumes zu einer Abkühlung des Plasmas und schließlich zum Ausfrieren in Hadronen. Zum anderen zeigen viele Modellstudien, dass im Innern von Neutronensternen mit extremen Dichten zu rechnen ist. Unter Umständen werden Energiedichten erreicht, die hoch genung sind, um einen Phasenübergang in ein Quark Gluon Plasma zu erzwingen. Die Beschreibung dieser astronomischen Objekte setzt somit auch die Kenntnis der Kräfte zwischen den Quarks voraus. Der einzige Weg, dichte Kernmaterie im Labor zu erzeugen, stellen Schwerionenreaktionen dar. Wenn zwei ultrarelativistische schwere Kerne zentral kollidieren, entsteht für kurze Zeit eine Region hoher Energiedichte (Abbildung 1.1). QCD-Gitter-Rechnungen deuten darauf hin, dass die Dichte, die man in Schwerionreaktion gegenwärtig erreicht, hoch genung ist, um einen Übergang der Kernmaterie in eine Plasma-Phase zu erzwingen. Aufgrund des hohen Drucks expandiert die verdichtete, heiße Kernmaterie in longitudinaler (entlang des Strahls) und transversaler (senkrecht zum Strahl) Richtung und die Dichte nimmt ab. Vorausgesetzt am Anfang der Reaktion wurde ein Quark-Gluon-Plasma erzeugt, dann friert diese Phase in Hadronen aus (chemisches Ausfrieren), wenn Dichte und Temperatur einen kritischen Wert unterschreiten. Die erzeugten Hadronen wechselwirken zunächst noch elastisch miteinander, d.h. die Impulse der Teilchen ändern sich, die Identität der Teilchen bleibt jedoch erhalten. Schließlich enden auch diese Wechselwirkungen (thermisches Ausfrieren), und die Teilchen verlassen die Reaktionszone (Abbildung 1.4). Der Ablauf einer solchen Schwerionenreaktion dauert einige 10-23s und ihre räumliche Ausdehnung liegt in der Größenordnung von 10-15m, damit ist die Reaktion selbst nicht beobachtbar. Nur der Endzustand, also die Identitäten und Impluse der emittierten Teilchen, kann bestimmt werden. Um den Ablauf der Reaktion zu rekonstruieren, ist man daher auf Modellrechnungen angewiesen. Aufgrund dieser Modellrechnungen wurden einige Observablen vorgeschlagen, die einen Phasenübergang kennzeichnen. Neben anderen Signaturen führt ein Phasenübergang wahrscheinlich zu einer verlängerten Emissionsdauer. Dieser Effekt kann möglicherweise durch die Analyse von Zwei-Teilchen-Korrelationen sichtbar gemacht werden. Ganz allgemein stellt die Untersuchung von Teilchenkorrelationen die einzige Möglichkeit dar, die raum-zeitlichen Strukturen während des thermischen Ausfrierens experimentell zu bestimmen. Korrelationen zwischen Teilchen, die von einer hinreichend kleinen Quelle emittiert werden, haben verschiedene Ursachen. Betrachtet man beispielsweise die Häufigkeitsverteilung der Impulsdifferenz zwischen zwei elektrisch gleich geladenen Teilchen, so stellt man fest, dass Paare mit geringer Impulsdifferenz weniger häufig vorkommen, als man anhand der Ein-Teilchen Impulsverteilung vorhersagen würde. Dieser Effekt ist auf die Abstoßung zwischen zwei elektrisch gleich geladenen Teilchen zurückzuführen, die mit kleiner Impulsdifferenz emittiert wurden. Eine weniger offensichtliche Korrelation wird durch den Quantencharakter identischer Teilchen verursacht. Zwei identische Bosonen, die im Phasenraum nahe beieinander liegen, können gemäß den Prinzipien der Quantentheorie nicht unterschieden werden. Die Wellenfunktion, die diesen Zwei-Teilchen-Zustand beschreibt, muß beim Vertauschen der Teilchen erhalten bleiben. Diese Forderung führt zu einem Interferenzterm in der Zwei-Teilchen Intensitätsverteilung. Diese Verteilung ist proportional zur Wahrscheinlichkeit, ein Teilchenpaar mit der Impulsdifferenz q zu messen. Berechnet man die Impulsdifferenzverteilung von Pionenpaaren und berücksichtig nur quanten- statistische Effekte, so findet man, dass Paare mit geringem Impulsunterschied bis zu zweimal häufiger vorkommen, als man aufgrund einfacher statistischer Überlegungen erwarten würde. Um diesen Effekt experimentell sichtbar zu machen, konstruiert man die Korrelationsfunktion, die die gemessene Impulsdifferenzverteilung in Relation zu einer Untergrundverteilung setzt. Experimentell gewinnt man diese Referenzverteilung, indem Paare aus Spuren aus verschiedenen Ereignissen gebildet werden. Die Referenzverteilung entspricht damit der Verteilung, die man messen würde, wenn die Teilchen nicht der Quantenstatistik unterlägen. Die Korrelationsfunktion wird im allgemeinen durch eine Gauß-Funktion angenähert. Das Inverse der Standardabweichung dieser Funktion wird nach den Pionieren der Intensitätsinterferometrie R. Hanbury Brown und R. Twiss als HBT-Radius bezeichnet. Teilchen interferieren nur dann, wenn sie im Phasenraum nahe beieinander liegen, das heißt sowohl die Impulsdifferenz als auch der räumliche Abstand muß hinreichend klein sein. Diese Bedingung kann genutzt werden, um von der gemessenen Korrelationsfunktion, die nur auf den Impulskomponenten basiert, auf die räumliche Verteilung der Teilchenproduktion zu schließen. Eine detaillierte Betrachtung erlaubt sogar, aufgrund der gemessenen Korrelationsfunktion quantitative Aussagen über die räumlichen Aspekte der Teilchenquelle zu machen. Beispielsweise können im Rahmen eines Modells die Stärke der transversalen Expansion oder die Emissionsdauer in Relation zu den HBT-Radien gesetzt werden. In Kapitel 2 sind die Grundlagen der Teilcheninterferometrie ausführlicher dargestellt. Der eigentliche Gegenstand dieser Arbeit ist experimentelle Analyse der Zwei- Teilchen-Korrelationen in einer Schwerionenreaktion. Dazu wird zunächst in Kapitel 3 das STAR Experiment am RHIC vorgestellt, in dem die Daten aufgezeichnet wurden, die Grundlage dieser Analyse sind. Am RHIC-Beschleuniger am BNL in den USA werden AuAu Kollisionen bis zu einer Schwerpunktsenergie von Wurzel aus SNN=200 GeV erzeugt. Figur 3.1 zeigt den Beschleuniger-Ring und die vier Experimente Brahms, Phenix, Phobos und STAR. Der hier analysierte Datensatz wurde bei der Datennahme im Jahr 2000 aufgezeichnet. Zu dieser Zeit wurde am RHIC eine Schwerpunktsenergie von Wurzel aus SNN=130 GeV erreicht. Bei einer zentralen AuAu Kollision werden mehrere Tausend Teilchen produziert. Der STAR Detektor ist dafür konzipiert, hadronische Teilchen kleiner Rapidität (d.h. großer Winkel zur Strahlachse) zu messen, innerhalb der Akzeptanz werden etwa 80% der produzierten geladenen Teilchen nachgewiesen. Der schematische Aufbau des STAR Detektorsystems ist in Figur 3.2 dargestellt. Der zentrale Detektor ist eine TPC (Zeit-Projektions-Kammer). Dieser Detektor basiert darauf, dass geladene Teilchen beim Durchgang durch ein Messgas eine Spur von Ionen hinterlassen. Ein starkes elektrisches Feld driftet die Elektronen, die bei den Ionisationsprozessen freigesetzt wurden, zu einer Ausleseebene. Der Punkt, an dem die Elektronen auf der Ausleseebene ein Signal erzeugen, entspricht der Projektion des Ionisationpunktes auf die Ausleseebene. Die dritte Komponente, die den Raumpunkt der Ionisation festlegt, ist durch die Driftzeit bei bekannter Driftgeschwindigkeit gegeben. So erscheint eine Teilchenspur als eine Kette von Ionisationspunkten im Detektorgas. Ein magnetisches Feld parallel zur Strahlachse führt zu einer Ablenkung der geladenen Teilchen. Die Krümmung der Spur ist dabei umgekehrt proportional zum transversalen Impuls. Abbildung 3.6 zeigt ein typisches Ereignis mit etwa 105 Ionisationspunkten und den entsprechenden Teilchenspuren. Der spezifische Energieverlust eines Teilchens beim Durchgang durch das Messgas hängt von seinem Impuls und seiner Masse ab. Die Stärke des auf der Ausleseebene induzierten Signals erlaubt den spezifischen Energieverlust zu bestimmen. Da der Impuls durch die Krümmung der Spur bekannt ist, kann so die Masse und damit die Identität des Teilchens bestimmt werden (siehe Abbildung 3.7). In Kapitel 4 wird der Datensatz beschrieben, der als Grundlage für diese Analyse dient. Während der Datennahme werden die digitalisierten Daten der TPC auf ein Speichermedium geschrieben. Der erste Schritt bei der Rekonstruktion der Ereignisse besteht darin, die Ionisationspunkte zu lokalisieren. Dies leistet der Clusterfinder- Algorithmus, der in Kapitel 4.1.1 beschrieben ist. Die Spurpunkte werden dann durch den Tracking-Algorithmus zu Teilchenspuren verbunden. Die erreichte Effizienz, Akzeptanz und Impulsauflösung der Rekonstruktion sind in Kapitel 4.1.2 zusammengefaßt. Die Zwei-Teilchen-Korrelationen werden nur für zentrale Kollisionen betrachtet, das sind Ereignisse mit kleinem Stoßparameter. Die Multipliztät der gemessenen Spuren ist in erster Näherung ein Maß für die Zentralität des Ereignisses. Für diese Analyse werden nur die 12% zentralsten Ereignisse zugelassen. Die Selektion der Ereignisse ist in Kapitel 4.2 beschrieben. Die Auswahl der Spuren, die in der Analyse verwendet werden, ist in Kapitel 4.3 beschrieben. Es werden nur Spuren zugelassen, deren Impulse in einem Bereich hinreichend hoher Akzeptanz und Effizienz liegen. Außerdem werden die Spuren ausgewählt, die mit hoher Wahrscheinlichkeit von Pionen stammen. Eine weitere Auswahl wird auf der Paarebene getroffen. Die Korrelationsfunktion wird in einzelnen Intervallen transversalen Paarimpulses kt und Paarrapidität Yðð gebildet. Damit kann die Abhängigkeit der HBT-Radien von diesen Größen dargestellt werden. Zwei weitere Auswahlkriterien sollen die Qualität der Spurpaare garantieren. Zum einen werden solche Paare verworfen, die im Detektor zu nahe beieinander liegen. Für die HBT-Analyse sind Paare mit geringem Impulsunterschied entscheidend, ein geringer Impulsunterschied heißt notwendigerweise, dass die Spuren räumlich nicht sehr weit getrennt sind. Wenn die Spuren aber zu nahe liegen, können sie vom Detektor und von der Rekonstruktionskette nicht mehr aufgelöst werden. Damit verliert man einen Teil der Paare in der Signalverteilung, nicht aber in der Untergrundverteilung, da in diesem Fall die endliche Zwei-Spur-Auflösung keine Rolle spielt. Um die Korrelationsfunktion nicht durch einen Detektoreffekt zu verfälschen, entfernt man die Paare, die im Detektor nahe beieinander liegen, sowohl in der Signal- als auch in der Untergrundverteilung. Ein weiteres Problem stellen "gebrochene" Spuren dar. In einigen Fällen wird eine Teilchenspur von der Rekonstruktionskette nicht als Ganzes erkannt, vielmehr werden zwei Spurstücke im Dektor gefunden. Da diese Spurstücke vom selben Teilchen stammen, haben sie eine sehr geringe Impulsdifferenz. Diese Paare können anhand ihrer Topologie im Detekor erkannt werden. Wie im Fall der begrenzten Zwei-Spur-Auflösung werden sie sowohl für die Signal- als auch für die Untergrundverteilung nicht zugelassen. In Kapitel 5 werden schließlich die Ergebnisse der Korrelationsanalyse dargestellt. Die Korrelationsfunktion wird in verschiedenen Parametrisierungen betrachtet. In der einfachsten Form betrachtet man nur den Betrag des Impulsdifferenzvektors. Dieser Ansatz bedeutet aber, dass der entsprechende HBT-Radius alle Raum-Zeit Komponenten mischt und damit nur wenig Aussagekraft bezüglich der Quellfunktion besitzt. Eine differenzierte Analyse in drei unabhängigen Komponenten ermöglichen die Pratt-Bertsch (PB) und die Yano-Koonin-Podgoretskii (YKP) Parametrisierung. Die beiden Parametrisierungen unterscheiden sich in der Zerlegung des Impulsdifferenzvektors in drei unabhängige Komponenten. Im ersten Fall bezeichnet man die Komponenten als qout, qlong und qside, im zweiten Fall als qpara, qperp und q0 (Kapitel 2.7 und 2.8). Die entsprechenden Korrelationsfunktionen sind in Gleichung 2.31 bzw. 2.34 gegeben. Die jeweiligen HBT-Radien Rout, Rlong und Rside bzw. Rpara, Rperp und R0 können in Relation zu den Parametern der Quellfunktion (Gleichung 2.43) gesetzt werden. Die beiden Parametrisierungen liefern im Prinzip die gleiche Information und die beiden Sätze von HBT-Radien können in Beziehung zueinander gesetzt werden (Gleichung 2.41). Beispielsweise entspricht der HBT-Radius R0 in der YKP-Parametrisierung in erster Näherung der Emissionsdauer, während in der PB- Parametrisierung diese Größe Verhältnis von Rout zu Rside abhängt. Zusätzlich zu den Radien enthält die YKP-Parametrisierung einen Parameter ß, der erlaubt, die longitudinale Geschwindigkeit des betrachteten Quellelementes zu bestimmen. Die Abbildungen 5.7 bis 5.10 zeigen die HBT-Radien beider Parametrisierungen in Abhänigigkeit vom transversalen Paarimpuls kt und von der Paarrapidität Yðð. Die Größe der gemessenen Radien bewegt sich zwischen 3 und 7 fm. Nur der Radius R0 verschwindet in den meisten kt-Yðð Intervallen. Die anderen Radien nehmen mit steigendem kt ab und sind unabhängig von Yðð . Abbildung 5.11 demonstriert, dass die beiden Parametrisierungen -dort wo sie vergleichbar sind- konsistente Ergebnisse liefern. Eine Diskussion der Ergebnisse schließt sich in Kapitel 6 an. Die Abhänigigkeit des Parameters ß von Yðð zeigt eine starke longitudinale Expansion an. Ein ähnliches Verhalten wurde bei niedrigeren Schwerpunktsenergien beobachtet, wo man allerdings eine schwächere longitudinale Expansion erwarten würde. Die Lebensdauer der Quelle, also die Zeit vom anfänglichen Überlapp der Kerne bis zum thermischen Ausfrieren, bestimmt die kt-Abhänigigkeit des Parameters Rlong. Dieser Zusammenhang wurde von Mahklin und Sinyukow formuliert, eine Anpassung der entsprechenden Funktion an die gemessene kt Abhänigigkeit von Rlong ergibt eine Lebensdauer von etwa 8 fm/c bei einer Ausfriertemperatur von etwa 126 MeV. Entsprechende Messungen bei niedrigeren Kollisionsenergien lieferten ähnliche Resultate. Die kt-Abhängigkeit des Parameters Rside ist mit der Stärke der transversalen Expansion gemäß Gleichung 6.3 verknüpft. Da die Relation nicht eindeutig ist, muß entweder eine feste Ausfriertemperatur angenommen werden oder es werden gleichzeitig Einteilchenspektren betrachtet, um die Mehrdeutigkeit zu eliminieren. Eine vorläufige Abschätzung ergibt eine mittlere transversale Expansions- geschwindigkteit von v ungefähr gleich 0.6 und einen gemetrischen Radius von RG ungefähr gleich 7.4 fm . Auch diese Ergebnisse sind vergleichbar mit entsprechenden Resultaten bei niedrigeren Kollisionsenergien. Ein weiterer Parameter der Quellfunktion ist die Emissionsdauer. Die Pionen werden nicht zu einem festen Zeitpunkt emittiert, man geht vielmehr davon aus, dass die Zeitpunkte der letzten elastischen Wechselwirkung in der Quelle gaußförmig verteilt sind. Den Mittelwert dieser Verteilung bezeichnet man als Lebensdauer der Quelle, die Breite als Emissionsdauer. Entsprechend Gleichung 6.4 bzw. 6.5 ist die Emissionsdauer mit dem Radius R0 bzw. dem Verhältnis Rout zu Rside verbunden. Wie in Abbildung 5.8 ersichtlich verschwindet der Parameter R0 , außer im kleinsten kt Intervall. Dies entspricht in der PB-Parametrisierung der Tatsache, dass das Verhältnis Rout zu Rside bei hohen kt kleiner als eins ist. Diese Resultate sind nicht vereinbar mit herkömmlichen Modellen. Insbesondere weil eine verlängerte Emissionsdauer als Signatur für die Bildung eines Quark-Gluon-Plasmas vorgeschlagen wurde, wird dieses Ergebnis derzeit intensiv diskutiert. Die Ergebnisse dieser Analyse sind sowohl mit bereits publizierten Daten der STAR Kollaboration als auch mit Resultaten von anderen RHIC Experimenten verträglich (siehe Abbildung 6.8). In Abbildung 6.9 ist die Abhängigkeit der HBT-Radien von kt bei verschiedenen Schwerpunktsenergien dargestellt. Im Gegensatz zu vielen anderen Observablen ändern sich die HBT Radien nur geringfügig. Da man erwartet, dass die Reaktion bei hohen Energien vollkommen anders abläuft, würde man auch davon ausgehen, dass sich die Ausfrierbedingungen ändern. Dass dies nicht in den Zwei-Teilchen- Korrelationen sichtbar wird, deutet darauf hin, dass die Näherungen die notwendig sind, um die gemessenen Radien mit Modellparametern zu verbinden, nicht gültig sind. Die Systematik der HBT Parameter als Funktion der Schwerpunktsenergie enthält damit keinen direkten Hinweis, dass die kritische Energiedichte überschritten wurde, ab der die Kernmaterie in einer Plasmaphase vorliegt. Andererseits werden weder die verschwindende Emissionsdauer noch die Tatsache, dass die anderen HBT-Parameter sich nur wenig mit der Schwerpunktsenergie ändern, als Argument dafür gewertet, dass die kritische Energiedichte nicht überschritten wurde. Die Frage, ob ein Quark- Gluon-Plasma im Labor erzeugt und analysiert werden kann, bleibt damit offen. Das thermische Ausfrieren einer Pionenquelle scheint hingegen anders zu verlaufen, als bisher angenommen wurde. Systematische Studien der Korrelationsfunktion in AA Kollisionen am RHIC in Kombination mit Fortschritten im theoretischen Verständnis der Teilcheninterferometrie in Schwerionenreaktion werden in Zukunft hoffentlich erlauben, die gemessenen Radien in ein konsistentes Bild einzuordnen. In zukünftigen Experimenten am LHC werden noch weit höhere Dichten erreicht als bisher, damit sollten sich auch die Ausfrierbedingungen stark verändern. Es wird sich dann zeigen, ob die Teilcheninterferometrie das geeignete Instrument ist, um die Quellfunktion einer Schwerionenreaktion zu messen.
In der vorliegenden Arbeit konnte eine neue Ca2 -abhängige NDPase (EC 3.6.1.6) kloniert und funktionell charakterisiert werden. Die mRNA der Ca2 -NDPase wurde in allen untersuchten Geweben der Ratte nachgewiesen. UDP, GDP und IDP, jedoch nicht ATP und ADP waren Substrate der Ca2 -NDPase. Ihre Enzymaktivität war strikt von Calciumionen abhängig und zeigte ein breites pH-Optimum zwischen 6,5 und 7,5. Der Km-Wert für UDP lag bei 216 µM. Die Ca2 -NDPase konnte im ER und in Prä-Golgi-Strukturen lokalisiert werden. Sie ist ein Transmembranprotein, dessen katalytische Domäne im Lumen des ER liegt. Dort ist sie vermutlich ein wichtiger Bestandteil der Qualitätskontrolle neu synthetisierter glycosylierter Proteine, in dem sie das die UDP-Glucose:glycoproteinglucosyltransferase inhibierende UDP zu UMP hydrolysiert. Das resultierende UMP dient als Antiporter um UDP-Glucose, das im Zytosol synthetisierte Substrat der UDP-Glucose:glycoproteinglucosyltransferase, in das ER zu transportieren. Im zweiten Teil der Arbeit wurden die Oligomerstrukturen der zelloberflächenlokalisierten NTPDase1 und NTPDase2 untersucht. Die Enzyme wurden heterolog in Xenopus laevis-Oocyten exprimiert. Nach metabolischer Markierung sowie Zelloberflächenmarkierung wurden die mittels Hexahistidyl-Epitop markierten Proteine durch Digitonin solubilisiert und die Oligomerenkomplexe wurden über Ni2 -NTA-Chromatographie gereinigt. Die gereinigten Proteinkomplexe wurden mittels Cross-Linking-Experimenten und der Blau-nativen Gelelektrophorese analysiert. Es konnte gezeigt werden, dass die NTPDase1 an der Zelloberfläche als Dimer vorlag. Die Dimerisierung erfolgte nicht über intermolekulare S-S-Brücken. Die Dimere der NTPDase1 erwiesen sich als relativ stabil. Inkubation bei 37°C resultierte mit zunehmender Dauer in einer steigenden, jedoch auch nach zwei Stunden noch nicht vollständigen Dissoziation der Dimere. Inkubation unter reduzierenden Bedingungen führte ebenfalls nicht zur vollständigen Dissoziation. Erst eine Inkubation bei 37°C in Gegenwart von DTT und Coomassie Brilliant Blue G250 vermochte eine vollständige Dissoziation der NTPDase1 zu bewirken. Zur vollständigen Dissoziation der Multimerstruktur der NTPDase1 wurden somit das Reduktionsmittel DTT und die unter diesen Bedingungen denaturierende Wirkung des Farbstoffs Coomassie Brilliant Blue G250 benötigt. Die NTPDase2 bildete kein distinktes Multimer, sondern lag im nativen Zustand an der Zelloberfläche in Form von nicht intermolekular über S-S-Brücken verknüpften Di-, Tri- und Tetrameren vor. Die Homomultimere der NTPDase2 zeigten im Vergleich zur NTPDase1 eine deutlich höhere Stabilität. Inkubation unter reduzierenden Bedingungen und in Gegenwart von Coomassie Brilliant Blue G250 führte im Gegensatz zur NTPDase1 nur zu einer unwesentlichen Dissoziation der Multimerstrukturen. Die Substratspezifität der NTPDase2 änderte sich mit zunehmender Dauer der heterologen Expression. Die ADPase-Aktivität der NTPDase2 stieg nach sieben Tagen signifikant (p < 0,0001) um das vierfache im Vergleich zum ersten Tag der Expression. Dies erniedrigte das ATP:ADP-Verhältnis von 1 : 0,1 nach 24 h Expression zu 1 : 0,4 nach sieben Tagen. Die Änderung der Substratspezifität der NTPDase2 ging mit einer Änderung des multimeren Verteilungsmusters der NTPDase2 einher. Mit zunehmender Expressionsdauer nahm der relative Anteil an höheren Multimeren zu. Im Gegensatz zur NTPDase2 zeigte die NTPDase1 keine signifikanten Änderungen ihrer Substratspezifität und Multimerstruktur. Die durch unterschiedliche Verteilungsmuster der Multimere bedingte Änderung der Substratspezifität der NTPDase2 eröffnet eine neue Möglichkeit zur Modulation Nukleotid-vermittelter Signalübertragung. Es konnte keine signifikante Tendenz zur Ausbildung von Heteromultimeren aus NTPDase1 und NTPDase2 nachgewiesen werden.
In der vorliegenden Arbeit wurden 10 Typen der Gehölzvegetation und 14 Typen der Krautvegetation für das Untersuchungsgebiet Atakora vorgestellt. Dabei konnten nur Sonderstandorte, wie Galeriewälder und Lateritkrusten, klar abgetrennt werden. Viele Arten besitzen keine eindeutigen ökologischen Präferenzen, was sich gut mit der Einschätzung der lokalen Bevölkerung deckt, die für den Großteil der Arten angaben, dass diese wüchsen wo sie wollten. Dabei fällt auf, dass sich die Typen (vor allem in Gehölzschicht aber auch in Krautschicht) in den einzelnen Dörfern oft nur in Teilen entsprechen. Gründe dafür konnten nur teilweise in den unterschiedlichen ökologischen Gegebenheiten und unterschiedlichen Nutzungspräferenzen einzelner wichtiger Trennarten gegeben werden. Selten findet sich ein hundertprozentiges Zusammentreffen eines Gehölztyps mit einem Krauttyp. Damit bestätigt sich die Annahme unterschiedlicher Entwicklungsbedingungen und teilweise unabhängiger Entwicklung dieser beiden Elemente in der westafrikanischen Savanne. Gesellschaften, in denen eine Krautschicht mit einer Gehölzschicht eng korreliert sind, konnten nur für landwirtschaftlich nicht genutzte Sonderstandorten wie Galeriewälder und Lateritkrusten gebildet werden. Zudem zeigt sich, dass die Vegetation in der dichter besiedelten Ebene klarer strukturiert ist, als in der Bergregion. Dies trifft vor allem auf die Gehölzvegetation zu. Dennoch sind erstaunlich viele Gehölzarten auch in der intensiver genutzten Ebene anzutreffen, was für große Regenerationsfähigkeit und die Anpassung der hauptsächlichen Savannengehölze an das menschliche Wirken spricht. Die geringere Zahl an Gehölzarten in der Ebene ist hauptsächlich Resultat der wesentlich stärker degradierten Galeriewälder. In den Berggebieten sind zudem mehr Gehölzschichttypen und mehr krautige Arten angetroffen worden. Hier zeigt sich, dass Berggebiete auch in dieser Untersuchungsregion als Refugium für Vegetationsformationen und Arten gelten können. Die Nutzung von Wildpflanzen für verschiedene Zwecke wurde dokumentiert. Dabei konnte gezeigt werden, dass Präferenzen für diverse Nutzungen auf ethnischen, teilweise auch auf persönlichen Präferenzen, sowie auf der Verfügbarkeit der Pflanzen basieren. Dabei zeigte sich, dass die Präferenzen von Arten als Bau- und Brennholz eher auf der Verfügbarkeit basieren, während die Präferenzen für Medizinalpflanzen eher auf ethnischnen Vorstellungen von Wirksamkeit und teilweise auch auf kollektiven Erfahrungen basieren. Es erwies sich, dass die traditionelle Nutzung von Wildpflanzen als Brenn- und Bauholz und zu zusätzlichen Ernährung in dem Untersuchungsgebiet einen geringen Einfluß auf die Biodiversität hat, solange diese Pflanzen nicht kommerzialisiert werden. Es gibt genügend Pflanzenarten, die leicht zu finden sind und gute Eigenschaften für die eingesetzten Zwecke aufweisen, so dass man meist auf die jeweiligen in einem Dorfgebiet häufig anzutreffenden Arten ausweichen kann. Für diese geringe Auswirkung der traditionellen Nutzung von Gehölzpflanzen auf die Biodiversität sprechen auch die Aussagen der Bevölkerung über die geringere Verfügbarkeit von Gehölzpflanzen zu bestimmten Nutzungen. Dabei ergab sich eine Reihung von Nennungen, die von weniger Bauholz über weniger Brennholz zu weniger Gehölzpflanzen für die traditionelle Medizin abnahmen. Zudem wurde in allen Befragungen verneint, dass eine Art aus dem Dorfgebiet verschwunden wäre. Daraus läßt sich schließen, dass ein Großteil der wichtigen Gehölzpflanzen in dem Untersuchungsgebiet noch vorhanden ist, aber auf Grund der intensivierten Landwirtschaft nicht mehr in der Lage ist, sich zu richtigen Bäumen zu entwickeln. Da sich dadurch einige Gehölzpflanzen nur noch vegetativ vermehren können, kann eine genetische Verarmung von Populationen bestimmter Arten angenommen werden. Dies wäre ein interessanter Ansatzpunkt für zukünftige Forschungen. Ein negativer Einfluß auf die Biodiversität durch traditionelle Nutzungen ist bei der Nutzung von Gehölzpflanzen für die traditionellen Medizin größer, vor allem wenn Wurzeln verwendet werden. Dennoch lässt sich erkennen, dass der Einfluß der traditionellen Nutzungen von Wildpflanzen im Vergleich zu der landwirtschaftlichen Nutzung der Flächen einen marginalen Effekt auf die Vegetation hat. Im Rahmen der ethnobotanischen Befragungen wurden Pflanzennamen, Umweltwahrnehmung und die Vorstellungen von Krankheit der Bétamaribè und Wama dokumentiert. Diese weisen im Gegensatz zu den Vorstellungen anderer afrikanischer Völker kaum Differenzen auf. Die Vorstellungen von Krankheit sind dabei von einem starken Wandel betroffen, da man sich immer stärker auf westliche Konzepte und Medikamente verläßt. Ein positiver Effekt hiervon auf die Phytodiversität ist jedoch nicht zu erwarten, da die Medikamentkosten eine Intensivierung der Landwirtschaft erfordern. Über 240 traditionelle Heilrezepte wurden gesammelt. Die wichtigste Rolle spielen dabei Gehölzpflanzen. Dabei zeigt sich, dass sich die Präferenzen zwischen den einzelnen Dörfern stärker unterscheiden als bei der Nutzung von Pflanzen zu Brenn- und Bauholzzwecken. Auch erweisen sich große Unterschiede zu Verwendungen von Medizinalpflanzen in anderen Untersuchungsgebieten. Dies liegt an unterschiedlichen Vorstellungen und Erfahrungen zur Wirksamkeit von Pflanzen vor allem bei Krankheiten, die auch von alleine wieder vergehen wie Magen-Darm-Erkrankungen. Das Wissen über Heilpflanzen ist in der Ebene geringer ausgeprägt, als in den beiden Bergdörfern. Gründe hierfür können jedoch nicht alleine in den geringeren pflanzlichen Ressourcen gesehen werden. Ein Wandel in der Landwirtschaft bezieht sich hauptsächlich auf die Anbauprodukte. Während traditionelle angepaßte Cerealien seltener angebaut werden, baut man viele Produkte für den Verkauf an. Die herausragende Stellung darunter nimmt die anspruchsvolle und arbeitsintensive Baumwolle ein. Die Auszahlungsmodalitäten der halbstaatlichen Baumwollgesellschaft kommen dabei den bäuerlichen Bedürfnissen am ehesten entgegen. Um den finanziellen Ansprüchen der Verwandtschaft zu entgehen werden kurzfristige Strategien zur Geldbeschaffung angenommen. Es zeigt sich also, dass die Ursachen von Degradation eher in dem Kulturwandel und einer zunehmenden Abhängigkeit der Bauern von Bareinkünften zu sehen ist als in der oft pauschal genannten Überbevölkerung. Zukünftige Forschungen über Biodiversität und Vegetationswandel sollten auch den Kulturwandel stärker berücksichtigen. Die Degradation zeigt sich in dem Untersuchungsgebiet mehr in der Verarmung der Böden als in einem Rückgang der Biodiversität. Obwohl schon historische Vegetationsbeschreibungen von einer starken Beeinträchtigung der vermuteten natürlichen Wälder sprechen, ist nicht davon auszugehen, dass sich die Vegetation in dem Untersuchungsgebiet die letzten 50 Jahre stark verändert hat. Das in nördlicheren Gebieten von der lokalen Bevölkerung beobachtete Verschwinden von Arten wird kategorisch verneint. Bei den genannten zurückgehenden Arten handelt es sich hauptsächlich um wichtige Nutzarten. Da hierzu historische Daten fehlen, kann es sich auch um selektive Wahrnehmung der Bauern handeln. Dennoch ist anzunehmen, dass sich in Zukunft die Degradationsphänomene verschlimmern werden. Da die Bargeldbedürfnisse der Bauern nicht mehr zurückzuschrauben sind und zudem die Experimentiefreudigkeit in der recht unsicheren Umweltsituation gering ist, muss auf bestehende Produkte zurückgegriffen werden, um sowohl diese Bargeldbedürfnisse zu befriedigen, als auch die Umwelt zu schonen. Eine Chance hierfür könnte eine Vermarktung von Fonio, wie bereits in Mali geschehen, darstellen. Dieses anspruchslose, noch auf sehr ausgelaugten Böden wachsende und zudem sehr nahrhafte und wohlschmeckende Getreide sollte wieder vermehrt angebaut werden und auf lange Sicht die anspruchsvolle und Boden auslaugende Baumwolle ersetzten. Dies ist jedoch nur möglich, wenn Fonio über internationale Strukturen auch in Europa und Amerika vermarktet wird. Eine weitere finanziell nicht ausgeschöpfte Ressource bieten die Mangobäume. In der Hochzeit der Mangoernte werden die Bäume vielfach nicht mehr abgeerntet, weil die Preise für die Früchte stark sinken. Die Früchte fallen dann meist Flughunden und Vögeln zum Opfer. Wie das Beispiel Burkina Faso zeigt, könnten diese Früchte getrocknet, zu Marmelade oder Saft verarbeitet werden und selbst in Europa in dieser haltbaren Form verkauft werden. Leider sind bislang die entsprechenden Initiativen und Strukturen dazu in Benin noch nicht geschaffen. Eine weitere, wenn auch langfristigere Möglichkeit wäre die Ersetzung der Baumwollfelder durch Cashjew-Pflanzungen. Diese werden von der Bevölkerung immer mehr angenommen. Dabei könnten neue Gehölzresourcen geschaffen und die Bodenfruchtbarkeit erhöht werden. Einige Initiativen von kleinen NGO's, die das Pflanzen von Bäumen befürworten, finden großen Anklang. Es muß nur eine Möglichkeit gefunden werden, solche Produkte auch international zu kommerzialisieren, um die Böden stark belastende und zudem arbeitsaufwendige Baumwolle zu ersetzten. Zudem sind Initiativen von einzelnen Dörfern in der Atakoraregion, Teile des Dorfgebietes unter Schutz zu stellen und damit Ressourcen und Wissen vor allem für die traditionelle Medizin zu sichern, ermutigend. Es zeigt, dass die lokale Bevölkerung Bedrohungen ihrer Umwelt ernst nimmt und versucht mit Hilfe von NGO's Gegenmaßnahmen zu schaffen. In diesem Hinblick wäre es wichtig, dass sich zukünftige Forschungen mehr den pharmazeutischen Inhaltsstoffen von Heilpflanzen widmen, so wie dies in Südamerika bereits geschieht. Dabei sollten jedoch die Rechte der autochtonen Bevölkerung gewahrt werden. Zudem wäre es wichtig, mehr über die Ökologie einzelner Gehölzpflanzen unter Berücksichtigung der jeweiligen Nutzungsverhältnisse zu kennen. Hierbei wäre es auch interessant über die Naturverjüngung ausgewählter Arten zu arbeiten. Zudem sollten Forscher, die über Degradationsprobleme arbeiten, vor allem in angewandten Bereichen, mehr auf die Erfahrungen der lokalen Bevölkerung hören und weniger scheinbar offensichtliche und populäre Theorien wie Überbevölkerung strapazieren. Dabei sollten auch vermehrt historische Quellen zu Rate gezogen werden, da es scheint, dass die westafrikanische Savanne nicht so degradiert ist, wie es oft behauptet wird und noch große Potentiale besitzt, wenn diese richtig genutzt werden. Abschließend sei bemerkt, dass, wenn man Berichte aus anderen afrikanischen Regionen hört und sieht, der Norden Benins als "Insel der Glückseeligen" betrachtet werden kann. Die politische Lage ist stabil, die Bevölkerung aufgeschlossen und freundlich, es gibt kaum Kriminalität, große Krankheitsepedemien sind in den letzten Jahren ausgeblieben, Hunger wird selten erlitten und auch die Umweltdegradation hält sich in Grenzen. Möge die hier vorliegende Arbeit dazu beitragen, diese Region und die Bétamaribè ein wenig mehr ins Bewußtsein der Öffentlichkeit bringen und ein wenig dazu beitragen, dass die Situation der Region und ihrer Bevölkerung sich nicht verschlechtert.
P2X receptor subunits assemble in the ER of Xenopus oocytes to homomultimeric or heteromultimeric complexes that appear as ATP-gated cation channels at the cell surface. In this work it was intended to investigate the posttranslational modifications such as N-linked glycosylation and disulfide bond formation that is undergone by P2X1 receptors. In addition, the aim of this study was to examine the expression and the quaternary structure of selected P2X receptor isoforms in Xenopus oocytes. The investigation of the quaternary structure of the metabolically or surface labeled His-P2X2 receptor by BN-PAGE revealed that, while the protein complex is only partially assembling in oocytes, the plasma membrane form of the His-P2X2 receptor assembled into trimeric and even hexameric complex as was shown by the BN-PAGE analysis. Besides this finding, it is shown that the His-P2X5 protein that was purified from metabolically or surface labeled oocytes appeared as one single band corresponding to a trimer when analyzed by BN-PAGE. The present study signified that His-P2X6 alone does not reach a defined assembly status and possibly needs the hetero-polymerisation with other P2X subunits to assemble properly for insertion into the plasma membrane. Another finding of this study is that the P2X1 and P2X2 subunits could exist as heteromultimeric protein complexes in the plasma membrane of cells. Purification of surface expressed His-P2X2 subunit allowed the detection of co-injected P2X1 subunit and vice versa in Xenopus oocytes. Incubation with glutardialdehyde led to the cross-linking of P2X2 and P2X1 subunits to dimers and trimers. BN-PAGE analysis of the P2X2/P2X1 complex isolated under nondenaturing conditions from surface-labeled oocytes yielded one distinct band corresponding to a trimeric complex. The analysis of a C-terminally GFP tagged His-P2X1 fusion protein by confocal fluorescence microscopy revealed small clusters of the protein complexes, approximately 4-6 µm in diameter from a diffuse distribution of the protein in the plasma membranes of Xenopus oocytes. The cross-linking or BN-PAGE analysis of the fusion protein resulted in proteins that migrated quantitatively as trimers when purified in digitonin. The analysis of some chimeric constructs confirmed the results of others, which showed that desensitization can be removed from the P2X1 or P2X3 receptor by providing the N-domain from the P2X2 receptor (Werner et al., 1996) The exchange of this domain did not alter the quaternary structure of the chimeras, which showed to be present as trimers when expressed in oocytes. In addition, glycan minus mutants of His-P2X1 receptor were analyzed to examine whether carbohydrate side chains are important for P2X1 subunit assembly, surface expression, or ligand recognition. SDS-PAGE analysis of glycan minus mutants carrying Q instead of N at five individual NXT/S sequons reveals that 284N remains unused because of a proline in the 4 position. The four other sites (153Asn, 184N, 210N, and 300N) carry N-glycans, but solely 300N acquires complex-type carbohydrates. Like parent P2X1 receptor, glycan minus mutants migrate as homotrimers when resolved by blue native PAGE. Recording of ATP-gated currents revealed that elimination of 153N or 210N diminishes or increases functional expression levels, respectively. In addition, elimination of 210N causes a 3-fold reduction of the potency for ATP. If three or all four N-glycosylation sites are simultaneously eliminated, formation of P2X1 receptors is severely impaired or abolished, respectively. It is concluded that at least one N-glycan per subunit of either position is absolutely required for the formation of P2X1 receptors. The SDS-PAGE analysis of surface-labeled His-P2X2 and His-P2X5 receptors revealed that, while the His-P2X2 subunit acquires three complex-type carbohydrates, in case of His-P2X5 polypeptide, only two of the three N-glycans could obtain complex-type carbohydrates during transit of the Golgi apparatus. Furthermore, it was shown that DTT treatment blocked the appearance of newly made His-P2X1 at the plasma membranes of Xenopus oocytes. Also, it was revealed that the effects of DTT on His-P2X1 biogenesis are fully reversible. Removal of the reducing agent leads to subsequent folding and assembly into His-P2X1 receptor complex, followed by transport to the cell surface. The characterization of cysteine minus mutants by SDS PAGE and BN-PAGE demonstrated that, the cysteine substitution in the first cysteine rich domain (C1 - C6) does not have a major effect on assembly for the mutant receptors. In contrast, the replacement of the four cysteine residues (C7 - C10) from the second cysteine rich domain demonstrate a critical importance of this domain for the functional surface expression of P2X1 receptor. The investigations of several double cysteine mutants revealed that according to a similarity in the sensitivity to ATP, the C1 and C6, as well as C2 and C4 and finally C3 and C5 are pairs forming two disulfide bonds in each P2X1 subunit.
Die Mismatch-Reparatur (MMR) ist ein hochkonserviertes Kontroll- und Korrektursystem für die Erbinformation. Ihre Hauptaufgabe liegt in der Behebung von Kopierfehlern unmittelbar nach der Replikation (postreplikative Reparatur). Mutationen in Genen der Mismatch-Reparatur (vor allem in hMLH1 und hMSH2) führen beim Menschen zum "Erblichen nicht-polypösen kolorektalen Karzinom", HNPCC (Hereditary non-polyposis colorectal cancer). Diese Erbkrankheit geht mit einem gesteigerten Risiko einher, an verschiedenen Karzinomen, vor allem des Kolons, zu erkranken. Obwohl zumindest in Escherichia coli alle an der Mismatch-Reparatur beteiligten Proteine bekannt sind, ist ihr biochemischer Mechanismus nach wie vor ungeklärt. Es existieren drei verschiedene Modellvorstellungen zum Reparaturablauf: das Translocation model, das Sliding clamp model und das DNA bending model. Um einer Klärung des Reparaturmechanismus näherzukommen, sollten in dieser Arbeit die Bindungen der humanen Mismatch-Reparaturproteine an DNA und ihre Interaktionen untereinander näher untersucht werden. Im Zentrum stand dabei die Interaktion der heterodimeren ATPase hMutSa (hMSH2-hMSH6) mit den ebenfalls heterodimeren ATPasen hMutLa (hMLH1-hPMS2) und hMutLß (hMLH1-hPMS1). Die Hauptfunktion von hMutSa ist bekannt: das Dimer ist in der Lage, DNA-Paarungsfehler zu erkennen und an sie zu binden. Die Funktion von hMutLa liegt wahrscheinlich in der Weiterleitung des Signals "Fehler erkannt" von hMutSa an die Reparaturmaschinerie. Somit kommt der Interaktion von hMutSa mit hMutLa eine wesentliche Bedeutung in der Initiation der Reparatur zu. Die Funktion von hMutLß ist noch unbekannt. Zur Analyse der hMutSa-hMutL-Interaktion wurde eine neue Methodik entwickelt, bei der DNA-Substrate an magnetische Partikel gebunden, diese mit Proteinlösungen inkubiert und die gebundenen Proteine anschließend mit Salzlösungen eluiert wurden. Hierdurch konnten die Bindungsstärken anhand der Salzresistenz differenziert werden und die Bindungsreaktionen nach ATP-Zugabe bei verschiedenen DNA-Substraten verfolgt werden. Es konnte gezeigt werden, daß hMutSa zwar nicht quantitativ mehr, aber fester an DNA-Paarungsfehler band als an fehlerfreie DNA-Oligoduplices. Die Bindung reagierte empfindlich auf die Zugabe von ATP: auf Homoduplex-DNA bewirkte ATP unter geeigneten Bedingungen einen vollständigen Bindungsverlust von hMutSa, während es an Heteroduplex-DNA auch in Gegenwart des Nukleotidtriphosphates gebunden blieb. Eine weitere Wirkung von ATP bestand darin, daß hMutSa hMutLa und hMutLß rekrutierte. Dies geschah allerdings nur, wenn ausreichend lange DNA-Substrate (>= 81 Basenpaare) verwendet wurden. Für hMutLa konnte außerdem eine eigene DNA-Bindungsfähigkeit, und zwar vorzugsweise an Einzelstrang-DNA, nachgewiesen werden. Beide Ergebnisse zusammen genommen legen nahe, daß hMutSa und hMutLa nur interagieren können, wenn beide gleichzeitig an DNA gebunden sind. Obwohl nach bisherigen Erkenntnissen hMutLa, aber nicht hMutLß die Mismatch-Reparatur unterstützen kann, interagierte hMutLß ebensogut mit hMutSa. Dies läßt im Zusammenhang mit weiteren Ergebnissen vermuten, daß hMutLß eine modulierende Funktion in der MMR besitzen könnte. Alternativ könnte die hMutSa-hMutLß-Interaktion bei noch nicht charakterisierten anderen Prozessen von Bedeutung sein. Die weitere Untersuchung der Interaktion ergab, daß diese wahrscheinlich nicht von der ATP-Hydrolyse abhängt, sondern allein durch die Bindung des Nukleotidtriphosphates zustande kommt. Darüber hinaus spielen die ATPasen von hMutLa keine Rolle bei der Interaktion, da das Protein auch dann noch die Bindung einging, wenn seine Nukleotidbindungsstellen gezielt mutiert worden waren. Die Untersuchung zeigte außerdem, daß nur die hMutL-Untereinheiten hMLH1 und (in geringem Ausmaß) hPMS1 ATP-abhängig mit hMutSa interagierten, während hPMS2 alleine keine Bindung zeigte. Die sich daran anschließende Untersuchung von Fragmenten des hMLH1-Proteins erlaubte die Eingrenzung der Interaktionszone. hMutLa kontaktiert hMutSa demzufolge mit einem Proteinbereich, der innerhalb des N-Terminus von hMLH1 liegt. Zusammenfassend wird aufgrund der vorliegenden Ergebnisse für das DNA bending model der Mismatch-Reparatur plädiert. Dessen Reparaturablauf wird abschließend unter Berücksichtigung der vorliegenden Daten geschildert. In einem separaten Kapitel der Arbeit wird über die Identifizierung und Charakterisierung einer neuen Spleißmutation des humanen PTEN-Gens berichtet. Diese Mutation wurde bei einer Patientin mit dem Cowden-Syndrom, einem weiteren erblichen Krebssyndrom, nachgewiesen.
Stickstoffmonoxid (NO) ist ein kurzlebiges Gas, welches in biologischen Systemen verschiedene Funktionen übernehmen kann. Abhängig von der Konzentration ist NO ein zweischneidiges Schwert bezüglich seiner biologischen Effekte, da es in hohen Dosen proapoptotisch und in physiologischen Dosen anti-apoptotisch wirkt. Das von der eNOS in Endothelzellen gebildete NO ist ein wichtiger Faktor für die Gefäßrelaxation, ein antiinflammatorisches Molekül, ein zentraler Faktor für die Angiogenese und es inhibiert die Apoptose. Die reversible Modifikationen der Funktion von Zielproteinen durch S-Nitrosylierung ist ein Mechanismus, wie NO seine Effekte mediert. In den letzten Jahren sind eine Vielzahl von Zielproteinen entdeckt worden, deren Funktion durch S-Nitrosylierung modifiziert werden, die deutlich machen, dass S-Nitrosylierung die Funktion eines Signaltransduktionsmechanismus übernimmt. Da in humanen T-Zellen zum erstenmal auch eine Denitrosylierung beobachtet werden konnte, sollten in dieser Arbeit Mechanismen, die der Balance zwischen S-Nitrosylierung und Denitrosylierung zu Grunde liegen, untersucht werden. Dafür wurden zunächst Methoden zum Nachweis der S-Nitrosylierung etabliert. Zum einen zur Quantifizierung der S-Nitrosylierung in Endothelzellen der modifizierte Saville- Griess Assay und der DAN-Assay und zum anderen zur qualitativen Analyse der S-Nitrosylierung die biotin switch method. In dieser Arbeit konnte gezeigt werden, dass durch Stimulation der NO-Freisetzung mittels Applikation von laminarer Schubspannung der Gehalt an S-Nitrosylierung in HUVEC erhöht wird und auch die katalytische Untereinheit der Caspase-3 p17, ein bekanntes Zielprotein, verstärkt S-nitrosyliert wird. In einem in vitro Modell des Alterns konnte gezeigt werden, dass einhergehend mit der Reduktion der Proteinexpression der eNOS auch der Gehalt an S-Nitrosylierung, und damit die Bioverfügbarkeit von NO, reduziert ist. Nach Inkubation mit dem pro-apoptotischen TNFa und dem pro-atherogenen oxLDL konnte eine drastische Zunahme der Apoptosesensitivität von alternden HUVEC gegenüber diesen Stimuli beobachtet werden. Diese Ergebnisse unterstreichen die zentrale Rolle der Bioverfügbarkeit von NO für das Überleben der Endothelzelle. Zusätzlich konnte eine Denitrosylierung nach Inkubation von Endothelzellen mit TNFa oder oxLDL nach 18 h nachgewiesen werden. Durch Analyse mittels der biotin switch method wurde deutlich, dass dabei nicht nur der Gesamtgehalt an S-nitrosylierten Molekülen reduziert wird, sondern auch spezifische Zielproteine in unterschiedlicher Stärke denitrosyliert werden. Diese Daten machen deutlich, dass es sich bei der S-Nitrosylierung um einen differentiell regulierten Signaltransduktionsmechanismus handelt. Basierend auf diesen Ergebnissen wurde eine Strategie zur Identifizierung einer potentiellen Nitrosylase entwickelt, bei dem ein synthetisches, in vitro S-nitrosyliertes Peptid als Substrat verwendet wird. Weiterhin sollten neue Zielproteine für die S-Nitrosylierung identifiziert werden. Tatsächlich konnte ein neues Zielprotein für die S-Nitrosylierung, die Oxidoreduktase Thioredoxin identifiziert werden. Thioredoxin wird ubiquitär in Säugetierzellen exprimiert und ist ein essentieller Faktor für die Aufrechterhaltung des intrazellulären Redox-Status. Mit den Cysteinen an Position 32 und 35 besitzt Thioredoxin eine redox-regulatorische Domäne, die essentiell für seine Funktion als Oxidoreduktase ist. Neben seiner Funktion als Redox- Regulator, kann Thioredoxin Transkriptionsfaktoren wie z.B. NfK-B aktivieren und über die redox-regulatorische Domäne die pro-apoptotische Kinase ASK-1 binden und inhibieren. In dieser Arbeit konnte gezeigt werden, dass Thioredoxin an Cystein 69 S-nitrosyliert wird und dass der Gehalt an S-nitrosylierten Molekülen von der Proteinexpression des Thioredoxin abhängt. Desweiteren ist die S-Nitrosylierung von Thioredoxin in Endothelzellen wichtig für die Entfaltung seiner vollständigen Reduktaseaktivität. Für die zum erstenmal in Endothelzellen gezeigte anti-apoptotische Funktion von Thioredoxin wird sowohl die S-Nitrosylierung an Cystein 69 als auch die redox-regulatorische Domäne benötigt. Durch diese Experimente konnte eine neue wichtige Funktion von Thioredoxin für NOproduzierende Zellen beschrieben werden. Zusammenfassend zeigen die Ergebnisse dieser Arbeit, dass die S-Nitrosylierung in Endothelzellen ein Signaltransduktionsmechanismus ist, der sowohl durch protektive, als auch durch pathophysiologische Stimuli spezifisch reguliert wird. Die weitere Charakterisierung dieser Vorgänge könnte einen tieferen Einblick in die Biologie und Funktion der Endothelzelle geben. Zusätzlich konnte durch das neue Zielprotein Thioredoxin die direkte Verknüpfung von NO mit dem Redox-Status der Zelle und die zentrale Rolle von Thioredoxin für den Gehalt an S-Nitrosylierung in Endothelzellen gezeigt werden. Identifizierung weiterer Regulationsmechanismen für die S-Nitrosylierung könnte ein genaueres Verständnis dieses Wirkmechanismus von NO und somit eine bessere Protektion des Endothelzellmonolayers in den Gefäßen ermöglichen.
Wolinella succinogenes reduziert Fumarat mit H2 oder Formiat als Elektronendonor. Der Elektronentransport wird von der membranständigen Hydrogenase oder Formiat-Dehydrogenase und der Fumarat-Reduktase katalysiert. Redoxmediator zwischen beiden Enzymen ist Menachinon. Der Elektronentransport ist mit der Erzeugung eines elektro-chemischen Protonenpotentials (Dp) gekoppelt. Ziel dieser Arbeit war, den Mechanismus der Dp-Entstehung durch Rekonstitution der gekoppelten Fumarat-Atmung in Liposomen aufzuklären. Aus Wolinella succinogenes isolierte Hydrogenase und Fumarat-Reduktase wurden in Liposomen eingebaut, die Menachinon enthielten. Die resultierenden Proteoliposomen kataly-sierten die Reduktion von Fumarat mit H2. Die Wechselzahl der Enzyme im Elektronentrans-port von H2 zu Fumarat war etwa 10 % von der in Bakterien. In den Proteoliposomen waren sowohl Hydrogenase als auch Fumarat-Reduktase ausschließlich nach außen orientiert. Elektronenmikroskopische Aufnahmen zeigten, dass die Proteoliposomen sphärische Vesikel mit einem mittleren Außendurchmesser von 88 nm waren. Die Proteoliposomen enthielten statistisch 8,4 Hydrogenasemoleküle und 72 Fumarat-Reduktasemoleküle. Alle aktiven Enzymmoleküle waren in der Proteoliposomenmembran zufällig verteilt eingebaut und nahmen am Elektronentransport von H2 zu Fumarat teil. Der aus dem Protonenpermeabilitätskoeffizienten (PH = 8,1·10-3 cm·s-1) berechnete unspezifische Protonenfluß über die Proteoliposomenmembran war etwa 20mal langsamer als der durch den Elektronentransport von H2 zu Fumarat katalysierte Protonenfluß. Während der Fumarat-Reduktion mit H2 entstand ein elektrisches Protonenpotential über der Proteoliposomenmembran (Dø = -0,19 V; innen negativ), das die gleiche Richtung und Größe hatte wie das Dø während der Fumarat-Atmung in Zellen von W. succinogenes. Der H /e--Quotient für die Fumarat-Reduktion mit H2 war in Proteoliposomen in Gegenwart von Valinomycin und externem K etwa 1. Das gleiche Dø und der gleiche H /e--Quotient waren mit der Reduktion von 2,3-Dimethyl-1,4-naphthochinon (DMN) durch H2 verbunden, wenn die Proteoliposomen Menachinon und Hydrogenase mit oder ohne Fumarat-Reduktase enthielten. Proteoliposomen, die Menachinon und Fumarat-Reduktase mit oder ohne Hydrogenase enthielten, katalysierten die Reduktion von Fumarat durch DMNH2, die aber nicht mit der Entstehung von Dp gekoppelt war. Proteoliposomen, die Formiat-Dehydrogenase, Menachinon und Fumarat-Reduktase enthielten, katalysierten die Reduktion von Fumarat oder DMN durch Formiat. Beide Reaktionen erzeugten über der Proteoliposomenmembran ein Dø von -0,13 V (innen negativ). Der H /e--Quotient der Formiat-Oxidation durch Menachinon oder DMN war nahezu 1. Die Entstehung von Dø war von der Art des in die Proteoliposomen eingebauten Chinons abhängig. Während der Reduktion von DMN durch H2 entstand ein Dø, wenn die Proteoliposomenmembran Menachinon, Vitamin K2 oder das aus W. succinogenes isolierte Methylmenachinon enthielt. Proteoliposomen ohne Chinon oder mit Vitamin K1 erzeugten kein Dø während der DMN-Reduktion mit H2. Die Fumarat-Atmung mit H2 war nur in Gegenwart von Menachinon oder Vitamin K2 mit der Entstehung von Dø gekoppelt. In dieser Arbeit wurde erstmals die gekoppelte Fumarat-Atmung mit aus W. succinongenes isolierten Elektronentransportenzymen in Lipsomen rekonstituiert. Die Ergebnisse bestätigen die Hypothese, dass das durch die Fumarat-Atmung erzeugt Dp ausschließlich durch die Menachinon-Reduktion mit H2 oder Formiat entsteht, während die Menachinol-Oxidation mit Fumarat ein elektroneutraler Prozeß ist.
Der weltweiten Ausbreitung des humanen Immundefizienzvirus versucht man neben der Entwicklung eines präventiven HIV-Impfstoffes auch durch die Verbesserung der chemotherapeutischen Behandlung HIV-Infizierter entgegen zu wirken. Die hochwirksame antiretrovirale Kombinationsstherapie (HAART) hat neben der Anzahl der opportunistischen Infektionen und AIDS-bedingten Todesfälle auch die Viruslast in vielen HIV-Infizierten über einen langen Zeitraum unterhalb der Detektionsgrenze senken können. Es sind daher neben den klassischen Verlaufsmarkern wie der Viruslast und der Anzahl der CD4 T-Zellen neue Surrogatmarker zur Beurteilung der Effizienz der antiretroviralen Therapie notwendig. Der Einfluss der Viruslast auf den CD8 T-Zellaktivierungsstatus während der antiretroviralen Therapie zeigte sich durch den Vergleich von HAART-Respondern und den durch eine hohe Viruslast infolge eines Therapie-Versagens gekennzeichneten HAART-Non-Respondern. Die Beobachtung einer signifikant erhöhten Anzahl an basal, d.h. ohne vorangegangene in vitro Stimulation, aktivierten CD8 CD69 T-Zellen bei HAART-Non-Respondern (p = 0,0049) konnte die Rolle des T-Zell-Aktivierungsstatus als Marker der verbleibenden Viruslast unter HAART nachweisen. Um das Potential der von CD8 T-Zellen sezernierten HIVsupprimierenden ß-Chemokinen und IL-16 als HAART-begleitende Surrogatmarker zu untersuchen, wurde die Expression von MIP-1a, MIP-1ß und RANTES sowie des Lymphokins IL-16 im Serum und im Zellkulturüberstand aktivierter CD8 T-Zellen untersucht. Für HAART-Non-Responder konnte im Zellkulturüberstand von in vitro stimulierten CD8 TZellen eine signifikante Erhöhung der IL-16-Expression (p = 0,0077) und eine erhöhte Expression von MIP-1a im Vergleich zu HAART-Respondern gezeigt werden. Darüber hinaus wurde eine signifikant erhöhte MIP-1ß-Serumkonzentration bei HAART-Non- Respondern (p = 0,0175) nachgewiesen, die mit einer erhöhten Anzahl aktivierter CD8 CD69 T-Zellen assoziiert war. Im Rahmen dieser Untersuchungen konnte somit gezeigt werden, dass neben MIP-1a, vor allem das ß-Chemokin MIP-1ß und das Lymphokin IL-16 vielversprechende Surrogatmarker zur Beurteilung der Effizienz der antiretroviralen Therapie darstellen, die als sensitive therapiebegleitende Marker die rechtzeitige therapeutische Intervention vor einem signifikanten Anstieg der Viruslast ermöglichen könnten. Da trotz der intensiven Entwicklung und Verbesserung antiretroviral wirkender Therapeutika die vollständige Elimination des HI-Virus bislang nicht möglich ist, wurde in den vergangenen Jahren konzentriert an der Entwicklung neuer Impfstoffstrategien gearbeitet. Eine durch einen Impfstoff induzierte protektive Immunantwort gegen HIV sollte vor allem gegen Strukturproteine, sowie gegen die regulatorischen Proteine Tat und Rev gerichtet sein. Mit einem MLV-abgeleiteten Transfervektor für die SHIV-Gene tat, rev und env wurde in dieser Arbeit das immunogene Potential zur Induktion einer humoralen und zellulären Immunantwort im Rhesusaffen-Tiermodell untersucht. Durch die Etablierung einer stabilen Verpackungszellinie für den Transfervektor pMgDenv/tat/rev/Dlngfr konnte der effiziente Gentransfer in CD4 T-Zellen mittels [MLV(SHIV)]-Pseudotypvektoren gezeigt werden. Durch Optimierung der Transduktionsbedingungen konnte ein Transduktionstiter von 1-2 x 107 i.E./ml in primäre Rhesus-Lymphozyten erreicht werden. Um das immunogene Potential dieser HIV-Antigen-exprimierenden Zellen in vivo zu untersuchen, wurden in einer Immunisierungsstudie 0,7 - 3,4 x 107 Transfergen-positive PBMC in 3 aufeinander folgenden Transplantationen in einen Rhesusaffen reinfundiert. Die transplantierten Zellen waren nach der 3. Applikation bis zu 7 Tage nach Transplantation in vivo mittels PCR detektierbar. Eine HIV-gp120-spezifische Antikörperantwort konnte fünf Wochen nach der ersten bzw. zwei Wochen nach der letzten Immunisierung nachgewiesen werden. In einem ELIspot-Assay konnte erfolgreich die Induktion einer HIV-1-Env- und Rev-spezifischen CTL-Antwort in den nach 7,5 bzw. 10 Wochen nach der letzten Immunisierung entnommenen PBMCs nachgewiesen werden. Interessanterweise zeigten Sequenzanalysen, dass die induzierte CTL-Aktivität gegen die für einen effizienten Schutz bedeutenden Determinanten des HIV-1- Hüllproteins, gegen die variable Domäne des gp120 als auch gegen die CD4- Bindungsregion gerichtet war. In dieser Immunisierungsstudie war es somit erstmals möglich, durch die Transplantation autologer HIV-Antigen-exprimierender CD4 T-Zellen eine spezifische humorale wie auch zelluläre Immunantwort in vivo zu induzieren.
Die analytische Ultrazentrifuge ist ein unverzichtbares Instrument zur Charakterisierung von schwachen Protein-Protein-Wechselwirkungen und deren funktioneller oder regulatorischer Bedeutung. Eine besondere Gruppe von Untersuchungsobjekten bilden die integralen Membranproteine, die für eine Ultrazentrifugenanalyse solubilisiert, d.h. aus ihrer natürlichen, hydrophoben Umgebung in wäßriges Milieu überführt werden müssen. Diese Aufgabe wird vom Standpunkt der Erhaltung des natürlichen Proteinzustands am besten von nichtionischen Detergenzien erfüllt, wobei das biochemisch optimale Detergens von Protein zu Protein i.A. verschieden ist. Die notwendige Anwesenheit von Detergens während der Zentrifugenanalyse belastet diese andererseits, da freies wie proteingebundenes Detergens zusätzliche unbekannte Größen darstellen. Diese Unbekannten können durch experimentelle Gleichsetzung von Detergensdichte und Lösungsdichte eliminiert werden (Dichtekompensation). Die Möglichkeiten der etablierten Dichtekompensationsverfahren sind allerdings beschränkt, insbesondere Detergenzien mit hoher Dichte sind damit nicht erfaßbar - ein Mangel, der manche Untersuchung be- oder verhindert. Aus diesem Grund wurden neue Dichtekompensationsverfahren entwickelt und bestehende verbessert bzw. erweitert: zum einen die Erhöhung der Lösungsdichte durch Zusatz von Saccharose, Glyzerin oder einer Saccharose-D2O-Kombination, zum anderen die Anpassung der Detergensdichte durch Mischen von Detergenzien mit niedriger und mit hoher Dichte. Die neuen Verfahren wurden überprüft, indem ein integrales Membranprotein mit bekannten Eigenschaften, Cytochrom c-Oxidase von Paracoccus denitrificans, unter Anwendung sowohl der neuen Verfahren als auch der etablierten D2O-Methode im Sedimentationsgleichgewicht analysiert wurde. Der Vergleich der Ergebnisse zeigte zum einen die Äquivalenz der verschiedenen Methoden im Falle der Kompensation von Detergensdichten, die auf herkömmliche Weise kompensierbar sind, zum andern, daß nach Kompensation deutlich höherer Dichten das partialspezifische Volumen des Proteins zu korrigieren ist. Eine derartige Korrektur wurde nötig beim Vorhaben, den oligomeren Zustand des Cytochrom bc1-Komplexes von Paracoccus denitrificans zu bestimmen, da dieses Atmungskettenenzym nur in Gegenwart von DDM, einem Detergens mit hoher Dichte, stabil war. Die Unsicherheit, die sich aus der via Vergleich mit Cytochrom c-Oxidase durchgeführten Korrektur ergab, war nicht relevant, da sich der intakte bc1-Komplex in DDM-Lösung als einheitliche Substanz erwies und er damit ein "einfaches" Problem darstellte. Die Sedimentationsgleichgewichtsuntersuchung des Proteins unter der Bedingung der Dichtekompensation ergab nach Berücksichtigung des Korrekturterms, daß der solubilisierte, enzymatisch aktive bc1-Komplex als Dimer vorliegt. Dieses Ergebnis korreliert mit der aktuellen Vorstellung von der Funktionsweise des Enzyms, derzufolge die dimere Form für den Elektronentransfer notwendig ist. Komplizierter als der oligomere Zustand des bc1-Komplexes ist offenbar das Selbstassoziationsverhalten des Bande 3-Proteins, des Anionenaustauschers aus der menschlichen Erythrozytenmembran: Entgegen der vorherrschenden Meinung, eine in Detergenslösung vorliegende intakte Bande 3 bilde stabile Dimere, weisen die vorliegenden Ergebnisse darauf hin, daß das solubilisierte Protein aus mehreren Oligomeren besteht. So zeigen die vorhandenen Daten neben dimerer Bande 3 die Existenz von monomerem und tetramerem Protein, letztere Form vermutlich in unterschiedlichen Zuständen, und verweisen auf ein Assoziationsgleichgewicht zwischen den Oligomeren, vermutlich überlagert durch stabiles Dimer. Letzteres erscheint als "Grenzfall" eines Bande 3-Präparats, der nach langer Lagerung und/ oder nach suboptimaler Behandlung eintritt. Wegen der Komplexität des Bande 3-Verhaltens konnten die Zentrifugenuntersuchungen nur in Gegenwart von Detergenzien durchgeführt werden, deren Dichte eine Kompensation ohne Korrekturbedarf zuläßt. Darüber hinaus kamen wegen der offensichtlichen Empfindlichkeit der Bande 3 nur sehr milde Detergenzien zum Einsatz: C12E9 und Triton X-100 (reduzierte Form). Aus selbigem Grund wurde die Detergensdichte bevorzugt mit Saccharose oder Glyzerin kompensiert, deren proteinstabilisierende Wirkung bekannt ist.
Für viele pädiatrische Patienten mit Leukämie ist die Durchführung einer Hoch-Dosis- Chemotherapie mit anschließender Stammzelltransplantation oft die einzige Möglichkeit die Heilungsrate zu verbessern. Die Eliminierung der residualen leukämischen Blasten basiert einerseits auf der Konditionierung mit hoch-aggressiver Chemotherapie. Andererseits ist sie auf immunologische Reaktionen zwischen immunkompetenten Zellen, die entweder in dem Transplantat enthalten sind, oder aus diesem neu entstehen und den verbliebenen leukämischen Blasten zurückzuführen. Diese immunologische Interaktion wird auch als Graftversus- Leukämie-Reaktion (GVL) bezeichnet und hauptsächlich von T-und NK-Zellen vermittelt. Trotz zunächst erfolgreicher allogener Transplantation erleidet ein beträchtlicher Anteil der Patienten ein Rezidiv. Während ein offenes Rezidiv oft nicht mehr behandelbar ist, können Patienten mit drohendem Rezidiv oder minimaler Resterkrankung (MRD) durch Infusion immunkompetenter Zellen des Spenders, sogenannte Donor-Lymphozyten-Infusionen (DLI), teilweise erfolgreich behandelt werden. Die Behandlung mit DLI ist limitiert durch die Graft-versus-host-disease (GVHD), eine mit zum Teil schweren Komplikationen verbundene Reaktion, die potentiell tödlich verlaufen kann. Die gentechnische Veränderung der alloreaktiven Zellen mit einem Suizidgen ermöglicht eine kontrollierte, spezifische Eliminierung dieser Zellen im Falle einer GVHD Entwicklung. Im Rahmen dieser Arbeit wurden zwei verschiedene retrovirale Selektions/Suizid- Fusionsvektoren für die Transduktion von Spender T-Zellen im Kontext einer DLI entwickelt. Beide Selektions/Suizid-Fusionselemente wurden in einem für die Transduktion in T-Zellen optimierten retroviralen Vektor generiert. Die Selektionsmarker waren so gewählt, dass eine Anreicherung der Transgen-positiven Zellen über eine immunomagnetische Selektion möglich war. Ein Vektor kodierte für ein Fusionsmolekül aus dem zytoplasmatisch trunkierten humanen CD34-Oberflächenmarker (tCD34) und der Zellzyklus-abhängigen GCV-hypersensitiven HSVtk39 (Herpes-simplex Virus I Thymidin Kinase) Mutante. Durch GCV-Applikation konnte in den transduzierten, tCD34/HSV-tk39 exprimierenden Zellen spezifisch die Apoptose induziert werden. Der zweite Vektor wurde so konstruiert, dass ein Fusionsprotein aus dem humanen DLNGFR-Oberflächenmarker und der Zellzyklus-unabhängigen death-effector-domain (DED) des humanen FADD (Fas-associated-protein with death domain) Moleküls entstand. Über zwei zwischengeschaltete FKBP (FK506-binding protein) Domänen wurden die beiden Elemente miteinander fusioniert. In DLNGFR/Fv'Fv/DED-exprimierenden Zellen konnte die Apoptose durch die Applikation eines spezifisch an die beiden FKBP-Domänen bindenden synthetischen Substrats (AP20187), das die Dimerisierung des DED-Moleküls induzierte, ausgelöst werden. Durchflusszytometrische Analysen von transduzierten und selektierten humanen primären TZellen zeigten, dass beide Fusions-Transgene korrekt in den Zielzellen exprimiert wurden. Die spezifische Induktion der Apoptose durch Aktivierung des jeweiligen Suizidmoleküls wurde in Funktionalitätstestungen nachgewiesen. Beide Fusionsmoleküle vermittelten eine effiziente Eliminierung der transduzierten Zellen (90 %-98 %). In vergleichenden Analysen wurde gezeigt, dass die beiden Suizidmechanismen einer unterschiedlichen Kinetik unterlagen. Während die DED-induzierte Apoptose sehr schnell auf die Applikation des Suizidaktivators folgte, vermittelte der HSV-tk39 Mechanismus eine deutlich langsamere aber etwas effizientere Eliminierung der Zellen. Erste Untersuchungen einer Kombination beider Fusionsmoleküle deuten auf einen additiven/synergistischen Effekt hin, der zu einer schnellen und effizienten Eliminierung der Zellen führt (>=99 %). Zur Zeit stellt die Strategie der Suizidgen-transduzierten T-Zellen die am vielversprechendste Methode zur Kontrolle einer GVHD-Reaktion dar. Die hier entwickelten Vektoren ermöglichen eine effiziente, kontrollierte Eliminierung der Zellen und bieten Potential zur Weiterentwicklung einer optimierten Strategie.
An der chemischen Synapse des Nervensystems führt ein präsynaptisches Aktionspotential zur Freisetzung eines Neurotransmitters, der über den synaptischen Spalt diffundiert und an die Rezeptoren der postsynaptischen Membran bindet. Die ionotropen Rezeptoren sind an dieser Membran zu Clustern aggregiert. Entstehung und Dynamik dieser Rezeptoraggregate sind für Funktion und Plastizität der Synapse essentiell. Für die Aggregation der inhibitorischen Glyzin- und der meisten Subtypen der GABAA-Rezeptoren ist das periphere Membranprotein Gephyrin notwendig. Es ist ein Schlüsselfaktor für die Genese und Aufrechterhaltung der glyzinergen postsynaptischen Membran. Dabei bindet es direkt an den GlyR und verbindet diesen über die Bindung von Mikrotubulie an das Zytoskelett. Auch andere Bindungspartner wurden nachgewiesen. Gephyrin ist in einer zweiten Funktion in die Synthese des Molybdän-Cofaktors involviert und weist Sequnezhomologien zu Proteinen anderer Spezies auf, die in diesen Syntheseweg eingebunden sind. Gephyrin ist ubiquitär exprimiert und wird alternativ gespleißt. Möglicherweise existieren verschiedene Varianten mit unterschiedlichen Funktionen. Die Untersuchung der Domänen und Bindungseigenschaften Gephyrins ist daher für das weitere Verständnis über Aufbau und Funktion der Synapse unerlässlich. In dieser Arbeit wurde ein Testsystem etabliert, mit dem sowohl heterolog exprimiertes als auch natives Gephyrin über die hoch-affine Bindung an den GlyR aufgereinigt werden konnte. Mit diesem System konnten erstmals unterschiedliche Varianten Gephyrins nachgewiesen werden. In verschiedenen Organen der adulten Ratte wurden dabei Gephyrinmoleküle mit Molekulargewichten zwischen 52 und den bekannten 93 kDA identifiziert. Auch Bestandteile des GlyR-Komplexes lassen sich mit dieser Methode anreichern. So wurde gezeigt, daß Gephyrin und Collybistin in einem trimeren Komplex mit dem GlyR vorliegen können. Hiermit ist es künftig möglich, in einem proteomischen Ansatz weitere aus dem GlyR-Konmplex anzureichern und zu identifizieren. Mit dem gleichen System wurde auch die Bindungsregion Gephyrins für den GlyR gefunden. Diese diskontinuierliche Bindungsstelle wird aus einer a-Helix der Aminosäuren 164 bis 184, sowie aus hydrophoben Resten gebildet, die von Aminosäure 15 bis 163 unregelmäßig über den gesamten N-Terminus Gephyrins verteilt sind. Zur Bindung an den GlyR werden beide Elemente benötigt. Das kleinste GlyR-bindende Gephyrinfragment erstreckt sich somit über die Aminosäuren 1-184. Mit einem Kosedimentationsassay wurde die Bindung Gephyrins an Mikrotubuli untersucht. Es stellte sich heraus, daß die vermutete Bindungsstelle nicht zur Bindung an Mikrotubuli benötigt wird. Vielmehr ist der C-terminale Abschnitt Gephyrins hierzu ausreichend. Um Regionen Gephyrins zu finden, die die Autoaggregation vermitteln, wurden Bindungsstudien mit dem Zwei-Hybrid-System und ein heterologes Expressionssystem in Zellkulturen durchgeführt. Es wurde gezeigt, daß sowohl die N- als auch der C-terminal gelegene Bereich in der Lage sind, mit Gephyrin zu aggregieren. Im C-Terminus wurde die Domäne auf 62 Aminosäuren eingegrenzt. Zur Erfüllung der verschiedenen Funktionen Gephyrins sind die hierfür notwendigen Domänen offensichtlich in modularer Art organisiert. So lässt sich durch alternatives Spleißen eine Variante exprimieren, die den speziellen Erfordernissen der Zelle gerecht wird. In dieser Arbeit wurden mehrere Domänen und Regionen Gephyrins eingegrenzt, deren Aufgaben von der GlyR-Bindung über die Autoaggregation zur Bildung glyzinerger Proteinkomplexe und der Verknüpfung mit dem Zytoskelett reichen. Somit konnte ein Beitrag zum weiteren Verständnis über die glyzinerge Synapse geleistet werden.
Fourier-Transform Infrarot Differenz Spektroskopie ist eine Methode. die es erlaubt, selbst kleinste konformelle Änderungen in der Umgebung der katalytischen Zentren in Enzymen selektiv und mit hoher Zeitauflösung zu messen. Diese Technik wurde an Oxidasen von Paracoccus denitrificans, Thermus thermophilus und Escherichia coli angewandt, um einen Einblick in strukturelle und molekulare Prozesse der Bindung und Dynamik von Liganden am binuklearen Zentrum zu erhalten. Die pH- und Temperatur-Abhängigkeit von CO Schwingungsmoden sowie deren Verhalten nach der Photolyse konnten zeitaufgelöst untersucht und miteinander verglichen werden. Bei Temperaturen >180K war die Bestimmung von thermodynamischen Parametern wie Enthalpie-Barrieren und Arrhenius-Vorfaktoren möglich. Aus dem Verlauf der Rückbindungskinetiken ließen sich ferner Rückschlüsse über die konformelle Heterogenität der Bindung ziehen. Für Temperaturen um 140K konnte das Protein im "quasistationären" Zustand vermessen werden, da Rückreaktionen des Liganden an die Bindungsstelle des Häm a3 unterbunden waren. Trotz der strukturellen Ähnlichkeit und analoger Funktion zeigten diese typischen Oxidasen große Unterschiede sowohl im Reaktionszentrum als auch im kinetischen Verhalten des Liganden. Die kinetischen Parameter für alle untersuchten Oxidasen weichen deutlich voneinander ab und spiegeln unter anderem die Stärke der Bindung am CUB wider. Die Temperaturabhängigkeit der Populationen der CO-Konformere und die äquivalente Rückbindungs-Kinetik der unterschiedlichen Konformere in den Oxidasen aus dem thermophilen System weisen auf ein strukturelles Merkmal in der Nähe des binuklearen Zentrums hin, das den Populations-Austausch in anderen Oxidasen unterbindet. Aufgrund der pH-Abhängigkeit der entsprechenden Oxidasen kann man schließen, daß diese Eigenschaft durch eine oder mehrere protonierbare Gruppen bewirkt wird, die die unterschiedlichen Konformere in bestimmten Positionen fixiert hält. Die Rückbindungsraten des Liganden zeigen für die T. thermophilus Oxidasen eine Rückbindung erster Ordnung. was auf eine homogene Verteilung der zwei Konformer-Populationen im Enzym deutet. Hingegen zeigte die Oxidase aus P. denitrificans für die Rückbindung eine Verteilung der Reaktionsraten. Ursache dafür ist ein sehr heterogenes Ensemble an Proteinen, das minimale strukturelle Unterschiede im Konformationsraum des Reaktionszentrums aufweist. Ein weiterer Aspekt der Arbeit war die Beobachtung von Absorptionsbanden der Hämpropionate an Cytochrome c Oxidase von Paracoccus denitrificans nach CO Rückbindung. Sowohl über 13C-isotopenmarkierte Hämpropionate als auch über ortsgerichtete Mutagenese in deren unmittelbarer Umgebung konnten definierte Banden-Zuordnungen im IR-Differenzspektrum erhalten werden. Experimente am Enzym mit Mutationen an der Stelle Asp 399 zeigten, daß die strukturellen Eigenschaften des Häm a3-CuB Zentrums im wesentlichen von dieser Veränderung nicht beeinflußt werden. Jedoch war die pH-Abhängigkeit der CO Konformere hier unterbunden, was auf deren Einfluß auf eine Protonierbarkeit im Wildtyp-Enzym hinweist. Rückschlüsse anhand der Mutante Asp399Asn zeigten (über den Verlust der pH-Abhängigkeit) ganz klar, daß alle unterschiedlichen CO-Konformere funktionell intakt sind. FT-IR Messungen an einem weiteren Enzym, der isolierten Cytochrom bd Oxidase aus E. coli, zeigten bei einer Untersuchung der CO Rückbindungs-Eigenschaften bei 84K die ausschließliche Rückbindung an das Häm d. der möglichen Sauerstoff-Bindungsstelle. Die Bindungsstelle an Häm b, die zu ca. 5% ebenfalls CO bindet, kann bei diesen Temperaturen nicht wiederbesetzt werden. Im typischen Spektralbereich von 1680 bis 1760 cm hoch minus 1 konnten eindeutig die Absorptionsbanden von Asparagin- oder Glutaminsäure-Seitenketten identifiziert werden. Über einen direkten Vergleich der Spektren, die über Redox-Reaktion und CO Rückbindung erhalten wurden, konnten diese Signale als klar in der direkten Umgebung des binuklearen Zentrums lokalisiert zugeordnet werden. Eine Rolle als vorübergehender Protonen-Akzeptor/Donor auf dem Weg zur Sauerstoff-Bindungsstelle ist naheliegend.
Optoelektronische THz-Systeme finden seit 1995 Anwendung in der Bildgebung. Alle bisherigen Systeme basieren dabei auf gepulsten Femtosekunden-Laserquellen und emittieren gepulste, breitbandige THz-Strahlung. In dieser Arbeit wird erstmals ein bildgebendes optoelektronisches Dauerstrich-THz-Svstem auf Basis von Photomischern als Emitter und Detektor vorgestellt. Zur Optimierung des Systems wurden im Rahmen dieser Arbeit die einzelnen Komponenten detailliert untersucht und insbesondere ihre Wechselwirkung im Rahmen einer Systembetrachtung analysiert. Für den Laborbetrieb wurde ein Zweifarben-Ti:Saphir-Laser entwickelt, der es ermöglicht, die beiden zu mischenden nah-infraroten Frequenzen in einem Verstärkermedium zu generieren. Für das bildgebende System wurde der Laser in unidirektionaler Ringkonfiguration mit zwei sich im Laserkristall kreuzenden Resonatoren verwendet. Zur Optimierung der als THz-Emitter verwendeten Photomischer wurde die generierte THz-Leistung von schnellen Photoschaltern basierend auf bei unterschiedlichen Temperaturen gewachsenem LT-GaAs gemessen. Es zeigt sich, dass neben der Ladungsträgereinfangzeit auch die effektive Ladungsträgermobilität mit der Wachstumstemperatur variiert. Sie nimmt zu höheren Wachstumstemperaturen hin ab. Für eine gegebene THz-Zielfrequenz muss das LT-GaAs Material so gewählt werden, dass es eine optimale elektrische Effizienz aufweist. Die so optimierten Photoschalter müssen in eine resonante Antennenstruktur eingebettet werden, um eine optimale THz-Abstrahlung zu ermöglichen. Je nach Anwendung kann die Antennenstruktur entweder breitbandig (d.h. breiter Abstimmbereich) mit vergleichsweise niedriger Abstrahlungseffizienz oder schmalbandig mit hoher Abstrahlungseffizienz gewählt werden. Das Schlüsselproblem beim Entwurf effizienter Photomischer ist jedoch die Fehlanpassung zwischen der Impedanz des Photoschalters und der Eingangsimpedanz der Antenne, die nur durch die Wahl einer geeigneten Antenne verbessert werden kann. Eine der ungeklärten Fragen bei der Entwicklung von leistungsfähigen Photomischern auf LT-GaAs-Basis für Dauerstrich- und hochrepetierlichen Pulsbetrieb war bisher der Einfluss der Feldabschirmung im Photoschalter. Zur Untersuchung des lokalen Feldes und seiner Abschirmung wurde ein zeitaufgelöstes Doppelpulsexperiment durchgeführt. Das beobachtete Abschirmverhalten ist, entgegen allen bisherigen Aussagen, nicht auf die Abschirmung durch Raumladungen. sondern auf die Abschirmung durch das elektrische THz-Strahlungsfeld (Nahfeld) zurückzuführen.
Das Adenokarzinom des Pankreas ist das fünfthäufigste Malignom der westlichen Länder mit einer sehr schlechten Prognose. Zum Zeitpunkt der Diagnosestellung ist das Pankreaskarzinom wegen der frühen lokalen Infiltration und Metastasierung meist nicht mehr kurativ behandelbar. 80 % aller Pankreaskarzinome werden in einem fortgeschrittenen Krankheitsstadium diagnostiziert. Die Therapie des fortgeschrittenen Pankreaskarzinoms gestaltet sich problematisch. Bislang führten systemische chemotherapeutische Ansätze nicht zur erhofften Verlängerung der Lebenszeit. In der vorliegenden Phase II Studie wurden in der Abteilung für Allgemein- und Gefäßchirurgie der Universitätsklinik Frankfurt am Main 17 Patienten mit lokal fortgeschrittenem oder metastasiertem Pankreaskarzinom mit einer regional/systemischen Kombinationschemotherapie behandelt. Ein Therapiezyklus bestand aus einer 3ominütigen intraarteriellen Infusion von 8,5 mg/m2 Mitomycin C und aus einer 60minütigen intraarteriellen Infusion von 500 mg/m² Gemcitabine über einen transfemoralen Truncuskatheter an den Tagen 1 und 22, gefolgt von einer systemischen lnfusion von 500 mg/rn² Gemcitabine über 30 Minuten an den Tagen 8, 15, 29 und 36. Die Komhinationschemotherapie war nebenwirkungs- und komplikationsarm. Schwere Nebenwirkungen im NCI-Stadium III/IV wurden im Verlauf von 37 Therapiezyklen mit 74 regionalen Applikationen und 148 systemischen Applikationen in 9 % der Applikationen als Beeinträchtigung der Knochenmarksfunktion (Leukopenie, Thrombopenie und Hämoglobinabfall) und in 15 % der Applikationen als Leberfunktionsstörungen (Erhöhung von Transaminasen, alkalischer Phosphatase und Bilirubin) beobachtet. Die Nebenwirkungen nach regionalen Therapien waren mit den Nebenwirkungen nach venösen Therapien vergleichbar. Kein Patient verstarb an den Folgen einer Nebenwirkung. Ein Patient erlitt nach einer regionalen Chemotherapie einen kompletten Verschluß der Arteria iliaca externa sinistra. Der Therapieerfolg wurde anhand von Computertomographien (CT) und Tumormarker CA 19-9 Bestimmungen nach jedem Chemotherapiezyklus beobachtet und gemäß den WHO-Kriterien beurteilt. Nach CT-Kriterien zeigten vier Patienten eine Regression. Eine komplette Remission wurde bei einer Patientin, eine partielle Remission bei drei Patienten beobachtet. Eine radiologische Remissionsrate von 24 % konnte errechnet werden. Bei fünf Patienten ließ sich unter Therapie keine Größenzunahme des Tumors erkennen (Stable disease). Das Tumorwachstum war bei neun Patienten progredient. Bei sieben Patienten konnte unter Therapie ein Tumormarkerrückgang von mehr als 50 % evaluiert werden (Remissionsrate 41%). Insgesamt zeigten sich zwei komplette Remissionen mit Sinken des Tumormarkers CA 19-9 in den Referenzbereich, d.h. unter 37 µg/ml, und fünf partielle Remissionen. Bei fünf Patienten war der Verlauf des Tumormarkers CA 19-9 unter Therapie stabil (Stable disease). Der Tumormarker CA 19-9 stieg progredient bei fünf Patienten. Das mediane Überleben nach der Kombinationschemotherapie betrug 9,1 Monate (95 % CI: 6-12 Monate). Das mediane Überleben war für Patienten ohne Fernmetastasen (n = 7) mit 15 Monaten (95 % CI: 3-23 Monate) signifikant (p = 0,037) länger als für Patienten mit Fernmetastasen (n = 10) mit 6,3 Monaten (95 % CI: 4,6-12 Monate). Die mediane progressionsfreie Zeit während der Kombinationschemotherapie betrug 4,6 Monate (95 % CI: 2,1-8,7 Monate). Das radiologische Ansprechen (24 %) und die mediane Überlebenszeit (9,1 Monate) dieser regional/systemischen Kombinationschemotherapie waren im Vergleich zu systemischen Standardchemotherapien mit Gemcitabine, die radiologische Remissionsraten von 6,3 % bis 12 % und mediane Überlebenszeiten von 4,8 bis 6,6 Monaten zeigten, erhöht. Die Studie wird aufgrund ihres hohen klinischen Nutzens weiter fortgesetzt. Eine randomisierte Phase III Studie, die die vorliegende regional/systemische Kombinationschemotherapie (Mitomycin C 8,5 mg/m2 Gemcitabine 500 mg/m2) mit dem systemischen Standardverfahren (Gemcitabine 1000 mg/m2) vergleicht, wird angestrebt.
Optimierte Labordiagnostik zum Nachweis einer Heparin-induzierten Thrombozytopenie (HIT) Typ II
(2002)
Es ist bekannt, dass nicht alle Patienten, die sich unter einer Heparintherapie nachweislich gegen Heparin/PF4-Komplex immunisieren, das klinische Bild einer Heparin-induzierten Thrombozytopenie (HIT) Typ II entwickeln, wenngleich Heparin/PF4-Antikörper ursächlich für diese schwerwiegende Nebenwirkung angeschuldigt werden. Es ist davon auszugehen, dass in Abhängigkeit von der Grunderkrankung der Anteil der Patienten mit Heparin/PF4-Antikörpern, der keine Klinik entwickelt, relativ groß ist. Da die bisher entwickelten Testsysteme auf dem Nachweis von Heparin/PF4-Antikörpern beruhen, wirkt sich dieses Phänomen nachteilig auf die Testspezifität aus. In der vorliegenden Arbeit wurde untersucht, welche der Immunglobulinklassen der HITspezifischen Antikörper für die Auslösung einer HIT Typ II von Bedeutung sind, und inwieweit die isolierte Bestimmung einer der Immunglobulinklassen IgG, IgM und IgA in der Lage ist, die Aussagekraft eines immunologischen Testsystems zu verbessern. Hierzu wurden Patienten, bei denen Heparin/PF4-Antikörper nachweisbar waren, nach klinischen Kriterien in drei verschiedene Gruppen unterteilt und bezüglich der Immunglobulinklassen verglichen. In Gruppe I wurden Patienten zusammengefasst, bei denen sich der klinische Verdacht einer HIT Typ II labordiagnostisch durch Heparin/PF4-Antikörpernachweis bestätigte, und die als besonderes Kriterium thromboembolische Komplikationen entwickelten. Patienten mit einer isolierten Heparin-induzierten Thrombozytopenie und positivem Antikörpernachweis aber ohne thromboembolische Komplikationen wurden als Gruppe II unterschieden. Durch die getrennte Beobachtung dieser beiden Patientengruppen sollte der prädiktive Wert der Immunglobulinklassen für die Entwicklung von Thrombosen unter HIT Typ II untersucht werden. Verglichen wurden diese beiden Gruppen mit einer dritten Gruppe von selektierten Patienten aus einer prospektiven Studie. Die eingeschlossenen gefäßchirurgischen Patienten aus dieser Studie mussten die Kriterien "positiver Heparin/PF4-Antikörpernachweis während Heparintherapie" und "keine klinischen Zeichen einer Heparin-induzierten Thrombozytopenie Typ II" erfüllen. In dieser Arbeit wurde weiter untersucht, welche der Immunglobulinklasse IgG, IgM und IgA am besten zwischen Patienten mit positiven Heparin/PF4-Antikörpern mit und ohne typischer "HIT-Klinik" unterscheiden kann. Die Bestimmung der Immunglobulinklassen erfolgte zum Zeitpunkt des akuten thrombozytopenischen Geschehens, bzw. bei den asymptomatischen Patienten in einem Zeitfenster von 5 bis 20 Tagen nach Therapiebeginn mit einer ELISA-Methode nach Amiral et al. (1991). Parallel zu den immunologischen Untersuchungen wurde ein etablierter, funktioneller Test, der Heparin-induzierte Plättchenaktivierungstest (HIPA) von Greinacher et al. (1991) bei allen Patienten angewandt. Es kam zu folgenden Ergebnissen im Vergleich der Gruppen: Die Patienten mit einer HIT Typ II mit thromboembolischen Komplikationen ließen sich durch keine der untersuchten Immunglobulinklasse oder den Heparin-induzierten Plättchenaktivierungstest (HIPA-Test) signifikant von den Patienten mit HIT ohne thromboembolische Ereignisse unterscheiden. Die asymptomatischen Patienten mit positivem Heparin/PF4-Antikörpernachweis waren signifikant (p < 0,05) von den Patienten mit einer klinisch wahrscheinlichen und laborchemisch nachgewiesenen HIT Typ II zu unterscheiden durch die Immunglobulinklasse IgG und den Heparin-induzierten Plättchenaktivierungstest (HIPA-Test), nicht aber durch die Immunglobulinklassen IgM und IgA. Dementsprechend zeigte IgG in der Diskriminanzanalyse zwischen Patienten mit klinisch eindeutigem HIT Typ II und asymptomatischen Patienten mit positivem Heparin/PF4- Antikörpernachweis mit 20 % eine um 9 % niedrigere Fehlklassifikationsrate als die Mischung aus IgG, IgM und IgA. Der durch die Diskriminanzanalyse optimierte Cut-Off konnte zwar für die Mischung aus IgG, IgM und IgA eine Spezifitätssteigerung von 0 auf 66,6 % erzielen, dies verursachte jedoch einen Verlust an Sensitivität von 91 % auf 76 %. Der Verlust an Sensitivität ist bei der Immunglobulinklasse IgG mit 2 % deutlich günstiger, während die Spezifität zusätzlich durch die Cut-Off Optimierung von 62,5 auf 70,8 % gesteigert werden konnte. Damit ist der Heparin/PF4-Antikörper-EIA mit der isolierten Bestimmung der Immunglobulinklasse IgG bei vergleichbarer Sensitivität spezifischer als der funktionelle HIPA-Test. Aus diesen Ergebnissen lässt sich bestätigen, dass die Immunglobulinklasse IgG eine zentrale Rolle in der Pathogenese spielt, während die Klassen IgM und IgA keinen Einfluß auf die Klinik der HIT Typ II zu haben scheinen. Da nicht alle Patienten mit Heparin/PF4-Antikörpern der Klasse IgG eine HIT Typ II entwickeln, müssen weitere Faktoren am Zustandekommen der klinischen Symptomatik beteiligt sein. Weiter lässt sich schlussfolgern, dass der Heparin/PF4-Antikörper-EIA (HPIA), sofern man nur die relevante Immunglobulinklasse IgG misst, ein brauchbares Instrument zur Diagnostik der HIT Typ II darstellt, und daher von weniger spezialisierten Labors wegen seiner besseren Praktikabilität einem funktionellen Test wie dem HIPA-Test vorgezogen werden sollte. Zwischen Immunglobulinklassen und dem Risiko, ein thromboembolisches Ereignis während einer HIT Typ II zu entwickeln, konnte kein Zusammenhang festgestellt werden. Es ist zu vermuten, dass der überwiegende Teil der Patienten mit initial isolierter Thrombozytopenie bei fortlaufender Therapiedauer auch Thrombosen entwickelt hätte und sich die beiden Patientengruppen I und II nur hinsichtlich der Dauer der Heparintherapie unterscheiden.
Diese Arbeit beschreibt die Identifizierung, Klonierung und Charakterisierung von zwei neuen humanen S1P-Rezeptoren. Damit wird die Familie der S1P-Rezeptoren um einen hochaffinen und einen niedrig affinen Rezeptor erweitert. Die Untersuchungen der Expressionsprofile aller humanen S1P/LPA-Rezeptoren sowohl in Herz-Kreislauf-relevanten Geweben als auch in Endothelzellen und glatten Muskelzellen erfolgten bisher nicht im Sinne der hier dargestellten familienübergreifenden Betrachtung. Zusätzlich wurde in dieser Arbeit erstmalig auch der hS1P5-Rezeptor mit eingeschlossen. Wir konnten zeigen, dass zur Beurteilung der S1P- und LPA-Effekte in den untersuchten Gewebe- und Zellarten neben den bisher bekannten sieben Rezeptoren auch der hS1P5-Rezeptor betrachtet werden muss. Dies ist von entscheidender Bedeutung, da in bisherigen Untersuchungen insbesondere bei der Interpretation der S1P-Wirkungen nur die Rezeptoren S1P1-3 berücksichtigt wurden. In dieser Arbeit wurde außerdem zum ersten Mal eine große Anzahl potentieller Lipidliganden an den S1P-Rezeptoren S1P1-3 und 5 sowie am hGPR63 getestet. Auch wenn hierbei keine neuen Liganden identifiziert werden konnten, grenzen unsere Untersuchungen die Zahl potentieller zusätzlicher Liganden ein. Außerdem konnten wir zeigen, dass Suramin nicht - wie bisher vermutet - ein spezifischer Antagonist des S1P3-Rezeptors ist, sondern auch S1P5-Rezeptor-vermittelte Effekte blockieren kann. Hierdurch kann eine Fehlinterpretation von durch Suramin-hemmbaren Effekten verhindert werden. Ein wichtiger Befund dieser Arbeit, insbesondere für die pharmazeutische Industrie, ist die speziespezifische Expression des S1P5-Rezeptors. Während in der Ratte hauptsächlich eine Verteilung des Rezeptors im ZNS zu beobachten ist, findet sich das humane Homologe hauptsächlich in peripheren und hier insbesondere Herz-Kreislauf-relevanten Geweben. Der Einsatz von Tiermodellen, bei denen es sich in der Regel um Nager handelt, zur Untersuchung der S1P-Effekte muss daher kritisch überdacht werden, da in diesem Fall ein im Menschen potentiell relevanter Rezeptor nicht in den peripheren Geweben der Ratte vorhanden und somit nicht an den S1P-Wirkungen beteiligt ist. Zudem konnten wir auch funktionelle Unterschiede zwischen den beiden Rezeptoren unterschiedlicher Spezies beobachten, was zusätzlich gegen die Verwendung von Tiermodellen zumindest bei Untersuchungen des S1P5-Rezeptors spricht. Neben der erstmaligen Charakterisierung der Signaltransduktionswege des S1P5-Rezeptors konnte im Laufe dieser Arbeiten eine weitere neue Eigenschaft des S1P5-Rezeptors festgestellt werden: Dieser ist in der Lage, ligand-unabhängige Effekte hervorzurufen. Dies ist von Bedeutung, da häufig Rezeptoren, die aufgrund von Mutationen konstitutiv aktiv sind, für die Ausbildung von Krankheiten verantwortlich sind. Wir konnten darüberhinaus zeigen, dass der zweite in dieser Arbeit identifizierte S1P-Rezeptor, der orphan-hGPR63, von relativ hohen Konzentrationen an S1P sowie von doPA angeschaltet wird. Wenngleich die Affinität des hGPR63 zu doPA niedrig ist, ist dies jedoch der erste Rezeptor, der auf dieses Lipid reagiert. Welche physiologische Bedeutung diesem Rezeptor zukommt, ist noch völlig offen, die primäre Expression im Hirn weist jedoch auf eine zumindest partielle zentrale Wirkung hin. Zusätzlich zu den molekularbiologischen Befunden können aus dieser Arbeit wichtige Informationen für das Screenen von GPCRs und hier insbesondere von Lipid-GPCRs abgeleitet werden. Allgemein gilt, dass der Auswahl des richtigen Versuchssytems im Hinblick auf die Fragestellung und das zu untersuchende Protein eine entscheidende Bedeutung zukommt. Während bei Rezeptoren mit einer restriktiven Gewebeverteilung die Suche nach einem geeigneten Zellsystem keine Schwierigkeiten bereitet, stellt dies das Hauptproblem in der Lipidforschung dar. Da es keine Säugerzellen gibt, die nicht auf S1P reagieren, muss jedes Versuchssystem erneut auf Eignung und optimale Zellart untersucht werden. So konnten in transient transfizierten CHO-K1-Zellen hintergrundfreie S1P-Signale im FLIPR-Versuch gemessen werden, während in den MAP-Kinase-Versuchen in CHO-K1-Zellen der hohe endogene Hintergrund das Versuchsfenster auf ein Minimum reduzierte. Während die Messung von LPA-Effekten in CHO-K1-Zellen mit der FLIPR-Technologie aufgrund der endogenen Signale nicht möglich ist, können LPA-Effekte in McARH7777-Zellen ohne störenden Hintergrund gemessen werden. In diesem Zellsystem ist wiederum die Messung von S1P nicht oder nur begrenzt möglich. Auch wenn diese Beispiele spezifisch für Lipidrezeptoren sind, lässt sich doch aus dieser Arbeit die Notwendigkeit ableiten, neben der richtigen Substanz-Bibliothek besonders bei der Suche nach Liganden für orphan-GPCRs das richtige zelluläre System einzusetzen.
One of the most species-rich ant-plant mutualisms worldwide is the palaeotropical Crematogaster-Macaranga system. The pioneer-tree genus Macaranga (Euphorbiaceae) is mainly inhabited by at least nine specific species of Crematogaster (Myrmicinae), of which eight belong to the subgenus Decacrema, as well as several species of Camponotus (Formicinae). Ant species are not randomly distributed among the Macaranga host plants but distinct patterns of associations have been found (Fiala et al., 1999 and references cited therein). The specificity of the associations is maintained in spite of common sympatric distribution of several host-plant species. Associations are, however, usually not species-specific and especially the Decacrema ants, that are the focus of this study, usually colonize several host plant species each. In this study I used a combined approach of ecological data as well as phylogenetic data based on mitochondrial DNA sequences in order to elucidate the factors determining the patterns found in the associations and the evolution of this mutualistic system between the specific Decacrema ant partners and their Macaranga host plants. Life history traits of seven different morphospecies found on the most common Macaranga host plants were compared and colony development was followed from colony founding on saplings to adult trees. Temporal variability of the associations between Decacrema ants and their respective host plants was also examined. Associations between Crematogaster ants of the subgenus Decacrema and their Macaranga host plants were found to be stable over periods of time, long enough to enable reproduction of the ant colony and (in most cases) the host plants, too. Life-expectancy of the ant colony seems to be shorter than that of the host plant in general. All adult trees still provide nesting space as well as food for the ants. Colonies from different morphospecies differed in longevity, the onset of alate production, queen number and mode of colony founding. The examined Decacrema species could be placed into two groups according to their life-history traits as well as on morphological grounds: The decamera-group and the captiosa-group, each named after one species that could be synonymized with one morphospecies included in the group. Members of the captiosa-group have larger colonies, presumably with a longer life-span, and a later onset of reproduction compared to the decamera-group. Additionally, queens of the captiosa-group found colonies on saplings as well as in the crown region of bigger trees, whereas queens of the decamera-group found colonies on saplings and small treelets only. Queens belonging to the captiosa-group are brown with relatively large eyes (= 1/3 of the head length), whereas queens from the decamera-group are smaller in size, are dark brown to black in colour and have smaller eyes (< 1/3 of the head length). On some of the host plants examined in this study lifespan of the host plant and their specific ant partners seemed to be well matched whereas on others an ontogenetic succession of specific Decacrema partner ants was found, when host plants were abandoned due to the death of comparatively short-lived ant colonies, usually from species belonging to the decamera-group. Ant-partners of saplings or young plants often differed from specific partner ants found on bigger trees. Only species belonging to the captiosa-group were found to re-colonize the crown region of adult trees, thus facilitating a change of ant species, when longlived host plant species were colonized by relatively short-lived species from the decamera-group first. When long -lived host plants were colonized by long-lived species from the captiosa-group associations were stabler: I did not find any temporal variation in ant-inhabitants then. Life-span of the ant colony as well colony founding behaviour of the different partner ant species therefore play an important role for these ontogenetic changes and the specificity of the associations over time. For the host plant the ontogenetic changes have a strong impact as uninhabited host plants that are not patrolled by workers of specific ant partners suffer higher herbivore damage. Uninhabited host plants may also be colonized by unspecific arboreal ants that only make use of the nesting space and/ or food offered by the plant but do not confer protection against herbivores. Stable associations with a specific ant partner are therefore most beneficial for the host plants. Usually ant colonies are monogynous, but changes in the colony structure were found locally in two Decacrema species. I found colonies that turned secondarily polygynous, possibly after the death of the original founding queen. Secondary polygyny therefore can prolong the life-span of the antcolony on its host plant, leading to a parallel life-history and stable association as it was the case in Macaranga bancana-Crematogaster captiosa. However, in the other association (Macaranga hypoleuca-Crematogaster cf. decamera) life-expectancy of the ant-colony is still much shorter than that of its host plant species, leading to a change in the specific ant partner at a later stage. Pleometrotic foundress associations that directly led to polygynous colonies in one species were also found locally, a phenomenon hardly ever reported from ants in general. Foundress associations were found to be more successful in establishing colonies than single queens. I found indications that this change in colony founding behaviour might be due to interspecific competition for the same host plant species with another Decacrema species specific to Macaranga. For the phylogenetic analysis partial mitochondrial cytochrome oxidase I and II were sequenced and Neighbor-Joining, Maximum Parsimony, Maximum Likelihood as well as Bayesian analyses were performed. The four different analyses yielded phenetic as well as phylogenetic trees that all had a similar topology. Ants of the subgenus Decacrema formed a monophyletic clade, indicating a single colonization event at the beginning of the Macaranga-Decacrema symbiotic system. In the phylogenetic analysis the decamera-group as well as the captiosa-group were confirmed and clearly separated from each other. However, two species that would have been placed into the decamera-group, due to morphological as well as life-history traits, formed a third separate clade within the Decacrema. These two species (msp. 7- group) as well as the decamera-group came out as the basal groups in the phylogenetic analysis. Thus, life -history traits of these two groups (relatively small colonies, early onset of alate production, colony founding in ground region only) would be the ancestral state for Macarangaassociated ants of the subgenus Decacrema. Changes in colony structure, like secondary polygyny, were found in the captiosa- as well as the decamera-group and are therefore independent of the affiliation within the phylogeny. I did not find evidence for strict cocladogenesis between the subgenus Decacrema and their Macaranga host-plants, although ecological interactions between the two partner groups are close and associations can be rather specific. The phylogenies presented here, along with the known association patterns indicate that host-shifting of the ants is common in some of the species, opening the possibility of sympatric speciation as a result of increased host usage. Additionally, the considerable geographic substructuring found in the phylogenetic trees suggests that allopatric speciation has played a major role in diversification of the Decacrema ants.
Der STAR Level-3 Trigger
(2002)
Schwerionen-Collider-Experimente, wie das STAR-Experiment am RHIC (BNL) oder das geplante ALICE-Experiment am LHC (CERN) untersuchen Schwerionenkollisionen bei Schwerpunktsenergien von Wurzel aus SNN = 200 GeV (RHIC), bzw. Wurzel aus sNN = 5, 5 TeV (ALICE). In diesen Kollisionen werden mehrere tausend geladene Teilchen produziert, die in STAR und ALICE in großvolumigen TPCs gemessen werden. Das Datenvolumen erreicht dabei bis zu 10 MB (STAR) und 60 MB (ALICE) pro Ereignis. Aufgrund der hohen Luminosität der Collider könnten die Experimente zentrale Schwerionenkollisionen mit einer Rate bis zu 100 Hz bzw. 200 Hz (ALICE) untersuchen. Die dabei entstehenden Datenraten im Bereich mehrerer GB/s sind mit heutiger Technologie jedoch nicht mehr einfach zu speichern. Deshalb kann nur ein Bruchteil der zur Verfügung stehenden Ereignisse aufgezeichnet werden. Aufgrund der exponentiellen Entwicklung der CPU-Leistung wird es jedoch möglich, die Rekonstruktion von Ereignissen während der Datennahme in Echtzeit durchzuführen. Basierend auf den rekonstruierten Spuren in den Detektoren kann die Entscheidung getroffen werden, ob ein Ereignis gespeichert werden soll. Dies bedeutet, dass die begrenzte Speicherbandbreite gezielt mit Ereignissen, die eine interessierende physikalische Observable beinhalten, angereichert werden kann. Ein solches System zur Ereignisselektion wird als Level-3-Trigger oder allgemeiner als High Level Trigger bezeichnet. Am STAR-Experiment wurde erstmals in einem Schwerionenexperiment solch ein Level-3-Triggersystem aufgebaut. Es besteht aus 432 i960-CPUs, auf speziell gefertigten Receiver Boards für die paralelle Clusterrekonstruktion in der STARTPC. 52 Standard-Computer mit ALPHA- bzw. Pentium-CPUs rekonstruieren die Spuren geladener Teilchen und tre.en eine Triggerentscheidung. Dieses System ermöglicht die Echtzeit-Rekonstruktion zentraler Au-plus-Au-Kollisionen mit anschliessender Analyse durch einen Trigger-Algorithmus mit einer Rate von 40-50 Hz. Die Qualität, die mit dieser schnellen Analyse erreicht wird, kann mit der Qualität der STAR-Offline-Rekonstruktion verglichen werden. Der Level-3-Clusterfinder erreicht in Bezug auf Ortsauflösung und Rekonstruktionseffizienz dieselbe Qualität wie der Offline-Clusterfinder. Der Level-3-Trackfinder erreicht bei Rekonstruktionseffizienz und Impulsauflösung 10-20% schlechtere Werte als der Offline- Trackfinder. Die Anwendung eines Level-3-Triggers besteht in der Messung von seltenen Observablen ("rare Probes"), die ohne eine Anreicherung nicht, oder nur schwer, meßbar wären. In den Jahren 2000 und 2001 wurden erste Triggeranwendungen für das STARLevel- 3-System erprobt. In ultraperipheren Au-plus-Au-Kollisionen wurden po-Kandidaten schon im Jahr 2000 selektiert. Während der Strahlzeit des Jahres 2001 wurde das Level-3-System erstmals zum Triggern in zentralen Au-plus-Au-Kollisionen eingesetzt. Die Triggeralgorithmen beinhalteten einen Õ-Trigger, einen 3He-Trigger und einen Algorithmus zur Anreicherung von Spuren hohen Impulses in der Akzeptanz des RICH-Detektors. Das STAR Level-3-System ist in der Lage zehnmal mehr Ereignisse zu analysieren, als gespeichert werden können. Aufgrund der begrenzten Luminosität des RHIC-Beschleunigers, konnten die Level-3 Trigger erst zum Ende der Strahlzeit eingesetzt werden. Den genannten Algorithmen standen zusätzlich zu den 3 · 10 hoch 6 gespeicherten zentralen Ereignissen, 6 · 10 hoch 5 zentrale Ereignisse zur Analyse zur Verfügung. Mit diesem begrenzten Anreicherungsfaktor von 20% blieb das System hinter seinen Möglichkeiten zurück. Es konnte jedoch gezeigt werden, dass das STAR Level-3-System in der erwarteten Qualität und Stabilität funktioniert.
Der Ein-Elektron Transporter Adrenodoxin spielt in der Steroidhormonbiosynthese eine entscheidende Rolle. Bislang konnte der Elektronentransportmechanismus zwischen der Adrenodoxin-Reduktase und dem Cytochrom P450 mittels Adrenodoxin nicht eindeutig nachgewiesen werden. Um die molekularen Wechselwirkungen besser verstehen zu können wurden in der vorliegenden Arbeit strukturelle Untersuchungen am Rinderadrenodoxin durchgeführt. Nachdem es bereits 1998 gelang die Struktur des oxidierten Zustands des Adrenodoxins aufzuklären [Müller et al. 1998], sollte die Struktur des reduzierten Zustands Aufschluss über mögliche redoxbedingte konformationelle Änderungen geben. Die Strukturaufklärung mittels NMR erfordert hohe Expressionsausbeuten und effektive Aufreinigungsstrategien des rekombinant hergestellten Proteins. Deshalb wurde zunächst eine Steigerung der Expression von löslichem Adrenodoxin in E.coli angestrebt. In Minimalmedium lieferte die Expression unter Zusatz von 2,5g Glycerin und 1g Glucose optimale Ergebnisse. So konnte nach Optimierung der Aufreinigungsabfolge aus einem Liter M9-Medium bis zu 50 mg homogenes Protein isoliert werden. Nach Optimierung der Expressionsbedingungen und der Aufreinigungsstrategie konnte das Adrenodoxin mit den NMR aktiven Isotopen 15N sowie 13C angereichert werden. Die Reduktion des Adrenodoxins erfolgte durch Zusatz von Natriumdithionit unter strikt anaeroben Bedingungen. Die strukturelle Untersuchung mittels NMR setzt eine Zuordnung der Proteinresonanzen voraus. Diese erfolgte unter Verwendung verschiedener Tripleresonanzexperimente. Eine Zuordnung war aufgrund des stark ausgeprägten Paramagnetismus nur für solche Reste möglich, die sich mindestens 8 Å vom [2Fe-2S]-Cluster des Adrenodoxins entfernt befinden. Trotzdem konnten wichtige Regionen, die sich außerhalb des Einflussbereichs des [2Fe-2S]- Clusters befinden, zugeordnet und mit dem oxidierten Zustand verglichen werden. Aus den 15N-NOESY-HSQC und 13C-NOESY-HSQC-Spektren wurden für den reduzierten Zustand unter Zuhilfenahme des Programms NMR2st 1300 effektiv abstandsbeschränkende NOESignale eindeutig zugeordnet. Nach Minimierung der Zielfunktion wurden im letzten Schritt 50 Strukturen mit dem Strukturkalkulationsprogramm DYANA berechnet. Die 20 Strukturen mit den besten Targetfunkionen wurden als Strukturensemble dargestellt. Für das Proteinrückrat beträgt der RMSD 2,34 Å. Anhand der chemischen Verschiebungsänderungen konnten erste Unterschiede zwischen oxidierten und reduzierten Zustand des Adrenodoxins festgestellt werden. Besonders markant sind diese Veränderungen im Bereich des C-Terminus und des Loops 80-86. Änderungen konnten auch im "Chemical Shift Index" und beim Vergleich der NOE-Konnektivitäten beider Redoxzustände beobachtet werden. Gerade für die Aminosäurereste Asp76 und Asp79, die für die Wechselwirkung zu den Redoxpartnern essentiell sind, konnten Veränderungen im Aufspaltungsmuster der "NOE-Pattern" nachgewiesen werden, was auf konformationelle Änderungen im Bereich der Wechselwirkungsdomäne hindeutet. Der Vergleich der beiden Tertiärstrukturen lieferte weitere Indizien dafür, dass der C-Terminus redoxbedingte konformationelle Änderungen erfährt. Während des Erstellens dieser Arbeit konnte eine US-amerikanische Gruppe durch Zufall die Existenz eines Adrenodoxin (oxidiert) Dimers bei physiologisch relevanten Konzentrationen nachweisen [Pikuleva et al. 2000]. Bei der Dimerisierung spielt der C-Terminus eine entscheidende Rolle. Zwei intermolekulare Wasserstoffbrücken bilden sich zwischen CTerminus und Protein des jeweils anderen Partners aus. Redoxbedingte konformationelle Änderungen im Bereich des C-Terminus sollten die Auflösung des Dimers begünstigen. Um diese Vermutung zu bestätigen wurden Cross-Linking Experimente mit dem reduzierten und oxidierten Zustand des Adrenodoxins durchgeführt. Die Ergebnisse bestätigten die Annahme, dass sich das Adrenodoxin Dimer nach Reduktion auflöst. Außerdem konnte anhand der voll funktionsfähigen C-terminal verkürzten Mutante Adx(4-108) die tragende Rolle des CTerminus bei der Dimerbildung bewiesen werden. Aus den experimentell erhaltenen Daten wurde ein neuer Elektronentransportmechanismus postuliert, der sowohl Adrenodoxin Dimere als auch Adrenodoxin Monomere als Elektronentransporter annimmt [Beilke et al. 2002]. Die streng kontrollierte Steroidhormonbiosynthese wird durch den Einsatz von Adrenodoxin Dimeren beschleunigt und durch die redoxbedingte Auflösung der Dimere optimert. Die redoxbedingte Auflösung eines Dimers ist in der Biochemie einzigartig und kann zum Verständnis molekularer Wechselwirkungen beitragen. Für die gesamte Gruppe der vertebraten Ferredoxine sind aufgrund der Struktur- und Sequenzhomologie ähnliche Ergebnisse zu erwarten. Im zweiten Teil der Arbeit sollte die Ferredoxin-NADP -Reduktase (FNR) für strukturelle Untersuchungen mittels NMR zugänglich gemacht werden. Durch Verwendung von bakteriellen Expressionssystemen, insbesondere dem pQE30-Expressionssystem, konnte der Anteil an löslichem Protein im Vergleich zum Ursprungssystem um den Faktor 12 erhöht werden. Dabei führten möglichst niedrige Expressionstemperaturen und IPTG Konzentrationen zu den höchsten Proteinausbeuten. Ein verbessertes Isolationsverfahren wurde etabliert und ermöglicht die Darstellung von bis zu 90 mg FNR aus einem Liter LB-Medium. Eine Verlängerung der Expressionsdauer, hervorgerufen durch das Wachstum in M9-Medium und in D2O, verringerte den Anteil an vollständig intaktem Protein, weshalb auf eine kostspielige Proteinpräparation in dreifach angereicherten Minimalmedium verzichtet wurde.
Rezeptortyrosinkinasen der Familie der epidermalen Wachstumsfaktorrezeptoren (EGFR) sind in vielen Krebsarten dereguliert und ursächlich an der malignen Transformation beteiligt. Da die Aktivierung vom Rezeptor ausgehender Signaltransduktionskaskaden auf spezifischen Protein-Protein-Interaktionen basiert, kann durch gezielte Interferenz mit diesen Interaktionen das proliferative Signal ausgeschaltet und das Tumorwachstum angehalten werden. Für diese gezielte Interferenz wurde in der vorliegenden Arbeit das Peptid-Aptamer-System eingesetzt, mittels dem Peptide, die in ein Gerüstprotein inseriert sind, aufgrund ihrer Affinität zu einem Zielprotein selektiert werden können. Drei Peptid-Aptamere (KDI1, KDI3, KDI4), die spezifisch mit dem EGF-Rezeptor interagieren, konnten isoliert werden. lntrazelluläre Expression von Peptid-Aptamer KDI1 oder Einbringung des bakteriell exprimierten Peptid-Aptamers KDI1 mittels einer Proteintransduktionsdomäne führte zu reduzierter EGF-abhängiger Proliferation und Transformation. Durch Interferenz des Aptamers mit dem EGF-Rezeptor war die EGF-induzierte Phosphorylierung von Tyrosin 845, 1068 und 1148, sowie die Aktivierung von p46 Shc und STAT3 reduziert. Daher wurde gefolgert, dass das Peptid-Aptamer die EGF-abhängige Rekrutierung der zytoplasmatischen Kinase c-Src an den Rezeptor inhibiert. Durch Fusion einer zusätzlichen Domäne wie der SOCS-Box-Domäne konnte den Peptid-Aptameren eine zusätzliche inhibitorische Funktion gegeben werden. Hierbei handelt es sich um eine Domäne, die spezifisch Kontakt mit E3-Ubiquitin-Ligasen aufbauen kann. Es konnte gezeigt werden, dass durch Transduktion eines solchen Peptid-Aptamers der Rezeptor spezifisch ubiquitinyliert und damit degradiert wird. Das Peptid-Aptamer-System eignet sich somit dazu, Inhibitoren für vorgegebene Zielmoleküle zu isolieren, die sowohl in der Grundlagenforschung als auch in der Tumortherapie Anwendung finden können.
Stickstoffmonoxid (NO) ist ein gasförmiger Botenstoff, der über die Regulation des Vasotonus, die Hemmung der Thrombocytenaggregation sowie die Stimulation der Angiogenese auf die vaskuläre Homöostase einwirkt. Das wichtigste NO-produzierende Enzym im kardiovaskulären System ist die endotheliale NO-Synthase (eNOS), deren Aktivität durch posttranslationale Modifikationen wie Phosphorylierung und Acylierung, durch Interaktionen mit regulatorischen Proteinen wie Ca2 /Calmodulin und Caveolin sowie durch differentielle subzelluläre Lokalisation reguliert wird. Dabei sind die Faktoren, welche die (Trans-)Lokation der eNOS zwischen subzellulären Kompartimenten wie den Caveolae der Plasmamembran und dem Golgi-Apparat dirigieren, weitgehend unbekannt. Zur Identifizierung neuer Interaktionspartner wurde humane eNOS im "yeast two-hybrid"-System als "Köderprotein" eingesetzt und dabei das Fragment eines neuen humanen Proteins identifiziert, das vorläufig NOSTRIN (für: eNOS traffic inducer) genannt wurde. Im Rahmen der vorliegenden Arbeit gelang nun die Klonierung der kompletten NOSTRIN-cDNA, der Nachweis einer spezifischen Interaktion von eNOS und NOSTRIN in Säugerzellen sowie die Charakterisierung von NOSTRIN als Modulator der subzellulären Lokalisation und Aktivität von eNOS. Nach der kompletten Klonierung der NOSTRIN-cDNA mit Hilfe einer 5'-RACE resultierte ein offenes Leseraster von 506 Aminosäuren entsprechend einer Größe von ca. 58 kDa für NOSTRIN. Eine Datenbankrecherche zum Vergleich der NOSTRIN-Sequenz mit Sequenzen bekannter Proteinmotive ergab die Vorhersage einer N-terminalen Cdc15-Domäne sowie einer C-terminalen SH3-Domäne. Die direkte Interaktion zwischen eNOS und NOSTRIN konnte durch Copräzipitation in vivo und in vitro bestätigt werden. Weiterhin wurde nachgewiesen, dass die SH3-Domäne von NOSTRIN essentiell für die Bindung an eNOS ist. Zur Untersuchung des Einflusses von NOSTRIN auf die eNOS-Lokalisation wurden stabil transfizierte CHO-Zellen, die eNOS überexprimierten ("CHO-eNOS") eingesetzt. In der Immunofluoreszenz war eNOS vornehmlich in Assoziation mit der Plasmamembran und dem Golgi-Apparat zu sehen. Mit Hilfe des Semliki-Forest-Virussystems (SFV) wurde nun NOSTRIN transient überexprimiert; dabei zeigte sich für NOSTRIN eine vesikelartige Verteilung im Cytoplasma. Die NOSTRIN-Überexpression führte zu einer drastischen Umverteilung von eNOS, die nun in charakteristischen vesikelartigen Strukturen mit NOSTRIN colokalisierte. Die Verwendung von NOSTRIN-Konstukten, bei denen die SH3- Domäne deletiert war ("NOSTRIN.SH3"), veränderte zwar die typische NOSTRIN-Lokalisation nicht, ließ aber auch die subzelluläre Verteilung von eNOS unverändert, so dass NOSTRIN.SH3 und eNOS in unterschiedlichen zellulären Kompartimenten lokalisiert waren. Mit Hilfe der Immunofluoreszenz konnte ebenfalls eine Colokalisation von NOSTRIN und Caveolin-1, einem inhibitorisch wirkenden Interaktionspartner von eNOS, nachgewiesen werden. Die Analyse von Copräzipitationen mit NOSTRIN bzw. NOSTRIN.SH3 zeigte, dass Caveolin-1 in eNOS-unabhängiger Weise an NOSTRIN bindet, so dass ein ternärer Komplex aus NOSTRIN, eNOS und Caveolin-1 resultiert. Zur Klärung der Frage, ob NOSTRIN neben der subzellulären Lokalisation auch die Aktivität von eNOS beeinflusst, wurde die NO-Freisetzung von CHO-eNOS-Zellen analysiert. Dabei ergab sich, dass die transiente Überexpression von NOSTRIN in CHO-eNOS-Zellen die eNOS-Aktivität um 62 % im Vergleich zu Kontrollzellen reduzierte. In humanen primären Endothelzellen konnte mittels Immunoblotting und Immunofluoreszenzmikroskopie das Vorkommen von endogenem NOSTRIN sowie dessen Colokalisation mit endogener eNOS an der Plasmamembran nachgewiesen werden. Die Ergebnisse der vorliegenden Dissertation führen zur Hypothese, dass NOSTRIN als "molekulare Klammer" zwischen eNOS und Caveolin-1 dient, eine dynamische Umverteilung von eNOS innerhalb der Zelle vermittelt und damit das Enzym - direkt und/oder indirekt - inhibiert. Somit dürfte NOSTRIN als Modulator der Aktivität und Lokalisation von eNOS eine wichtige Rolle bei der Regulation der endothelialen NO-Produktion spielen.
Die auf dem ACDM-Modell beruhenden numerischen Simulationen der gravitativen Strukturbildung sind auf Skalen M >> 10 hoch 10 M sehr erfolgreich, insbesondere konvergieren die Verfahren hinsichtlich des vorhergesagten Masseanteils der Halos an der Gesamtmasse von Galaxien. Jedoch konvergieren die Simulationen nicht bezüglich der lokalen Überdichten von CDM in den Halos, vielmehr setzt sich gravitative Strukturbildung auf immer kleinere Skalen fort. Numerisch kann keine Massen-Schwelle berechnet werden, unterhalb derer keine CDM-Strukturen mehr gravitativ gebildet werden. Die Kenntnis der lokalen Überdichten in den CDM-Wolken und die Verteilung der CDM-Wolken ist jedoch für Experimente zum direkten und indirekten Nachweis von CDM-Teilchen essentiell. Aus den lokalen Überdichten folgen für Experimente zum direkten Nachweis die einfallende Stromdichten der CDM-Teilchen und für Experimente zum indirekten Nachweis die Stromdichte der Annihilationsprodukte. Außerdem können die lokalen Überdichten als Gravitationslinsen wirken. In dieser Arbeit werden Massen Schwellen analytisch berechnet, unterhalb derer akustische Störungen in CDM nicht mehr zur gravitativen Strukturbildung beitragen können. Das Massen-Spektrum von lokalen Überdichten ist nach unten durch zwei unterschiedliche Mechanismen beschränkt: (1) Während der kinetischen Entkopplung formieren sich Nichtgleichgewichtsprozesse, die sich kollektiv als Reihungsphänomene konstituieren. Im lineare Regime sind dies die Volumenviskosität, die Scherungsviskosität und die Wärmeleitung. Die dissipativen Prozesse deponieren Energie und Impuls der akustischen Störungen in die Ebene senkrecht zur Ausbreitungsrichtung der Störungen und schmieren diese so aus. (II) Nach dem kinetischen Entkopplungsprozeß strömt CDM frei auf Geodäten. Dies ermöglicht einen Strom von Teilchen von überdichten in unterdichte Regionen, so daß die Amplituden der lokalen Überdichten weiter gedämpft werden. Die lokalen Transportkoeffizienten in (1) werden durch einen legitimen Vergleich von hydrodynamischer und kinetischer Beschreibung schwach dissipativer Prozesse gewonnen. Dissipative Prozesse induzieren eine Dämpfungsmasse Mc ungefähr gleich 10 hoch minus 9 M in SUSY-CDM und beschränken damit das Spektrum akustischer Störungen in SUSY-CDM. Freies Strömen (II) von CDM-Teilchen auf Geodäten induziert eine weitere Dämpfungsmasse M fs ungefähr gleich 10 hoch minus 6 M in SUSY-CDM, wobei das berechnete M d als Anfangswert dient. Die berechneten Schwellen liefern konsistente Schranken für numerische Simulationen, die weit unterhalb des momentanen numerischen Auflösungsvermögens liegen. Weiterhin folgt aus den Schwellen die Masse der ersten rein gravitativ gebundenen CDM-Wolken. Aus diesen bilden sich im Rahmen der hierarchischen Strukturbildung größere Substrukturen bis hin zu den heute vorhandenen CDM-Halos.