Refine
Year of publication
- 2002 (1268) (remove)
Document Type
- Article (514)
- Doctoral Thesis (190)
- Part of Periodical (117)
- Part of a Book (97)
- Review (88)
- Working Paper (83)
- Book (49)
- Preprint (47)
- Conference Proceeding (23)
- diplomthesis (22)
Language
- German (862)
- English (360)
- French (18)
- Portuguese (11)
- mis (5)
- Spanish (5)
- Multiple languages (3)
- Turkish (2)
- Italian (1)
- Polish (1)
Has Fulltext
- yes (1268) (remove)
Is part of the Bibliography
- no (1268) (remove)
Keywords
- Rezension (49)
- Deutschland (26)
- Literatur (20)
- Frankfurt <Main> / Universität (17)
- Frankfurt <Main> (15)
- Theater (14)
- Vormärz (14)
- Phonetik (12)
- Deutsch (11)
- Phonologie (11)
Institute
- Physik (85)
- Extern (71)
- Medizin (66)
- Rechtswissenschaft (48)
- Biochemie und Chemie (47)
- Wirtschaftswissenschaften (38)
- Biowissenschaften (32)
- Gesellschaftswissenschaften (31)
- Pharmazie (25)
- Informatik (22)
Ambivalence in the regulatory definition of capital adequacy for credit risk has recently stirred the financial services industry to collateral loan obligations (CLOs) as an important balance sheet management tool. CLOs represent a specialised form of Asset-Backed Securitisation (ABS), with investors acquiring a structured claim on the interest proceeds generated from a portfolio of bank loans in the form of tranches with different seniority. By way of modelling Merton-type risk-neutral asset returns of contingent claims on a multi-asset portfolio of corporate loans in a CLO transaction, we analyse the optimal design of loan securitisation from the perspective of credit risk in potential collateral default. We propose a pricing model that draws on a careful simulation of expected loan loss based on parametric bootstrapping through extreme value theory (EVT). The analysis illustrates the dichotomous effect of loss cascading, as the most junior tranche of CLO transactions exhibits a distinctly different default tolerance compared to the remaining tranches. By solving the puzzling question of properly pricing the risk premium for expected credit loss, we explain the rationale of first loss retention as credit risk cover on the basis of our simulation results for pricing purposes under the impact of asymmetric information. Klassifikation: C15, C22, D82, F34, G13, G18, G20
The following descriptive paper surveys the various types of loan securitisation and provides a working definition of so-called collateralised loan obligations (CLOs). Free of the common rhetoric and slogans, which sometimes substitute for understanding of the complex nature of structured finance, this paper describes the theoretical foundations of this specialised form of loan securitisation. Not only the distinctive properties of CLOs, but also the information economics inherent in the transfer of credit risk will be considered, so that we can equally privilege the critical aspects of security design in the structuring of CLO transactions.
In this paper we assess the implications of sunk costs and product differentiation on the pricing decisions of the multinational firms. For this purpose we use a modified version of Salop's spatial competition. The model yields clear-cut predictions regarding the effects of exchange rate shocks on the market structure and on pass-through. The main results are following: shocks within the band of inaction do not affect market structure. The upper bound of this range rises as the industry ratio of sunk- to fixed costs increases. As fixed costs and product heterogeneity jointly increase, the lower bound drops. Outside of the range, depreciations cause one or several of those foreign brands closest to the home brand to leave. This decreases the overall responsiveness of prices to exchange rate shocks. Large appreciations induce entry and increase the elasticity of prices. This asymmetry implies larger positive than negative PPP deviations. When accounting for price changes in foreign markets, strategic pricing behaviour is no longer sufficient to generate real exchange rate variability. Incomplete pass-through obtains if and only if the domestic firms have a smaller market share abroad. With large nominal exchange rate shocks a hysteresis result obtains if and only if sunk costs are non-zero. Klassifikation: C33, E31
Since the second half of the nineties the euro area has been subject to a considerable accumulation of temporary and idiosyncratic price shocks. Core inflation indicators for the euro area are thus of utmost interest. Based on euro area-wide data core inflation in this paper is analyzed by means of an indicator derived from the generalized dynamic factor model. This indicator reveals that HICP inflation strongly exaggerated both the decline as well as the increase in the price trend in 1999 and 2000/2001. Our results reinforce those achieved by Cristadoro, Forni, Reichlin and Versonese (2001) based on euro area country data which indicates the robustness of the indicator. Klassifikation: C33, E31
Both unconditional mixed-normal distributions and GARCH models with fat-tailed conditional distributions have been employed for modeling financial return data. We consider a mixed-normal distribution coupled with a GARCH-type structure which allows for conditional variance in each of the components as well as dynamic feedback between the components. Special cases and relationships with previously proposed specifications are discussed and stationarity conditions are derived. An empirical application to NASDAQ-index data indicates the appropriateness of the model class and illustrates that the approach can generate a plausible disaggregation of the conditional variance process, in which the components' volatility dynamics have a clearly distinct behavior that is, for example, compatible with the well-known leverage effect. Klassifikation: C22, C51, G10
In this paper, we present a monetary policy game in which the central bank has a private forecast of supply and demand shocks. The public needs to form its inflationary expectations and can make use of central bank announcements. However, because of the credibility problem that the central bank faces, the public will not believe a precise announcement. By extending the arrangement proposed by Garfinkel and Oh (1995) to a model that includes private information about both demand and supply shocks, we investigate the feasibility of making imprecise credible announcements concerning the rate of inflation. Klassifikation:E52;E58
This paper investigates the financial contracting behavior of German venture capitalists against the results of recent theoretical work on the design of venture capital contracts, especially with regard to the use of convertible securities. First, we identify a special feature of the German market, namely that public-private partnership agencies require significantly lower returns than private and young venture capitalists. The latter are most likely to follow their North-American counterpart by refinancing themselves with closed-end funds. Second, with regard to financing practices it is shown that the use of convertibles, relative to other instruments, is influenced by the anticipated severity of agency problems. Klassifikation: C24; G24; G32
We analyze the desinvestment decision of venture capitalists in the course of an IPO of their portfolio firms. The capital market learns of the project quality only in the period following the IPO. Venture capitalists with high-quality firms face a trade-off between immediately selling their stake in the venture at a price below the true value and having to wait until the true value is revealed. We show that the dilemma may be resolved via a reputation-acquiring mechanism in a repeated game set-up. Thereby, we can explain, e.g., the advent of "hot-issue market behavior" involving early disinvestments and a high degree of price uncertainty. Furthermore, we provide a new rationale for underpricing. Young venture capitalists may use underpricing as a device for credibly committing themselves to acquiring reputation.
Deutsche Börse AG plans to introduce a system (Xetra Best) allowing brokers and broker-dealers to internalize the orders of retail customers. Further, Xetra Best supports payment for order flow arrangements. Both internalization and payment for order flow may be detrimental to market quality. This paper discusses advantages and disadvantages of these arrangements. It draws on experiences made in the US. We derive policy implications that aim at a more stringent interpretation of "best execution", and at higher transparency. Klassifikation: G10, G14
Within a two step GARCH framework we estimate the time-varying spillover effects from European and US return innovations to 10 economic sectors within the euro area, the United States, and the United Kingdom. We use daily data from January 1988 - March 2002. At the beginning of our sample sectors in all three currency areas/blocks formed a quite homogeneous group exhibiting only minor sector-specific characteristics. However, over time sectors became more heterogeneous, that is the response to aggregate shocks increasingly varies across sectors. This provides evidence that sector-specific effects gained in importance. European industries show increased heterogeneity simultaneously with the start of the European Monetary Union, whereas in the US this trend started in the early 1990's. Information technology and non-cyclical services (including telecommunication services) became the most integrated sectors worldwide, which are most affected by aggregate European and US shocks. On the other hand, basic industries, non-cyclical consumer goods, resources, and utilities became less affected by aggregate shocks. Volatility spillovers proved to be small and volatile. JEL_Klassifikation: G1, F36
Forecasting stock market volatility and the informational efficiency of the DAX-index options market
(2002)
Alternative strategies for predicting stock market volatility are examined. In out-of-sample forecasting experiments implied-volatility information, derived from contemporaneously observed option prices or history-based volatility predictors, such as GARCH models, are investigated, to determine if they are more appropriate for predicting future return volatility. Employing German DAX-index return data it is found that past returns do not contain useful information beyond the volatility expectations already reflected in option prices. This supports the efficient market hypothesis for the DAX-index options market.
Money-back guarantees in individual pension accounts : evidence from the German pension reform
(2002)
The German Retirement Saving Act instituted a new funded system of supplementary pensions coupled with a general reduction in the level of state pay-as-you-go old-age pensions. In order to qualify for tax relief, the providers of supplementary savings products must offer a guarantee of the nominal value at retirement of contributions paid into these saving accounts. This paper explores how this "money-back" guarantee works and evaluates alternative designs for guarantee structures, including a life cycle model (dynamic asset allocation), a plan with a pre-specified blend of equity and bond investments (static asset allocation), and some type of portfolio insurance. We use a simulation methodology to compare hedging effectiveness and hedging costs associated with the provision of the money-back guarantee. In addition, the guarantee has important implications for regulators who must find an appropriate solvency system for such saving schemes. This version June 17, 2002 . Klassifikation: G11, G23, G28
Die vorliegende empirische Studie analysiert die Vertragsgestaltung zwischen Investoren und europäischen Venture Capital-Fonds. Im Zentrum steht die Analyse der Vergütung des Fondsmanagements sowie der zum Einsatz kommenden Vertragsklauseln. Deren Ausgestaltung ist entscheidend für die Überwindung der Prinzipal-Agenten-Beziehung innewohnenden Agency-Probleme. Hierzu werden 122 Fondsprospekte sowie 46 Gesellschafterverträge von europäischen Venture Capital-Fonds ausgewertet, die in den Jahren 1996 bis 2001, der ersten großen Boomphase des europäischen Venture Capital-Marktes, aufgelegt wurden. Während die jährliche Vergütung des Fondsmanagements auf den ersten Blick sehr standardisiert erscheint, ergeben sich bei einer Barwertbetrachtung aller zu leistenden Management Fees über die gesamte Fondslaufzeit deutliche Anzeichen für Preisdifferenzierung. In Bezug auf den Einsatz von Vertragsklauseln kann eine Zunahme im Zeitablauf und mithin eine zunehmende Komplexität des Vertragsdesigns festgestellt werden. Vor dem Hintergrund der Erfahrungen aus dem US-amerikanischen Venture Capital-Markt kann diese Entwicklung jedoch noch nicht als abgeschlossen gelten. Der europäische Markt bewegt sich in Bezug auf die Verwendung vertraglicher Restriktionen auf dem Niveau, das in den USA bereits Anfang der neunziger Jahre erreicht war.
Against the difficult background of analysing aggregated data in this paper core inflation in the euro area is estimated by means of the structural vector autoregressive approach. We demonstrate that the HICP sometimes seems to be a misleading indicator for monetary policy in the euro area. We furthermore compare our core inflation measure to the wide-spread "ex food and energy" measure, often referred to by the ECB. In addition we provide evidence that our measure is a coincident indicator of HICP inflation. Assessing the robustness of our core inflation measure we carefully conclude that it seems to be quite reliable. This Version: April, 2002 Revised edition published in: Allgemeinenes Statistisches Archiv, Vol 87, 2003. Klassifikation: C32, E31
In nur wenigen Jahren wird die Euopäische Union um eine Gruppe osteuropäischer Staaten erweitert werden. Diese Erweiterung birgt Chancen und Risiken. Die Chancen liegen unter anderem in der Erweiterung der Märkte und gegenseitigen Handelsbeziehungen. Voraussetzung hierfür ist allerdings gegenseitiges Verständnis im doppelten Sinn dieses Wortes. Wenn die Menschen sich nicht verstehen, werden auch neue Möglichkeiten nicht genutzt werden können, wenn die Wirtschaft nicht die richtige Sprache findet, kann sie nichts verkaufen. Für alle wirtschaftlichen, kulturellen und gesellschaftlichen Bereiche ist eine funktionierende verbale Kommunikation unerläßlich. Wie viel mehr gilt dies für grenzüberschreitende Beziehungen. Die Erweiterung der EU wird nur dann in eine Integration der neuen Kandidaten münden können, wenn die Verständigung zwischen allen Beteiligten gesichert ist. In dem vorliegenden Bändchen weisen die Autoren nach, dass nur durch Sprachkultur und eine einschlägige Forschung, die auch die kulturspezifischen Konnationen mit berücksichtigt, eine interkulturelle Sprachkompetenz erworben werden kann. In der Sprachenvielfalt eines vereinten Europa wird eine solche Kompetenz mehr denn je gefragt sein. Welche Wege uns diesem Ziel näher bringen und welche Möglichkeiten die deutsche Sprache hat, der wachsenden Sprachkonkurrenz international zu begegnen, das ist die Fragestellung der hier publizierten Studien, die dazu eine Fülle von Vorschlägen, Empfehlungen und Anregungen beisteuern. Die Arbeiten sind Ergebnisse des forost-Projektes "Sprachkultur und Sprachkultivierung in Osteuropa – ein paradigmatischer Vergleich", das sich innerhalb der Gruppe III des Forschungsverbundes "Nationale Identität, ethnischer Pluralismus und internationale Beziehungen" dieser Thematik gewidmet hat.
Barriere Sprachkompetenz : Dokumentation zur Impulstagung vom 2. November 2001 im Volkshaus Zürich
(2002)
Lavater was admired and detested for his unconventional approach to theology and his rediscovery of physiognomy. He was an avid communicator and through his correspondence became known to almost all leading personalities of eighteenth century Europe, such as Goethe, Wieland and Rousseau. The more than 21,000 letters in Lavater's estate in the Zentralbibliothek Zürich display the enormous thematic variety produced during a remarkable forty years of correspondence. This unique source material is now being published for the first time. IDC Publishers makes this collection available for research to such various disciplines as theology, history, literature, arts, humanities and above all, the history of eighteenth century culture. Scope: * 9,121 letters from Lavater * 12,302 letters to Lavater * 1,850 correspondents
Um zu sehen, was im atomaren Bereich "die Welt im Innersten zusammenhält", werden seit fast einem Jahrhundert atomphysikalische Stoßexperimente durchgeführt. Es ist also möglich, durch den Beschuß von "Targetteilchen" mit "Projektilteilchen" Aussagen über verschiedene Größen in der atomaren Welt zu treffen. Hierbei werden nicht nur Eigenschaften wie der "Durchmesser" oder eine "Ladungsverteilung" eines Atoms untersuchbar, sondern - durch entsprechend geschickte Variation des Prinzips "Stoßexperiment" - auch Größen, die ein Laie niemals mit einem Stoß zwischen zwei Teilchen in Verbindung brächte. Moderne Experimente erlauben es inzwischen zum Beispiel, selektiv die Impulsverteilung einzelner Elektronen in Atomen und Molekülen sichtbar zu machen, indem diese durch Photonen entsprechender Energie aus dem zu untersuchenden Teilchen herausgerissen werden. Besagte Experimente stellen nicht nur hohe Anforderungen an die Nachweiseinheit, die den eigentlichen Prozeß sichtbar macht, sondern auch an das verwendete Target und das Projektil. Im Bereich der atomaren Grundlagenforschung bietet sich Helium als zu untersuchendes Objekt oftmals an. Um die Natur zu verstehen, ist es nötig, gemessene Größen mit einer Theorie, die den untersuchten Vorgang beschreiben soll, zu vergleichen. Im Bereich der theoretischen Physik kann bisher nur das Wasserstoffatom, das ein sog. "Zweikörperproblem" ist, ohne Näherungsverfahren vollständig beschrieben werden. Ein Heliumatom stellt also das "einfachste" atomare System dar, das als noch nicht "komplett verstanden" gilt. Genauso ist ein Heliumatom mit seinem Atomkern und seinen zwei Elektronen das erste "Mehrelektronensystem" im Periodensystem. Es können hier also im Vergleich zu Wasserstoff auch Korrelationseffekte zwischen Elektronen untersucht werden. Die gesamte Dynamik innerhalb des Atoms erhält einen anderen Charakter. Bisherige Experimente mit Helium innerhalb unserer Arbeitsgruppe haben allerdings eine prinzipielle Beschränkung: es ist im Allgemeinen sehr schwierig, den Spin der beteiligten Elektronen im Experiment nachzuweisen, so daß alle bisherigen Messungen immer die Einstellung der Elektronenspins nicht berücksichtigen. Es wird also über den Spin gemittelt gemessen. Ein Weg, dieses Problem zu umgehen, ist, neben einer wirklichen Messung des Spins, den Spin im Anfangszustand - also vor dem Streuexperiment - zu kennen. Dies geschieht in der vorliegenden Arbeit dadurch, daß Heliumatome in einem durch "Mikrostrukturelektroden" erzeugten Mikroplasma angeregt werden, und sich so die Spins ihrer beiden Elektronen zum Teil auch parallel zueinander einstellen. Während bisherige Ansätze das Prinzip verfolgen, die angeregten Heliumatome in Niederdruckplasmen bei einigen Millibar zu erzeugen, wird die Plasmaquelle in dieser Arbeit bei Drücken von bis zu einem Bar betrieben. Dadurch kann das Prinzip des "supersonic jets" ausgenutzt werden, so daß der hier erzeugte Atomstrahl eine interne Temperatur von einigen Millikelvin und eine mittlere Geschwindigkeit von 1000 m/s besitzt. Durch einen nur 10 cm langen Separationsmagneten werden die angeregten Zustände mit Spin (#; #) von den Zuständen mit Spin ("; ") und den nicht- angeregten Heliumatomen getrennt und in einem Fokuspunkt für ein Streuexperiment zur Verfügung gestellt. In der folgenden Arbeit wird also ein sehr kompakter Aufbau eines Gastargets aus angeregtem Helium mit polarisiertem Elektronenspin vorgestellt. Ein Target aus angeregtem Helium hat außerdem einen weiteren großen Vorteil gegenüber gewöhnlichen Heliumtargets. In der modernen experimentellen Physik werden oftmals Laser zur Manipulation von Atomen eingesetzt. So ist es möglich, durch gezielte Anregung eines Atoms mit einem Laser dieses zum Beispiel extrem zu kühlen. Hierzu müssen allerdings Anregungsniveaus im Atom zur Verfügung stehen, die mit den Wellenlängen heutiger Laser erreicht werden können. Das erste Anregungsniveau von Helium liegt jedoch mit 19.8 eV deutlich zu hoch. Der nächst höhere P-Zustand ist von diesem Niveau aber nur noch ca. 1.1 eV entfernt. Photonen dieser Energie können leicht mit Lasern erzeugt werden. Angeregtes Helium ist also durch Laser manipulierbar und liefert so zum Beipiel auch den Ausgangspunkt für die Bose-Einstein Kondensation von Helium.
Welches der vielen Internet-Bezahlsysteme sich am Markt durchsetzen wird, hängt entscheidend von der „gefühlten Sicherheit“ bei den Kunden ab. Dieses Fazit konnte man Ende Juni 2002 zum Abschluss des Symposiums „Digitales Geld“ im Institut für Telematik ziehen. Weitere Voraussetzungen für den wirtschaftlichen Erfolg sind einfache Bedienung, transparente und bequeme Abwicklung sowie niedrige Kosten für Verbraucher und Anbieter, waren sich die 14 Referenten aus Wissenschaft, Wirtschaft und Verbänden einig. Das Symposium zur Sicherheit von Internet-Bezahlsystemen verfolgten rund 30 Teilnehmer vor Ort und mehr als 100 durch Live-Übertragung im World Wide Web. Die technischen Probleme - so wurde klar - sind mehr oder weniger alle gelöst. Offen bleibt die Frage, wie für das Verträgeschließen und Bezahlen im Internet mehr gesellschaftliche Akzeptanz und juristische Absicherung erreicht werden kann. Nach dem übereinstimmenden Urteil der meisten Referenten sind Internet-Bezahlsysteme „selbst für die technische Avantgarde“ noch zu kompliziert zu bedienen. Verständlich sei der Wunsch nach einheitlichen Standards. Noch immer stellten für die Kunden die Überweisung nach Rechnung (fast 90% der Internet- Käufer), die Lastschriftabbuchung (über 70%) und die Nachnahme-Zahlung (rund 65%) die beliebtesten Zahlverfahren beim Online-Shopping dar, betonten Marktforscher und Verbraucherschützer. Den größten Bedarf für neue Verfahren, die sinnvollerweise auf den vorhandenen Abrechnungsmechanismen aufbauen sollten, sahen die Symposiums-Teilnehmer im Bereich der Abrechnung von Klein(st)-Beträgen, wie sie beim Kauf digitaler Güter (Software, Musik, elektronische Dokumente usw.) anfallen. Um rentabel arbeiten zu können, seien hier aber die Sicherheitsanforderungen geringer. Mobiles Bezahlen per Handy werde sich in Zukunft immer mehr durchsetzen. Das Sicherheitsproblem liege hier in der „Luftschnittstelle“, so ein Experte, denn das Abhören von Mobilfunkverkehr sei in Europa besonders weit verbreitet. In jedem Fall - so hochrangige Vertreter der Finanzwirtschaft - haben Verfahren im E- und M-Commerce dann eine Chance, wenn sie auf den weltweit bewährten Transaktionsmechanismen beruhen.
As there are apparently no doubts concerning the existence of Nazi anti-Semitism before 1933 regarding this topic – having largely been ignored by scholars of contemporary history – seems to be no use. This article tends to trace the role of anti-Semitism during the ascend of the Nazi-movement. Therefore, the author describes the theoretic function of this phenomena for the NSDAP by referring to Hitler’s Weltanschauung and the official program of the party. But how did this anti-Jewish ideology find its way into the party’s day-to-day agitation? By analysing Hitler’s political speeches it is shown how, after 1925/26, the Führer tried to present himself as a moderate politician – for he had realised that the NSDAP had to become a mass-movement in order to gain political power in Weimar Germany. Vis-à-vis the party’s antisemitic membership, mainly retailers and graduates, anti-Jewish stereotypes were pushed in propaganda. Yet, National Socialist anti-Semitism was not only opportunist in that it was played up or down depending upon when and where it hit responsive chords, it was also subject to the regional Gauleiter if this phenomena was promoted like in Streicher’s Franconia or restricted like in Württemberg, Hamburg or Danzig. Only after the world-wide economic crisis of 1929 the NSDAP had considerable success in the Reichstag’s elections. The party presented itself as the only power being capable to establish a new order in Germany. The propaganda focused on the main enemies of the National Socialists: Communism and the liberal democracy – in this context, the anti-Semitism was negligible.
Im Rahmen dieser Projektarbeit sollen drei Beispiele für Publikationsportale vorgestellt werden: das Bibliotheks und Informationssystem der Carl-von-Ossietzky-Universität Oldenburg, der Dokumenten und Publikationsserver der Humboldt-Universität zu Berlin mit Ausblick auf das Projekt ProPrint und das Publikationsportal der Universitätsbibliothek Kassel, das für den Titel dieser Arbeit Pate stand. Um deren Entstehung und Einbindung in einen aktiven Entwicklungsprozess zu verdeutlichen, werden zunächst einige wegweisende Initiativen auf dem Gebiet des elektronischen Publizierens beschrieben, sowie die Kriterien näher erläutert, die für das elektronische Publizieren von grundlegender Bedeutung sind. Es ist noch zu bemerken, dass nur Beispiele zum Publizieren von Monografien beschrieben werden, da das Einbeziehen von Zeitschriftenartikeln zu weit geführt hätte.
Elektronische Information ist ein immer wichtiger werdender Teil in der heutigen Informationsvermittlung und spielt auch für Bibliotheken eine zunehmend bedeutende Rolle. Da sie aber nicht mehr die einzigen Informationsvermittler sind, sondern auch private Anbieter diesen Markt entdeckt haben, müssen Bibliotheken dieser Konkurrenz durch Marketingstrategien entgegentreten. Dies ist eine neue Herausforderung im Bibliotheksbereich. Deshalb stellt sich die Frage, inwieweit Bibliotheken heute schon Marketing betreiben. Im Rahmen unseres Studiums an der Fachhochschule für Bibliothekswesen in Frankfurt am Main, haben wir diese Entwicklung zum Thema einer Projektarbeit gemacht, da sie eine aktuelle Bedeutung für uns als angehende Diplom-Bibliothekare hat. Unsere Ausgangsfragestellung entwickelten wir in der Auseinandersetzung mit den Thesen des Projekts Nutzung elektronischer wissenschaftlicher Informationen in der Hochschulausbildung von der Sozialforschungsstelle Dortmund zusammen mit dem Lehrstuhl für Soziologie der Universität Dortmund und der Gesellschaft für Angewandte Unternehmensforschung und Sozialstatistik mbH (GAUS) im Auftrag des Bundesministeriums für Bildung und Forschung (BMB+F), auch als SteFi-Studie (Studieren mit elektronischen Fachinformationen) bekannt (http://www.stefi.de/). Ziel unserer Arbeit ist es herauszufinden, welche Marketingstrategien bereits von Bibliotheken eingesetzt werden, welche Ziele damit verfolgt werden und wie diese neue Aufgabe organisiert wird. Dazu haben wir mittels eines Fragebogens eine Umfrage an zehn Bibliotheken gerichtet, an der sich neun Bibliotheken beteiligt haben. Diese befasst sich mit den Aspekten Marketingmaßnahmen, Stellenwert dieser Maßnahmen, Marketinggesamtkonzept und Finanzierung. Bei unseren Untersuchungen wurden ausschließlich Universitätsbibliotheken befragt, denen wir für ihre Mitarbeit und Hilfsbereitschaft danken.
Bei der Regulierung und Aufsicht auf den internationalen Wertpapiermärkten gibt es immer noch viele Unterschiede bei den Regelungsinhalten und in der Prioritätensetzung. Die steigende weltweite Verflechtung der Finanzsektoren und deren Akteure sowie die hohe Kapitalmobilität machen es jedoch zunehmend erforderlich, auch die Aufsicht zunehmend zu internationalisieren. Internationale Aufsichtsstandards wiederum können grenzüberschreitende Aktivitäten von Marktteilnehmern erleichtern und sicherer machen. Es ist inzwischen anerkannt, dass eine gute und effiziente Regulierung einen Finanzplatz gerade im internationalen Umfeld attraktiv macht und so dessen Wettbewerbsfähigkeit erhöht. Es ist daher von großer Bedeutung, die nationale Aufsicht internationalen Standards folgen zu lassen. Eine wichtige Funktion bei der Aufstellung dieser Standards haben die internationalen Organisationen wie IOSCO im Wertpapierhandel, die IAIS im Versicherungs- und der Baseler Ausschuss im Bankenbereich inne. In vielfältiger Weise ist deren Arbeit für den Finanzplatz Deutschland richtungsweisend. Das sind wichtige Gründe, weshalb die Teilnahme an Aktivitäten der IOSCO, Mitarbeit an Berichten, Standards und Resolutionen der IOSCO dem deutschen Kapitalmarkt und insbesondere dem Wertpapierhandel in Deutschland nützen kann. Um näher verständlich machen zu können, auf welche Weise IOSCO dem deutschen Kapitalmarkt in diesem Sinne nützlich sein kann, und Arbeiten in der IOSCO von Bedeutung für das deutsche Recht im Bereich des Wertpapierhandels sind, ist es zunächst wichtig, die Organisation IOSCO (1) , ihre Zielsetzung (2) und Struktur (3) zu verstehen, und die Bereiche zu kennen, in denen IOSCO arbeitet (4) sowie die Formen und jeweilige Bindungswirkung der Produkte der IOSCO (5). Wichtig in diesem Zusammenhang sind auch Art und Weise, auf die in IOSCO Beschlossenes unser Finanzsystem tangieren kann und bereits tangiert hat.
We present calculations of two-pion and two-kaon correlation functions in relativistic heavy ion collisions from a relativistic transport model that includes explicitly a first-order phase transition from a thermalized quark-gluon plasma to a hadron gas. We compare the obtained correlation radii with recent data from RHIC. The predicted R_side radii agree with data while the R_out and R_long radii are overestimated. We also address the impact of in-medium modifications, for example, a broadening of the rho-meson, on the correlation radii. In particular, the longitudinal correlation radius R_long is reduced, improving the comparison to data.
We calculate the kaon HBT radius parameters for high energy heavy ion collisions, assuming a first order phase transition from a thermalized Quark-Gluon-Plasma to a gas of hadrons. At high transverse momenta K_T ~ 1 GeV/c direct emission from the phase boundary becomes important, the emission duration signal, i.e., the R_out/R_side ratio, and its sensitivity to T_c (and thus to the latent heat of the phase transition) are enlarged. Moreover, the QGP+hadronic rescattering transport model calculations do not yield unusual large radii (R_i<9fm). Finite momentum resolution effects have a strong impact on the extracted HBT parameters (R_i and lambda) as well as on the ratio R_out/R_side.
We calculate the antibaryon-to-baryon ratios, anti-p/p, anti-Lambda/Lambda, anti-Xi/Xi, and anti-Omega/Omega for Au+Au collisions at RHIC (sqrt{s}_{NN}=200 GeV). The effects of strong color fields associated with an enhanced strangeness and diquark production probability and with an effective decrease of formation times are investigated. Antibaryon-to-baryon ratios increase with the color field strength. The ratios also increase with the strangeness content |S|. The netbaryon number at midrapidity considerably increases with the color field strength while the netproton number remains roughly the same. This shows that the enhanced baryon transport involves a conversion into the hyperon sector (hyperonization) which can be observed in the (Lambda - anti-Lambda)/(p - anti-p) ratio.
We make predictions for the kaon interferometry measurements in Au+Au collisions at the Relativistic Heavy Ion Collider (RHIC). A first order phase transition from a thermalized Quark-Gluon-Plasma (QGP) to a gas of hadrons is assumed for the transport calculations. The fraction of kaons that are directly emitted from the phase boundary is considerably enhanced at large transverse momenta K T ~ 1 GeV/c. In this kinematic region, the sensitivity of the R out/R side ratio to the QGP-properties is enlarged. Here, the results of the 1-dimensional correlation analysis are presented. The extracted interferometry radii, depending on K-Theta, are not unusually large and are strongly affected by momentum resolution effects.
In this paper, I investigate more closely the contribution of modal operators to the semantics of comparatives and I show that there is no need for a maximality or minimality operator. Following Kratzer s (1981, 1991) analysis of modal elements, I assume that the meaning of a modal sentence is dependent on a conversational background and an ordering source. For comparative environments, I demonstrate that the ordering source reduces a set of possible degrees to a single degree that is most (or least) wanted or expected, i.e., maximality and minimality readings of comparative constructions are an effect of the pragmatic meaning of the modal.
Invited talk at the International Workshop XXX on Gross Properties of Nuclei and Nuclear Excitations - Ultrarelativistic Heavy-Ion Collisions, Jan. 13-19, 2002, Hirschegg, Austria. Report-no: LBNL-49674. We discuss predictions for the pion and kaon interferometry measurements in relativistic heavy ion collisions at SPS and RHIC energies. In particular, we confront relativistic transport model calculations that include explicitly a first-order phase transition from a thermalized quark-gluon plasma to a hadron gas with recent data from the RHIC experiments. We critically examine the "HBT-puzzle" both from the theoretical as well as from the experimental point of view. Alternative scenarios are briefly explained.
Differenzierte Verdienststrukturen, wie zum Beispiel qualifikatorische Verdienstunterschiede, tragen der Heterogenität am Arbeitsmarkt und somit auch einer notwendigen Flexibilität der Löhne Rechnung. Trotz dieser bedeutenden Rolle der Lohnstruktur für den Arbeitsmarkt gibt es relativ wenig detaillierte empirische Evidenz zu deren Ausgestaltung und Dynamik für Westdeutschland. In dieser Arbeit werden auf Basis der Gehalts- und Lohnstrukturerhebungen für die Jahre 1990 und 1995 sowohl die Lohndispersion innerhalb bestimmter Erwerbsgruppen („Within-Dispersion“) als auch zwischen diesen Gruppen („Between-Dispersion“) untersucht. Im Fokus der Analysen steht dabei der Vergleich zwischen den Erwerbsgruppen der vollzeitbeschäftigten Männer, der vollzeitbeschäftigten Frauen und der teilzeitbeschäftigten Frauen nach den Qualifikationsniveaus: ohne Berufsabschluss, mit Berufsabschluss und mit Hochschulabschluss. Dichteschätzungen des Bruttotageslohns zeigen, dass vollzeiterwerbstätige Männer über die gesamte Verteilung den höchsten Verdienst aufweisen. Weiterhin deuten die Dichteschätzungen darauf hin, dass die geschlechtsspezifischen Lohndifferentiale mit zunehmendem Verdienst steigen. Der selbe Sachverhalt findet sich auch für die qualifikatorischen Verdienstunterschiede. Mit steigendem Qualifikationsniveau steigt sowohl der Lohn als auch die Dispersion. Besonders ausgeprägt ist die qualifikatorische Dispersion für Männer. Eine Analyse der Lohndifferentiale sowohl innerhalb der Erwerbsgruppen als auch zwischen Männern und Frauen weist darauf hin, dass in der Gruppe der teilzeiterwerbstätigen Frauen die größte Lohndispersion vorzufinden ist und dass diese im Zeitablauf zugenommen hat. Ferner sind die Lohndifferentiale im unteren Bereich der Verteilung kleiner als im oberen. Die weitere Disaggregation nach dem Qualifikationsniveau reduziert die Within-Dispersion, wobei die Lohnunterschiede innerhalb der Erwerbsgruppen mit steigendem Qualifikationsniveau tendenziell zunehmen. Schließlich nimmt die Within-Dispersion für vollzeitbeschäftigte Hochschulabsolventinnen im Zeitablauf zu, während sie für die Teilzeitbeschäftigten sinkt. Betrachtet man die Qualifikations- und die Verteilungsdimension, zeigt sich, dass in beiden Jahren lediglich für vollzeiterwerbstätige Frauen ohne Berufsabschluss bzw. mit Hochschulabschluss das geschlechtsspezifische Differential über die Verteilung hinweg steigt. Für alle anderen Gruppen geht es über die Verteilung hinweg zurück. Die Lohndifferentiale zwischen Männern und Frauen haben im Zeitablauf abgenommen. Das mittlere Reallohnwachstum zwischen 1990 und 1995 ist für teilzeiterwerbstätige Frauen mit 6,8% am höchsten und für vollzeiterwerbstätige Männer mit 0,7% am geringsten. Die Reduktion der geschlechtsspezifischen Unterschiede im Zeitablauf ist unter Berücksichtigung des Qualifikationsniveaus noch ausgeprägter. Dies gilt vor allem für teilzeiterwerbstätige Frauen ohne Berufsabschluss und mit Hochschulabschluss. Für teilzeiterwerbstätige Frauen und für vollzeiterwerbstätige Männer findet sich im Zeitablauf eine zunehmende Lohnspreizung, während für vollzeiterwerbstätige Frauen die Verteilung konstant bleibt. Eine Zunahme der Lohnspreizung ist dabei insbesondere bei Hochschulabsolventen festzustellen, sowohl für vollzeiterwerbstätige Männer wie Frauen. Im Unterschied dazu hat für diese Erwerbsgruppen die Lohndispersion bei den Mittelqualifizierten in den 90er Jahren abgenommen.
Diese Arbeit vergleicht die Verdienststrukturen in Westdeutschland für die Jahre 1990 und 1995 basierend auf der Gehalts- und Lohnstrukturerhebung und der IAB—Beschäftigtenstichprobe. Wir betrachten Verdienstunterschiede im Hinblick auf die berufliche Qualifikation, das Geschlecht, den Erwerbsstatus, die Branchenzugehörigkeit und das Alter. Die Analyse verwendet die Methode der Quantilsregressionen und ist rein deskriptiver Natur. Die beiden Datensätze unterscheiden sich teilweise in der Stichprobenzusammensetzung und es finden sich zum Teil Unterschiede in den geschätzten Verdienstrelationen. Qualitativ stimmen die Ergebnisse vor allem für Männer relativ gut überein. Die Verdienststrukturen erweisen sich als sehr differenziert, beispielsweise nehmen geschlechtsspezifische und qualifikatorische Verdienstunterschiede wie auch die Verdienstdispersion innerhalb einer Arbeitnehmergruppe typischerweise mit dem Alter zu. JEL - Klassifikation: C14 , J31 , C80
Über die Wirkung der Förderung der beruflichen Weiterbildung in Ostdeutschland sind in den letzten Jahren zahlreiche empirische Studien durchgeführt worden, die auf den methodischen Fortschritten der Evaluationsforschung aufbauen. Dieser Beitrag stellt die empirische Evidenz im Kontext der institutionellen Regelungen und der methodischen Probleme einer angemessenen mikro- oder makroökonomischen Evaluation dar. Insbesondere behandeln wir die im ostdeutschen Kontext wichtigen Probleme der Mehrfachteilnahmen und der Reduktion der Beschäftigungsquoten für die Teilnehmer kurz vor einer Weiterbildung ("Ashenfelters Tal"), die bislang in empirischen Analysen kaum Berücksichtigung finden. Die durchgeführten mikroökonomischen Evaluationsstudien basieren auf Umfragedaten mit kleinen Teilnehmerzahlen. Die erzielten Evaluationsergebnisse ergeben ein ernüchterndes Bild der Wirkung geförderter Weiterbildung: Es zeigen sich eher negative als positive Maßnahmeneffekte auf die Beschäftigung. Aufgrund der schwachen Datenbasis und verbleibender methodischer Probleme erlaubt die bisherige Evidenz jedoch noch keine wirtschaftspolitischen Schlussfolgerungen. Stattdessen sollten die eher negativen Ergebnisse von der politischen Seite zum Anlass genommen werden, die Voraussetzungen für eine angemessene und kontinuierliche Evaluation der aktiven Arbeitsmarktpolitik zu schaffen.
Die im Rahmen dieser Diplomarbeit entwickelte sehr einfach und kompakt aufgebaute Mikro-Ionenquelle basiert auf einer Mikro-Struktur-Elektrode (MSE). Mit dieser lässt sich bei einer Betriebsspannung von wenigen 100 Volt eine stabile Hochdruck-Glimmentladung erzeugen. Das Betriebsgas durchströmt die MSE-Pore und expandiert anschließend adiabatisch ins Vakuum, wobei die interne Temperatur des Strahls herabgesetzt wird. Der Vordruck des Gases kann bei dem vorhandenen Aufbau zwischen wenigen 100 hPa und etwa 0,5 MPa liegen. Mit einem ähnlichen Aufbau, jedoch mit deutlich größerer Saugleistung der Vakuumpumpen, konnte selbst bei Vordrücken über 3 MPa noch eine Entladung mit gleichen Eigenschaften betrieben werden. Es wurde gezeigt, dass Ionen durch Diffusion sowie die starke Gasströmung in der MSE-Pore aus dem Plasma extrahiert werden. Eine zusätzliche Beschleunigungsspannung zeigt einen deutlichen Einfluss auf die Formierung eines Ionenstrahls. Es kann ein schmaler Strahl mit maximal einigen mm Durchmesser erzeugt werden. Die Mikroentladung lässt sich mit zahlreichen Gasen betreiben. Erfolgreich getestet wurden Helium, Neon, Argon, Stickstoff und normale Luft sowie Mischungen davon. Auch eine Beimischung von Wasserstoff ist möglich und eröffnet die Erzeugung beispielsweise von molekularen HeH+-Ionen. Zur Extraktion der Ionen kann eine Beschleunigungsspannung von bis zu 5 kV angelegt werden. Der Ionenstrahl wird über ein differenzielles Pumpsystem durch einen Skimmer ins Hochvakuum überführt und dort analysiert. Es entstehen sowohl einfach als auch doppelt geladene Ionen. Bei einem Entladestrom von wenigen mA lässt sich ein Strom von bis zu 3 mA (ohne Sekundärelektronen-Unterdrückung) auf dem Skimmer messen. Die Stromdichte des Strahls ist jedoch zu hoch, um mit der verwendeten einfachen Diodenextraktion den gesamten Strom durch den Skimmer zu transportieren. Nur ein Anteil von ca. 1/50 bis 1/30 des gesamten Ionenstroms kann den Skimmer passieren. Hinter dem Skimmer liegt der Strom zwischen einigen 100 nA und einigen 10 µA. Durch Optimierung der Extraktionsgeometrie sollte hier eine deutliche Erhöhung erreicht werden. Im normalen Betrieb wird mit einem Entladestrom von 1-2 mA gearbeitet. Zum einen ist hier bereits, wie eben erwähnt, die maximale Stromdichte erreicht, die durch den Skimmer transportiert werden kann. Zudem sinkt mit steigendem Strom die Haltbarkeit der MSE-Elektroden aufgrund verstärkten Sputterns erheblich, auch dies spricht gegen einen Betrieb mit hohem Plasmastrom. Der maximale bisher erreichte Entladestrom in einem MSE-Plasma beträgt 50 mA. Der Elektrodenabtrag begrenzt momentan die Betriebsdauer einer MSE auf wenige Stunden. Durch die Einführung von Wolfram-Elektroden konnte bereits eine deutliche Steigerung der Haltbarkeit erreicht werden, für eine sinnvolle Anwendung der Ionenquelle muss jedoch noch eine Weiterentwicklung der MSE stattfinden. Dass sich der Kühleffekt aufgrund der adiabatischen Expansion auf im Plasma erzeugte metastabile He*-Atome auswirkt, wurde im Rahmen einer zweiten Diplomarbeit zum Thema Plasmajet gezeigt. Mit einem Aufbau nach demselben Prinzip, jedoch ohne Extraktionsspannung, wurde eine Apparatur zur Erzeugung eines spinpolarisierten metastabilen Helium-Targets realisiert [Jahn2002]. Es wurde gezeigt, dass zum einen der Energieeintrag ins Gas durch die Entladung sehr gering ist. Es handelt sich also beim MSE-Hochdruck- Plasma tatsächlich um eine nichtthermische Entladung. Zum anderen konnte in ergänzenden Flugzeitmessungen gezeigt werden, dass die Geschwindigkeitsverteilung der Metastabilen der eines herkömmlichen Gasjets entspricht. Der Kühleffekt wirkt also auf die Metastabilen genauso wie auf Gasatome im Grundzustand, ohne dabei die Metastabilen abzuregen. Um die Geschwindigkeitsverteilung der Ionen zu untersuchen, ist die verwendete Methode jedoch nicht ohne weiteres anwendbar. Aufgrund der Coulomb- Abstoßung der Ionen weist der unbeschleunigte Ionenstrahl eine starke Divergenz auf. Die Intensität des Ionensignals auf dem Detektor ist somit äußerst gering, was eine Flugzeitmessung kaum sinnvoll erscheinen lässt. Mit den vorhandenen Diagnosemethoden konnte daher ein Kühleffekt aufgrund der adiabatischen Expansion auf die Ionen nicht verifiziert werden. Mit der Mikro-Ionenquelle wurde jedoch gezeigt, dass es eine Wechselwirkung zwischen Ionen und Gasjet gibt: versucht man, die Ionen mit einer Extraktionsspannung zu beschleunigen, so erfahren sie aufgrund zahlreicher Stöße mit den langsameren Gasteilchen einen massiven Energieverlust. Man erhält einen Ionenstrahl mit stark verbreiterter Energieverteilung. Dies zeigt, dass sich die Ionen im Bereich hoher Dichte mit dem Jet bewegen. Stört man die Expansion, indem man die Ionen mittels der Beschleunigungsspannung aus dem Jet herausreißt, so erfahren sie durch die Wechselwirkung mit den Atomen im Jet einen erheblichen Energieverlust. Es ist daher zu vermuten, dass auch die Ionen gekühlt werden. Misst man mit Hilfe eines Quadrupol-Massenspektrometers das Spektrum von nicht beschleunigten Ionen, so erhält man scharfe Peaks, es tritt also kein Energieverlust auf. Zur Messung des Geschwindigkeitsprofils eignet sich diese Methode jedoch nicht. Es ist daher sinnvoll, in Zukunft mit einer entsprechend angepassten Apparatur auch für die Ionen eine Flugzeitmessung durchzuführen. Die schlechte Energieschärfe des Ionenstrahls ist ein erheblicher Nachteil für viele Anwendungen. Für zukünftige Weiterentwicklungen der Mikro- Ionenquelle muss eine geeignetere Extraktionsgeometrie gefunden werden. Eine Möglichkeit wäre, die Ionen mit dem Gasjet mitfliegen zu lassen und in größerem Abstand zu beschleunigen, wenn die Dichte im Jet stark abgefallen ist. In diesem Fall muss man jedoch eine sinnvolle Lösung für Größe und Position des Skimmers finden oder klären, ob auf einen Skimmer vollständig verzichtet werden kann. Es könnte bei dieser Lösung hilfreich sein, die Raumladungsdichte im Ionenstrahl durch Überlagerung mit einem Elektronenstrahl zu reduzieren und so die Divergenz des Strahls zu verringern. Man könnte die Divergenz auch verringern, indem man den Ionenstrahl durch ein Magnetfeld einschließt. Hierbei provoziert man aber vermutlich durch die Spiralbewegung der Ionen zusätzliche Stöße mit dem Jet. Denkbar wäre auch, die Ionen mit Hilfe elektrischer Felder aus dem Gasjet herauszulenken und anschließend zu beschleunigen. Bekommt man das Problem des Energieverlusts in den Griff, so erhält man eine leistungsfähige Ionenquelle, die ein großes Potential für Anwendungen bietet. Der kompakte Aufbau ermöglicht einen Verzicht auf Wechselspannungen, Mikrowellenstrahlung sowie magnetischen Einschluss. Da es sich um eine Gleichspannungsentladung mit wenigen Watt Leistung handelt, ist ein sehr energieeffizienter Betrieb möglich. Die gemessenen Ionenströme zeigen, dass eine Hochdruckentladung auf der Basis von MSE eine hohe Ionisationseffizienz aufweist. Der hohe Arbeitsdruck ermöglicht eine große Ausbeute an molekularen Ionen. Gelingt es, den Kühleffekt des Gasjets auf die Ionen zu nutzen, so erzeugt man einen Ionenstrahl mit sehr niedriger interner Temperatur, der für atomphysikalische Experimente interessant ist. Zudem ließe sich ein solcher Strahl auf sehr kleine Durchmesser fokussieren, was eine hohe Genauigkeit etwa bei Oberflächenmodifikationen erlaubt. Die Untersuchungen im Bereich Gasanalytik haben gezeigt, dass Hochdruckentladungen hier eine Alternative zu den herkömmlichen, auf Niederdruckentladungen basierenden, Messverfahren darstellen. Die sehr guten Nachweisgrenzen für Freon in Kombination mit dem einfachen und kompakten Aufbau sprechen für die Hochdruckentladung. Jedoch muss für eine sinnvolle Nutzung die Haltbarkeit der MSE noch deutlich erhöht werden.
Auf der methodologischen Grundlage objektiv-hermeneutischer Sequenzanalysen von vier Reden, die der Bundesverteidigungsminister Gerhard Stoltenberg (CDU) und der Bundesminister für Auswärtige Angelegenheiten Hans-Dietrich Genscher (FDP) im Januar 1991 sowie der Bundeskanzler Gerhard Schröder (SPD) und der Bundesminister für Auswärtige Angelegenheiten Joschka Fischer (Bündnis 90/Die Grünen) im November 2001 vor dem Deutschen Bundestag gehalten haben, zeigte sich, dass die militärische Abstinenz der Bundesrepublik im Golfkrieg und der Einsatz der Bundeswehr im Rahmen der Operation »Enduring Freedom«, dem „Krieg gegen den Terror“, auf den geteilten Umgang konservativer und progressiver Bundesregierungen mit dem Tabu des Militärischen zurückzuführen ist, das sich in Deutschland in Reaktion auf den Zweiten Weltkrieg gebildet hatte. Vor dem Hintergrund eines gesinnungsethisch dominierten politischen Diskurses in der Bundesrepublik schreckte die aus Union und Liberalen geführte Regierung von Bundeskanzler Helmut Kohl (CDU) wenige Wochen nach dem Vollzug der Deutschen Einheit und der Wiedererlangung der vollen Souveränität teilweise wider besseres Wissen vor einem Bruch dieses Tabus in Form einer Durchsetzung der Staatsräson zurück, weil sie fürchtete, im Falle einer aktiven Beteiligung deutscher Streitkräfte an den Kriegshandlungen zur Restitution des Völkerrechts, das durch die irakische Invasion Kuwaits gebrochen worden war, von der öffentlichen Meinung eines Rückfalls in die Ära des deutschen Militarismus bezichtigt zu werden. Da sich dieses Problem für Mitte-Links-Regierungen so nicht stellt, sondern ganz im Gegenteil die Aussicht auf eine positive Anrechnung der Verletzung von Tabus als Ausweis ihrer Lernfähigkeit besteht, war es der Koalition aus SPD und Bündnis 90/Die Grünen möglich, die Bundeswehr nach dem Präzedenzfall der NATO-Luftangriffe auf Jugoslawien auch an der militärischen Beantwortung der Terrorattacken vom 11. September 2001 zu beteiligen. Darüber hinaus verweist das Novum einer aktiven militärischen Beteiligung der Bundesrepublik an internationalen Kriegseinsätzen unter der Ägide der ersten rot-grünen Bundesregierung wohl auch auf einen allmählich von den Regierenden auf die Regierten übergehenden langfristigen Wandel auf der Ebene der Mentalitäten, der dadurch begünstigt worden ist, dass sich 1998 ein doppelter Machtwechsel im Bund vollzog, der erstmals seit 16 Jahren wieder eine der Tendenz nach linke Mehrheit etablierte und gleichzeitig einer neuen Generation die Regierungsverantwortung übertrug. Diese neue Generation hat es offenbar nicht nur verstanden, ihre Anhänger in langjährig erprobter ideologischer Abgrenzung von der konservativ-liberalen Regierung Kohl so fest an sich zu binden, dass diese ihr auch »in den Krieg« folgten, sondern sie drückte der deutschen Politik zugleich einen neuen Stil auf, der sehr bald selbst zum Programm werden könnte.
Einbindung und standörtliche Organisation von Ingenieurdienstleistern in der Automobilentwicklung
(2002)
Die Organisation der Automobilentwicklung unterliegt auch in den 1990er Jahren einem tiefgreifenden Wandel, der durch ein anhaltendes Engineering Outsourcing und eine zeitliche Parallelisierung von Entwicklungsaufgaben nach dem Konzept des Simultaneous Engineering zum Ausdruck kommt (vgl. Jürgens 2000a, Rentmeister 2001). Die Automobilhersteller sind dabei die zentralen Akteure. Mit neuen Formen unternehmensübergreifender Arbeitsteilung streben sie eine Reduzierung ihrer Entwicklungskosten und der Entwicklungszeiten für neue Fahrzeugmodelle an. Zugleich versuchen sie auf diese Weise, eine zunehmende Zahl an Modellen auf den Markt zu bringen und ihre Wettbewerbsfähigkeit zu erhöhen. Der wesentliche Grund für die gegenwärtige Reorganisation der Automobilentwicklung liegt in einem verschärften globalen Wettbewerb unter den Automobilkonzernen, die auf zunehmend weltweit integrierten Märkten im Wettbewerb zueinander stehen.
The corporate convergence debate is usually presented in terms of competing efficiency and political claims. Convergence optimists assert that an economic logic will promote convergence on the most efficient form of economic organization, usually taken to be the public corporation governed under rules designed to maximize shareholder value. Convergence skeptics counterclaim that organizational diversity is possible, even probable, because of path dependent development of institutional complementarities whose abandonment is likely to be inefficient. The skeptics also assert that existing elites will use their political and economic advantages to block reform; the optimists counterclaim that the spread of shareholding will reshape politics.
The venture capital market and firms whose creation and early stages were financed by venture capital are among the crown jewels of the American economy. Beyond representing an important engine of macroeconomic growth and job creation, these firms have been a major force in commercializing cutting edge science, whether through their impact on existing industries as with the radical changes in pharmaceuticals catalyzed by venture-backed firms commercialization of biotechnology, or by the their role in developing entirely new industries as with the emergence of the internet and world wide web. The venture capital market thus provides a unique link between finance and innovation, providing start-up and early stage firms - organizational forms particularly well suited to innovation - with capital market access that is tailored to the special task of financing these high risk, high return activities.
This article presents a structural overview of corporate disclosure in Germany against the background of a rapidly evolving European market. Professor Baums first makes the theoretical case for mandatory disclosure and outlines the standard, regulatory elements of market transparency. He then turns to German law and illustrates both how it attempts to meet the principle, theoretical demands of disclosure and how it should be improved. The article also presents in some detail the actual channels of corporate disclosure used in Germany and the manner in which German law now fits into the overall development of the broader, European Community scheme, as well as the contemplated changes and improvements both at the national and the supranational level.
Das Recht zur Verhinderung von Kursmanipulationen ist durch das 4. Finanzmarktförderungsgesetz, das am 1. Juli 2002 in Kraft getreten ist, grundlegend reformiert worden. Der Beitrag befasst sich mit den Hintergründen und der Ausgestaltung dieser Neuregelung sowie der Frage, wie diese zu bewerten ist. Verschiedene (wesentliche) Details waren im Gesetzgebungsverfahren hoch umstritten. Ein wichtiger Punkt, nämlich die subjektiven Voraussetzungen des § 20a Abs.1 S.1 Nr.2 WpHG, ist noch kurz vor Abschluss des Verfahrens geändert worden.
The paper was submitted to the conference on company law reform at the University of Cambridge, July 4th, 2002. Since the introduction of corporation laws in the individual German states during the first half of the 19th century, Germany has repeatedly amended and reformed its company law. Such reforms and amendments were prompted in part by stock exchange fraud and the collapse of large corporations, but also by a routine adjustment of law to changing commercial and societal conditions. During the last ten years, a series of significant changes to German company law led one commentator to speak from a "company law in permanent reform". Two years ago, the German Federal Chancellor established a Regierungskommission Corporate Governance ("Government Commission on Corporate Governance") and instructed it to examine the German Corporate Governance system and German company law as a whole, and formulate recommendations for reform.
Ich möchte diese Gelegenheit nutzen, um die amerikanische Sicht auf einen wohl immer bedeutenderen Bestandteil der deutschen Corporate Governance-Landschaft, das feindliche Übernahmeangebot, darzustellen. Ob Übernahmeangebote von einem ausländischen Bieter abgegeben werden (man denke nur an das Gebot von Vodafone an die Aktionäre von Mannesmann oder an das Gebot von Barilla für Kamps), oder ob es von einem einheimischen Bieter stammt – wer könnte Krupps Gebot für Thyssen vergessen ? –: Feindliche Übernahmegebote betreffen nicht nur die Führungsorgane der einzelnen Zielunternehmen, sondern, wegen ihrer Bedrohung für festgefahrene Geschäftsmuster, auch das ökonomische und politische Umfeld.
Das neue Wertpapiererwerbs- und Übernahmegesetz (WpÜG)1 weist den Wertpapierdienstleistungsunternehmen erstmals eine gesetzliche Rolle im Rahmen der Finanzierung von öffentlichen Übernahmeangeboten zu, indem es eine von einem solchen Unternehmen ausgestellte Bestätigung der Finanzierbarkeit zum zwingenden Bestandteil der Angebotsunterlage macht. Hieraus ergibt sich zum einen ein neues Geschäftsfeld für Kreditinstitute, zum anderen aber auch ein neues Haftungsrisiko.
Vorstandsvergütungen
(2002)
Vereinsrechtsreform
(2002)
Großvereine wie der ADAC – neben den Automobilclubs sind hier zum Beispiel noch die Vereine der Freien Wohlfahrtspflege (DRK, Arbeiterwohlfahrt usw.), die Technischen Verei-ne (TÜV5, DEKRA) und die Vereine der beiden Fußball-Lizenzligen6 zu nennen – entspre-chen nicht dem Leitbild des ideellen Vereins, das der Gesetzgeber bei der Schaffung des BGB-Vereinsrechts vor mehr als 100 Jahren vor Augen hatte. Zwar erfassen die §§ 21 ff. BGB dem Wortlaut nach sämtliche Vereine ungeachtet ihrer Mitgliederzahl, ihres Organisationsaufbaus und ihres Wirkungsbereichs. Doch war man sich schon zur Zeit der Entstehung des BGB darüber im klaren, daß diese Vorschriften nicht über den lokalen Kleinverein hinaus passen.
On April 24, 2001 the European Commission presented a proposal for a Directive1 introducing supplementary supervision of financial conglomerates (the Proposed Directive). The Proposed Directive requires a closer coordination among supervisory authorities of different sectors of the financial industry and leads to changes in the number of existing Directives relating to the supervision of credit institutions, insurance undertakings and investment firms.
In den vergangenen Jahren haben sich die Kapitalmärkte und das Anlegerinteresse an der Aktie in Deutschland stark verändert. Die Suche nach einer notwendigen und rentablen Ergänzung traditioneller Altersvorsorgeformen hat dazu ebenso beigetragen wie die Privatisierung von im Staatsbesitz gehaltenen Unternehmen. Aber auch der Börsengang einer Vielzahl junger Unternehmen sorgt in bisher nicht gekanntem Ausmaß für zusätzliches Interesse der „Erbengeneration“, der die Beteiligung kostengünstig über Online-Broker ermöglicht wird. Eine hervorragende Bedeutung kommt in diesem Zusammenhang dem Neuen Markt der Deutschen Börse zu, der sich seit seiner Einrichtung 1997 hinsichtlich der Zahl der Neuemissionen, der Marktkapitalisierung und der Börsenumsätze auch im internationalen Vergleich außergewöhnlich erfolgreich entwickelt hat. Der gegenwärtige Konjunkturabschwung, der von einem starken Rückgang der Kurse an den Börsen und darunter auch vor allem am Neuen Markt begleitet wurde, gibt Gelegenheit, über allfällige Verbesserungen des regulatorischen Umfelds nachzudenken, die helfen sollen, die Effizienz des organisierten Kapitalmarkts weiter zu steigern und das Vertrauen der Anleger in das ordnungsgemäße Funktionieren des Markts zu festigen. Die Deutsche Börse hat mit Verbesserungen des Regelwerks Neuer Markt bereits wichtige Schritte in diese Richtung unternommen.
It is an established policy in the United States to separate commercial banking (the business of taking deposits and making commercial loans) from other commercial activities. The separation of banking and commercial activities is achieved by federal and state banking laws, which enumerate the powers that banks may exercise, the activities that banks may engage in, and the investments that banks may lawfully make, and expressly exclude banks from certain activities or relationships. Some of these provisions could be circumvented if a nonbank company could carry on banking activities through a banking subsidiary and nonbanking activities either itself or through a nonbanking subsidiary.
Am 26.02.2002 hat die von der Bundesministerin der Justiz auf Empfehlung der Regierungskommission Corporate Governance eingesetzte Kodex-Kommission den Deutschen Corporate Governance Kodex (im folgenden: DCG-Kodex/Kodex) vorgelegt. Mit Inkrafttreten des Transparenz- und Publizitätsgesetzes4, voraussichtlich im August 2002, werden Vorstand und Aufsichtsrat börsennotierter Aktiengesellschaften künftig jährlich zu erklären haben, ob sie den Empfehlungen des Kodex folgen, und, soweit dies nicht der Fall ist, Abweichungen offen zu legen haben. Im folgenden ist zunächst das Kodex-Konzept, das dem angelsächsischen Rechtskreis entstammt, zu erläutern und die mit dem DCG-Kodex verfolgte Zielsetzung vorzustellen (dazu B.). Dem schließt sich ein Überblick über Regelungstechnik und Inhalt des DCG-Kodex sowie dessen gesetzliche „Flankierung“ durch das TransPuG an (dazu C.). Sodann werden die Entsprechens-Erklärung (dazu D.) sowie Haftungsfragen im Zusammenhang mit dem DCG-Kodex (dazu E.) behandelt.
Das am 01.01.2002 in Kraft getretene Gesetz zur Regelung von öffentlichen Angeboten zum Erwerb von Wertpapieren und von Unternehmensübernahmen (WpÜG) beschränkt sich - anders als noch der Diskussionsentwurf des WpÜG - nicht auf die Regelung von öffentlichen Angeboten zum Erwerb von Wertpapieren, die auf den Erwerb der Kontrolle an einer Zielgesellschaft gerichtet sind oder eine bereits bestehende Kontrollmehrheit voraussetzen, sondern trifft darüber hinaus mit den §§ 10 - 28 WpÜG Bestimmungen für jegliche öffentlichen Angebote zum Erwerb von Wertpapieren. Die naheliegende Frage, ob hierzu auch öffentliche Angebote zum Rückerwerb eigener Aktien, namentlich aufgrund Hauptversammlungsermächtigung gemäß § 71 Abs. 1 Nr. 8 S. 1 AktG, rechnen, lässt das Gesetz unbeantwortet. Erste Stellungnahmen in der Literatur gehen davon aus, daß das WpÜG auch auf solche self tender offers unmittelbar Anwendung finde, einzelne nicht passende Bestimmungen der §§ 10 - 28 WpÜG allerdings teleologisch zu reduzieren seien. Die Verfasser widersprechen der These einer unmittelbaren Anwendbarkeit des WpÜG auf öffentliche Angebote zum Rückerwerb eigener Aktien und befassen sich sodann mit der Frage, ob einzelne Vorschriften des WpÜG auf self tender offers analoge Anwendung finden.
Die rechtzeitige Diagnose und Behandlung kindlicher Katarakte ist von großer Wichtigkeit. Ein Hindernis in der visuellen Achse während der Periode sensorischer Vulnerabilität führt zur Amblyopie, insbesondere wenn diese innerhalb der ersten 3 Lebensmonate stattfindet.Wir untersuchten inwiefern sich das Wachstum der Augen je nach verschiedenen Kataraktformen verhält. In unserer Studie wurden retrospektiv die Krankenakten von 44 Patienten mit 58 erkrankten Augen ausgewertet, die im Zeitraum von 1992-1996 an der Augenklinik des Frankfurter Universitätsklinikums, Abteilung für Kinderaugenheilkunde, operiert wurden. Das Alter zum Zeitpunkt der Operation reichte in der Gruppe der 29 (50,0%) kongenitalen Katarakte von 1 Woche bis 10 Jahren, mit einem Durchschnitt von 2 Jahren und 5 Monaten. Die 16 (27,6%) Augen mit entwicklungsbedingter Katarakt waren in einem Alter zwischen 3 und 14 Jahren, mit einem Durchschnittsalter von 6 Jahren und 11 Monaten operiert worden, während das Alter zum Zeitpunkt der Operation bei den 13 (22,4%) traumatischen Katarakten von 3 Jahren und 4 Monaten bis 9 Jahren reichte, mit im Mittel 6 Jahren und 3 Monaten. Die Bulbuslängen veränderten sich in einem mittlerem Beobachtungszeitraum von 3 Jahren und 1 Monat bei den kongenitalen Katarakten um durchschnittlich 2,34 mm von 19,80 auf 22,14 mm, in der Gruppe der entwicklungsbedingten Katarakte um durchschnittlich 0,86 mm von 22,33 auf 23,19 mm und bei den Augen mit traumatischer Katarakt um durchschnittlich 1,53 mm von 21,95 auf 23,48 mm. Unsere mit dem U-Test nach Mann und Whitney durchgeführten Vergleiche ergaben, bis auf zwei Ausnahmen, keine signifikanten Unterschiede zwischen dem Bulbuslängenwachstum in den verschiedenen Alters- und Ursachengruppen. Als wichtig erwies sich jedoch das signifikant unterschiedliche Bulbuslängenwachstum von 1,52 mm im Vergleich der 18 Augen mit schlechter Sehschärfe (Augen mit einem Visus von 0,2 und darunter) zu den 34 Augen mit guter Sehschärfe (Augen mit einem Visus von 5,0 und darüber). Augen mit schlechter Sehschärfe zeigten ein signifikant höheres Längenwachstum als Augen mit guter Sehschärfe. Bei dem Vergleich der 14 kongenital beidseitig aphaken Augen zu den 13 entwicklungsbedingt beidseitig pseudophaken Augen zeigte sich ein signifikant höheres Wachstum von Augen mit kongenitaler Katarakt. Einschränkend auf dieses Ergebnis wirkt, dass die entwicklungsbedingte Katarakt in einem Alter entstanden ist, als die Phase mit dem größten Wachstumsschub der Augen schon vorüber war. Dadurch nimmt sie weniger Einfluß auf die Längenentwicklung des Auges als eine kongenitale Katarakt. Das Alter zum Zeitpunkt der Operation scheint der wichtigste Faktor für die Längenentwicklung des Augen zu sein. Eine kongenitale Katarakt mit ihrem frühen Operationszeitpunkt hat großen Einfluß auf die Längenentwicklung des Auges. Kongenital einseitig aphake Augen zeigten allgemein im Vergleich zu anderen Gruppen nach der Geburt und Operation häufig das größte Bulbuslängenwachstum. Die Früherkennung und frühest mögliche Behandlung einer kindlichen Katarakt sowie die Amblyopienachbehandlung sind neben einer erfolgreichen Operation für das Erreichen einer guten Sehschärfe von größter Bedeutung.
Einführend wird die Entdeckungs- und Besiedelungsgeschichte der Mascarenen, zu denen Mauritius gehört, an Hand von Karten und Dokumenten zusammengefasst und die strategische Bedeutung der Inselgruppe als 'Stern und Schlüssel des Indischen Ozean' bis in die Gegenwart nachgewiesen. Es folgen Materialien über den Import von Kulis ('indentured labourers') aus Indien seit 1835 ff., als nach Abschaffung der Sklaverei die Zuckerrohr-Wirtschaft von Mauritius zusammenzubrechen drohte. Am Beispiel des 1771 von zwei hohen französischen Kolonialbeamten aus Indien gegründeten 'Bénarès Sugar Estate', eine der ersten Plantagen auf der Insel überhaupt, wird die Entwicklung der modernen Zuckerindustrie von Mauritius bis in die Gegenwart veranschaulicht und im nachfolgenden Kapitel kontrastiert mit den immer noch einfachen Verfahren zur Gewinnung von 'Gur' im Benares-Distrikt des heutigen Indien, wo der Verfasser von 1964 bis 1967 gelebt und seitdem immer wieder zu sozialanthropologischen Fragen gearbeitet hat. Auf Grund der dort zuerst einsetzenden und besonders nachhaltigen Ausbeutung durch die East India Company waren die verarmten Regionen um Benares während des 19. Jahrhunderts das Hauptrekrutierungsgebiet für 'indentured labourers' in die Zucker-Kolonien des British Empire. Daher ist der dortige Hindi-Dialekt 'Bojpuri' noch heute die häufigste der auf Mauritius gesprochenen indischen Sprachen. Die Studie schließt ab mit einem Überblick zur Ausbreitung der ab 1802 in Berlin entwickelten Produktionsverfahren von Rübenzucker sowie einer Reflektion über die besondere Bedeutung von Zucker als 'Baustein des Lebens an und für sich' im Rahmen buddhistischer Erkenntnistheorie von Leere.
Dies ist –virtuell & überhaupt- das erste Buch über den Schweizer Dichter & Filmemacher MATTHIAS ZSCHOKKE. Das Libell will eine Hinführung, Einführung & Verführung zu Zschokke sein. Nicht mehr - nicht weniger. Die umfangreiche Bibliographie weist Materialien für weitere Studien über Zschokke nach, mag eine Basis für den akademischen Diskurs bilden. Eine biographische Zeittafel rundet das Libell ab. "Nein, zur Herde der Augenblicks - Schriftsteller gehört dieser Matthias Zschokke nicht... Bereits im ersten Buch hat er unverwechselbar seinen Stil gefunden, und sein ureigener literarischer Ton macht Zschokke unter den Autoren seiner Generation zu einem Exponenten der neuen deutschsprachigen Belletristik in den achtziger und neunziger Jahren. Und auch im 21. Jahrhundert bleibt er hochaktuell."
Dutch nominalised infinitives have been notoriously difficult to analyse, partly because they seem to show mixed verbal and nominal properties interspersed across the structure. In this paper, it is argued that at least two types of such infinitives should be distinguished, one which contains a high level of verbal functional structure, and one that differs at least in not projecting TP. On the basis of this distinction it is possible to show that Dutch nominalised infinitives have much more predictable properties than could previously be identified. They show evidence of conforming to a model of analysing mixed categories in terms of category switch within the constituent. In order to account for the seemingly interspersed nature of nominal and verbal properties in Dutch nominalised infinitives I propose that Dutch of-phrases (van-phrases) may merge inside the VP, provided they have access to nominal functional structure for feature checking. I will show that if D° is filled by a special type of non-deictic demonstratives van-phrases may even occur in SpecDP.
Removal of apoptotic cells by macrophages or resident semi-professional phagocytes is a prominent principle with important implications for the pathophysiology of chronic inflammatory diseases, viral infections, or cancer. To characterize mechanisms which may determine the fate of apoptotic cells, I investigated chemokine expression in apoptotic promonocytic U-937 cells or PBMC. Exposure of U-937 cells to the anti-cancer drug etoposide (VP-16), an inducer of apoptosis in these cells, was associated with increased expression of the chemokines IL-8 and macrophage inflammatory protein 1alpha (MIP-1alpha). Upregulation of IL-8 mRNA expression by VP-16 was observed as early as 4 h after onset of treatment and was still detectable after 19h of exposure. A serine protease inhibitor prevented both VP-16-induced apoptosis and release of IL-8, whereas inhibition of p38 MAP-kinases reduced IL-8 secretion only. Moreover, I observed that incubation with 2-chlorodeoxyadenosine (CdA) upregulated release of IL-8 from adherent PBMC in parallel to induction of apoptosis. In these cells a modest but significant induction of TNF-alpha release by CdA was also detected. In addition, CdA augmented release of IL-8 from whole blood cultures. By facilitating adequate recruitment of phagocytes to sites of cell death, stress-induced upregulation of chemokines associated with apoptosis may contribute to mechanisms aiming at efficient removal of apoptotic cells.
Die hier durchgeführten Untersuchungen an Staphylococcus aureus ATCC 6538 unter Verwendung von Silbernitrat als Desinfektionsmittel auf Standard-CSA sowie Agar-Agar mit Kalliumtelluritzusatz hatten das Ziel, den Einfluss von Silbernitrat-Ionen auf den Keim zu untersuchen. Hier galt es nicht nur die Schädigung von Silbernitrat-Ionen auf Staphylokokken zu untersuchen, sondern zusätzlich zu prüfen, ob eine Reduzierung der Pathogenität der Keime nach vorheriger Desinfektion stattfindet. Die Empfindlichkeit der geschädigten Bakterien gegenüber Tellurit, wie in diesen Untersuchungen verwendet, löste das früher verwendete Mäusepathogenitätsmodell ab. Die Ergebnisse zeigten deutlich, dass die Keimzahl zum einen durch eine erhöhte Konzentration des Silbernitrats, zum anderen durch eine verlängerte Einwirkzeit reduziert wurde. Weiterhin ist ersichtlich, dass eine Minderung der Pathogenität nach Desinfektion eintrat. Der mit Tellurit versetzte CSA-Agar hemmte das Wachstum stärker als bei den Platten ohne Zusatz. Dies zeigt eine erhöhte Empfindlichkeit der Keime gegenüber Tellurit. Eine weitere Virulenzminderung trat mit zunehmender Telluritkonzentration auf. Dies lässt die Schlussfolgerung zu, dass Kalliumtellurit eine Wachstumshemmung auf das Bakterium Staphylococcus aureus bewirkt. Da sich in den Kontrollansätzen ohne Desinfektionsmittel die Keimzahl ebenfalls mit zunehmender Telluritkonzentration reduzierte, bestätigt dies, dass die Eignung von Hemmstoffen - im vorliegendem Fall Kalliumtellurit - nur in einem engen Konzentrationsbereich für die Erfassung geschädigter Keime geeignet ist.
Ziel der vorliegenden Studie war es , drei moderne Ni-Ti- Instrumentensysteme hinsichtlich ihrer Aufbereitungsfähigkeiten an stark gekrümmten Kanälen (Kriterium nach Schneider et al, 1971) zu vergleichen. 60 gekrümmte Kanäle extrahierter humaner Molaren des Oberkiefers wurden, nach Vorverteilung der Krümmungswinkel, randomisiert in die drei Testgruppen verteilt. Der Versuchsaufbau entsprach einer modifizierten Bramante-Methode. Jeder Kanal wurde dabei, von der apikalen Region ausgehend, in mindestens 5 Querschnitte zersägt. Nach Repositionierung im Testbehältnis wurden alle Kanäle mit Hilfe des EndoSteppers® von einem Behandler aufbereitet. Prä- und postoperative Bilder der Kanalquerschnittsflächen wurden digitalisiert und mit Hilfe einer Bildverarbeitungs-software (Image 2000) vermessen. Die Flächenveränderungen, die Aufbereitungs-zeiten, sowie die Arbeitslängenverluste und die Frakturhäufigkeit wurden erfasst und mittels One-Way-ANOVA, dem Kruskal-Wallis-Test und dem Duncan-Test statistisch ausgewertet. Die mittlere Arbeitszeit war bei RaCe TM signifikant geringer als bei FlexMaster®. Die signifikant höchsten Abträge an der Kanalwand wurden bei RaCe TM, im Vergleich zu den beiden anderen Testgruppen, verzeichnet. Arbeitslängenverluste waren bei allen Instrumentensystemen zu verzeichnen, wobei FlexMaster® einen signifikant geringeren Mittelwert im Vergleich zu RaCe TM aufwies. 17 Instrumente frakturierten, wobei mit 11 Brüchen bei RaCe TM die größte Zahl zu vermerken war. FlexMaster®-Instrumente frakturierten nicht. Klinische Relevanz: Im Zuge dieser Studie konnte festgestellt werden, dass sich FlexMaster®-Instrumente aufgrund einer näher an der ursprünglichen Kanalform liegenden Aufbereitung in Verbindung mit dem EndoStepper® besonders zur Aufbereitung von stark gekrümmten Wurzelkanälen eignen. Von der Benutzung der RaCe TM-Instrumente ist, zumindest in Verbindung mit der hier verwendeten EndoStepper®-Software, aufgrund des hohen Frakturrisikos abzuraten.
Fettsäuren haben vielfältige Funktionen im Organismus. Sie sind der wichtigste Energieträger des menschlichen Körpers. Fettsäuren sind Bestandteil menschlicher Membranen und Ausgangspunkt für die Biosynthese biologisch aktiver Substanzen. Der Abbau der Fettsäuren und deren energetische Verwertung geschieht im Mitochondrium, dem Ort der ß-Oxidation. Hierfür werden die Fettsäuren mit Hilfe des aus 3 Enzymen bestehenden Carnitin- Palmitoyltransferase-Systems aus dem Cytosol in das Mitochondrium transportiert. Dazu werden langkettige Fettsäuren durch die Acyl-CoA-Synthetase aktiviert und - an Carnitin gebunden - in das Innere der Mitochondrien geschleust. Die Carnitin-Palmitoyltransferase 1 (CPT 1) ist an der Innenseite der äußeren Mitochondrienmembran gebunden und katalysiert die Kopplung von L-Carnitin an die aktivierte Fettsäure unter Freisetzung von Coenzym A. Das so enstandene Acyl-Carnitin passiert mit Hilfe der Carnitin- Acylcarnitin-Translokase (CAC) die innere Mitochondrienmembran. An der Innenseite der mitochondrialen Innenmembran überträgt die Carnitin-Palmitoyltransferase 2 (CPT 2) den Fettsäurerest des Acyl-Carnitins auf Coenzym A, wobei Acyl-CoA und freies Carnitin entsteht. Nun schließt sich der Abbau der Fettsäuren, die ß-Oxidation an. Ziel dieser Arbeit war die Untersuchung der Carnitin-Palmitoyltransferase 1 in Entzündungszuständen und die Klärung der Frage, ob Stickstoffmonoxid (NO) einen Einfluss auf die Regulation der CPT 1 hat. Darüberhinaus wurde die Wirkung von PPAR-a (peroxisome proliferator-activated receptor-a) auf die induzierbare NO-Synthase (iNOS) und damit die Generierung von NO untersucht. Die Experimente wurden an Ratten-Mesangiumzellen durchgeführt. Interleukin 1ß stimuliert die Expression der CPT 1 auf mRNA und Protein-Ebene. In Kombination mit Palmitat und Carnitin konnte die Expression der CPT 1 signifikant gesteigert werden. Es konnte gezeigt werden, dass NO ein potenter Stimulator der Carnitin-Palmitoyltransferase 1 ist. Mesangiumzellen, die mit NO und IL-1ß kombiniert stimuliert wurden, zeigten bereits nach 2 Stunden eine Reduktion der Expression auf das Niveau der unstimulierten Kontrolle. IL-1ß und L-NG-Monomethyl- Arginin (L-NMMA), ein spezifischer Inhibitor der induzierbaren NO-Synthase erhöhen die CPT-1 Expression. In einem Tiermodell des hämorrhagischen Schocks wurde die CPT 1 mRNA Expression signifikant reprimiert, die Gabe eines iNOS-Inhibitors konnte diese Herunterregulierung wieder aufheben. Stickstoffmonoxid spielt eine sehr wichtige Rolle bei Entzündungsreaktionen. Die induzierbare NO-Synthase ist das verantwortliche Enzym für die Produktion von großen Mengen NO. Die NO-Synthase (NOS) katalysiert die Umsetzung von L-Arginin unter Sauerstoffverbrauch in Citrullin unter Entstehung von NO. Der Mechanismus , der für einen verzögerten Beginn der Transkription von vier Stunden mit darauf folgender mehr als 24-stündiger immenser mRNA Synthese. nach einer Zytokinstimulation verantwortlich ist, ist noch nicht verstanden. Der Untersuchung dieser verzögerten und anhaltenden iNOS Expression lag die Hypothese zugrunde, dass die Zytokin-induzierte iNOS Transkription zuerst durch NFkB und C/EBP Transkriptionsfaktoren ausgelöst und anschließend durch andere Mediatoren verlängert und verstärkt wird. Zur Identifizierung möglicher regulatorischer Elemente wurden 4,5 kb der 5' flankierenden Region des iNOS Promotors aufwärts des Transkriptionsstarts kloniert. Mittels Analyse der DNase 1 hypersensitiven Bereiche der 5'Region des iNOS Gens konnten zwei hypersensitive Stellen identifiziert werden (DHS1: 1300bp; DHS2: 3000bp). Beide Stellen enthalten putative PPAR-Bindestellen. Zur weiteren Untersuchung wurde die Wirkung des PPAR-a auf die iNOS analysiert. Dabei konnte gezeigt werden, dass der PPAR-a Agonist Wy 14643 in Kombination mit IL-1ß in der Lage ist sowohl Aktivität, Protein als auch die mRNA der iNOS zu steigern. Transfektionsexperimente mit deletierten und mutierten iNOS Promotorfragmenten zeigten, dass DHS1 das für die Stimulation verantwortliche DNA Fragment enthält. Mittels Elektrophoretic-Mobility-Shift-Assay konnte gezeigt werden, dass der PPAR-a Agonist Wy 14643 die Bindung des PPA-Rezeptors an DHS1 verstärkt.
Mithilfe der klinischen Routinemethode, TRAK-Assay®, wurden bei Patienten TSH-Rezeptor-Antikörpern (TRAK) nachgewiesen, um die Diagnose M. Basedow zu erhärten oder auszuschließen. Diese Methode ist aber nur in der Lage die Gesamtheit aller TRAK zu erfassen. In dieser Studie wurde eine andere Methode, der cAMP-Assay verwendet, bei welchem Chinesische Hamster Ovarien (CHO)-Zellen eingesetzt wurden, die auf ihrer Oberfläche stabil exprimierte humane TSH-Rezeptoren besitzen, und welcher in der Lage ist, zwischen dem Vorhandensein von funktionsstimulierenden und funktionsblockierenden Antikörpern zu unterscheiden. Die Differenzierung zwischen diesen verschiedenen Antikörper-Typen kann wichtige Hinweise dafür liefern, warum das klinische Bild bei vielen Erkrankten nicht mit dem Vorhandensein oder der Höhe der TRAK korreliert und Anhaltspunkte über die Prognose über den weiteren Verlauf der Erkrankung geben. Große Patientenkollektive von insgesamt mehr als 300 Patienten wurden auf das Vorhandensein von TRAK im Serum untersucht, getrennt nach TRAK mit stimulierender und blockierender Funktion. Neben Patienten mit M. Basedow wurden in diese Studie auch Patienten einbezogen, welche an Hashimoto-Thyreoiditis, an einer anderen Autoimmunerkrankung, an nicht-autoimmunen Schilddrüsenerkrankungen oder an Thyreoiditis de Quervain erkrankt waren. Bei Patienten mit M. Basedow wurde außerdem der Einfluß der thyreostatischen Behandlungsdauer auf das Auftreten von TRAK mit stimulierender und blockierender Funktion untersucht. Material und Methode Es wurde die CHO- Zelllinie JP 26 verwendet. Die Zellen wurden kultiviert mit IMDM- Medium, 100 U/ml Penicillin, 100 U/ml Streptomycin, 5% FCS in einer 5%igen CO2-Atmosphäre bei 37°C. Für den cAMP-Assay wurden die Zellen in 96-Well-Platten angezüchtet. 24 Stunden später wurden die CHO-Zellen, nach Entfernung des Kulturmediums, zur Ermittlung funktionsstimulierender TRAK, mit 60 µl hypotonem KRB- Puffer, 20 µl IMBX (Isobutylmethylxanthine) und 20 µl Patientenserum für zwei Stunden inkubiert. Zur Ermittlung funktionsblockierender TRAK wurden 40 µl KRB, 20 µl IMBX, 20 µl Patientenserum und 20 µl TSH (Konz. 0,5 mU/ml) verwendet. Die cAMP-Konzentration wurde mittels eines kompetitiven Radioimmunoassays (BIOTRAK® cAMP) und eines Gamma-Counters gemessen. Ergebnisse Mit dieser Methode läßt sich zeigen, dass nicht nur bei Patienten mit M. Basedow signifikant hohe Titer mit funktionsstimulierenden und funktionsblockierenden Antikörpern vorhanden sind. Funktionsstimulierende TRAK wurden bei 25,7% der Hashimoto-Thyreoiditis-Patienten, bei 5,56% der Patienten mit schilddrüsenunabhängigen Autoimmunerkrankungen (M. Addison, Diabetes mellitus Typ 1) und bei 17,4% der Patienten mit nicht-autoimmunen Schilddrüsenerkrankungen detektiert. Funktionsblockierende TRAK waren in signifikanter Höhe bei 19,15% der Patienten mit Hashimoto-Thyreoiditis, bei 27,78% mit schilddrüsenunabhängigen Autoimmunerkrankungen und bei 50% mit nicht-autoimmunen Schilddrüsenerkrankungen aufzufinden. Die Gruppe der Thyroiditis-de Quervain-Patienten zeigte keine signifikanten Unterschiede im Vorkommen von Antikörpern zur Kontrollgruppe. In der Gruppe der M. Basedow-Patienten konnten bei 52,1% funktionsstimulierende Antikörper entdeckt werden. Bei den Patienten, welche weniger als vier Wochen thyreostatisch behandelt wurden, konnten in ca. 10% mehr Antikörper-positive Fälle detektiert werden, als bei Patienten mit einer Behandlungsdauer von mehr als neun Monaten. Nur 9,62% der M. Basedow-Patienten hatten laut cAMP-Assay TRAK mit blockierender Funktion. Diese verteilen sich ausschließlich auf Patienten, welche seit mindestens neun Monaten in thyreostatischer Behandlung waren. Der hier verwendete cAMP ist ein geeignetes Verfahren zur Differenzierung unterschiedlicher TRAK-Typen, was mit dem herkömmlichen TRAK-Assay® nicht möglich ist. In dieser Studie konnte gezeigt werden, dass Antikörper gegen den TSH-Rezeptor nicht nur bei Patienten mit M. Basedow vorkommen, sondern auch bei Patienten anderer Schilddrüsen- und Autoimmunerkrankungen. Es wird außerdem deutlich, dass eine thyreostatische Behandlung mit einer Dauer über neun Monaten bei M. Basedow-Patienten zum gehäuften Auftreten von funktionsblockierenden Antikörpern führt.
Einleitung und Zielsetzung: In der vorliegenden Arbeit sollte der Nachweis von TSH-Rezeptorantikörpern mittels eines Bindungsassays und JP26- Zellen erbracht werden. TSH-Rezeptorantikörper (TRAK) werden in Seren von vielen Patienten mit einer Autoimmunthyreoiditis entdeckt. Der in dieser Arbeit ausgewählte Radioimmunassay verwendet chinesische Hamster Ovarienzellen (CHO-Zellen), die humanen TSH-Rezeptoren exprimieren. Der Bindungsassay basiert auf dem Prinzip der Verdrängung von radioaktiv markiertem bovinem-TSH (Tracer) durch vorhandene TSH-Rezeptorantikörper im Patientenserum. Dabei ist es nicht entscheidend, ob es sich um funktionsblockierende oder funktionsstimulierende TRAK handelt. Der verwendete Bindungsassay gilt als einer der sensitivsten, kompetitiven Bindungsassays für die Detektion von TRAK und kann deshalb ein relevanter Verlaufsmarker bei Patienten mit Morbus Basedow und Hashimoto sein. Material und Methode: Die JP26-Zellen wurden ausgewählt, weil sie sich mit einer Anzahl von 2.000 TSH-Rezeptoren an ihrer Oberfläche gut mit der TSH-Rezeptordichte humaner Thyreozyten vergleichen lassen. Die verwendeten Patientenseren wurden unterteilt in 5 Gruppen: Gruppe 1: Morbus Basedow (n = 85), Gruppe 2: Kontrollgruppe (n = 76), Gruppe 3: Hashimoto-Thyreoiditis (n = 29), Gruppe 4: Andere Autoimmunerkrankungen (n = 14), Gruppe 5: Nicht-autoimmune Schilddrüsenerkrankungen (n = 38). Die Morbus Basedow-Gruppe wurde zusätzlich untergliedert in floride und länger als 9 Monate behandelte Gruppen sowie in TRAK positive und TRAK negative Gruppen: Gruppe 1A: floride und positive TRAK, Gruppe 1B: floride und negative TRAK, Gruppe 1C: behandelt und positive TRAK, Gruppe 1D: behandelt und negative TRAK. Die kultivierten JP26-Zellen wurden mit einer Zellanzahl von 300.000 Zellen / Well zusammen mit IMDM-Medium in 24-Lochplatten aufgeteilt. Am nächsten Tag wurden die in 5 %iger CO2-Atmosphäre bei 37°C inkubierten Lochplatten mit PBS gewaschen. Danach wurde 150 ml modifizierter KRB-Puffer, 50 ml Serum und 50 ml 125 I-bTSH in jede Vertiefung pipettiert. Die bestückten Lochplatten wurden diesmal bei 4°C über 24 Stunden inkubiert. Anschließend wurden die JP26-Zellen mit 0,5 ml 4 °C kalten KRB-Puffers gewaschen und mit 0,5 ml 1 N Natronlauge (NaOH) gelöst. Die verbliebene Radioaktivität wurde zuletzt im gamma-Counter gemessen. Ergebnisse: Gruppe 1: 31 %, Gruppe 2: 5 %, Gruppe 3: 17 %, Gruppe 4: 0 %, Gruppe 5: 16 %. Gruppe 1A: 80 %, Gruppe 1B: 0 %, Gruppe 1C: 36 %, Gruppe 1D: 14 %. Schlußfolgerung: Die Sensitivität der TRAK-Nachweise in der MB-Gruppe war entgegen aller Erwartungen niedriger als im Routinelabor. Dies lag vermutlich auch an einer sehr hohen Affinität des verwendeten bovinen-TSH-Tracers für TSH-Rezeptoren. Es fanden sich jedoch bemerkenswerte Ergebnisse in der Gruppe der Hashimoto- Thyreoiditis und der nicht-autoimmunen Schilddrüsenerkrankungen. In beiden Gruppen konnten in mehreren Seren ( 17 bzw. 16 % ) positive TRAK-Werte nachgewiesen werden. Daraus läßt sich schließen, daß die in vorliegender Arbeit angewendete Untersuchungsmethode eine höhere Sensitivität zum Nachweis von TRAK bei Hashimoto- Thyreoiditis besitzt. Gewichtige und neueste Studien, sowie Ergebnisse von Untersuchungen der gleichen Arbeitsgruppe, die sich mit zwei unterschiedlichen Assays zur Unterscheidung funktionsblockierender und funktionsstimulierender TRAK befaßt haben, stützen diese Aussage. Letztlich liegt der Schluß nahe, daß es sich bei den in diesen beiden Gruppen nachgewiesenen TSH-Rezeptorantikörpern, um überwiegend funktionsblockierende TRAK handelt. Dagegen erscheint zum TRAK-Nachweis, insbesondere funktionsstimulierender TRAK bei Morbus Basedow Patienten, die Anwendung einer auf kompetitiver Hemmung beruhende Untersuchungs-methode nur unzureichend sensitiv. Das in vorliegender Arbeit angewendete Verfahren eignet sich offenbar vergleichsweise besser zur Detektion funktionsblockierenden TRAK.
Verschiedene Nanopartikel, darunter Gelatine- und Albuminnanopartikel und Cyanoakrylatnanopartikel mit Butyl- und Hexylseitenketten, wurden in dieser Arbeit auf ihre Tauglichkeit als Trägersystem zum Einsatz für einen späteren Gentransfer in Bronchialepithelzellen erprobt. In der Zellkultur wurden dazu an primären humanen Bronchialepithelzellen und an der Zelllinie 16HBE14o Zytotoxizitätstest nach Inkubation mit oben genannten Nanopartikeln durchgeführt. Weiterhin wurden qualitative und quantitative Aspekte der Anreicherung von fluoreszenzmarkierten Gelatine- und Albuminnanopartikeln in diese Zellen mit dem konfokalen Laserrastermikroskop und dem Durchflußzytometer untersucht. Zusätzlich evaluiert wurde die inflammatorische Potenz von Gelatine- und Albuminnanopartikeln mittels einer quantitativen Interleukin-8-Bestimmung. Es konnte gezeigt werden, dass Cyanoakrylate aufgrund eines hohen zytotoxischen Effekts nicht für die Behandlung von Bronchialepithelzellen geeignet sind. Hierbei zeigten Cyanoakrylate mit kurzen Butylseitenketten eine ausgeprägtere Zytotoxizität als jene mit langen Hexylseitenketten. Gelatine- und Albuminnanopartikel hingegen zeichneten sich durch sehr geringe bis fehlende Zytotoxizität aus. Mit dem konfokalen Laserrastermikroskop konnte die Aufnahme von fluoreszenzmarkierten Gelatine- und Albuminnanopartikel in das Zellinnere von primären Bronchialepithelzellen dokumentiert werden. Erstmals wurde somit eine Nanopartikelaufnahme in Zellen nachgewiesen, die nicht zum mononukleären Phagozytensystem gehören. Die Versuche zur zellulären Aufnahme der Nanopartikel mit verschiedenen Inkubationsbedingungen zeigten, dass primäre Bronchialepithelzellen und 16HBE14o-Zellen Gelatine- und Albuminnanopartikel in einem aktiven, stoffwechselabhängigen Prozess aufnehmen, der am ehesten der Phagozytose entspricht. Ferner haben sich Albuminnanopartikel im Rahmen dieser Versuche als bioadhäsiv erwiesen. Mit dem Durchflußzytometer ließ sich schließlich eine Konzentrationsabhängigkeit der Aufnahme fluoreszenzmarkierter Gelatine- und Albuminnanopartikel zeigen und feststellen, dass alle Zellen einer Zellpopulation von primären Bronchialepithelzellen oder 16HBE14o-Zellen Nanopartikel aufnehmen. Selbst primäre Zellen, die durch die Kultur auf Membraneinsätzen auf einem hohen Differenzierungsniveau gehalten wurden, nahmen Nanoparikel auf. Eine quantitative Interleukin-8-Bestimmung zeigte schließlich, dass Gelatine- und Albuminnanopartikel keine Inflammation in primären humanen Bronchialepithelzellen und der Zelllinie 16HBE14o verursachen. Abschließend lässt sich sagen, dass die hier erprobten Nanopartikel bezüglich ihrer Zytotoxizität und ihrem inflammatorischem Potenzial als geeignet für den Gentransfer erscheinen. Die Aufnahme der Nanopartikel in das Zellinnere ist vielversprechend für eine spätere Expression von Transgenen in Bronchialepithelzellen.
Ziel dieser Arbeit war die Klärung des pathogenen Mechanismus einer Mutation im kardialen Myosinbindungsprotein C Gen. Diese Mutation (eine G-Insertion), die zu einer intern deletierten mRNA mit vorzeitigem Stop Codon führt, wurde im Rahmen einer HCM- Familienanalyse identifiziert. Ein C-terminal verkürztes MyBP-C war jedoch im Herzgewebe eines Patienten nicht nachweisbar (Moolman et al., 2000). Es stellte sich die Frage, ob die Krankheit in dieser Familie auf einen "dominant-negativen" Effekt von sehr wenigen veränderten Proteinen oder auf einen Mangel an normalem MyBP-C (Haploinsuffizienz) zurückzuführen ist. Zur Überprüfung einer möglichen Suppression des mutierten Allels auf mRNA Ebene wurde eine semiquantitative RT-PCR-Analyse myokardialer RNA durchgeführt. Dabei wurde festgestellt, dass die nicht-mutierte mRNA in einem vierfachen Überschuß gegenüber der mutierten mRNA im Patienten-Herzgewebe vorliegt. In Modellversuchen wurde sodann die Expression der intern deletierten mRNA in transient transfizierten Zellen untersucht. Hierfür wurden drei MyBP-C cDNAs verwendet: (1) die vollständige Wildtyp cDNA (WT), (2) eine intern deletierte cDNA, die mit dem vorzeitigen Stop-Codon endet (MTI) und (3) eine cDNA, die sich nur durch die interne Deletion von der WT-Sequenz unterscheidet (MTII). Aufgrund einer Leserahmenverschiebung enthält die cDNA MTII (wie die mutierte Patienten-mRNA) zusätzlich zum nativen Stop-Codon ein vorzeitiges Terminationscodon. In COS-1 Zellen führten alle drei cDNAs zur Synthese der erwarteten Genprodukte. In neonatalen Kardiozyten wurde nur das verkürzte Protein vom Typ MTI eindeutig exprimiert. Die cDNA MTII führte nicht, bzw. nur in sehr geringem Ausmaß zur Synthese eines verkürzten MyBP-C (Western Blot). Die Analyse immunfluoreszent markierter Kardiozyten für das c-myc/MyBP-C-Fusionsprotein und für Titin ergab folgende "steady state" Expressionen: WT>MTI>>MTII. In der Mehrzahl der Zellen, die MTI oder MTII exprimierten, lagen die Rumpfproteine diffus im Cytoplasma vor, ohne eine erkennbare Veränderung der endogenen Sarkomerstruktur hervorzurufen. Ein relativ geringer Anteil von Zellen zeigte eine korrekte, sarkomere Inkorporation der verkürzten Proteine. Aufgrund der unterschiedlichen "steady state" Konzentration von MTI und MTII in Kardiozyten und aufgrund der Expressionsunterschiede in den verschiedenen Zelltypen wurde ein zelltypspezifischer und intron-unabhängiger Mechanismus vermutet, der die Suppression der Nonsense-mRNA (MTII) und damit eine Reduktion der Synthese des verkürzten MyBP-C bewirkt. Dieser Effekt wurde auf den Einfluß von Sequenzen zurückgeführt, die sich in der reifen mRNA 3' vom vorzeitigen Stop-Codon befinden. Zur Eingrenzung dieser Sequenzen wurde der Bereich zwischen dem vorzeitigen und dem nativen Stop-Codon in überlappende Fragmente unterteilt und an das Stop-Codon der cDNA MTI angefügt. Die transiente Expression dieser cDNA-Konstrukte (MTI-DSE I, II, III, I/II) führte in Kardiozyten ebenfalls zu einer reduzierten Synthese des verkürzten MyBP-C. Die erhaltenen Ergebnisse, d.h. sowohl die reduzierte Transkriptmenge des mutierten MyBP-C Allels im Patienten- Herzgewebe als auch die geringe Akkumulation verkürzter MyBP-C Proteine in transient transfizierten Kardiozyten erklären den pathogenen Mechanismus der untersuchten MyBP-C Mutation nicht vollständig. Jedoch unterstützen sie die Vermutung, dass die Abwesenheit des verkürzten MyBP-C auf einer Suppression der MyBP-C Nonsense-mRNA basiert und bekräftigen die Vorstellung, dass die HCM in der untersuchten Familie mit einem Mangel an Myosinbindungsprotein C im Myokard assoziiert ist (Haploinsuffizienz). Ein "dominant- negativer" Effekt einer sehr geringen Menge von veränderten Molekülen auf die Struktur oder auf die regulatorische Funktion der kardialen Sarkomere kann allerdings nicht völlig ausgeschlossen werden.
Die Peritonitis bezeichnet eine durch Bakterien oder chemische Noxen ausgelöste Entzündung des Peritoneums. Entwickelt sich aus der lokalisierten Entzündung der Bauchhöhle durch Abstrom bakterieller Bestandteile in die systemische Zirkulation eine generalisierte Sepsis mit multiplem Organversagen, beträgt die Letalität trotz chirurgischer Herdsanierung, intensivmedizinischer Betreuung und potenter Antibiotikatherapie 20-50%. Eine entscheidende Rolle in der Abwehr der Peritonitis tragen polymorphkernige Leukozyten. PMNL werden bei einer Infektion der Abdominalhöhle durch chemotaktile Botenstoffe zum Fokus gelockt und tragen durch Phagozytose der Bakterien und Sauerstoffradikalproduktion entscheidend zur Elimination der Mikroorganismen bei. Viele Untersuchungen weisen jedoch auch darauf hin, daß überschießend aktivierte zirkulierende PMNL für die Pathologie des septischen multiplen Organversagens mitverantwortlich sind. Die vorliegende Studie dient der Charakterisierung der Sauerstoffradikalproduktion emigrierter und zirkulierender PMNL bei Patienten mit sekundärer Peritonitis. Hierfür wurde mit Hilfe der luzigenin- bzw. luminolverstärkten Chemilumineszenz die extra- sowie intrazelluläre Sauerstoffradikalproduktion polymorphkerniger Leukozyten bestimmt. Dabei wurde die Sauerstoffradikalproduktion von Patienten mit unkompliziertem Verlauf einer Peritonitis mit der der Peritonitispatienten mit systemischen Komplikationen (septischer Schock, multiples Organversagen) verglichen. Acht Patienten nach abdominalchirurgischer Operation ohne Infektion dienten als Kontrollen. Eine Aktivierung der extrazellulären und intrazellulären Sauerstoffradikalproduktion polymorphkerniger Leukozyten war durch rezeptorabhängige und rezeptor-unabhängige Stimuli möglich. Bei Patienten nach abdominalchirurgischer Operation ohne Infektion war die Sauerstoffradikalproduktion der in die Bauchhöhle emigrierten PMNL höher als die zirkulierender PMNL. Auch bei Patienten mit einer unkomplizierten Peritonitis war die Sauerstoffradikalproduktion der intraabdominalen Granulozyten stärker aktivierbar als die der zPMNL. Im Gegensatz hierzu war jedoch bei Peritonitispatienten mit systemischen Komplikationen die extrazelluläre sowie auch die intrazelluläre Sauerstoffradikal-produktion emigrierter, intraabdominaler PMNL reduziert. Die stimulierte Sauerstoff-radikalproduktion zirkulierender PMNL war bei Patienten mit schwerer Peritonitis hochgradig aktivierbar und übertraf die der emigrierten PMNL. Die hohe Sauerstoffradikalproduktion zirkulierender PMNL bei Patienten mit kompliziertem Verlauf einer Peritonitis verbunden mit einer erniedrigten Sauerstoffradikalproduktion emigrierter polymorphkerniger Leukozyten sprechen für eine überaus starke systemische Aktivierung der Leukozyten. Dagegen scheint die lokale Abwehr im Rahmen einer schweren Peritonitis supprimiert. Die bei der vorliegenden Untersuchung erfaßten hohen intraabdominalen Zytokinkonzen-trationen könnten für eine Deaktivierung emigrierter Leukozyten verantwortlich sein. Zudem könnte die systemische Hyperinflammation polymorphkerniger Leukozyten mit einer vorzeitigen Einleitung der Apoptose und konsekutiver lokaler Immunparalyse verbunden sein. Wenig ist bis heute über die Modulierbarkeit emigrierter, intraabdominaler polymorphkerniger Leukozyten durch antiinflammatorische Substanzen bekannt. Daher wurde in der vorliegenden Untersuchung die Suppression der Sauerstoff-radikalproduktion emigrierter polymorphkerniger Leukozyten durch verschiedene antiinflammatorische Substanzen erprobt. Der Einfluß dieser Substanzen auf die Phagozytoseaktivität emigrierter PMNL wurde mit Hilfe der Durchflußzytometrie evaluiert. Chloramin, Buflomedilhydrochlorid und Pentoxiphyllin konnten die Sauerstoffradikal-produktion der emigrierten polymorphkernigen Leukozyten supprimieren, ohne die Phagozytosekapazität der Leukozyten zu beeinträchtigen.
Es wurden 1000 von der Polizei in und um Frankfurt am Main in der Praxis ermittelte AAK-Messwerte und die entsprechenden BAK, die im Zentrum der Rechtsmedizin der Johann Wolfgang Goethe-Universität in Frankfurt am Main bestimmt wurden, einer statistischen Auswertung unterzogen. In die Auswertung sind alle aus den Untersuchungsunterlagen entnehmbaren Parameter, wie Geburtsdatum der Probanden, Geschlecht, Datum und Uhrzeit der AA-Entnahme, AAK, Datum und Uhrzeit der Tat, zuständiges Polizeirevier, AAK-Messgerät, BAK, Datum und Uhrzeit der Blutentnahme, eingeflossen. Die statistische Auswertung hat ergeben, dass die durchschnittliche Differenz aller AAK- und BAK-Werte bei -0,02 Promille liegt, mit einer Standardabweichung von ±0,35 Promille bei einer maximalen Differenz von -1,13 Promille nach unten und +2,81 Promille nach oben. Die Standardabweichung von ±0,35 Promille wurde als Grenzwert zur Überprüfung der Korrelation der wahrscheinlichen BAK zum Zeitpunkt der AAK-Bestimmung gewählt. Trotz der großen Spanne des Grenzbereichs von 0,7 Promille wurden nur 77,9% der AAK-BAK-Paare als korrelierend ermittelt. Bei Festlegen individueller Grenzwerte, gebildet aus der minimalen bzw. der maximalen BAK zum Zeitpunkt der AAK-Bestimmung, erwiesen sich nur noch 34,7% der Wertepaare als korrelierend. Der durchschnittliche BAK-AAK-Quotient betrug 1:2181, mit einer Standardabweichung von ±1:473. Die Quotientenspanne lag zwischen 1:0 und 1:4480. Als einziger, eindeutig nachzuweisender Faktor für die Beeinflussung der AAK-Messwerte galt die tatsächliche Höhe der BAK. Je höher die Probanden-BAK war, umso größer waren die AAK-Abweichungen von der BAK. Erwähnenswert ist, dass die AAK-Messgeräte der Firma Dräger (Alcotest® 7310 und 7410), auf Redox-Halbleiter-Gassensoren aufbauend, die indirekte BAK im Durchschnitt zu hoch, während die Brennstoffzellen-Geräte LMB S-D3 der Firma LMB Laborservice GmbH die indirekte BAK im Durchschnitt zu niedrig angaben. Die Untersuchung der Wertepaare aus AAK und minimaler BAK zum Zeitpunkt der AAKBestimmung im Vergleich zu den vom Gesetzgeber vorgegebenen Promille-Stufen für ein bestimmtes Strafmaß (0,3 Promille, 0,5 Promille, 0,8 Promille, 1,1 Promille, 1,6 Promille, 2,0 Promille, 3,0 Promille) hat ergeben, dass bei dem vorliegenden Datenmaterial 203 Probanden eine zu niedrige und 239 Probanden eine zu hohe Strafe erhalten hätten, wenn die AAK als alleiniges Maß verwendet worden wäre. Diese Fehleinschätzung wäre eingetreten, weil die AAK der Probanden über bzw. unter den oben genannten Grenzwerten lag und sich ihre BAK umgekehrt unter bzw. über denselben Werten befand. Es lässt sich feststellen, dass eine Berechnung der BAK aus dem Ethanolgehalt der Atemluft nicht möglich ist, weil viele Faktoren die AAK-Messung beeinflussen, die bisher unberücksichtigt blieben und auch von modernen, hochpräzisen AAK-Messgeräten schwerlich erfasst werden können. Daher gilt die Empfehlung, die AAK-Messung nur als Vorprobe und zum Screening zu verwenden. Bei juristischen Begutachtungen sollte nur die BAK verwendet werden, weil diese als einziger Wert präzise und beweissicher ist und außerdem über den Trunkenheitszustand eindeutig informiert. Betroffene sollten auf jeden Fall auf einer BAK-Untersuchung bestehen und die AAK als Messwert in Frage stellen.
Die verschiedenen Typen von Nervenzellen sind durch die differentielle Expression terminaler Differenzierungsgene charakterisiert. Dies sind z.B. Gene, deren Produkte die Synthese und den Transport der verwendeten Neurotransmitter gewährleisten. Die Expression dieser Gene wird während der Entwicklung durch spezifisch exprimierte Transkriptionsfaktoren reguliert. In der Entwicklung sympathischer Nervenzellen sind Mitglieder aus der Familie der basic Helix-Loop-Helix-(bHLH)-Transkriptionsfaktoren und der paired-Homöodomänen-Faktoren identifiziert worden, deren Expression in Vorläuferzellen aus der Neuralleiste durch das Signalmolekül BMP4 induziert wird und die an der Regulation des sympathischen Phänotyps beteiligt sind. Nullmutanten des bHLH-Faktors Mash1 und des Homöodomänen-Faktors Phox2b zeigen eine stark gestörte Entwicklung der sympathischer Nervenzellen. Weitere bHLH-Faktoren, dHand und eHand, vermögen in vitro die Expression noradrenerger Differenzierungsgene in Neuralleistenzell-kulturen zu induzieren. Ob diese Faktoren in vivo eine Rolle in der entwicklungsabhängigen sympathischen Differenzierung spielen, kann im Mausmodell nicht untersucht werden, da die Nullmutanten noch vor der Sympathogenese sterben. Das Huhnembryo bietet das ideale Modellsystem, die Rolle von Transkriptionsfaktoren in vivo zu untersuchen und durch Kopplung embryologisch-experimenteller und molekularer Verfahren die Faktoren gezielt in bestimmten Geweben zu exprimieren. In dieser Arbeit werden Experimente dargestellt, welche die Rolle dieser Transkriptionsfaktoren genauer definieren. Durch die viral induzierte Expression von Phox2a und Phox2b im Huhnembryo wird gezeigt, dass die Expression dieser Faktoren ausreicht, in multipotenten Vorläuferzellen des Brachialnervs und des Hinterwurzelganglions die Differenzierung sympathischer Nervenzellen zu induzieren. Dieser Phänotyp umfasst neben der Expression typisch noradrenerger und panneuronaler Gene ebenfalls die Expression der Transkriptionsfaktoren Phox2a und -b, dHand und Cash1. Es wird gezeigt, dass dHand im Laufe der sympathischen Entwicklung noch vor den noradrenergen und panneuronalen Differenzierungsgenen exprimiert wird. Auch dHand ist in der Lage, nach viraler Misexpression in multipotenten Vorläuferzellen des Embryos Differenzierung zu sympathischen Nervenzellen auszulösen. Weiter wird gezeigt, dass die Überexpression von BMP4 im Huhnembryo dazu führt, dass undifferenzierte Vorläuferzellen im Brachialnerv zu sympathischen Nervenzellen differenzieren. Mash1 vermag nach Überexpression die Expression neuronaler Gene im Brachialnerv und umliegenden Mesoderm zu induzieren. Die Bildung sympathischer Nervenzellen im Bereich des Brachialnervs wird ebenfalls induziert. Diese exprimieren wiederum neben den noradrenergen und panneuronalen Genen auch die Transkriptionsfaktoren Phox2a/b und dHand. Die Ergebnisse zeigen überzeugend das Vermögen der Transkriptionsfaktoren Phox2a/b, dHand und Mash1 den komplexen sympathischen Phänotyp in multipotenten Vorläuferzellen aus der Neuralleiste zu induzieren. Besonders wichtig sind hierbei die Ergebnisse nach dHand-Überexpression. Hiermit wird erstmals gezeigt, dass dieser bHLH-Transkriptionsfaktor in vivo eine hervorragende Rolle innerhalb der Regulation noradrenerger und neuronaler Gene einnimmt. Die Ergebnisse der verschiedenen Untersuchungen zeigen darüber hinaus, dass während der Normalentwicklung in Vorläuferzellen des peripheren Nervensystems die Expression einer Gruppe von Transkriptionsfaktoren induziert wird. Deren Mitglieder werden in einer festgelegten zeitlichen und epistatischen Reihung exprimiert. Jeder Einzelne dieser Transkiptionsfaktoren ist ausreichend, in Vorläuferzellen die Entstehung sympathischer Nervenzellen auszulösen. Dabei wird die Expression der anderen Mitglieder dieser Gruppe induziert. Es handelt sich also nicht um eine lineare Kaskade von Transkriptionsfaktoren, sondern um ein Netzwerk von Faktoren, die ihre Expression gegenseitig regulieren und vermutlich gemeinsam die Expression terminaler Differenzierungsgene steuern.
Mechanismus der funktionell relevanten Kopplung von Kontaktallergenen in dendritischen Zellen
(2002)
Über die Signaltransduktion in Langerhanszellen, den antigenpräsentierenden Zellen der Epidermis, ist bisher nur wenig bekannt. Mit ein Grund dafür ist die schlechte Verfügbarkeit reiner Langerhanszellen aufgrund ihrer geringen Zahl und der schwierigen Präparation, die häufig schon zur Voraktivierung dieser Zellen führt. Humane unreife und reife dendritische Zellen erwiesen sich als geeignete Modellzellpopulation für kutane antigenpräsentierende Zellen. Mit Hilfe dieser Modellzellen wurde die Beteiligung von zentralen Signaltransduktionswegen nach Interaktion mit dem Kontaktallergen TNCB untersucht. 1. Zum ersten Mal wird gezeigt, dass TNCB in den ersten 10 Minuten nach der Haptenisierung bei dendritischen Zellen intrazellulär lokalisiert ist. Die Stimulation von DC mit dem starken Kontaktallergen TNCB führte zu einer Aktivierung der ERK1/2 MAP Kinase. Dieses Ergebnis entspricht der Vorstellung, dass starke Kontaktallergene in subtoxischen Konzentrationen zellulären Streß bei MAP Kinasen auslösen und somit zu einer für die Kontaktallergie typischen Antigenpräsentation führen. 2. Die Tyrosinphosphorylierung wurde bereits in vorausgegangenen Arbeiten (Kuhn, 1998; Brand, 2002) als Charakteristikum für haptenbehandelte Monozyten und humane dendritische Zellen herausgestellt. Diese Ergebnisse konnten mit humanen unreifen und reifen DC weitergeführt werden. Proteinbiochemisch ergab das Kontaktallergen TNCB ein spezifisches und reproduzierbares Muster hyperphosphorylierter Proteinbanden. Der gemessene Anstieg an Phosphotyrosin beruhte auf der gesteigerten Aktivität von Protein Tyrosin-Kinasen. 3. In weiteren Untersuchungen wurden Proteine massenspektrometrisch analysiert, die tyrosinphosphoryliert waren und gleichzeitig TNCB gebunden hatten. Es wurden drei Proteine identifiziert: Gewebstransglutaminase bei 74-80kD, Thyroidhormon Bindeprotein bei 58kD und Aktin bei 38kD. Nach Literaturrecherchen war die Transglutaminase am vielversprechendsten und wurde auf ihre Aktivität innerhalb der Kontaktallergen-induzierten Signaltransduktionskaskade hin untersucht. Drei strukturell verschiedene Stoffe, das Kontaktallergen TNCB, die Retinsäure (RA) und ein Phorbolester (PMA) induzierten eine starke, proteinbiochemisch meßbare Tyrosinphosphorylierung der ERK1/2 MAP Kinase. Aus der Literatur war die RA für eine Aktivierung der tTG bekannt (Antonyak et al., 2002) und PMA als Stimulator der ERK1/2 MAP Kinase (Chen et al., 2002; Lee et al., 2002) - aus diesem Grund wurden sie als Positivkontrolle mitgeführt. 4. Mittels Immunpräzipitation wurde der Nachweis, dass TNCB an die tTG bindet, erbracht. Dies war der erste Indikator für eine Bedeutung der tTG als Zielstruktur für ein Kontaktallergen. 5. TNCB, RA und PMA lösen eine gesteigerte Transamidierungsaktivität der tTG aus, die essentiell zur Induktion der ERK-Phosphorylierung ist. Dies wurde durch einen Transamidierungs Aktivitäts Assay bestimmt (Zhang et al., 1998), einem Nachweis der tTG Aktivität mittels Inkorporation von biotinylierten Polyaminen in lokale Proteine. 6. Sowohl die tTG Aktivität als auch die ERK-Phosphorylierung nach TNCB Stimulation konnten durch den spezifischen Inhibitor der Transamidierungsaktivität der tTG MDC gehemmt werden. Dies war ein zweiter Hinweis, dass die enzymatische Aktivität der tTG eine große Rolle spielt. Das gleichzeitige Ausbleiben der Transamidierung und der ERK-Phosphorylierung deutet auf den deutlichen Einfluß der tTG auf den Signaltransduktionsweg der ERK1/2 MAP Kinase hin. Analysen mit anderen starken Kontaktallergenen, wie z.B. Thiomersal und Chlormethylisothiazolon/ Methylisothiazolon bieten zukünftige Forschungsansätze zur weiteren Charakterisierung der funktionellen Bedeutung der tTG und des ERKWeges. Interessant wären auch Untersuchungen zur Hochregulation der tTGExpression in DC von 24-72 Stunden nach einer Inkubation mit TNCB, RA und PMA. Auch sind weitere Untersuchungen zur Signaltransduktionskaskade im Hinblick auf die erforderlichen, nachgeschalteten Elemente interessant, wie z.B. der von der tTG aktivierten Protein B Kinase AKT (Antonyak et al., 2002) sowie beteiligter Kinasen des ERK-Weges.
Die Messung von heteronuklearen 15N-Relaxationszeiten (Longitudinale, transversale sowie heteronukleare NOE) bei verschiedenen Magnetfeldstärken (500, 600 und 800 MHz 1H Larmorfrequenz) ergeben Informationen über interne dynamische Prozesse in Biomolekülen. Diese verschiedenen Relaxationsraten sind voneinander abhängig und über die spektrale Leistungsdichtefunktion miteinander gekoppelt. Die mikrodynamischen Parameter des NH-Peptidrückgratvektors (der Ordnungsparameter S2 und die effektive interne Korrelationszeit te) sowie der Beitrag des konformationellen Austausches zur transversalen Relaxationsrate der Austauschparameter Rex wurden für einige Proteine errechnet und angepaßt. Das Human ILBP gehört zur Familie der intrazellulären Lipidbindungsproteine (LBP), die in der Lage sind, Fett- und Gallensäuren spezifisch zu binden und in Cytosol zu transportieren. Viele verschiedene Typen von LBPs sind bis heute identifiziert worden. Diese Proteine enthalten 127 - 135 Aminosäurereste und werden nach dem Gewebe benannt, aus dem sie isoliert wurden. Human-ILBP enthält 127 Aminosäurereste und besteht haupsächlich aus 10 antiparallelen beta-Faltblattsträngen, die eine beta-Fassstruktur mit einer großen Bindungstasche bilden, und zwei alpha-Helices. ILBP hat die Tendenz, Gallensäuren oder Fettsäuren zu binden. Diese geringe Tendenz zur liganden Spezifität ist entweder in der Struktur oder in seiner Dynamik begründet. Aus diesem Grund kann die Untersuchung der Dynamik des Human ILBP (apo- und holo-Form) in zwei Zeitfenstern zum besseren Verständnis der Funktion führen. Für die nicht-terminalen Peptidrückgratgruppen wurde ein S2-Parameter> 0,8 mit einen Durchschnitt von 0,88 beobachtet, was auf eine niedrige Mobilität im ganzen Protein in einem Nano- zu Picosekunden-Zeitfenster deutet, wobei eine Korrelationszeit von tc = 6.25 ns für ILBP (apo-form) und tc = 6.10 ns für ILBP (holo-Form) beobachtet wurde. Apo- und holo-Form (mit Taurocholat als Ligand) zeigen eine ähnliche Dynamik in diesem Zeitfenster. Überdurchschnittliche S2-Werte der alpha-Helix I deuten eine geringe Flexibilität des Peptidrückgrats an, während alpha-Helix II als Teil der Portalregion eine höhere Beweglichkeit zeigt. Austauschparameter Rex wurden hauptsächlich in den Regionen der Ligandenbindung nachgewiesen. Die hier beschriebenen Eigenschaften unterscheiden sich von denen des H-FABP und des E-FABP. Offensichtlich unterscheiden sich verschiedene Mitglieder der LBP-Familie wie ILBP (Human oder Schwein), H-FABP und E-FABP in der Funktion und Dynamik des Peptidrückgrats. In der vorliegenden Arbeit wurden die transversalen 15N CSA/DD-kreuzkorrelierten Kreuzrelaxationsraten bestimmt. Für die Bestimmung der Anisotropie des chemischen Verschiebungstensors wurde des Verhältnis zwischen den Auto- und Kreuzrelaxationsraten in Abhängigkeit von der magnetischen Feldstärke genutzt, wobei es möglich war, die Orientierung und Größe des CSA-Tensors einzelner Aminosäurereste zu bestimmen. Bei dieser Methode (wie auch in vielen anderen Studien gezeigt) wurde keine Korrelation zwischen der Sekundärstruktur des Proteins und den 15N CSA-Werten festgestellt. Zum Vergleich der CSA-Konstanten der ILBP-Spezies wurden die entsprechenden Parameter der RNaseT1 gemessen. Alle Daten wurden im Hinblick auf strukturelle Details kritisch diskutiert.
Für diese Arbeit wurden anhand zweier relativ kleiner Kollektive von 35 DAT-Patienten und 12 gesunden Non-DAT-Kontrollpersonen (Rechtshänder) 18F-FDG-PET-Bilddatensätze des Gehirns angefertigt und standardisiert mit dem halbautomatischen Regionalisierungsverfahren RegWindow hinsichtlich der Stoffwechselraten in interessierenden Hirnregionen nach HERHOLZ et al. (1990) in der Überarbeitung nach HALBER et al. (1995) für das PC-Programm RegWindow analysiert und ausgewertet. Für die Non-DAT-Kontrollgruppe läßt sich ein signifikanter Zusammenhang zwischen den mit RegWindow und Metabolischer Index ermittelten Metabolic Ratios bestätigen. Die Metabolic Ratios stimmen bezüglich den Literaturangaben der beiden Referenzstudien nach HALBER (1995) und HERHOLZ et al. (1990) sehr gut überein. Mit der Non-DAT-Kontrollgruppe ist auf einem Signifikanzniveau von P=0,95 eine direkte Proportionalität zwischen dem Alter und dem daraus resultierend erniedrigten Metabolic Ratios abzuleiten. Jeweils zehn Lebensjahre führen zu einer Minderung des Metabolic Ratios um 2 Prozent. Für das in dieser Arbeit untersuchte DAT-Gesamtkollektiv wird eine lineare Abhängigkeit des Metabolic Ratios vom MMST-Score des psychometrischen Tests mit hoher Signifikanz nachgewiesen. Die Abhängigkeit liefert eine eindeutige 1:1 Korrelation: Eine Minderung des Score-Wertes um eins hat im Mittel eine Minderung des Metabolischen Ratios um 1 Prozent zur Folge und umgekehrt. Aus den Ergebnissen dieser Arbeit läßt sich ein Cut-off-Wert von 1,075 zur Trennung des Non-DAT- vom DAT-Kollektiv berechnen. Dieser ermöglicht eine vollständige Trennung beider Kollektive bei einer Sensitivität und Spezifität von 100 Prozent. Die Ergebnisse der Stoffwechselratenanalyse bestätigen eine signifikante Stoffwechselratenminderung in drei von den vier nach HALBER (1995) und HERHOLZ et al. (1990) typischerweise betroffenen (affected) Hirnregionen. In der Reihenfolge vom höchsten zum niedrigeren Einfluß der DAT auf die Stoffwechselminderungen ergibt sich die Rangfolge Gyrus angularis, gefolgt von Gyrus temporalis inferior, Gyrus supramarginalis und Gyrus temporalis medius. Als typischerweise nicht betroffene (non-affected) Regionen konnten die Gyri praecentralis und postcentralis sowie Cuneus bestätigt werden. Als eindeutig non-affected kann zusätzlich der Thalamus klassifiziert werden. Für einige nicht klassifizierte Hirnregionen werden ebenfalls signifikante Stoffwechselratenminderungen nachgewiesen, deren Aufnahme als typischerweise betroffene Hirnareale in den Algorithmus für RegWindow zur Berechnung des Metabolic Ratios vorgeschlagen wird. Diese lauten: Lobulus parietalis inferior, Praecuneus, Hippocampus, Lobulus parietalis superior und Gyrus frontalis superior. Internationale Arbeitsgruppen (siehe Kapitel 4.4.1) konnten für diese Hirnregionen im PET Stoffwechselratenminderungen bestätigen sowie in anderen bildgebenden Diagnoseverfahren Atrophien und Perfusionsdefizite ebenfalls nachweisen. Für die Gyri angularis, temporalis inferior und medius, supramarginalis und den Lobulus parietalis inferior konnte ein unilateraler Befall mit Stoffwechselratenminderung im Anfangsstadium der DAT nachgewiesen werden.
Effektivität und Effizienz der hochauflösenden MRT in der Diagnostik akuter Handgelenksverletzungen
(2002)
Die konventionelle Röntgendiagnostik stellte lange Zeit das dominierende diagnostische Instrument zur Beurteilung von akuten Verletzungen des Handgelenkes und der umliegenden Strukturen dar. Da der klinische Verlauf nach Verletzungen des Handgelenkes häufig unbefriedigend und langwierig ist und nicht adäquat therapierte Verletzungen dieser Region mit einer hohen Rate an Sekundärkomplikationen einhergehen, galt es, die Diagnostik des Handgelenkes zu optimieren, da mit der konventionellen Röntgendiagnostik zum einen Frakturen übersehen, umgekehrt aber auch überdiagnostiziert werden können und zum anderen naturgemäß Bandverletzungen nicht ausreichend beurteilbar sind. Da Verletzungen des Handgelenkes meist bei berufstätigen jüngeren Menschen beobachtet werden, stellt dies ein großes ökonomisches Problem dar. Ziel dieser Arbeit war es zu untersuchen, ob durch den gezielten Einsatz der Magnetresonanztomographie in der Frühphase nach einem akuten Handgelenkstrauma, die Diagnostik verbessert werden kann, und inwieweit dies Einfluss auf die nachfolgende Therapieplanung und Therapie hat. Es gelang durch den Einsatz der MRT beim akuten Handgelenkstrauma in Fällen mit einer Diskrepanz zwischen dem unauffälligen oder unklaren konventionellen Röntgenbild und der deutlichen klinischen Symptomatik nicht nur in 10,7% der Fälle (n=6) der Nachweis einer okkulten Fraktur, sondern auch in 64,3% der Fälle (n=36) der Nachweis von Begleitverletzungen im Bereich der ligamentären Strukturen und des TFCC. In 39,3% (n=22) konnte durch die MRT der Verdacht auf eine Fraktur ausgeräumt, in weiteren 5,4% (n=3) eine Änderung bezüglich der Frakturlokalisation vorgenommen werden. Nur 11 der ursprünglich 36 konventionell radiologisch befundeten Verdachtsdiagnosen einer Fraktur konnten im MRT bestätigt werden. In 55,4% wurde die Diagnose und in 66,1% die Therapie geändert (bezugnehmend auf die Daten des ersten Radiologen, Tabelle IV-12). Den verbesserten chirurgischen Therapiemöglichkeiten insbesondere der ligamentären Verletzungen musste durch die Optimierung der MRT Rechnung getragen werden. Es gelang im Rahmen dieser Promotionsarbeit ein zeitsparendes Untersuchungsprotokoll zu erstellen, das es ermöglicht, eine optimale Diagnostik der knöchernen Strukturen des Handgelenkes sowie des Weichteilapparates in weniger als 10 Minuten Untersuchungszeit durchzuführen. T1- und T2-gewichtete STIR-Sequenzen in koronarer Schichtorientierung erwiesen sich als diagnostisch relevant. Aufgrund der verbesserten Diagnostik war es möglich, die Patienten rasch der jeweils optimalen Therapie zuzuführen. So konnten zum einen initial okkulte Frakturen und ausgeprägte Band- und Diskusverletzungen adäquat behandelt und zum anderen durch den sicheren Ausschluss von ossären Verletzungen frühzeitig lange Immobilisationszeiten vermieden werden. Dies stellte einen wesentlichen Benefit für die Patienten dar, da wiederholte Krankenhausbesuche und Röntgenaufnahmen, unnötige Immobilisationszeiten von bis zu 12 Wochen sowie inadäquate - gegebenenfalls invasive - Diagnostik (Arthrographie, Operation) vermieden werden konnten. Durch den frühzeitigen Ausschluss von Frakturen und relevanten ligamentären Läsionen mittels MRT konnte so eine Verkürzung der Arbeitsunfähigkeit in 15 Fällen erreicht werden, in 8 Fällen musste die Dauer der Arbeitsunfähigkeit aus therapeutischen Gründen verlängert werden. Dies spielt sowohl für den Arbeitnehmer als auch für den Arbeitgeber und - bei längeren Krankschreibungszeiten - für die Krankenkassen eine große Rolle. Betriebsausgaben durch Entgeltfortzahlung im Krankheitsfall können so reduziert werden. Aufgrund der wirtschaftlichen Folgen sollte nach unseren Erfahrungen in Fällen mit einem klinischen Verdacht auf eine Fraktur oder schwere Weichteilverletzungen im Bereich des Handgelenkes bei unauffälligem oder unklarem Nativröntgenbild der Einsatz der MRT unmittelbar, möglichst am Tag der Verletzung, erfolgen. Trotz der initial hohen Kosten der kernspintomographischen Untersuchung erscheint uns das Verfahren in der Akutdiagnostik von Handgelenkesverletzungen bei Diskrepanz zwischen dem unauffälligen Röntgenbild und der klinischen Symptomatik indiziert und kosteneffektiv, da durch die adäquate Therapie chronische Handgelenksinstabilitäten und Pseudarthrosen vermieden werden können und auf diese Weise eine Reduktion der Folgekosten möglich ist. Für die Zukunft werden weitere Studien notwendig sein, die die klinische Relevanz des Langzeitverlaufes der in der MRT erhobenen Befunde überprüfen.
Die Osseointegration in der dentalen Implantologie wurde anhand einer Literaturübersicht dargestellt und ausgewertet. Die Literaturübersicht beinhaltet Verlaufsstudien, in vitro und in vivo Studien, die ultrastrukturelle, biomechanische und biochemische Untersuchungen und deren Resultate aufzeigen. Im 1. Kapitel wurden die Kriterien zur Beurteilung des Implantaterfolges dargestellt. Es lässt sich feststellen, dass nicht nur ein Implantatverlust als Misserfolg zu bewerten ist, sondern auch klinische und röntgenologische Erfolgskriterien eine Rolle spielen. Die Mobilität, der Knochenabbau, Entzündungsreaktionen, Schädigungen von anatomischen Strukturen und die Funktionstüchtigkeit des Implantates werden mitbewertet. Im 2. Kapitel wurden die Voraussetzungen für die Erzielung der Osseointegration aufgezeigt. Zu diesen gehören die Physiologie der Knochenheilung, die Implantatwerkstoffe, das operative Vorgehen und die Einheilungsphase. Der Vorgang der Knochenheilung, speziell der primären Frakturheilung, wird der Implantateinheilung gleichgesetzt. Dies bedeutet, dass ein ausreichender belastungsfreier Zeitraum für die Implantateinheilung einzuhalten ist. Bei den Implantatwerkstoffen wurden die Metalle und die Keramiken verglichen. Der Implantatwerkstoff der Wahl ist aufgrund seiner mechanischen und biokompatiblen Eigenschaften das Titan. Andere Materialien, wie z.B. Tantal und Hydroxylapatit, haben sich als problematisch erwiesen. Beim operativen Vorgehen haben sich die Aspekte der atraumatischen, aseptischen und standardisierten Operationsbedingungen als vorteilhaft erwiesen. Der Einfluss der Knochenqualität und des Implantatdesigns auf die erreichbare Primärstabilität wurde dargestellt. Bei der Einheilphase wurde eine Übersicht über die bis dato gültigen Einheilzeiten gegeben. Die Vorgänge während der Implantateinheilung wurden unter Bezug auf die ultrastrukturellen Aspekte dargestellt. Der Einfluss von osteogenetischen Faktoren wurde speziell aufgezeigt. Die Implantateinheilung ist als komplexer Vorgang zu verstehen, bei dem die Wechselwirkung der verschiedenen Faktoren eine wichtige Rolle spielt. Die Morphologie des Interface wurde anhand von Studien diskutiert. Unterschiede in der Morphologie sind in Abhängigkeit von den Implantatwerkstoffen, der Remodelingphase und den verschiedenen Versuchstieren zu finden. Im 3. Kapitel wurden die Voraussetzungen für den Erhalt der Osseointegration besprochen. Zu diesen gehören die Knochenbelastung, die Konstruktionsprinzipien dentaler Implantate, die prothetischen Konzepte und Implantat-Systembeispiele. Bei der Knochenbelastung wurden die Aspekte der okklusalen Überbelastung, der axialen bzw. nicht-axialen Krafteinleitung, Zahn-Implantat- und rein implantat-getragene Rekonstruktionen und materialabhängige Faktoren der Suprakonstruktion berücksichtigt. Hierbei stellte sich heraus, dass Überbelastungen vermieden werden sollten. Die Art der Krafteinleitung sowie die Verbindung von Implantaten mit der natürlichen Bezahnung haben keinen negativen Einfluss auf die Osseointegration. Rekonstruktionen auf Kuststoffbasis werden als problematisch dargestellt. Bei den Konstruktionsprinzipien wurden die Bereiche des enossalen Teils, die Implantatdimension, die Implantatform, der Durchtritt durch die Weichgewebe und die Position der Implantatoberkante dargestellt. Die Unterschiede in den Konstruktionsprinzipien der dentalen Implantate sind heutzutage gering und sind in der Strukturierung der Oberflächen, der Positionierung der Implantatoberkante und im Durchtritt durch die Weichgewebe zu finden. Die Bedeutung der Weichgewebsmanschette beim Osseointegrationsvorgang wurde hervorgehoben. Die Vorteile von konischen Schraubenimplantaten im Vergleich zu Zylinderimplantaten werden aufgezeigt. Ein wurde ein Überblick über die etablierten Okklusionskonzepte und prothetischen Konzepte gegeben. Eine Abhängigkeit von der Ausgangssituation im natürlichen Restgebiss wurde festgestellt, so dass das Konzept sich nach dieser richten muss. Bei den Systembeispielen wurden sechs Implantattypen dargestellt: das Brånemark-System, das Astra-System, das Ankylos-System, das Frialit 2, das ITI- und das 3i-System. Im 4. Kapitel wurden weitere Einflüsse auf die Osseointegration diskutiert. Dazu gehören die Knochenqualität, die Regenerationsfähigkeit des Knochens, neue OP-Verfahren, "neue" Oberflächen und deren Wirkung auf die zelluläre Umgebung, die fraktionierte Lasteinleitung und die Früh- und Sofortbelastung. Die Beurteilung der Knochensituation, d.h. das Erkennen von Veränderungen, die Evaluation der Knochendichte und die Regenerationsfähigkeit des Knochens wurden als prächirurgische Aspekte besprochen. Neue Op-Verfahren wie die Knochen -kondensation und -verdrängung wurden als Möglichkeit vorgestellt, die eine Implantatversorgung auch in schwierigen anatomischen Verhältnissen erlaubt. Der Einfluss der Implantatoberfläche auf den Knochen-Implantatkontakt, die Verankerungsfestigkeit und die Zellaktivität wurde dargestellt. Bei den Implantatoberflächen ist erkennbar, dass eine Vergrößerung der Gesamtoberfläche durch Mikro und -Makrostruktur angestrebt wird. Eine optimale Primärstabilität durch einen besseren Verzahnungseffekt wird dadurch möglich. Die Prinzipien der fraktionierten Lasteinleitung und des progressive bone loadings, sowie die Früh- und Sofortbelastung wurden vorgestellt. Eine Verkürzung der Einheilphase und somit eine Frühbelastung ist unter optimierten Bedingungen möglich. Ein sich anschließendes Knochentraining verbessert die vorgefundene Knochensituation und somit die Prognose der Implantattherapie. Zusammenfassend lässt sich feststellen, dass eine Osseointegration unter Einhaltung von standardisierten Operationsbedingungen mit jedem der hier vorgestellten Implantattypen erzielbar ist. Beim Erhalt der Osseointegration spielen die Unterschiede bei den Implantattypen und die Belastung über die prothetische Versorgung eine wichtige Rolle.
Lipophile, sedimentgebundene Substanzen sind für endobenthische Tiere in hohem Maße bioverfügbar und können von diesen aufgenommen und angereichert werden. Für benthivore Fische besteht damit das Risiko, diese Chemikalien mit der Nahrung aufzunehmen. Die Aufkonzentrierung sedimentgebundener Chemikalien über zwei oder mehr trophische Ebenen (Biomagnifikation) kann somit durch die Bestimmung der Biokonzentration von Chemikalien in Fischen nach der OECD-Richtlinie 305 (OECD 1996) nicht adäquat erfasst werden. Zur standardisierten Bestimmung der Bioakkumulation und Biomagnifikation wurde eine einfache, zwei trophische Stufen umfassende Labornahrungskette etabliert. Diese bestand aus dem endobenthischen Oligochaeten Tubifex tubifex (MÜLLER) als Beute und dem Dreistachligen Stichling (Gasterosteus aculeatus LINNÉ) als Prädator. Die Experimente wurden mit 14C-markiertem Hexachlorbenzol und Terbutryn in dotiertem künstlichem Sediment und rekonstituiertem Wasser durchgeführt. Um den Einfluss einzelner Expositionspfade an der Gesamtanreicherung der Modellchemikalien zu quantifizieren, wurden die Fische gegenüber dotiertem Wasser bzw. dotiertem Sediment (Biokonzentrationsszenario), vorexponierten Würmern (Biomagnifikationsszenario) und Kombinationen dieser Aufnahmepfade (Bioakkumulationsszenario) exponiert. Sedimentgebundenes HCB wurde im Bioakkumulationsszenario sowohl in den Tubificiden (BAFWurm/Sediment (FG/FG) = 7,8) als auch in den Fischen (AFFisch/Wasser (FG/FG) = 52500; AFFisch/Sediment (FG/FG) = 47; AFFisch/Wurm (FG/FG) = 3,2) deutlich angereichert. Da die Gewebekonzentration von HCB im Räuber, auch auf Basis lipidnormierter Konzentrationen, die Konzentration in seiner Beute überstieg (AFFisch/Wurm (lipidnormiert) = 1,3), kann von einer Aufkonzentrierung der Chemikalie entlang der Labornahrungskette ausgegangen werden (Biomagnifikation). Es konnte gezeigt werden, dass die Exposition gegenüber der Kombination sämtlicher Aufnahmepfade zu deutlich höherer Anreicherung in den Fischen führte als im Falle einzelner Expositionspfade. Ein Vergleich der Ergebnisse der einzelnen Expositionsszenarien erlaubt den Schluss, dass HCB von den Fischen im Bioakkumulationsszenario zu ungefähr gleichen Teilen über das Wasser (45%) und über die Nahrung (41%) aufgenommen wurde, während die Anwesenheit kontaminierten Sediments nur mit 14% zur Gesamtanreicherung beitrug. 14C-Terbutryn wurde im Bioakkumulationsszenario - auf Basis der Gesamtradioaktivität - sowohl in den Tubificiden (AF Wurm/Sediment (FG/FG) = 4,4) als auch in den Fischen (AFFisch/Wasser (FG/FG) = 323; AFFisch/Sediment (FG/FG) = 10; AFFisch/Wurm (FG/FG) = 1,4) angereichert. Allerdings wurde Terbutryn in den Stichlingen zum überwiegenden Teil zu einem polareren Metaboliten transformiert (84%). Daher müssen zur Abschätzung der Anreicherung von Terbutryn die auf den Gehalt an Ursubstanz korrigierten Gewebekonzentrationen und Anreicherungsfaktoren betrachtet werden. Hierbei wird deutlich, dass Terbutryn nicht entlang der Labornahrungskette aufkonzentriert wurde (AFFisch/Wurm = 0,09). Ein Vergleich der Ergebnisse der einzelnen Expositionsszenarien zeigt, dass der Hauptaufnahmepfad von 14C-Terbutryn in Stichlingen das umgebende Wasser ist, während die Anwesenheit kontaminierten Sediments und die Aufnahme über die Nahrung eine untergeordnete Rolle spielen. Da die Messung der Bioakkumulation und Biomagnifikation von sedimentassoziierten Substanzen sehr aufwendig ist, werden zur Abschätzung ihres Risikopotentials vermehrt mathematische Modelle entwickelt und eingesetzt, die eine Chemikalienanreicherung in Nahrungsketten vorhersagen sollen. Im Rahmen der vorliegenden Arbeit wurden die Vorhersagen dreier Modelle mit den experimentell ermittelten Daten verglichen. Hierdurch sollte sowohl die Eignung des entwickelten Testsystems als auch der verwendeten Modelle als nützliche Instrumente des environmental risk assessment überprüft werden. Die Vorhersagen der drei Modelle bei Applikation auf die Daten der Labornahrungskette stimmen gut mit den experimentell bestimmten Konzentrationen von HCB und Terbutryn in den Tubificiden und Fischen überein. Für HCB sagen alle drei Modelle eine Biomagnifikation in der Labornahrungskette vorher. Die Modelle unterschätzen die gemessenen Konzentrationen in den Fischen mit einem Faktor von 1,1 - 1,7 nur geringfügig. Die Konzentration in den Tubificiden wird vom Gobas/Morrison-Modell sehr präzise vorhergesagt (Unterschätzung um Faktor 1,1), während sie im Campfens/Mackay-Modell (Faktor 2,1) und Gobas-Modell (Faktor 6,3) deutlicher unterschätzt wird. Speziell die dem Campfens/Mackay- und Gobas-Modell zugrunde liegenden Annahmen zur Anreicherung in benthischen Organismen erwiesen sich für HCB und Tubificiden als unzureichend zu sein, da die Modelle hierbei nur die Aufnahme aus dem Porenwasser berücksichtigen. Für Terbutryn sind die Modellvorhersagen sehr viel ungenauer als für HCB, da vor allem die starke Metabolisierung von Terbutryn in den Stichlingen unterschätzt wird. Dies resultiert in einer Überschätzung der Terbutryn-Konzentration in den Fischen (Faktor 5,8 - 6,4). Allerdings bleiben zwei Punkte festzuhalten: 1) Die Modelle sagen keine Biomagnifikation von Terbutryn in der Labornahrungskette vorher. 2) Die Modellvorhersagen bestärken die Annahme, dass die Anreicherung von Terbutryn in den Fischen dominiert ist von der Aufnahme aus dem umgebenden Wasser über die respiratorische Oberfläche. Die analysierten Modelle können bei entsprechender Weiterentwicklung als nützliche Instrumente für eine erste Abschätzung des Risikos der Bioakkumulation sedimentgebundener, hoch lipophiler Substanzen in aquatischen Nahrungsketten im Rahmen der Risikoabschätzung (environmental risk assessment) dienen. Zum gegenwärtigen Entwicklungsstand ist die Labornahrungskette jedoch den Modellen vorzuziehen, da sie die konservativeren Daten liefert. Für eine abschließende Beurteilung der vorgestellten Methoden bedarf es allerdings einer Verbreiterung der Datenbasis.
In NE-Burkina Fasos wurden die Boden- und Reliefgenese (Erkundung des oberflächennahen Untergrunds, OSL-Datierungen) und die aktuelle Geomorphodynamik (Beregnungs- und Infiltrationsversuche, Luftbildauswertungen) der sahelischen Altdünenlandschaft und der angrenzenden endorheischen Becken untersucht. Zentrale Fragestellungen sind (1) die Altersstellung des häufig als erg récent bezeichneten Sekundärdünenreliefs auf dem Dünentop der spätpleistozänen Dünenzüge, (2) die jüngere Relief- und Bodenentwicklung vor dem Hintergrund der langen Nutzungsgeschichte (Hirsefeldbau und Viehzucht), und (3) die qualitative und quantitative Erfassung der aktuellen, denudativen und linearerosiven Prozesse, vorwiegend auf den Altdünen, in Abhängigkeit von Substrat, Oberflächenzustand und Nutzung. Die Akkumulation der Sekundärdünen fand während der spätpleistozänen ariden Periode (Ogolien) statt (19,6±1,1 ka und 23,8±1,6 ka v. H). Gleiches gilt für die äolischen Liegendsedimente der Nordabdachungen der Dünenzüge (21,9±2,1 ka und 23,2±2,1 ka v. H.). Unter Einbeziehung früherer Untersuchungen (ALBERT et al. 1997) ergibt sich daraus, dass sowohl die Dünenzüge an sich als auch ihr asymmetrisches Relief im N-S-Profil bereits während des Ogolien angelegt wurden. Die holozäne Landschaftsentwicklung ist durch Bodenbildung in den Altdünen und durch die fluvial-limnische Sedimentation in den endorheischen Becken (Mares) gekennzeichnet. Der häufig in der Literatur genannte aride Einschnitt um 8,2 ka v. H. kann weder absolutchronologisch noch paläopedologisch nachgewiesen werden. Vielmehr deutet die Verbreitung der Cambic bis Luvic-Chromic Arenosols, über dichtem Untergrund auch Gleyic Arenosols auf standörtlich unterschiedliche Bodenbildungsintensitäten und -prozesse in Abhängigkeit von Wasserhaushalt und geomorphodynamischer Beeinflussung hin. Die jüngere Landschaftsgeschichte ist zunehmend durch Landnutzung beeinflusst. Zwar konnte mit OSL-Altern von 4,5±0,2 ka und 4,7±0,8 ka v. H. lokal Sedimentumlagerung im Zusammenhang mit Later Stone Age-Aktivitäten nachgewiesen werden, für anthropogen induzierte Bodenerosion in größerem Umfang fehlen indessen die Hinweise. Der Wandel zur Kulturlandschaft setzte mit der eisenzeitlichen Siedlungsperiode ein. Kennzeichnend für diese, von der Zeitenwende bis zum 15. Jh. dauernden Epoche, ist der Nachweis des verbreiteten Hirseanbaus auf den Altdünen. Degradierte Böden auf den ehemaligen Feldern und mehrschichtige Kolluvien unterhalb, flächenhafte Bodendegradation in der Umgebung der alten Siedlungen sowie zunehmender Sedimenteintrag in die Mares sind die wichtigsten Indizien des 'human impact' dieser Epoche. Der Bezug zwischen der Nutzungsgeschichte und den korrelaten Sedimenten konnte im Einzelfall absolutzeitlich hergestellt werden (1064-979 cal. BP 14C). Aktuelle Bodendegradation findet in der Sahelzone sowohl fluvialerosiv als auch äolisch statt. Die fluvialerosive Bodenerosion überwiegt dabei flächenmäßig - auf den Glacis durch alle Prozesse des flächenhaften bis linearen Abtrags sowie auf den Altdünen überall dort, wo Bodenkrusten Oberflächenabfluss ermöglichen. Die feldbaulich genutzten Altdünenbereiche auf der Südseite der Dünenzüge und entlang der Nordhänge mit ihren pedogenetisch verfestigten Sanden und verkrusteten Oberflächen weisen stark reduzierte Infiltrationsraten auf und produzieren mit runoff-Koeffizienten von 21-94 % verstärkt Oberflächenabfluss. Neben flächenhafter Denudation tritt hier, überwiegend in Verbindung mit Trittbelastung, gehäuft Rinnen- und Gully-Erosion auf. Aufgrund der Verfestigung bieten diese Böden der äolischen Dynamik kaum Angriffsflächen. Einzig die kaum konsolidierten Sekundärdünen auf dem Dünentop sind die Landschaftseinheit mit dominierender Bodenerosion durch äolische Prozesse.
Untersucht wurde die spätpleistozäne und holozäne Diatomeenflora aus drei Teilgebieten der westlichen Ostsee, dem Kattegat, der Kieler Bucht und der Pommerschen Bucht. Die Ergebnisse bestätigen die hervorragende Eignung der Diatomeen als Indikatororganismen in der Paläoökologie. Anhand der Mikroflora war es möglich, die wechselhafte Geschichte der verschiedenen Ostsee-Teilgebiete detailliert nachzuvollziehen. Es konnten Lage und Ausdehnung der Paläogewässer während der verschiedenen Stadien der Ostsee-Entwicklung sowie verschiedene abiotische Faktoren der Paläoumwelt - Salinität, pH-Wert, Trophie, Temperatur und Wassertiefe - rekonstruiert werden. Zur Rekonstruktion von Salinität, Trophie und pH-Wert kamen erstmals verschiedene Indikationssysteme - der Halobienindex nach ZIEMANN (1971), das Trophie-Indikationssystem nach HOFMANN (1994) und die pH-Rekonstruktion nach ARZET (1987) - zur Anwendung. Kattegat Der Schwerpunkt der Untersuchung lag auf dem südwestlich der Insel Anholt gelegenen Teil des Kattegats. In den 22 Kernprofilen konnten insgesamt 596 Diatomeentaxa registriert werden. In den Ablagerungen des Spätglazials waren im gesamten Untersuchungsgebiet keine silifizierten Mikrofossilien nachweisbar. Die anhand der seismoakustischen Untersuchungen aufgestellte Gliederung der holozänen Sedimente in die Abschnitte Holozän 1 (H1), Holozän 2 (H2) und Holozän 3 (H3) konnte durch die Analyse der Diatomeenfloren bestätigt werden. Die Ablagerungen des Sedimentabschnitts H1 entstanden während einer Transgressionsphase. Das in Alleröd und Jüngerer Dryas trockengefallene Untersuchungsgebiet wurde zu Beginn des Präboreals vollständig transgrediert. Durch das Auftreten halobionter Diatomeentaxa konnte der Beginn der Transgression im Untersuchungsgebiet auf den Anfang des Präboreals und ein Alter von 10.200 Jahren BP datiert werden. Für die Hauptphase der Transgression wurde ein Alter von rund 9.700 bis 9.300 Jahren BP ermittelt. In Übereinstimmung mit den seismoakustischen Befunden und den Ergebnissen der Makrofossil-Analyse konnte der Sedimentabschnitt H2 als Ablagerung aus dem Mündungsgebiet eines Fließgewässers identifiziert und auf ein Alter von rund 9.300 bis 8.300 Jahren BP datiert werden; wahrscheinlich entwässerte der Ancylus-See zumindest zeitweilig über den großen Belt in diesen Abschnitt des Paläokattegats. Die Diatomeenflora indiziert eine überwiegend durch den Einstrom von Süßwasser beeinflusste Paläoumwelt und ein alkalisches und eutrophes Milieu. Das charakteristische Merkmal der Thanathozönosen ist der hohe Anteil an allochthonen Schalen. Die Analyse der autökologischen Präferenzen zeigt, dass durchschnittlich 30 % der Taxa ursprünglich aus anderen Gewässertypen stammen. Mithilfe der Diatomeenflora konnte der Sedimentabschnitt H2 in drei Abschnitte untergliedert werden. Der Abschnitt H2a wurde während der Bildung einer Landzunge abgelagert, die die Mündung des Fließgewässers vom Paläokattegat trennte. Die Thanathozönosen indizieren die zunehmende Beeinflussung durch den Einstrom von Süßwasser. Der Abschnitt H2b wurde vor rund 8.800 Jahren BP deponiert, während die Landzunge ihre größte Ausdehnung und Isolationskraft erreichte. Die Diatomeenflora indiziert die maximale Beeinflussung durch den Zustrom von Süßwasser. Im Sedimentabschnitt H2c indizieren die Thanathozönosen die Verlagerung der Landzunge infolge küstendynamischer Prozesse und eine zunehmende Beeinflussung durch Meerwasser. Der Sedimentabschnitt H3, der während einer erneuten Transgression vor ca. 8.300 Jahren BP deponiert wurde, ist in weiten Bereichen vollständig frei von silifizierten Mikrofossilien. Eine autochthone, aus überwiegend halobionten Taxa zusammengesetzte Diatomeenflora ließ sich lediglich in einem der Kernprofile nachweisen. Das charakteristische Taxon der Transgressionsfloren in den Sedimentabschnitten H1 und H3 ist Paralia sulcata. Typisch sind des Weiteren Actinoptychus senarius, Cymatosira belgica, Dimeregramma minor, Ehrenbergia granulosa und Plagiogramma staurophorum. Kieler Bucht Aus der Kieler Bucht stand ein Kernprofil zur Verfügung. In diesem Profil konnten insgesamt 344 Diatomeentaxa nachgewiesen werden. Die brackischen Ablagerungen entstanden in der Mastogloia-Phase und konnten mithilfe der Diatomeenflora in zwei Abschnitte - Mastogloia 1 (M1) und Mastogloia 2 (M2) - untergliedert werden. Der Sedimentabschnitt M1 wurde deponiert, während das Milieu des Paläogewässers durch sporadische Ingressionen über den Großen Belt beeinflusst wurde. Die Diatomeenflora indiziert einen Paläosalzgehalt von maximal 9 Promille, ein eutrophes und alkalisches Paläomilieu und eine geringe Wassertiefe. Die Veränderungen im Artgefüge der Thanathozönosen innerhalb des Sedimentabschnitts M2 belegen einen kontinuierlichen Anstieg der Salinität um mindestens 8 Promille und das Auftreten starker Strömungen. Die Sedimentation erfolgte während des Übergangs vom brackigen Mastogloia-Stadium zur marinen Littorina-Phase. Mithilfe der Diatomeenflora konnte nachgewiesen werden, dass sich in dem Paläogewässer der Kieler Bucht frühestens vor 7.100 Jahren BP marine Verhältnisse etablierten. Die Flora indiziert einen Anstieg des Paläosalzgehalts auf mindestens 17 und maximal 30 Promille. In Übereinstimmung mit den Ergebnissen der Sedimentanalyse konnten die Ablagerungen der Littorina-Phase anhand der Diatomeenflora in zwei Subzonen - Littorina 1 (L1) und Littorina 2 (L2) - untergliedert werden. Während das Artgefüge in dem Abschnitt L1 auf große Strömungsgeschwindigkeiten während der Sedimentation hinweist, belegt die Flora in dem Abschnitt L2 eine deutliche Abnahme der Strömungsintensität. Pommersche Bucht In den neun Kernprofilen aus der Pommerschen Bucht konnten insgesamt 265 Diatomeentaxa identifiziert werden. In Übereinstimmung mit den Ergebnissen der geologischen Untersuchungen zeigt die Diatomeenflora, dass sich der südliche Abschnitt der Pommerschen Bucht nach dem Rückzug des Eisschildes bis in das Atlantikum hinein unabhängig vom nördlichen Teil entwickelte; erst während der Littorina-Phase wurde auch der südliche Abschnitt transgrediert. Mithilfe der Diatomeenflora wurde belegt, dass sich im Spätglazial vor ca. 12.000 Jahren BP im Süden der Pommerschen Bucht ein alkalischer, meso- bis schwach eutropher Süßwassersee etablierte. Die Thanathozönosen indizieren erhebliche Milieuunterschiede zwischen diesem See und dem Baltischen Eisstausee, der zeitweise den nördlichen Abschnitt der Pommerschen Bucht bedeckte. Im frühen Holozän entwickelte sich im südlichen Abschnitt der Pommerschen Bucht an gleicher Position wie im Spätglazial wiederum ein Süßwassersee, während der nördliche Abschnitt der Pommerschen Bucht vom Ancylus-See bedeckt war. Die Diatomeenfloren belegen, dass sich die Umweltbedingungen in beiden Paläogewässern ähnelten; sowohl im Norden als auch im Süden lag ein alkalisches und überwiegend eutrophes Milieu vor. Der Beginn der Mastogloia-Phase ist durch einen drastischen Wechsel im Artgefüge der Diatomeenflora gekennzeichnet; Taxa mit höherer Salinitätstoleranz, z. B. Epithemia turgida und Diploneis didyma, ersetzten die rein oligohalobe Ancylus-Flora. Die Veränderungen indizieren einen schwachen aber deutlichen Anstieg der Salinität im Norden der Pommerschen Bucht. Das charakteristische Taxon der Littorina-Phase ist die polyhalobe Planktonart Thalassionema nitzschioides. Es indiziert einen Anstieg des Paläosalzgehalts auf mindestens 13 Promille. Des Weiteren belegen die Diatomeen den stetig steigenden Wasserspiegel zu Beginn der Littorina-Phase. Chrysophyceen-Zysten, Chaetoceros-Sporen und die Skelette des Silicoflagellaten Distephanus speculum stellen in der Pommerschen Bucht wichtige Leitfossilien dar. Während Chrysophyceen-Zysten typisch für die Sedimente der Mastogloia-Phase sind, haben Chaetoceros-Sporen und Distephanus speculum charakteristischerweise ihren Verbreitungsschwerpunkt in den Ablagerungen des Littorina-Meers.
The mechanism of peptide transport has been studied on two different ABC transporters of S. cerevisiae. Thereby, the aim of this PhD thesis was to characterise the transporter function on molecular level and shed light on the physiological role of these transporters. The ABC gene YLL048 encodes a novel intracellular transporter translocating peptides from the cytosol to the lumen of the ER. Deletion of the gene resulted in loss of peptide transport activity. The transport activity was fully restored after transformation of the deletion mutant by plasmid-encoded YLL048. Studying the substrate specificity using randomized peptide libraries it was demonstrated that peptides of the size from 6 to 56 amino acids are recognized. So far, no upper limit of the substrate size was obtained. Introduction of D-amino acids in various positions of a nonamer peptide did not impair transport activity. The physiological function of YLL048p is not well understood. The gene product is not essential for cell viability as the deletion mutant did not show any growth phenotype. To examine the possibility that YLL048 encoded protein is part of a quality control of yeast cells involved in the unfolded protein response (UPR), upregulation of YLL048 transcription by heat shock and stress conditions were investigated. We could not observe an influence of stress factors on YLL048 mRNA level. Upregulation of gene expression by the transcription factors Pdr1p and Pdr3p was excluded. The ABC transporter Mdl1p has been identified as peptide transporter of the inner mitochondrial membrane. This protein is required for the export of peptides with the size of 6 to 21 amino acids from the matrix into the intermembrane space. These peptides are generated by m-AAA proteases degrading non-assembled or missfolded membrane proteins. In order to understand the transport mechanism in detail, Mdl1p was expressed in S. cerevisiae and E. coli. Partially enriched protein was reconstituted into liposomes and was active in ATP binding. The association of the NBDs has been described as a central step of the ATPase cycle of ABC transporters, but it is still controversial how both motor domains cooperate and coordinate ATP hydrolysis. To address this question, the Mdl1p-NBD was overexpressed in E. coli and purified to homogeneity. The isolated NBD was active in ATP binding and hydrolysis with a turnover of 0.5 ATP per min and a Km value of 0.2 mM. Isolated NBDs did not show cooperativity in ATPase activity. However, the ATPase activity was observed to be non-linearly dependent on protein concentration suggesting the active form of this enzyme is not a monomer. Very importantly, for the first time an ATP-induced dimer was observed after trapping the NBD by ortho-vanadate or BeFx. The nucleotide composition of the trapped intermediate state was determined and two ADP molecules were simultaneously bound per dimer. An ATP-induced dimer of the ATPase inactive mutant (E559Q) was observed already in the absence of ATPase inhibitor. The E599Q dimer contained two ATP molecules in the absence of Mg2+ at 4°C. Prolonged incubation at 30°C in the presence of Mg2+ induced a stable dimer in which one ATP and ADP molecule were trapped at the same time. Based on these experiments, a new cycle for ATPase activity of ABC transporters was proposed. Binding of ATP to two NBD monomers induces dimerization. Both nucleotides are hydrolysed sequentially. During the hydrolysis cycle the nucleotides cannot be released from the dimer. After hydrolysis of two ATP molecules the domains dissociate and start a new cycle.
Die Lösung unbekannter Strukturen aus Pulverbeugungsdaten ist keineswegs eine Routineanwendung, und es steht noch einiges an Arbeit an, um die vorhandenen Methoden so weit zu automatisieren, daß sie von Nichtspezialisten, auch solchen mit kristallographischen Kenntnissen, direkt verwendet werden können. In dieser Arbeit konnte überzeugend dargelegt werden, daß die Anwendung des älteren Verfahrens der Fragmentsuche eine sehr gute Möglichkeit bietet, den Schwierigkeiten der Strukturlösung aus Pulverdaten erfolgreich zu begegnen. Durch graduelle Steigerung des Schwierigkeitsgrads bzw. der Komplexität der Strukturlösung von der anfänglichen Verwendung simulierter Pulverbeugungsdaten bekannter Strukturen über die Messung von Pulverbeugungsdiagrammen bekannter Strukturen bis hin zur Lösung unbekannter Strukturen konnte die sinnvolle Anwendbarkeit des Fragmentsuchprogramms PATSEE zweifelsfrei belegt werden. Die in den einzelnen Stadien der Untersuchungen diskutierten Einflüsse, wie die benötigte minimale Fragmentgröße oder die Fragmentqualität, lieferten entscheidende Hinweise für das Aufstellen einer einfachen Strategie zur Strukturlösung aus Pulverdaten mit PATSEE. So konnte gezeigt werden, daß für einen sinnvollen Strukturlösungsversuch in der Regel mehr als 50% des relativen Streubeitrags aller Atome in der asymmetrischen Einheit benötigt werden und daß sich diese Grenze nur durch die Verwendung qualitativ hochwertiger Pulverbeugungsdaten, wie sie an modernen Synchrotronringen erhalten werden können, durchbrechen läßt. Auch die Variation eines Torsionsfreiheitsgrads im Zuge der Rotationssuche kann entscheidende Vorteile verschaffen, wenn zwei für sich genommen zu kleine starre Bereiche miteinander kombiniert werden. Außerdem konnte die prinzipielle Verwendbarkeit sowohl mittels Kraftfeldmethoden berechneter als auch experimentell bestimmter Fragmente, wie sie in der CSD in großer Zahl bereitstehen, bestätigt werden. Die in PATSEE verwendete Vielzahl an Gütekriterien zur Beurteilung einer Lösung konnte auch im Falle von Pulverdaten im wesentlichen überzeugen. Zwar ist die Diskriminierung zwischen richtigen und falschen Lösungen bei weitem nicht so eindeutig in bezug auf alle Gütekriterien, aber zumindest wird eine sehr gute Bewertung hinsichtlich von CFOM - dem Gütekriterium, nach dem die Lösungen sortiert werden - und den beiden R-Werten RE(1) und RE(2) erreicht. Als etwas problematisch hat sich die Rotationssuche erwiesen, die nur auf der Beurteilung eines einzigen Gütekriteriums beruht. Da aber gerade der Rotationssuche als erstem Schritt der Fragmentsuche eine wichtige Bedeutung zukommt, ist der Anwender zu großer Sorgfalt bei deren Durchführung verpflichtet. Eine Grenze für Strukturlösungsversuche mit PATSEE stellen derzeit Strukturen mit mehreren Molekülen in der asymmetrischen Einheit dar. Da im einfachsten Fall (Z'= 2) bereits ein komplettes Molekül als Suchfragment einen relativen Streubeitrag von unter 50% aufweist, wird eine erfolgreiche Orientierung und Positionierung mit PATSEE nur noch für hervorragende Datensätze möglich sein. Für noch schwierigere Fälle (Z'> 2) oder für Verbindungen, bei denen nicht das gesamte Molekülgerüst als Suchfragment verwendet werden kann, bestehen dann praktisch keine Aussichten mehr auf eine erfolgreiche Strukturlösung mit PATSEE. Basierend auf diesen Ergebnissen, konnten PATSEE-Parameter empfohlen werden, die sowohl für große Fragmente als auch für den Grenzbereich der minimal benötigten Fragmentgröße gute Erfolgsaussichten für die Strukturlösung gewährleisteten. Dabei wichen die empfohlenen Parameter nur in geringem Maße von den für Einkristalldaten optimierten Werten ab. Anhand zweier unbekannter Strukturen konnte die empfohlene Strategie verifiziert werden. Zusätzlich wurde für eine der beiden Strukturen eine Einkristallstrukturbestimmung vorgenommen, welche die aus Pulverdaten gelöste Struktur bestätigte. Auch wenn einerseits die prinzipielle Anwendbarkeit der Fragmentsuche mit PATSEE auf Pulverbeugungsdaten bewiesen werden konnte und andererseits eine allgemeine Strategie zur Vorgehensweise geliefert wurde, sind doch noch nicht alle interessanten Fragestellungen geklärt. Hier sind zum einen die unbefriedigenden Möglichkeiten bei Strukturen mit mehreren Molekülen in der asymmetrischen Einheit zu nennen. Eine sinnvolle Erweiterung der Zahl simultan suchbarer Fragmente in PATSEE könnte diesen Schwachpunkt beheben. Zugleich könnte mit dieser Erweiterung die Anwendbarkeit auf flexiblere Molekülgeometrien ausgedehnt werden, so daß im Endeffekt eine Steigerung der einsetzbaren Fragmentgröße erreicht wird. Diese Erweiterung sollte bei der enormen Rechenleistung moderner Computersysteme kein unüberwindliches Hindernis darstellen, so daß die benötigte Zeit für einen PATSEE-Lauf mit mehreren zu suchenden Fragmenten auf maximal einige wenige Stunden ansteigen würde. Alternativ wäre zu überlegen, ob nicht das Aufheben der strikten Trennung von Rotationssuche und Translationssuche, also eine 6-dimensionale Fragmentsuche, die bisweilen zu beobachtenden Probleme der Rotationssuche beheben würde. Auch bei dieser Änderung der Vorgehensweise in PATSEE könnten moderne Computer sinnvoll eingesetzt werden. Vorteilhaft für die Strukturlösung wäre hier die Kombination der sehr erfolgreichen Diskriminierung der Gütekriterien bei der Translationssuche mit der bisher kritischen Bestimmung der Orientierung. Eine zweite Fragestellung, die im Rahmen dieser Arbeit nicht geklärt werden konnte, betrifft die Anwendbarkeit auf makromolekulare Verbindungen, die über eine große interne Regelmäßigkeit verfügen, wie beispielsweise kleinere Peptide mit alpha-helikaler Struktur oder einer beta-Faltblattstruktur. Verschiedene Testreihen an derartigen Verbindungen belegen die prinzipielle Machbarkeit, und außerdem konnte bereits in mindestens einem ähnlich gelagerten Fall [17] gezeigt werden, daß derartige Strukturlösungsversuche bei sehr großen Verbindungen durchführbar sind. Insbesondere wegen der erheblichen Schwierigkeiten bei der Kristallisation derartiger Verbindungen und dem großen wissenschaftlichen Interesse an ihrer Struktur könnten erfolgversprechende Ansätze zur Strukturlösung aus Pulverdaten einen wichtigen Beitrag in der Pharmazie, der Pharmakologie, der Biologie und nicht zuletzt in der Medizin leisten.
Die vorliegende Vergleichsstudie untersucht 28 schizoaffektive Patienten (ICD F25) gegenüber 38 bipolar-depressiven Patienten (ICD F31) und 43 Patienten einer orthopädisch erkrankten Kontrollgruppe. Die motivierende Fragestellung war, ob sich durch ein standardisiertes Testverfahren wie den Gießen-Test Merkmale eruieren lassen, die für die Selbst-Objekt-Beziehungen schizoaffektiver Patienten charakteristisch sind. Die soziodemografischen Daten wurden anhand eines halbstandardisierten Interviews erfasst. Der Interviewleitfaden gliedert sich in die Bereiche sozialer, beruflicher und familiärer Status, Krankheitsdaten, Fragen zu Kindheit und Familie sowie Fragen zur aktuellen sozialen Situation. Zur Erfassung der depressiven Symptomatik wurden die Patienten mit der Hamilton-Depressions-Skala zur Fremdbeurteilung überprüft. Mittels Gießen-Test wurde neben der Selbstbeurteilung (aktuelles Selbstbild, Idealbild und normatives Bild) auch die individuelle Fremdbeurteilung der primären Bezugspersonen sowie der gegengeschlechtlichen Partner der jeweiligen Patientengruppe untersucht. Fragekomplex 1: Wie sind Selbstbild und Selbstwertigkeit von schizoaffektiven und bipolar-depressiven Patienten beschaffen? Hypothese: Bei schizoaffektiven und bipolar-depressiven Patienten bestehen signifikante Unterschiede zwischen den drei Selbstbildern, wohingegen bei der Kontrollgruppe orthopädischer Patienten seltener von signifikanten Unterschieden ausgegangen wird. Die hier gewonnenen Ergebnisse zum Selbstbild zeigen, dass zwischen den drei Selbstbildern schizoaffektiver und bipolar-depressiver Patienten häufiger signifikante Unterschiede bestehen als bei der Kontrollgruppe. Hiermit konnte die Hypothese zum Fragenkomplex 1 bestätigt werden. Fragenkomplex 2: Welche Beziehung besteht zwischen dem Selbstbild der Patienten und dem Bild, das sie von ihren Eltern haben? Hypothese: Bei schizoaffektiven Patienten und bei bipolar-depressiven Patienten ist die Distanz zwischen Selbstbild und Mutterbild geringer als bei der somatischen Kontrollgruppe. Die Distanz zwischen Selbstbild und Vaterbild schizoaffektiver und bipolar-depressiver Patienten wird größer erwartet als bei der Kontrollgruppe. Ein signifikanter Unterschied zwischen schizoaffektiven und bipolar-depressiven Patienten wird nicht erwartet. Auffällig ergibt sich aus der vorliegenden Untersuchung das signifikant von der Norm abweichende depressive Selbstbild beider Gruppen in Zusammenhang mit einer ebenfalls depressiv erlebten Mutter. Des Weiteren fällt auf, dass sich die Differenz zwischen Selbstbild und Vaterbild einmal wider Erwarten signifikant zwischen Schizoaffektiven und Bipolar-Depressiven unterscheidet. Ansonsten konnten die Hypothesen zum Fragenkomplex 2 bestätigt werden. Fragenkomplex 3: Unterscheiden sich die interpersonellen Beziehungen von Patienten mit schizoaffektiver Psychose von denjenigen mit bipolar-depressiver Psychose? Hypothese: Es wird erwartet, dass in den Partnerschaften schizoaffektiver und bipolar-depressiver Patienten die Tendenz zu komplementären Beziehungsmustern im Vergleich zur Kontrollgruppe überwiegen. Signifikante Unterschiede der Selbst- und Fremdbilder von schizoaffektiven und bipolar-depressiven Patienten werden nicht erwartet. In dieser Studie weisen Partnerschaften schizoaffektiver Patienten eher auf eine Tendenz zu komplementären Beziehungsmustern hin als Partnerschaften bipolar-depressiver Patienten. Sowohl für Schizoaffektive als auch für Bipolar-Depressive findet sich bei der vorliegenden Untersuchung eine weitgehende Übereinstimmung zwischen dem Selbstbild des Patienten und dem Bild, das der Partner vom Patienten hat. Wider Erwarten gab es jedoch wenige signifikante Unterschiede zwischen Selbst- und Fremdbildern von schizoaffektiven und bipolar-depressiven Patienten. Die Hypothese zum Fragenkomplex 3 konnte dennoch zum größten Teil bestätigt werden. Die Antwort auf die Frage, ob sich für schizoaffektive Patienten charakteristische Selbst-Objekt-Beziehungsmuster heraus arbeiten lassen, muss nach der hier durchgeführten Untersuchung zunächst offen bleiben. Angesichts der prognostischen Bedeutung psychosozialer Variablen im Langzeitverlauf schizophrener und affektiver Störungen (vgl. Kröber, 1993) empfiehlt sich die Durchführung einer Mehr-Zeitpunkte-Untersuchung an einer größeren Stichprobe schizoaffektiv Erkrankter.
In der vorliegenden Arbeit wird untersucht, inwieweit sich quantenoptische Zufallsgeneratoren, bei denen die "Welcher-Weg-Entscheidung" einzelner Photonen am Strahlteiler bzw. Faserkoppler zur Zufallsgenerierung verwendet wird, zur Erzeugung von Zufallsbitströmen eignen. Es werden hierbei im wesentlichen vier verschiedene Varianten aufgebaut, die sich durch die eingesetzte Lichtquelle und die Realisierung des optischen Aufbaus unterscheiden, um zu erkennen, welche Detailprobleme sich beim Aufbau solcher Generatoren zeigen. Als Lichtquellen werden eine Einphotonenquelle auf Basis der parametrischen Fluoreszenz und eine Quelle, die stark abgeschwächte, gepulste Poisson-Lichtfelder abstrahlt, eingesetzt. Bei der optischen Realisierung wird jeweils einmal Freistrahl- und einmal Faseroptik für das Zufall generierende Element verwendet. Die Rohdaten-Bitströme der verschiedenen Varianten werden mit Hilfe von statistischen Verfahren untersucht, die für Tests von physikalischen Zufallsgeneratoren geeignet sind. In der Diskussion werden die verschiedenen Testverfahren hinsichtlich ihrer Eignung zum Aufdecken tieferliegender Defekte bewertet. Thermische Einflüsse auf die Rohdaten-Ströme werden dargelegt, Methoden zur Verringerung der Einflüsse angegeben und gezeigt, wie mit Hilfe von mathematischen Regularisierungsverfahren ideale Bitströme aus den Rohdaten erzeugt werden können. Anhand von (mehrstufigen) Autokorrelationskoeffiziententests werden die Auswirkungen von Problemen mit verschiedenen Datenaufnahme-Elektroniken auf die Rohdaten- Ströme analysiert. Die Ursachen der Probleme werden diskutiert, mögliche Lösungen, wie sich die Probleme stark verringern bzw. vermeiden lassen, werden vorgeschlagen und experimentell untersucht. Die Einflüsse der Eigenschaften der verwendeten Photonenquellen im Zusammenspiel mit den verwendeten optischen Komponenten und Detektoren werden analysiert und ihre Auswirkungen auf die Zufallsgenerierung diskutiert. Zur Erhöhung der Ausgangbitrate quantenoptischer Zufallsgeneratoren werden verschiedene Ausführungen von Mehrfachzufallsgeneratoren vorgeschlagen, insbesondere für den quantenoptischen Zufallsgenerator auf Basis der parametrischen Fluoreszenz. Als weitere, interessante Variante eines quantenoptischen Zufallsgenerators wird das theoretische Konzept für den "HOM-Generator" präsentiert, bei dem beide Photonen eines Photonenpaares bei einer gemeinsamen "Welcher-Weg-Entscheidung" zur Zufallsgenerierung verwendet werden. Die vorgeschlagenen Varianten quantenoptischer Zufallsgeneratoren werden hinsichtlich ihrer Eignung für einen praktischen Einsatz diskutiert und bewertet. Für den Dauereinsatz quantenoptischer Zufallsgeneratoren als Komponente in Sicherheitsinfrastrukturen, wie z.B. Trustcentern, werden Optimierungen, Möglichkeiten der Kostenreduzierung und weitere Aufbauvarianten vorgeschlagen. Die Optimierungen werden hinsichtlich ihrer Praxistauglichkeit diskutiert und gewertet. Mögliche Angriffe auf quantenoptische Zufallsgeneratoren werden diskutiert und zur Erkennung von Manipulationen an physikalischen Zufallsgeneratoren werden verschiedene Möglichkeiten vorgestellt, um künstliche Signaturen einzufügen, sie vor Verwendung der Zufallsdaten zu verifizieren und aus dem Zufallsstrom zu entfernen.
Das Thema der vorliegenden Promotion war die Aufklärung von Neutralisationsmechanismen auf Lymphozyten und Makrophagen unterschiedlicher primärer HIV-1-Subtypen im Verlauf der Krankheitsprogression. Ausgangspunkt für die Experimente war die Tatsache, dass humane Seren von HIV-1 infizierten Patienten bereits kurz nach der Serokonversion autologe Virusisolate auf Makrophagen, nicht aber auf Lymphozyten neutralisieren können (Ruppach et al., 2000). Bei Neutralisationsexperimenten mit einem dem V3-loop des gp120 komplementären P1 -Peptids (Subtyp B), sollte der Nachweis von neutralisierenden Antikörpern im Serum erbracht werden. Weiterhin sollte gezeigt werden, inwieweit die Neutralisation auf Makrophagen durch V3-Antikörper begründet ist. Nach erfolgter Neutralisation auf Makrophagen mit und ohne P1-Peptidvorinkubation konnte gezeigt werden, dass es zu keinen Veränderungen im Neutralisationsverhalten durch Vorinkubation mit einem V3-Peptid gekommen war. Daraus ließ sich folgern, dass es nicht die V3-Antikörper sind, die eine Neutralisation auf Makrophagen hervorrufen können. Als nächstes wurde das Neutralisationsverhalten eines frühen lsolates (8 Monate nach der Infektion) und einer späten Folgeprobe (27 Monate nach der Infektion) durch autologes Serum auf Lymphozyten und auf Makrophagen verglichen. Dabei konnte gezeigt werden, dass sowohl Ursprungs- wie auch Folgeisolat auf Makrophagen eine große Neutralisationsaktivität aufweisen, die auf Lymphozyten fehlt. Um besser eingrenzen zu können, welche Antikörper bei Neutralisationsreaktionen auf Makrophagen eine Rolle spielen, wurden Neutralisationsexperimente mit Serumimmunglobulinen eines frühen Isolates durchgeführt. Als Ergebnis konnte festgehalten werden, dass autologe IgG' s auf Makrophagen eine Neutralisationsreaktion herbeiführen können. Weiterhin stellte sich die Frage, ob autologe Immunglobuline in der Lage sind, heterologe Virusisolate zu neutralisieren. Dabei zeigte sich, dass im Test unterschiedlicher Subtypen, es zu einer hohen Kreuzneutralisationsaktivität gekommen war. Zusammenfassend konnte im Verlauf der Promotion erfolgreich dargestellt werden, dass die Serumimmunglobuline für die Neutralisation auf Makrophagen verantwortlich sind und, dass diese heterologe Eigenschaften besitzen.
Die Verwendung von Fettemulsionen mit ausschließlich langkettigen Triglyceriden (LCT) und dadurch hohem Anteil an mehrfach ungesättigten Fettsäuren zur parenteralen Ernährung kann zu Veränderungen in der Fettsäurezusammensetzung von Phospholipiden mit entsprechenden Effekten auf die Metaboliten der Arachidonsäure und der Zellmembranen führen. Die Eliminationsgeschwindigkeit mittelkettiger Triglyceride (MCT) soll nach parenteraler Gabe schneller sein als die von langkettigen Triglyceriden. Nach Infusion gleicher Fettmengen an MCT werden niedrigere Triglyceridwerte gemessen als nach LCT-Gabe. In der vorliegenden Arbeit wurden Elimination und Stoffwechseleffekte verschiedener MCT/LCT-Mischemulsionen im Rahmen einer klinischen Prüfung der Phase 1 untersucht. Dazu wurden stoffwechselgesunden männlichen Probanden zwei neu entwickelte 20%ige Fettemulsionen der Firma Laevosan (Lipidol MCT 1/2 mit 50% und Lipidol MCT 1/3 mit 33% MCT-Anteil) in unterschiedlichen Dosierungen infundiert. Es wurden folgende Versuchsansätze verwendet: 10 g Fett als Bolus in 3 Minuten, eine Kurzinfusion von 50 g Fett in 30 Minuten, eine 12 stündige Dauerinfusion mit 0,1 g Fett/kg KG/h und eine hochdosierte Dauerinfusion über 8 Stunden mit 0,25 g Fett/kg KG/h. Die an Versuchspersonen vorgenommenen Untersuchungen wurden durch tierexperimentelle Leberperfusionen ergänzt. Die Umsatzkapazität für die beiden Fettemulsionen mit Zusatz von MCT lag im gleichen Bereich wie die Umsatzkapazität für vergleichbar zusammengesetzte Fettemulsionen. Die Halbwertszeiten für die Elimination der Triglyceride betrugen 15,1 Minuten für MCT 1/2 20% und 27,9 Minuten für MCT 1/3 20% nach Bolusapplikation von 10 g Fett. Nach Kurzinfusion von 50 g Fett lagen die Eliminationshalbwertszeiten bei 46,2 Minuten für MCT 1/2 20% und bei 54.6 Minuten für MCT 1/3 20%. Unter niedrig dosierter Dauerinfusion (0,1 g Fett/kg KG/h) wurde ein Fließgleichgewicht erreicht. Hingegen erwies sich die höhere Dosierung von 0,25 g Fett/kg KG/h als überdosiert, der stetige Anstieg der Triglyceridkonzentration während der 8stündigen Infusion zeigte an, dass mit dieser Dosierung kein Fließgleichgewicht mehr zu erreichen war. Damit war die Eliminationskapazität für die untersuchten Emulsionen bei dieser Dosierung ebenso wie bei Emulsionen mit reinem LCT-Anteil überschritten. Der Zusatz von MCT hat dementsprechend nicht zu einer Erhöhung der Umsatzkapazität für Fettemulsionen geführt. Der erhebliche Anstieg der Fettsäurekonzentrationen während und nach Applikation der Fettemulsionen ist Ausdruck der raschen Hydrolyse der Triglyceride. Die gaschromatographische Differenzierung der Fettsäurekonzentrationen im Serum ergab, dass der Anstieg der Fettsäuren insbesondere auf das Verhalten der mittelkettigen Fettsäuren zurückzuführen war. Sowohl unter hochdosierter Kurzinfusion von 50 g Fett (= 0,625 g-0,667 g Fett/kg Kg bezogen auf das durchschnittliche Probandengewicht) als auch unter hochdosierter Dauerinfusion von 0,25 g Fett/kg KG/h erfolgte dementsprechend mit beiden Fettemulsionen ein Anstieg der Konzentrationen der freien mittelkettigen Fettsäuren (Capryl- und Caprinsäure) auf außerordentlich hohe Werte, wie sie unter physiologischen Bedingungen kaum jemals gemessen werden (5,2 mmol/l mit MCT 1/3 20% und 5,5 mmol/l mit MCT 1/2 20% nach 50 g Fett, 2,4 mmol/l mit MCT 1/3 20% und 3,6 mmol/l mit MCT 1/2 20% unter 0.25 g Fett/kg KG/h). Von einigen der Probanden wurde deutliche Übelkeit als Nebenwirkung der hochdosierten Fettemulsion angegeben. Erwartungsgemäß kam es mit beiden MCT-haltigen Fettinfusionen neben einem Anstieg der Konzentration der freien Fettsäuren auch zu einer deutlichen Erhöhung der Konzentration der Ketonkörper. Der Anstieg war deutlich höher, wenn der Anteil an MCT erhöht war. Außerdem war der Ketonkörperanstieg vor allem unter den beiden hohen Dosierungen bei Verwendung der Emulsion mit dem höheren Anteil an MCT deutlich stärker ausgeprägt als bei der anderen Emulsion mit dem niedrigeren Anteil an MCT. Es wurden dabei nach Kurzinfusion von 50 g Fett Konzentrationen (berechnet als Gesamtsumme an ß-Hydroxybutyrat und Acetoacetat) von lediglich 7,7 mg/dl mit MCT 1/3 20% im Vergleich zu 11,2 mg/dl mit MCT 1/2 20% erreicht. Unter Gabe von 0,25 g Fett/kg KG/h stieg die Gesamtketonkörperkonzentration mit MCT 1/3 20% auf 8,4 mg/dl während es auch hier mit MCT 1/2 20% zu einem höheren Anstieg auf 12,1 mg/dl kam. Auch in der isoliert perfundierten Rattenleber erfolgte ein rascher Umsatz der in den Fettemulsionen enthaltenen Triglyceride. Dabei kam es zu einer extrem schnellen und vor allem nahezu vollständigen Elimination bevorzugt von mittelkettigen Fettsäuren. Dies führte zu erheblichen Anstiegen des ß-Hydroxybutyrats und Acetoacetats, mit beiden Fettemulsionen bis auf Ketonkörperkonzentrationen um 100 mg/dl. Dies entsprach prozentualen Anstiegen von 645,6-750.5 % für ß-Hydroxybutyrat und von 1099,6-1194,8 % für Acetoacetat. Die Glycerin-Konzentration blieb während der Perfusionen niedrig, dies bedeutete, dass das bei der Hydrolyse der Triglyceride gebildete freie Glycerin in der Leber rasch umgesetzt wurde. Bei einer starken Anflutung von freien mittelkettigen Fettsäuren in der Leberzelle zeigte sich, dass es neben der ß-Oxidation vor allein auch zu einer gesteigerten Lipogenese kam. Die in den geprüften Fettemulsionen enthaltenen MCT wurden ebenso wie langkettige Triglyceride rasch hydrolysiert, wie die hohe Konzentration an mittelkettigen Fettsäuren im Serum aufwies. Die Ursache für die hohe Konzentration der mittelkettigen Fettsäuren könnte sein, dass auch die durch Hydrolyse im peripheren Bereich entstandenen mittelkettigen Fettsäuren vorwiegend über die Leber eliminiert werden. Der Anteil der Leber an der Elimination und am Metabolismus der mittelkettigen Fettsäuren ist aus dem Anstieg der Ketonkörper zu erkennen. Diese Beziehung ist bei der Wertung der im Experiment mit der isoliert perfundierten Rattenleber erhobenen Ergebnisse besonders gut zu erkennen. Es konnten keine Anhaltspunkte dafür gefunden werden, dass die Ergänzung von Sojaöl durch MCT in Fettemulsionen zu einer Steigerung des Umsatzes der infundierten Triglyceride führt. Zu beachten wären allerdings die hohen Konzentrationen vor allem an freien mittelkettigen Fettsäuren, die während der Infusion von MCT-haltigen Emulsionen zu messen sind. Da für diese Messung Spezialmethoden erforderlich sind, sind derartige Bestimmungen bei Routineanwendung allerdings nicht möglich.
In der vorliegenden Untersuchung wurden an 35 gynäkologischen Patientinnen die Unterschiede zwischen Desfluran und Isofluran auf das EEG-Frequenzverhalten, die SEF 95% und die somatosensorisch evozierten Potentiales des N. medianus untersucht. Dabei wurden die Einflüsse steigender Narkosegaskonzentrationen und nocizeptiver Reize sowie die Veränderungen in der Aufwachphase auf die oben genannten Parameter verglichen. Die Untersuchung wurde als prospektive und randomisierte Studie durchgeführt. Es konnte der Nachweis geführt werden, dass es keinen Anhalt für Unterschiede in der Beeinflussung der EEG-Parameter Powerspektrum und SEF 95%, sowie der somatosensorisch evozierten Potentiale zwischen Desfluran und Isofluran gibt. Dies gilt für equipotente Narkosegaskonzentrationen ebenso wie für die Unterdrückung nocizeptiver Reize. Anders stellt sich das Bild in der Aufwachphase dar. Dort führt die langsamere Eliminierung des Isofluran zu einer Aktivierung im EEG mit einer starken Ausprägung der beta-Wellen. Einen Einfluss auf klinische Befunde wie Vigilanz, Schmerzempfindung oder Entlassung aus dem Aufwachraum durch diese EEG-Veränderungen ließ sich bei den von uns untersuchten Patienten nicht nachweisen, jedoch konnte in anderen Studien eine Verbesserung der Wiederkehr kognitiver Funktionen besonders bei älteren Patienten nach Desflurannarkosen im Vergleich zu Isoflurannarkosen beobachtet werden [35]. Diese Beobachtung lässt sich durch die Veränderungen in der EEG-Frequenzanalyse mit einem Frequenzmuster wie unter Sedierung erklären.
For palaeotropical regions, only a few anecdotal reports had been published on the existence of 'ant-gardens' before this study started. As opposed to this, 'ant-house epiphytes' (i.e. domatiabearing epiphytes) were reported to be highly abundant in Southeast Asia and were presumed to be a second type of ant-epiphyte interaction. In the much better studied neotropical regions the situation seemed to be the reverse: Many reports on AGs in contrast to very few reports on anthouse epiphytes. In this study, I have presented extensive data which may help towards a better understanding of the 'Southeast Asian part' of this 'ant-epiphyte puzzle'. In Peninsular Malaysia, Borneo, Java, and Southern Thailand, a great variety of formerly unknown AG systems were discovered. 18 ant species (from 5 genera, 4 subfamilies) were identified as true AG ants, i.e. these ants actively retrieved seeds of certain epiphyte species into their carton nests. Another 49 ant species inhabited AGs as secondary, opportunistic settlers. On the epiphyte side, 84 plant species were found growing on AGs, 51 (19 genera, 12 families) of which were probably true AG epiphytes, i.e. ants retrieved the seeds to their arboreal carton nests, on which the epiphytes were then cultivated. Most of the epiphyte flora of lowland forests in Peninsular Malaysia (except for ferns, orchids and facultative epiphytes) seemed to be totally dependent on ants for their establishment in the canopy. Together with the high number of opportunistic AG inhabitants (ants, epiphytes, and many arthropod guests), these facts suggest that AGs function as pioneers in the canopy of Southeast Asian rain forests. Moreover, AG-associations might even have accounted for the unusual species richness in the epiphyte genera Dischidia, Hoya (Asclepiadaceae), Myrmecodia, and Hydnophytum (Rubiaceae). The definition of the term ant-garden only describes the basic interactions. In the ant-garden associations investigated in this study, interactions going beyond these basic ones varied depending on ant and epiphyte species. Ant-gardens initiated by Diacamma spKfmA111 were regarded as the 'most primitive' type, because this ponerine was totally dependent on preformed cavities for nest establishment, did not tend any trophobionts, and was the least selective in its seed-retrieving behavior. On the other end of the scale, Crematogaster spKfmA18 and Camponotus spKfmA9 were rated as 'most advanced' because both lived in free (i.e. cavityindependent) AGs, tended trophobionts underneath their nests, were associated with a couple of other organisms, and were highly selective in their seed-retrieving behavior. Moreover, Camponotus spKfmA9 occurred preferentially with one single epiphyte species, Hoya elliptica (Asclepiadaceae), and Crematogaster spKfmA18 was specialized on some species of giant bamboo as phorophyte. Philidris spKfmA160, which occupied a medium position in relation to the other AGs was particularly interesting for several reasons. This ant species was mainly associated with ant- house epiphytes and occurred in the heath forests of Borneo. However, the major part of the colonies, including the queen, was located underneath carton structures near the surface of the host tree and not inside the domatia of the associated plants. Moreover, very young Philidris spKfmA160 colonies had only small seedlings growing on their carton nests. The ant workers actively retrieved the seeds of their epiphyte partners into the nests. These results indicate that associations with ant-house epiphytes must be regarded as a special case of ant-gardens. I therefore suggest using the term 'ant-house' only to describe the epiphytes, but not to describe the association, and to include this type of association in the group of AGs. Strict species-specificity never occurred, but some epiphytes showed great preference for growing on the nests of certain ant species, while others occurred over a wider range. Vice versa, most ant species had several epiphytes growing on their nests, while others were mostly found with one or very few epiphyte species. These patterns were shown to be the effect of different factors, including common microclimatic preferences of ants and epiphytes, interspecific competition of epiphytes, and selective seed retrieval of AG ants. The main behavioral trait responsible for the establishment of AGs was the selectivity shown by the ants in the epiphyte seeds they carried. However, details of the mechanisms, i.e. what characteristics of the seeds are important and what motivates the ants to retrieve them, varied widely. In many cases, seed compounds located on the surface triggered carrying behavior. Detailed experimental investigations combined with literature data from the two other known 'myrmecochory systems', terricolous myrmecochores and neotropical AGs, suggested that myrmecochory is frequently triggered by a two-stage system. One relatively unspecific compound (or a combination of such compounds) constitutes the basic attractiveness for a number of ant species. Other seed characteristics (elaiosomes, mechanical properties, other surface-compounds) modulate this basic signal, accounting for species-specific preferences of ants towards certain plant species. A comparison of AGs in Southeast Asia and the neotropics shows that the numbers of AG ant and epiphyte species in each case are almost equal. Southeast Asian AG epiphytes might even turn out to outnumber the neotropical ones. Thus, not only was it possible to break down the distinction between ant-house and AG associations, but also to show that AGs in Southeast Asia are present in such high diversity and abundance as to diminish the apparent contrast between the two biogeographical regions yet further. These data help to solve at least the Southeast Asian part of the 'ant-epiphyte puzzle'.
In der vorliegenden Arbeit sollten die in unserer Arbeitsgruppe identifizierten Splice- Varianten des murinen ARVCF (mARVCF) cloniert und charakterisiert werden. Es wurde gezeigt, daß alle 8 putativen Isoformen im gleichen Maße mit den Zelladhäsions-Molekülen M-, E- und N-Cadherin interagieren können und mit diesen an der Plasmamembran bzw. den Zell-Zellkontakten colocalisieren. Dabei nimmt N-Cadherin eine Sonderstellung ein. Zum einen ist die Interaktion mit endogenem N-Cadherin abhängig vom Zellkontext und zum anderen konnte mit Hilfe des MOM recruitment assays gezeigt werden, daß, im Gegensatz zu MOM-M- und MOM-E-Cadherin, eine Assoziation von mARVCF und MOM-N-Cadherin nicht in jeder Zelle stattfindet. Eine mögliche Konkurrenz von mARVCF mit dem nahe verwandten armadillo repeat Protein p120(ctn) um die Bindestelle in N-Cadherin konnte dabei als Ursache ausgeschlossen werden. Als nächstes wurde im Rahmen dieser Arbeit gezeigt, daß mARVCF eine duale Lokalisation an der Plasmamembran und im Zellkern aufweist. Dabei unterliegt mARVCF einem effektiven Exportmechanismus. Dieser Export kann durch Leptomycin B inhibiert werden, scheint somit also CRM1/exportin1-vermittelt zu sein und wird offenbar durch zwei verschiedene NES (nuclear export signal)-Sequenzen in mARVCF reguliert. Das in der p120(ctn) Subfamilie (zu der auch mARVCF gehört) konservierte NLS (nuclear localisation signal) konnte als für den Protein-Import unwirksam charakterisiert werden. Weiterhin wurde das LIM-only Protein FHL2 als neuer Interaktionspartner von mARVCF identifiziert. Dabei wirkt mARVCF als Mediator zwischen dem Cadherin- Catenin Komplex an der Plasmamembran und dem Interaktionspartner der Integrine FHL2. mARVCF ist in der Lage, FHL2 aus den Fokalkontakten zum Cadherin- Catenin Komplex an der Membran zu translozieren und in den Komplex einzubinden.
Die Physik beschäftigt sich seit jeher mit der Frage nach dem Aufbau und der Struktur der Materie. Die Antworten änderten sich im Laufe der Zeit, der gegenwärtige Stand der Erkenntnis ist im sogenannten Standardmodell zusammengefasst. Dort werden die Elementarteilchen in Leptonen und Quarks unterteilt, die Wechselwirkungen zwischen ihnen beschreibt man durch vier fundamentale Kräfte: die Gravitation, die elektromagnetischen Kraft, die schwache und die starke Kernkraft. Gemäß dem Standardmodell sind Nukleonen, also Protonen und Neutronen, aus Quarks aufgebaut. Das Proton ist beispielsweise ein gebundener Zustand aus zwei up und einem down Quark. Die Nukelonen bilden ihrerseits die Atomkerne, welche die Systematik der Elemente bestimmen. Quarks treten in sechs verschiedenen Arten (flavours) auf: up, down, strange, charm, bottom und top. Freie Quarks konnten bislang nicht nachgewiesen werden, sie werden nur als Quark-Antiquark Paar (Meson) oder als Kombination aus drei Quarks (Baryon) beobachtet. Mesonen und Baryonen werden unter dem Begriff Hadronen zusammengefaßt. Die starke Kernkraft beruht letztlich auf der Wechselwirkung zwischen Quarks, diese wird durch die Quantenchromodynamik (QCD) beschrieben. Ähnlich der Glashow- Salam-Weinberg Theorie (GSW), die die elektromagnetische und die schwache Kernkraft beschreibt, ist die Quantenchromodynamik durch Austauschteilchen charakterisiert. Im Fall der GSW wurden die Photonen bzw. W± oder Z-Teilchen als Austauschteilchen identifiziert, in der QCD fungieren Gluonen als Austauschteilchen. Photonen vermitteln die elektromagnetische Kraft zwischen allen Teilchen, die elektrische Ladung tragen. Analog wirkt die Kraft, die durch den Austausch von Gluonen beschrieben wird, zwischen Teilchen, die eine Farbladung tragen. Anders als das neutrale Photon trägt das Gluon selbst Farbe und wechselwirkt daher mit anderen Teilchen, die Farbe tragen. Dieser Umstand zeigt bereits, dass in der QCD ganz andere Phänomene zu erwarten sind als in der GSW. Die Tatsache, dass Quarks nur in gebundenen Zuständen vorliegen, erschwert die direkte Beobachtung der Wechselwirkung zwischen ihnen. Ein indirekter Weg, um die Wirkungweise diese Kraft zu untersuchen, liegt in der Erzeugung hoher Kernmateriedichten und hoher Kerntemperaturen. Die Idee besteht darin, das Phasendiagramm von Kernmaterie experimentell zu bestimmen (Abbildung 1.3) und dann auf die zugrundeliegende Kraft zu schließen. Unter anderem führen die Kräfte, die zwischen den Einzelteilchen des Mediums herrschen, zu charakteristischen Phasenübergängen. Im Fall der Kernmaterie hofft man insbesondere, den Übergang von gebundenen Zuständen in eine Quark-Gluon-Plasma Phase (QGP), in der sich Quarks und Gluonen frei bewegen, zu beobachten. Zwei prominente Beispiele demonstrieren, warum die Eigenschaften dieses Materiezustandes - und ob er überhaupt existiert - auch für andere Teilgebiete der Physik von großem Interesse sind. Zum einen geht man davon aus, dass in der Frühphase des Universums, 10-12 s nach dem Urknall, die Energiedichte so hoch war, dass die Materie in einem Plasmazustand vorlag. In diesem Bild führt die Expansion des Raumes zu einer Abkühlung des Plasmas und schließlich zum Ausfrieren in Hadronen. Zum anderen zeigen viele Modellstudien, dass im Innern von Neutronensternen mit extremen Dichten zu rechnen ist. Unter Umständen werden Energiedichten erreicht, die hoch genung sind, um einen Phasenübergang in ein Quark Gluon Plasma zu erzwingen. Die Beschreibung dieser astronomischen Objekte setzt somit auch die Kenntnis der Kräfte zwischen den Quarks voraus. Der einzige Weg, dichte Kernmaterie im Labor zu erzeugen, stellen Schwerionenreaktionen dar. Wenn zwei ultrarelativistische schwere Kerne zentral kollidieren, entsteht für kurze Zeit eine Region hoher Energiedichte (Abbildung 1.1). QCD-Gitter-Rechnungen deuten darauf hin, dass die Dichte, die man in Schwerionreaktion gegenwärtig erreicht, hoch genung ist, um einen Übergang der Kernmaterie in eine Plasma-Phase zu erzwingen. Aufgrund des hohen Drucks expandiert die verdichtete, heiße Kernmaterie in longitudinaler (entlang des Strahls) und transversaler (senkrecht zum Strahl) Richtung und die Dichte nimmt ab. Vorausgesetzt am Anfang der Reaktion wurde ein Quark-Gluon-Plasma erzeugt, dann friert diese Phase in Hadronen aus (chemisches Ausfrieren), wenn Dichte und Temperatur einen kritischen Wert unterschreiten. Die erzeugten Hadronen wechselwirken zunächst noch elastisch miteinander, d.h. die Impulse der Teilchen ändern sich, die Identität der Teilchen bleibt jedoch erhalten. Schließlich enden auch diese Wechselwirkungen (thermisches Ausfrieren), und die Teilchen verlassen die Reaktionszone (Abbildung 1.4). Der Ablauf einer solchen Schwerionenreaktion dauert einige 10-23s und ihre räumliche Ausdehnung liegt in der Größenordnung von 10-15m, damit ist die Reaktion selbst nicht beobachtbar. Nur der Endzustand, also die Identitäten und Impluse der emittierten Teilchen, kann bestimmt werden. Um den Ablauf der Reaktion zu rekonstruieren, ist man daher auf Modellrechnungen angewiesen. Aufgrund dieser Modellrechnungen wurden einige Observablen vorgeschlagen, die einen Phasenübergang kennzeichnen. Neben anderen Signaturen führt ein Phasenübergang wahrscheinlich zu einer verlängerten Emissionsdauer. Dieser Effekt kann möglicherweise durch die Analyse von Zwei-Teilchen-Korrelationen sichtbar gemacht werden. Ganz allgemein stellt die Untersuchung von Teilchenkorrelationen die einzige Möglichkeit dar, die raum-zeitlichen Strukturen während des thermischen Ausfrierens experimentell zu bestimmen. Korrelationen zwischen Teilchen, die von einer hinreichend kleinen Quelle emittiert werden, haben verschiedene Ursachen. Betrachtet man beispielsweise die Häufigkeitsverteilung der Impulsdifferenz zwischen zwei elektrisch gleich geladenen Teilchen, so stellt man fest, dass Paare mit geringer Impulsdifferenz weniger häufig vorkommen, als man anhand der Ein-Teilchen Impulsverteilung vorhersagen würde. Dieser Effekt ist auf die Abstoßung zwischen zwei elektrisch gleich geladenen Teilchen zurückzuführen, die mit kleiner Impulsdifferenz emittiert wurden. Eine weniger offensichtliche Korrelation wird durch den Quantencharakter identischer Teilchen verursacht. Zwei identische Bosonen, die im Phasenraum nahe beieinander liegen, können gemäß den Prinzipien der Quantentheorie nicht unterschieden werden. Die Wellenfunktion, die diesen Zwei-Teilchen-Zustand beschreibt, muß beim Vertauschen der Teilchen erhalten bleiben. Diese Forderung führt zu einem Interferenzterm in der Zwei-Teilchen Intensitätsverteilung. Diese Verteilung ist proportional zur Wahrscheinlichkeit, ein Teilchenpaar mit der Impulsdifferenz q zu messen. Berechnet man die Impulsdifferenzverteilung von Pionenpaaren und berücksichtig nur quanten- statistische Effekte, so findet man, dass Paare mit geringem Impulsunterschied bis zu zweimal häufiger vorkommen, als man aufgrund einfacher statistischer Überlegungen erwarten würde. Um diesen Effekt experimentell sichtbar zu machen, konstruiert man die Korrelationsfunktion, die die gemessene Impulsdifferenzverteilung in Relation zu einer Untergrundverteilung setzt. Experimentell gewinnt man diese Referenzverteilung, indem Paare aus Spuren aus verschiedenen Ereignissen gebildet werden. Die Referenzverteilung entspricht damit der Verteilung, die man messen würde, wenn die Teilchen nicht der Quantenstatistik unterlägen. Die Korrelationsfunktion wird im allgemeinen durch eine Gauß-Funktion angenähert. Das Inverse der Standardabweichung dieser Funktion wird nach den Pionieren der Intensitätsinterferometrie R. Hanbury Brown und R. Twiss als HBT-Radius bezeichnet. Teilchen interferieren nur dann, wenn sie im Phasenraum nahe beieinander liegen, das heißt sowohl die Impulsdifferenz als auch der räumliche Abstand muß hinreichend klein sein. Diese Bedingung kann genutzt werden, um von der gemessenen Korrelationsfunktion, die nur auf den Impulskomponenten basiert, auf die räumliche Verteilung der Teilchenproduktion zu schließen. Eine detaillierte Betrachtung erlaubt sogar, aufgrund der gemessenen Korrelationsfunktion quantitative Aussagen über die räumlichen Aspekte der Teilchenquelle zu machen. Beispielsweise können im Rahmen eines Modells die Stärke der transversalen Expansion oder die Emissionsdauer in Relation zu den HBT-Radien gesetzt werden. In Kapitel 2 sind die Grundlagen der Teilcheninterferometrie ausführlicher dargestellt. Der eigentliche Gegenstand dieser Arbeit ist experimentelle Analyse der Zwei- Teilchen-Korrelationen in einer Schwerionenreaktion. Dazu wird zunächst in Kapitel 3 das STAR Experiment am RHIC vorgestellt, in dem die Daten aufgezeichnet wurden, die Grundlage dieser Analyse sind. Am RHIC-Beschleuniger am BNL in den USA werden AuAu Kollisionen bis zu einer Schwerpunktsenergie von Wurzel aus SNN=200 GeV erzeugt. Figur 3.1 zeigt den Beschleuniger-Ring und die vier Experimente Brahms, Phenix, Phobos und STAR. Der hier analysierte Datensatz wurde bei der Datennahme im Jahr 2000 aufgezeichnet. Zu dieser Zeit wurde am RHIC eine Schwerpunktsenergie von Wurzel aus SNN=130 GeV erreicht. Bei einer zentralen AuAu Kollision werden mehrere Tausend Teilchen produziert. Der STAR Detektor ist dafür konzipiert, hadronische Teilchen kleiner Rapidität (d.h. großer Winkel zur Strahlachse) zu messen, innerhalb der Akzeptanz werden etwa 80% der produzierten geladenen Teilchen nachgewiesen. Der schematische Aufbau des STAR Detektorsystems ist in Figur 3.2 dargestellt. Der zentrale Detektor ist eine TPC (Zeit-Projektions-Kammer). Dieser Detektor basiert darauf, dass geladene Teilchen beim Durchgang durch ein Messgas eine Spur von Ionen hinterlassen. Ein starkes elektrisches Feld driftet die Elektronen, die bei den Ionisationsprozessen freigesetzt wurden, zu einer Ausleseebene. Der Punkt, an dem die Elektronen auf der Ausleseebene ein Signal erzeugen, entspricht der Projektion des Ionisationpunktes auf die Ausleseebene. Die dritte Komponente, die den Raumpunkt der Ionisation festlegt, ist durch die Driftzeit bei bekannter Driftgeschwindigkeit gegeben. So erscheint eine Teilchenspur als eine Kette von Ionisationspunkten im Detektorgas. Ein magnetisches Feld parallel zur Strahlachse führt zu einer Ablenkung der geladenen Teilchen. Die Krümmung der Spur ist dabei umgekehrt proportional zum transversalen Impuls. Abbildung 3.6 zeigt ein typisches Ereignis mit etwa 105 Ionisationspunkten und den entsprechenden Teilchenspuren. Der spezifische Energieverlust eines Teilchens beim Durchgang durch das Messgas hängt von seinem Impuls und seiner Masse ab. Die Stärke des auf der Ausleseebene induzierten Signals erlaubt den spezifischen Energieverlust zu bestimmen. Da der Impuls durch die Krümmung der Spur bekannt ist, kann so die Masse und damit die Identität des Teilchens bestimmt werden (siehe Abbildung 3.7). In Kapitel 4 wird der Datensatz beschrieben, der als Grundlage für diese Analyse dient. Während der Datennahme werden die digitalisierten Daten der TPC auf ein Speichermedium geschrieben. Der erste Schritt bei der Rekonstruktion der Ereignisse besteht darin, die Ionisationspunkte zu lokalisieren. Dies leistet der Clusterfinder- Algorithmus, der in Kapitel 4.1.1 beschrieben ist. Die Spurpunkte werden dann durch den Tracking-Algorithmus zu Teilchenspuren verbunden. Die erreichte Effizienz, Akzeptanz und Impulsauflösung der Rekonstruktion sind in Kapitel 4.1.2 zusammengefaßt. Die Zwei-Teilchen-Korrelationen werden nur für zentrale Kollisionen betrachtet, das sind Ereignisse mit kleinem Stoßparameter. Die Multipliztät der gemessenen Spuren ist in erster Näherung ein Maß für die Zentralität des Ereignisses. Für diese Analyse werden nur die 12% zentralsten Ereignisse zugelassen. Die Selektion der Ereignisse ist in Kapitel 4.2 beschrieben. Die Auswahl der Spuren, die in der Analyse verwendet werden, ist in Kapitel 4.3 beschrieben. Es werden nur Spuren zugelassen, deren Impulse in einem Bereich hinreichend hoher Akzeptanz und Effizienz liegen. Außerdem werden die Spuren ausgewählt, die mit hoher Wahrscheinlichkeit von Pionen stammen. Eine weitere Auswahl wird auf der Paarebene getroffen. Die Korrelationsfunktion wird in einzelnen Intervallen transversalen Paarimpulses kt und Paarrapidität Yðð gebildet. Damit kann die Abhängigkeit der HBT-Radien von diesen Größen dargestellt werden. Zwei weitere Auswahlkriterien sollen die Qualität der Spurpaare garantieren. Zum einen werden solche Paare verworfen, die im Detektor zu nahe beieinander liegen. Für die HBT-Analyse sind Paare mit geringem Impulsunterschied entscheidend, ein geringer Impulsunterschied heißt notwendigerweise, dass die Spuren räumlich nicht sehr weit getrennt sind. Wenn die Spuren aber zu nahe liegen, können sie vom Detektor und von der Rekonstruktionskette nicht mehr aufgelöst werden. Damit verliert man einen Teil der Paare in der Signalverteilung, nicht aber in der Untergrundverteilung, da in diesem Fall die endliche Zwei-Spur-Auflösung keine Rolle spielt. Um die Korrelationsfunktion nicht durch einen Detektoreffekt zu verfälschen, entfernt man die Paare, die im Detektor nahe beieinander liegen, sowohl in der Signal- als auch in der Untergrundverteilung. Ein weiteres Problem stellen "gebrochene" Spuren dar. In einigen Fällen wird eine Teilchenspur von der Rekonstruktionskette nicht als Ganzes erkannt, vielmehr werden zwei Spurstücke im Dektor gefunden. Da diese Spurstücke vom selben Teilchen stammen, haben sie eine sehr geringe Impulsdifferenz. Diese Paare können anhand ihrer Topologie im Detekor erkannt werden. Wie im Fall der begrenzten Zwei-Spur-Auflösung werden sie sowohl für die Signal- als auch für die Untergrundverteilung nicht zugelassen. In Kapitel 5 werden schließlich die Ergebnisse der Korrelationsanalyse dargestellt. Die Korrelationsfunktion wird in verschiedenen Parametrisierungen betrachtet. In der einfachsten Form betrachtet man nur den Betrag des Impulsdifferenzvektors. Dieser Ansatz bedeutet aber, dass der entsprechende HBT-Radius alle Raum-Zeit Komponenten mischt und damit nur wenig Aussagekraft bezüglich der Quellfunktion besitzt. Eine differenzierte Analyse in drei unabhängigen Komponenten ermöglichen die Pratt-Bertsch (PB) und die Yano-Koonin-Podgoretskii (YKP) Parametrisierung. Die beiden Parametrisierungen unterscheiden sich in der Zerlegung des Impulsdifferenzvektors in drei unabhängige Komponenten. Im ersten Fall bezeichnet man die Komponenten als qout, qlong und qside, im zweiten Fall als qpara, qperp und q0 (Kapitel 2.7 und 2.8). Die entsprechenden Korrelationsfunktionen sind in Gleichung 2.31 bzw. 2.34 gegeben. Die jeweiligen HBT-Radien Rout, Rlong und Rside bzw. Rpara, Rperp und R0 können in Relation zu den Parametern der Quellfunktion (Gleichung 2.43) gesetzt werden. Die beiden Parametrisierungen liefern im Prinzip die gleiche Information und die beiden Sätze von HBT-Radien können in Beziehung zueinander gesetzt werden (Gleichung 2.41). Beispielsweise entspricht der HBT-Radius R0 in der YKP-Parametrisierung in erster Näherung der Emissionsdauer, während in der PB- Parametrisierung diese Größe Verhältnis von Rout zu Rside abhängt. Zusätzlich zu den Radien enthält die YKP-Parametrisierung einen Parameter ß, der erlaubt, die longitudinale Geschwindigkeit des betrachteten Quellelementes zu bestimmen. Die Abbildungen 5.7 bis 5.10 zeigen die HBT-Radien beider Parametrisierungen in Abhänigigkeit vom transversalen Paarimpuls kt und von der Paarrapidität Yðð. Die Größe der gemessenen Radien bewegt sich zwischen 3 und 7 fm. Nur der Radius R0 verschwindet in den meisten kt-Yðð Intervallen. Die anderen Radien nehmen mit steigendem kt ab und sind unabhängig von Yðð . Abbildung 5.11 demonstriert, dass die beiden Parametrisierungen -dort wo sie vergleichbar sind- konsistente Ergebnisse liefern. Eine Diskussion der Ergebnisse schließt sich in Kapitel 6 an. Die Abhänigigkeit des Parameters ß von Yðð zeigt eine starke longitudinale Expansion an. Ein ähnliches Verhalten wurde bei niedrigeren Schwerpunktsenergien beobachtet, wo man allerdings eine schwächere longitudinale Expansion erwarten würde. Die Lebensdauer der Quelle, also die Zeit vom anfänglichen Überlapp der Kerne bis zum thermischen Ausfrieren, bestimmt die kt-Abhänigigkeit des Parameters Rlong. Dieser Zusammenhang wurde von Mahklin und Sinyukow formuliert, eine Anpassung der entsprechenden Funktion an die gemessene kt Abhänigigkeit von Rlong ergibt eine Lebensdauer von etwa 8 fm/c bei einer Ausfriertemperatur von etwa 126 MeV. Entsprechende Messungen bei niedrigeren Kollisionsenergien lieferten ähnliche Resultate. Die kt-Abhängigkeit des Parameters Rside ist mit der Stärke der transversalen Expansion gemäß Gleichung 6.3 verknüpft. Da die Relation nicht eindeutig ist, muß entweder eine feste Ausfriertemperatur angenommen werden oder es werden gleichzeitig Einteilchenspektren betrachtet, um die Mehrdeutigkeit zu eliminieren. Eine vorläufige Abschätzung ergibt eine mittlere transversale Expansions- geschwindigkteit von v ungefähr gleich 0.6 und einen gemetrischen Radius von RG ungefähr gleich 7.4 fm . Auch diese Ergebnisse sind vergleichbar mit entsprechenden Resultaten bei niedrigeren Kollisionsenergien. Ein weiterer Parameter der Quellfunktion ist die Emissionsdauer. Die Pionen werden nicht zu einem festen Zeitpunkt emittiert, man geht vielmehr davon aus, dass die Zeitpunkte der letzten elastischen Wechselwirkung in der Quelle gaußförmig verteilt sind. Den Mittelwert dieser Verteilung bezeichnet man als Lebensdauer der Quelle, die Breite als Emissionsdauer. Entsprechend Gleichung 6.4 bzw. 6.5 ist die Emissionsdauer mit dem Radius R0 bzw. dem Verhältnis Rout zu Rside verbunden. Wie in Abbildung 5.8 ersichtlich verschwindet der Parameter R0 , außer im kleinsten kt Intervall. Dies entspricht in der PB-Parametrisierung der Tatsache, dass das Verhältnis Rout zu Rside bei hohen kt kleiner als eins ist. Diese Resultate sind nicht vereinbar mit herkömmlichen Modellen. Insbesondere weil eine verlängerte Emissionsdauer als Signatur für die Bildung eines Quark-Gluon-Plasmas vorgeschlagen wurde, wird dieses Ergebnis derzeit intensiv diskutiert. Die Ergebnisse dieser Analyse sind sowohl mit bereits publizierten Daten der STAR Kollaboration als auch mit Resultaten von anderen RHIC Experimenten verträglich (siehe Abbildung 6.8). In Abbildung 6.9 ist die Abhängigkeit der HBT-Radien von kt bei verschiedenen Schwerpunktsenergien dargestellt. Im Gegensatz zu vielen anderen Observablen ändern sich die HBT Radien nur geringfügig. Da man erwartet, dass die Reaktion bei hohen Energien vollkommen anders abläuft, würde man auch davon ausgehen, dass sich die Ausfrierbedingungen ändern. Dass dies nicht in den Zwei-Teilchen- Korrelationen sichtbar wird, deutet darauf hin, dass die Näherungen die notwendig sind, um die gemessenen Radien mit Modellparametern zu verbinden, nicht gültig sind. Die Systematik der HBT Parameter als Funktion der Schwerpunktsenergie enthält damit keinen direkten Hinweis, dass die kritische Energiedichte überschritten wurde, ab der die Kernmaterie in einer Plasmaphase vorliegt. Andererseits werden weder die verschwindende Emissionsdauer noch die Tatsache, dass die anderen HBT-Parameter sich nur wenig mit der Schwerpunktsenergie ändern, als Argument dafür gewertet, dass die kritische Energiedichte nicht überschritten wurde. Die Frage, ob ein Quark- Gluon-Plasma im Labor erzeugt und analysiert werden kann, bleibt damit offen. Das thermische Ausfrieren einer Pionenquelle scheint hingegen anders zu verlaufen, als bisher angenommen wurde. Systematische Studien der Korrelationsfunktion in AA Kollisionen am RHIC in Kombination mit Fortschritten im theoretischen Verständnis der Teilcheninterferometrie in Schwerionenreaktion werden in Zukunft hoffentlich erlauben, die gemessenen Radien in ein konsistentes Bild einzuordnen. In zukünftigen Experimenten am LHC werden noch weit höhere Dichten erreicht als bisher, damit sollten sich auch die Ausfrierbedingungen stark verändern. Es wird sich dann zeigen, ob die Teilcheninterferometrie das geeignete Instrument ist, um die Quellfunktion einer Schwerionenreaktion zu messen.
In der vorliegenden Arbeit konnte eine neue Ca2 -abhängige NDPase (EC 3.6.1.6) kloniert und funktionell charakterisiert werden. Die mRNA der Ca2 -NDPase wurde in allen untersuchten Geweben der Ratte nachgewiesen. UDP, GDP und IDP, jedoch nicht ATP und ADP waren Substrate der Ca2 -NDPase. Ihre Enzymaktivität war strikt von Calciumionen abhängig und zeigte ein breites pH-Optimum zwischen 6,5 und 7,5. Der Km-Wert für UDP lag bei 216 µM. Die Ca2 -NDPase konnte im ER und in Prä-Golgi-Strukturen lokalisiert werden. Sie ist ein Transmembranprotein, dessen katalytische Domäne im Lumen des ER liegt. Dort ist sie vermutlich ein wichtiger Bestandteil der Qualitätskontrolle neu synthetisierter glycosylierter Proteine, in dem sie das die UDP-Glucose:glycoproteinglucosyltransferase inhibierende UDP zu UMP hydrolysiert. Das resultierende UMP dient als Antiporter um UDP-Glucose, das im Zytosol synthetisierte Substrat der UDP-Glucose:glycoproteinglucosyltransferase, in das ER zu transportieren. Im zweiten Teil der Arbeit wurden die Oligomerstrukturen der zelloberflächenlokalisierten NTPDase1 und NTPDase2 untersucht. Die Enzyme wurden heterolog in Xenopus laevis-Oocyten exprimiert. Nach metabolischer Markierung sowie Zelloberflächenmarkierung wurden die mittels Hexahistidyl-Epitop markierten Proteine durch Digitonin solubilisiert und die Oligomerenkomplexe wurden über Ni2 -NTA-Chromatographie gereinigt. Die gereinigten Proteinkomplexe wurden mittels Cross-Linking-Experimenten und der Blau-nativen Gelelektrophorese analysiert. Es konnte gezeigt werden, dass die NTPDase1 an der Zelloberfläche als Dimer vorlag. Die Dimerisierung erfolgte nicht über intermolekulare S-S-Brücken. Die Dimere der NTPDase1 erwiesen sich als relativ stabil. Inkubation bei 37°C resultierte mit zunehmender Dauer in einer steigenden, jedoch auch nach zwei Stunden noch nicht vollständigen Dissoziation der Dimere. Inkubation unter reduzierenden Bedingungen führte ebenfalls nicht zur vollständigen Dissoziation. Erst eine Inkubation bei 37°C in Gegenwart von DTT und Coomassie Brilliant Blue G250 vermochte eine vollständige Dissoziation der NTPDase1 zu bewirken. Zur vollständigen Dissoziation der Multimerstruktur der NTPDase1 wurden somit das Reduktionsmittel DTT und die unter diesen Bedingungen denaturierende Wirkung des Farbstoffs Coomassie Brilliant Blue G250 benötigt. Die NTPDase2 bildete kein distinktes Multimer, sondern lag im nativen Zustand an der Zelloberfläche in Form von nicht intermolekular über S-S-Brücken verknüpften Di-, Tri- und Tetrameren vor. Die Homomultimere der NTPDase2 zeigten im Vergleich zur NTPDase1 eine deutlich höhere Stabilität. Inkubation unter reduzierenden Bedingungen und in Gegenwart von Coomassie Brilliant Blue G250 führte im Gegensatz zur NTPDase1 nur zu einer unwesentlichen Dissoziation der Multimerstrukturen. Die Substratspezifität der NTPDase2 änderte sich mit zunehmender Dauer der heterologen Expression. Die ADPase-Aktivität der NTPDase2 stieg nach sieben Tagen signifikant (p < 0,0001) um das vierfache im Vergleich zum ersten Tag der Expression. Dies erniedrigte das ATP:ADP-Verhältnis von 1 : 0,1 nach 24 h Expression zu 1 : 0,4 nach sieben Tagen. Die Änderung der Substratspezifität der NTPDase2 ging mit einer Änderung des multimeren Verteilungsmusters der NTPDase2 einher. Mit zunehmender Expressionsdauer nahm der relative Anteil an höheren Multimeren zu. Im Gegensatz zur NTPDase2 zeigte die NTPDase1 keine signifikanten Änderungen ihrer Substratspezifität und Multimerstruktur. Die durch unterschiedliche Verteilungsmuster der Multimere bedingte Änderung der Substratspezifität der NTPDase2 eröffnet eine neue Möglichkeit zur Modulation Nukleotid-vermittelter Signalübertragung. Es konnte keine signifikante Tendenz zur Ausbildung von Heteromultimeren aus NTPDase1 und NTPDase2 nachgewiesen werden.