Refine
Year of publication
Document Type
- Article (31801)
- Part of Periodical (11593)
- Book (8343)
- Doctoral Thesis (5771)
- Part of a Book (3973)
- Working Paper (3402)
- Review (2949)
- Preprint (2420)
- Contribution to a Periodical (2398)
- Conference Proceeding (1775)
Language
- German (43017)
- English (30715)
- French (1060)
- Portuguese (840)
- Spanish (309)
- Croatian (302)
- Multiple languages (263)
- Italian (198)
- mis (174)
- Turkish (168)
Has Fulltext
- yes (77370) (remove)
Keywords
- Deutsch (1080)
- Literatur (875)
- taxonomy (774)
- Deutschland (553)
- Rezension (516)
- new species (459)
- Rezeption (354)
- Frankfurt <Main> / Universität (341)
- Übersetzung (330)
- Geschichte (301)
Institute
- Medizin (7874)
- Präsidium (5261)
- Physik (4995)
- Extern (2738)
- Wirtschaftswissenschaften (2724)
- Gesellschaftswissenschaften (2379)
- Biowissenschaften (2213)
- Biochemie und Chemie (1985)
- Frankfurt Institute for Advanced Studies (FIAS) (1896)
- Informatik (1738)
Die Betreuer am neuen Markt sollen die Effizienz des Handels durch Bereitstellung zusätzlicher Liquidität erhöhen. Die vorliegende Studie untersucht den Liquiditätsbeitrag der Betreuer in zwei aufeinanderfolgenden Jahren. Die Beteiligung der Betreuer am Umsatz des Marktes hat im beobachteten Zeitraum deutlich abgenommen. Ihre Orderlimits und -volumina hingegen haben die Markttiefe erhöht. Weiterhin zeigt sich, daß die Betreuer sowohl in liquiditätsschwachen Titeln als auch in liquiditätsschwachen Marktphasen zur Steigerung der Liquidität beigetragen haben.
We analyze the role of different kinds of primary and secondary market interventions for the government's goal to maximize its revenues from public bond issuances. Some of these interventions can be thought of as characteristics of a "primary dealer system". After all, we see that a primary dealer system with a restricted number of participants may be useful in case of only restricted competition among sufficiently heterogeneous market makers. We further show that minimum secondary market turnover requirements for primary dealers with respect to bond sales seem to be in general more adequate than the definition of maximum bid-ask-spreads or minimum turnover requirements with respect to bond purchases. Moreover, official price management operations are not able to completely substitute for a system of primary dealers. Finally it should be noted that there is in general no reason for monetary compensations to primary dealers since they already possess some privileges with respect to public bond auction.
Frankfurts Position im internationalen Finanzplatzwettbewerb : eine ressourcenorientierte Analyse
(1999)
Der vorliegende Aufsatz stellt die Vorgehensweise und die wichtigsten Ergebnisse einer internationalen Finanzplatzstudie vor, die im Jahre 1998 im Auftrag des Center for Financial Studies (Frankfurt am Main) durchgeführt wurde. Ziel dieser Studie war es, aus der Analyse wichtiger Finanzplatzressourcen und den Wechselwirkungen zwischen den unterschiedlichen Ressourcen Rückschlüsse auf Frankfurts Position im internationalen Finanzplatzwettbewerb zu ziehen. Aus ressourcenorientierter Sicht (Resource-Based-View) konnte gezeigt werden, daß der Finanzplatz Frankfurt einerseits größere Wettbewerbsnachteile gegenüber den Finanzzentren New York und London aufweist, die kurz- und mittelfristig kaum aufholbar sind. Andererseits besitzt der Finanzplatz Frankfurt Wettbewerbsvorteile gegenüber den Finanzzentren Paris und Tokyo. Diese sind aus der Sicht Frankfurts kurz- bis mittelfristig verteidigbar. Im Gegensatz zu den Wettbewerbsnachteilen Frankfurts im Vergleich zu den angelsächsischen Finanzplätzen fallen die Wettbewerbsvorteile Frankfurts gegenüber Paris und Tokyo aber deutlich geringer aus.
This paper considers the desirability of the observed tendency of central banks to adjust interest rates only gradually in response to changes in economic conditions. It shows, in the context of a simple model of optimizing private-sector behavior, that such inertial behavior on the part of the central bank may indeed be optimal, in the sense of minimizing a loss function that penalizes inflation variations, deviations of output from potential, and interest-rate variability. Sluggish adjustment characterizes an optimal policy commitment, even though no such inertia would be present in the case of a reputationless (Markovian) equilibrium under discretion. Optimal interest-rate feedback rules are also characterized, and shown to involve substantial positive coefficients on lagged interest rates. This provides a theoretical explanation for the numerical results obtained by Rotemberg and Woodford (1998) in their quantitative model of the U.S. economy.
This paper analyses two reasons why inflation may interfere with price adjustment so as to create inefficiencies in resource allocation at low rates of inflation. The first argument is that the higher the rate of inflation the lower the likelihood that downward nominal rigidities are binding (the Tobin argument) which implies a non-linear Phillips-curve. The second argument is that low inflation strengthens nominal price rigidities and thus impairs the flexibility of the price system resulting in a less efficient resource allocation. It is argued that inflation can be too low from a welfare point of view due to the presence of nominal rigidities, but the quantitative importance is an open question.
As inflation rates in the United States decline, analysts are asking if there are economic reasons to hold the rates at levels above zero. Previous studies of whether inflation "greases the wheels" of the labor market ignore inflation's potential for disrupting wage patterns in the same market. This paper outlines an institutionally-based model of wage-setting that allows the benefits of inflation (downward wage flexibility) to be separated from disruptive uncertainty about inflation rate (undue variation in relative prices). Our estimates, using a unique 40-year panel of wage changes made by large mid-western employers, suggest that low rates of inflation do help the economy to adjust to changes in labor supply and demand. However, when inflation's disruptive effects are balanced against this benefit the labor market justification for pursuing a positive long-term inflation goal effectively disappears.
Since 1990, a number of countries have adopted inflation targeting as their declared monetary strategy. Interpretations of the significance of this movement, however, have differed widely. To some, inflation targeting mandates the single-minded, rule-like pursuit of price stability without regard for other policy objectives; to others, inflation targeting represents nothing more than the latest version of cheap talk by central banks unable to sustain monetary commitments. Advocates of inflation targeting, including the adopting central banks themselves, have expressed the view that the efforts at transparency and communication in the inflation targeting framework grant the central bank greater short-run flexibility in pursuit of its long-run inflation goal. This paper assesses whether the talk that inflation targeting central banks engage in matters to central bank behavior, and which interpretation of the strategy is consistent with that assessment. We identify five distinct interpretations of inflation targeting, consistent with various strands of the current literature, and identify those interpretations as movements between various strategies in a conventional model of time-inconsistency in monetary policy. The empirical implications of these interpretations are then compared to the response of central banks to movements in inflation of three countries that adopted inflation targets in the early 1990s: The United Kingdom, Canada, and New Zealand. For all three, the evidence shows a break in the behavior of inflation consistent with a strengthened commitment to price stability. In no case, however, is there evidence that the strategy entails a single-minded pursuit of the inflation target. For the U.K., the results are consistent with the successful implementation the optimal state-contingent rule, thereby combining flexibility and credibility; similarly, New Zealand's improved inflation performance was achieved without a discernable increase in counter-inflationary conservatism. The results for Canada are less clear, perhaps reflecting the broader fiscal and international developments affecting the Canadian economy during this period.
Derivatives usage in risk management by U.S. and German non-financial firms : a comparative survey
(1998)
This paper is a comparative study of the responses to the 1995 Wharton School survey of derivative usage among US non-financial firms and a 1997 companion survey on German non-financial firms. It is not a mere comparison of the results of both studies but a comparative study, drawing a comparable subsample of firms from the US study to match the sample of German firms on both size and industry composition. We find that German firms are more likely to use derivatives than US firms, with 78% of German firms using derivatives compared to 57% of US firms. Aside from this higher overall usage, the general pattern of usage across industry and size groupings is comparable across the two countries. In both countries, foreign currency derivative usage is most common, followed closely by interest rate derivatives, with commodity derivatives a distant third. Usage rates across all three classes of derivatives are higher for German firms than US firms. In contrast to the similarities, firms in the two countries differ notably on issues such as the primary goal of hedging, their choice of instruments, and the influence of their market view when taking derivative positions. These differences appear to be driven by the greater importance of financial accounting statements in Germany than the US and stricter German corporate policies of control over derivative activities within the firm. German firms also indicate significantly less concern about derivative related issues than US firms, which appears to arise from a more basic and simple strategy for using derivatives. Finally, among the derivative non-users, German firms tend to cite reasons suggesting derivatives were not needed whereas US firms tend to cite reasons suggesting a possible role for derivatives, but a hesitation to use them for some reason.
The purpose of the paper is to survey and discuss inflation targeting in the context of monetary policy rules. The paper provides a general conceptual discussion of monetary policy rules, attempts to clarify the essential characteristics of inflation targeting, compares inflation targeting to the other monetary policy rules, and draws some conclusions for the monetary policy of the European system of Central Banks.
Despite the relevance of credit financing for the profit and risk situation of commercial banks only little empirical evidence on the initial credit decision and monitoring process exists due to the lack of appropriate data on bank debt financing. The present paper provides a systematic overview of a data set generated during the Center for Financial Studies research project on "Credit Management" which was designed to fill this empirical void. The data set contains a broad list of variables taken from the credit files of five major German banks. It is a random sample drawn from all customers which have engaged in some form of borrowing from the banks in question between January 1992 and January 1997 and which meet a number of selection criteria. The sampling design and data collection procedure are discussed in detail. Additionally, the project's research agenda is described and some general descriptive statistics of the firms in our sample are provided.
We studied information and interaction processes in six lending relationships between a universal bank and medium sized firms. The study is based on the credit files of the respective firms. If no problems occur in these lending relationships, bank monitoring is based mainly on cheap, retrospective and internal data. In case of distress, more expensive, prospective and external information is used. The level of monitoring and the willingness to renegotiate the lending relationship depends on what the lending officers can learn about the future prospects of the firm from the behaviour of the debtors. We identify both signalling and bonding activities. Such learning from past behaviour seems to allow monitoring at low cost, whereas the direct observation of the firm's investment outlook seems to be very costly. Also, too much knowledge about the firm's investments might leave the bank in a very strong bargaining position and distort investment incentives. Therefore, the traditional view of credit assessment as observation of the quality of a borrower's investment programme needs to be reconsidered.
Shares trading in the Bolsa mexicana de Valores do not seem to react to company news. Using a sample of Mexican corporate news announcements from the period July 1994 through June 1996, this paper finds that there is nothing unusual about returns, volatility of returns, volume of trade or bid-ask spreads in the event window. This suggests one of five possibilities: our sample size is small; or markets are inefficient; or markets are efficient but the corporate news announcements are not value-relevant; or markets are efficient and corporate news announcements are value-relevant, but they have been fully anticipated; or markets are efficient and corporate news announcements are value-relevant, but unrestricted insider trading has caused prices to fully incorporate the information. The evidence supports the last hypothesis. The paper thus points towards a methodology for ranking emerging stock markets in terms of their market integrity, an approach that can be used with the limited data available in such markets.
No one seems to be neutral about the effects of EMU on the German economy. Roughly speaking, there are two camps: those who see the euro as the advent of a newly open, large, and efficient regime which will lead to improvements in European and in particular in German competitiveness; those who see the euro as a weakening of the German commitment to price stability. From a broader macroeconomic perspective, however, it is clear that EMU is unlikely to cause directly any meaningful change either for the better in Standort Deutschland or for the worse in the German price stability. There is ample evidence that changes in monetary regimes (so long as non leaving hyperinflation) induce little changes in real economic structures such as labor or financial markets. Regional asymmetries of the sorts in the EU do not tend to translate into monetary differences. Most importantly, there is no good reason to believe that the ECB will behave any differently than the Bundesbank.
Where do we stand in the theory of finance? : a selective overview with reference to Erich Gutenberg
(1998)
For the past 20 years, financial markets research has concerned itself with issues related to the evaluation and management of financial securities in efficient capital markets and with issues of management control in incomplete markets. The following selective overview focuses on key aspects of the theory and empirical experience of management control under conditions of asymmetric information. The objective is examine the validity of the recently advanced hypothesis on the myths of corporate control. The present overview is based on Gutenberg's position that there exists a discrete corporate interest, as distinct from and separate from the interests of the shareholders or other stakeholders. In the third volume of Grundlagen der BWL: Die Finanzen, published in 1969, this position of Gutenberg's is coupled with an appeal for a so-called financial equilibrium to be maintained. Not until recently have models grounded in capital market theory been developed which also allow for a firm's management to exercise autonomy vis-à-vis its stakeholder. This paper was prepared for the Erich Gutenberg centenary conference on December 12 and 13, 1997 in Cologne.
This study examines the relation of bank loan terms like interest rates, collateral, and lines of credit to borrower risk defined by the banks' internal credit rating. The analysis is not restricted to a static view. It also incorporates rating transition and its implications on the relation. Money illusion and phenomena linked with relationship banking are discovered as important factors. The results show that riskier borrowers pay higher loan rate premiums and rely more on bank finance. Housebanks obtain more collateral and provide more finance. Caused by money illusion in times of high market interest rates loan rate premiums are relatively small whereas in times of low market interest rates they are relatively high. There was no evidence for an appropriate adjustment of loan terms to rating changes. But bank market power represented by a weighted average of credit rating before and after a rating transition serves to compensate for low earlier profits caused by phenomena of interest rate smoothing. Klassifikation: G21.
Banks increasingly recognize the need to measure and manage the credit risk of their loans on a portfolio basis. We address the subportfolio "middle market". Due to their specific lending policy for this market segment it is an important task for banks to systematically identify regional and industrial credit concentrations and reduce the detected concentrations through diversification. In recent years, the development of markets for credit securitization and credit derivatives has provided new credit risk management tools. However, in the addressed market segment adverse selection and moral hazard problems are quite severe. A potential successful application of credit securitization and credit derivatives for managing credit risk of middle market commercial loan portfolios depends on the development of incentive-compatible structures which solve or at least mitigate the adverse selection and moral hazard problems. In this paper we identify a number of general requirements and describe two possible solution concepts.
Humanpharmaka stellen eine permanente Belastung von Gewässern dar. Im Rahmen der vorliegenden Arbeit wurde erstmals gemäß dem von der Europäischen Arzneimittelagentur EMEA entwickelten Konzept zur Durchführung von Umweltrisikobewertungen von Humanpharmaka mit mehreren ausgewählten Substanzen Umweltrisikobewertungen durchgeführt. Die hierfür ausgewählten Pharmaka sind das Antiepileptikum Carbamazepin (CBZ), das Antibiotikum Sulfamethoxazol (SMX) und das synthetische Östrogen 17a-Ethinylöstradiol (EE2). Als Vertreter der Inhaltsstoffe von Körperpflegeprodukten wurde der polyzyklische Moschusduftstoff Tonalid (AHTN) in die Untersuchungen mit einbezogen. Mit Hilfe von Literaturrecherchen wurde die Datengrundlage für Expositions- und Wirkungsabschätzungen bereitgestellt. Der vorhandene recherchierte Datensatz wurde mit entsprechenden Kurz- und Langzeitstudien ergänzt. Die mit den Ergebnissen der Expositions- und Wirkungsabschätzungen vorgenommenen Umweltrisikobewertungen ergaben im ersten Schritt basierend auf Kurzzeitstudien unter den ausgewählten Substanzen lediglich für den Moschusduftstoff AHTN ein erhöhtes Umweltrisiko für Oberflächengewässer. Basierend auf weiterführenden Langzeitstudien konnte das zunächst erkannte, durch AHTN indizierte Umweltrisiko entkräftet werden, jedoch ergaben die Risikocharakterisierungen für EE2 und SMX ein erhöhtes Risiko für das aquatische Kompartiment. Auf Grund der erhöhten Adsorptionspotenziale von CBZ, EE2 und AHTN wurden für diese Substanzen kompartimentspezifische Umweltrisikocharakterisierungen durchgeführt. Dabei wurde ein erhöhtes Umweltrisiko durch CBZ für das Kompartiment Sediment angezeigt. Basierend auf den Ergebnissen einer Sediment-Bioakkumulationsstudie mit dem endobenthischen Oligochaeten Lumbriculus variegatus, welche in einen unerwartet hohen Akkumulationsfaktor resultierte, und aus der Literatur verfügbaren Fisch-Biokonzentrationsfaktoren wurde anhand der Nahrungskette Wasser-Sediment-Wurm-Fisch die Möglichkeit des ‚secondary poisonings’ durch EE2 bei wurmfressenden Fischen unter natürlichen Bedingungen aufgezeigt. Zur Verwendung dieses Ergebnisses in einer Umweltrisikobewertung zum Zwecke der Zulassung von Pharmaka sollten weitergehende Untersuchungen zur Bestätigung durchgeführt werden. Bezugnehmend auf die Resultate der eigenen Studien und auf die besonderen Eigenschaften von Humanpharmaka wurde der EMEA-Richtlinienentwurf diskutiert und Verbesserungsvorschläge erarbeitet. Bis auf wenige Anpassungen geht das EMEA-Bewertungsschema nicht auf die Besonderheiten und spezifischen Eigenschaften von Humanpharmaka ein. Hauptkritikpunkte bezogen sich auf (1) die Anwendung eines konzentrationsabhängigen Schwellenwertes als Entscheidungsgrundlage zur Durchführung einer Risikocharakterisierung, (2) das stufenweise Vorgehen bei der Wirkungsabschätzung mit zuerst ausschließlich auf Kurzzeitstudien basierenden Effektdaten, und (3) unzureichende Angaben zu Vorgehensweisen in der höheren Stufe des Bewertungsschemas, vor allem bei Substanzen mit außergewöhnlichem ökotoxikologischen Potenzial. Trotz der zur Zeit intensiven internationalen Diskussion über mögliche Auswirkungen durch endokrine Disruptoren auf Mensch und Umwelt sieht der EMEA-Richtlinienentwurf nicht ausdrücklich vor, die Umweltgefährdung durch potenziell endokrin wirksame Substanzen mit spezifischen Testmethoden festzustellen und zu bewerten. Die Erkenntnis, dass spezifische Wirkmechanismen bei Chemikalien, speziell bei Arzneimitteln und Bioziden, auch in sehr niedrigen Konzentrationen zu Wirkungen in der Umwelt führen können, bleibt im EMEA-Richtlinienentwurf auf Grund der Einführung eines expositionsbezogenen Schwellenwertes und der Wirkungsabschätzung mittels Akutstudien nur unzureichend berücksichtigt. Zur Schließung dieser Lücke, die durch Untersuchungen zu endokrinen Wirkungen in der Umwelt offensichtlich wurde, müssen neue und bessere ökotoxikologische Instrumente entwickelt werden und das Umweltrisikobewertungsschema entsprechend erweitert und angepasst werden.
Eine große Herausforderung auf dem Forschungsgebiet der P2-Rezeptoren stellt die Entwicklung von potenten und selektiven Antagonisten für die einzelnen Rezeptorsubtypen dar, um die P2-Rezeptoren in nativen Geweben zu identifizieren und ihre physiologische und pathophysiologische Funktion aufzuklären. Ziel dieser Arbeit war zum einen die Entwicklung solcher P2-Antagonisten und zum anderen der Vergleich der pharmakologischen Befunde, die an nativen P2-Rezeptoren humaner Thrombozyten und isolierter Organe der Ratte sowie des Meerschweinchens ermittelt wurden, mit Ergebnissen an rekombinanten Rezeptoren, um somit Aussagen über P2-Rezeptoren verschiedener Spezies sowie nativer und rekombinanter P2-Rezeptoren treffen zu können. Mit Hilfe der P2Y1- und P2Y12-Standardantagonisten MRS2179, A3P5P und 2-meSAMP konnte gezeigt werden, dass für die ADP-induzierte Aggregation von in Puffer suspendierten Thrombozyten die gleichzeitige Aktivierung von P2Y1- und P2Y12-Rezeptoren zwingend erforderlich ist. Dagegen handelt es sich bei ADP- bzw. abmeATP-induziertem „shape change“ und Anstieg der intrazellulären Calciumkonzentration um rein P2Y1- bzw. P2X1-vermittelte Effekte humaner Thrombozyten, die zur Charakterisierung von Antagonisten an diesen Rezeptoren geeignet sind. Weiterhin wurden Untersuchungen am P2X1-Rezeptor des Ratten-Vas-deferens sowie am P2X3- und P2Y1-Rezeptor des Meerschweinchen-Ileum durchgeführt. Ausgehend von den Leitstrukturen Suramin und PPADS wurden Strukturmodifikationen vorgenommen mit dem Ziel, die Wirkstärke und die Selektivität zu erhöhen. Bei PPADS ist es durch Variation des Restes am Pyridoxalphosphat gelungen, sowohl P2X1- wie auch P2Y1-selektive Antagonisten zu entwickeln. Mit dem Ersatz des Phenylrestes durch einen Naphthylrestes beim PPNDS wurde die größte P2X1-versus P2Y1-Selektivität erreicht, wohingegen das Heterodimer SB9, bestehend aus Pyridoxalphosphat und einem Suraminmonomer, eine P2Y1-versus P2X1-Präferenz aufweist. Die einzelnen PPADS-Analoga unterscheiden sich hinsichtlich ihrer Kinetik und des antagonistischen Mechanismus. Bei einigen Substanzen wurde ein kompetitiver, bei anderen ein „pseudoirreversibler“ oder nichtkompetitiver Antagonismus beobachtet. Im Gegensatz zu den P2-Rezeptoren glattmuskulärer Organe zeigen alle untersuchten PPADS-Analoga an P2-Rezeptoren der Thrombozyten einen nichtkompetitiven Antagonismus. Weiterhin wurde beobachtet, dass die Strukturmodifikationen einen wesentlich geringeren Einfluss auf die Wirkstärke an P2-Rezeptoren der Thrombozyten haben als an den Rezeptoren glattmuskulärer Organe. Bei den Suraminanaloga ist es gelungen durch Strukturmodifikationen potente und selektive Antagonisten für humane P2X1-Rezeptoren zu entwickeln. Es zeigte sich, dass die tetravalenten Verbindungen NF449, NF110 und NF864 eine wesentlich höhere Affinität zum P2X1-Rezeptor humaner Thrombozyten aufweisen als ihre bivalenten Analoga. Die größte P2X1- versus P2Y1-Selektivität wurde bei NF110 erreicht, die größte Wirkstärke am P2X1-Rezeptor dagegen ist beim NF864 zu finden. Bei der Substanz NF864 handelt es sich um den derzeit potentesten P2X1-selektiven Antagonisten humaner Thrombozyten. Somit sollte sich NF864 zur Untersuchung der Beteiligung des P2X1-Rezeptors an der Hämostase als nützlich erweisen. Korrelationen der Ergebnisse des abmeATP-induzierten „shape change“ mit denen des abmeATP-induzierten Calciumeinstroms in Thrombozyten zeigten, dass beide Vorgänge allein durch den P2X1-Rezeptor vermittelt werden und wahrscheinlich über den gleichen Transduktionsweg ablaufen. Intrazellulärer Calciumanstieg und „shape change“, die durch ADP ausgelöst werden, sind ausschließlich P2Y1-vermittelt, verlaufen aber unter Umständen über unterschiedliche Transduktionswege. Vergleicht man die Ergebnisse, die an humanen Thrombozyten ermittelt wurden mit denen der isolierten Organe so ist weder bei der Wirkstärke noch beim antagonistischen Mechanismus eine völlige Übereinstimmung festzustellen. Auch der Vergleich der Ergebnisse, die an nativen P2X1-Rezeptoren ermittelt wurden, mit Daten an rekombinanten Rezeptoren ergaben weder bei den Thrombozyten, noch bei den isolierten Vasa deferentia der Ratte eine klare Korrelation. Struktur-Wirkungs-Beziehungen von P2X1-Antagonisten sind somit scheinbar nur innerhalb eines Modells möglich. Die Interpretation auf antagonistische Potenzen von Verbindungen zwischen nativen P2X1-Rezeptoren unterschiedlicher Spezies sowie zwischen nativen und rekombinanten P2X1-Rezeptoren einer Spezies müssen nach dem heutigen Stand der Wissenschaft mit Vorsicht betrachtet werden.
In nur wenigen Jahren wird die Euopäische Union um eine Gruppe osteuropäischer Staaten erweitert werden. Diese Erweiterung birgt Chancen und Risiken. Die Chancen liegen unter anderem in der Erweiterung der Märkte und gegenseitigen Handelsbeziehungen. Voraussetzung hierfür ist allerdings gegenseitiges Verständnis im doppelten Sinn dieses Wortes. Wenn die Menschen sich nicht verstehen, werden auch neue Möglichkeiten nicht genutzt werden können, wenn die Wirtschaft nicht die richtige Sprache findet, kann sie nichts verkaufen. Für alle wirtschaftlichen, kulturellen und gesellschaftlichen Bereiche ist eine funktionierende verbale Kommunikation unerläßlich. Wie viel mehr gilt dies für grenzüberschreitende Beziehungen. Die Erweiterung der EU wird nur dann in eine Integration der neuen Kandidaten münden können, wenn die Verständigung zwischen allen Beteiligten gesichert ist. In dem vorliegenden Bändchen weisen die Autoren nach, dass nur durch Sprachkultur und eine einschlägige Forschung, die auch die kulturspezifischen Konnationen mit berücksichtigt, eine interkulturelle Sprachkompetenz erworben werden kann. In der Sprachenvielfalt eines vereinten Europa wird eine solche Kompetenz mehr denn je gefragt sein. Welche Wege uns diesem Ziel näher bringen und welche Möglichkeiten die deutsche Sprache hat, der wachsenden Sprachkonkurrenz international zu begegnen, das ist die Fragestellung der hier publizierten Studien, die dazu eine Fülle von Vorschlägen, Empfehlungen und Anregungen beisteuern. Die Arbeiten sind Ergebnisse des forost-Projektes "Sprachkultur und Sprachkultivierung in Osteuropa – ein paradigmatischer Vergleich", das sich innerhalb der Gruppe III des Forschungsverbundes "Nationale Identität, ethnischer Pluralismus und internationale Beziehungen" dieser Thematik gewidmet hat.
Ultrarelativistische Schwerionenstöße werden seit etwa 15 Jahren untersucht, um Kernmaterie unter extremen Bedingungen zu erforschen; in Kollisionen schwerer Atomkerne kann bei hohen Einschußenergien Kernmaterie stark komprimiert und aufgeheizt werden. Die Bedeutung dieser Experimente wird durch Berechnungen der Quanten-Chromo-Dynamik auf raumzeitlichen Gittern hervorgehoben, die bei ausreichend hoher Energiedichte eine Phase voraussagen, in der die Quarks nicht mehr in Hadronen gebunden sind, sondern zusammen mit den Gluonen ein partonisches System ausbilden. Ist das System hinreichend groß und equilibriert, wird es als Quark-Gluon-Plasma bezeichnet. Die als Signatur für das Überschreiten der Phasengrenze vorgeschlagene erhöhte Produktion Seltsamkeit tragender Teilchen wurde in der Gegenüberstellung von elementaren Proton+Proton-Interaktionen und Kern+Kern-Stößen experimentell über einen weiten Energiebereich bestätigt. Eine solche Überhöhung kann aber auch durch rein hadronische Phänomene hervorgerufen werden. So tritt beispielsweise in statistischen Modellen bereits in einem Hadrongas eine Seltsamkeitserhöhung aufgrund des Übergangs von einem kanonischen zu einem großkanonischen Ensemble mit steigender Systemgröße in Kern+Kern-Stößen auf. Das motivierte die Messung der Systemgrößenabhängigkeit der Seltsamkeitsproduktion bei einer Einschußenergie, bei der in den Stößen der größten Kerne die partonische Phase erreicht werden sollte, während Proton-Proton-Interaktionen überlicherweise als hadronische Systeme betrachtet werden. In Kollisionen von Kohlenstoff- und Siliziumkernen bei 158 GeV pro Nukleon, deren Untersuchung Gegenstand dieser Arbeit ist, kann möglicherweise die Umgebung der Phasengrenze abgetastet werden. Besondere Aufmerksamkeit gilt der Frage nach dem Mechanismus der Seltsamkeitsproduktion in diesen Reaktionen. Das Experiment wurde am SPS-Beschleuniger am CERN in Genf durchgeführt, erstmals wurden dort leichte Projektilkerne durch den Aufbruch des primären Bleistrahls an einem Produktionstarget erzeugt. Das Herzstück des NA49-Spektrometers, mit dem die Daten aufgezeichnet wurden, sind die vier großvolumigen Spurendriftkammern, die die große Akzeptanz ermöglichen. Die Lambda- und Antilambda-Hyperonen aus C+C und Si+Si Kollisionen werden anhand ihrer Zerfallstopologie rekonstruiert und ihre Impulsverteilungen über einen weiten Bereich gemessen; mit zusätzlichen Annahmen werden schließlich die totalen Multiplizitäten extrapoliert. Die Produktion der Hyperonen pro Pion ist im Vergleich zu p+p-Daten bereits in C+C-Reaktionen deutlich erhöht, in Si+Si--Kollisionen ist annähernd der Wert aus Pb+Pb-Stößen erreicht. Mehrere Ursachen für diese Beobachtung werden diskutiert und mögliche Interpretationen vorgeschlagen. Der Grad an chemischer Equilibration und die Lage des Ausfrierpunktes im Phasendiagramm und im Vergleich zu anderen Stoßsystemen wird besprochen. Die Rapiditätsspektren der Lambda-Hyperonen entsprechen zunehmendem Stopping mit steigender Anzahl von Stößen pro Nukleon. Dadurch wird die Energie pro Nukleon im Feuerball erhöht, was zunehmende kinetische Energie der Teilchen und eine ansteigende Teilchenproduktion erzeugt. Die Verbreiterung der Transversalimpulsspektren mit der Systemgröße fügt sich in der Tat in das Bild anwachsenden radialen Flußes ein.
Paläobotanische Untersuchungen an Euramerischen Kohlenbecken haben an der Westfal/Stefan-Grenze in früheren Arbeiten einen deutlichen, weitgehend klimatisch gesteuerten Florenwechsel erkennen lassen. Desweiteren wurden in Kohlen aus dem Saar/Nahe-Becken beginnend mit dem obersten Westfal D erstmals Diageneseprodukte von Isoarborinol bzw. Fernen/Fernenol nachgewiesen, für die Koniferen, Cordaiten oder Farnsamer als mögliche Bioproduzenten vorgeschlagen wurden. Im Rahmen der vorliegenden Arbeit konnten die Arboran-/Fernanderivate MAPH, MATH, DAPH 1 und DAPH 2 in den Gesamtextrakten von Kohlen und Sedimenten aus dem Stefan des Saar/Nahe-Beckens durchgängig identifiziert werden, während die Verbindungen im Westfal lediglich in Proben aus dem obersten Westfal D auftraten. Folglich sind die Arboran-/Fernanderivate tatsächlich in besonderem Maße dazu geeignet, den Florenwechsel an der Westfal/Stefan-Grenze auf molekularer Basis zu beschreiben. Um einzugrenzen, zu welcher Pflanzengruppe die Bioproduzenten der Ausgangsverbindungen der Arboran-/Fernanderivate gehören, wurden isolierte Makrofossilien verschiedener Pflanzengruppen aus verschiedenen Euramerischen Kohlenbecken organisch-geochemisch analysiert. Dabei konnten MATH, MAPH, DAPH 1 und DAPH 2 in nahezu allen Gesamtextrakten fossiler Cordaiten-Reste identifiziert werden. In den Extrakten von Sediment-Vergleichsproben, die in unmittelbarer Nähe der Cordaiten-Reste entnommen wurden, konnten die Verbindungen dagegen nicht bzw. nur in vergleichsweise geringen Konzentrationen identifiziert werden. Ebenso waren die Arboran-/Fernanderivate in den Gesamtextrakten fossiler Koniferen-Reste sowie in den Extrakten verschiedener Farnsamerarten (Alethopteris, Dicroidium, Lescuropteris, Macroneuropteris, Neuropteris) nicht enthalten. Lediglich in der extrahierbaren organischen Substanz einiger fossiler Odontopteris-Reste aus dem Blanzy-Montceau-Becken (Frankreich) konnten MAPH und MATH (sowie teilweise DAPH 1 und DAPH 2) identifiziert werden. Allerdings ist das Auftreten der Verbindungen in diesen Odontopteris-Extrakten wahrscheinlich auf eine Überprägung des Pflanzenmaterials durch das umgebende Sediment zurückzuführen, da die Verbindungen in den Sediment-Vergleichsproben in höheren bzw. ähnlichen Konzentrationen enthalten sind. Insgesamt sind daher in den oberkarbonischen Kohlenbecken die Cordaiten als einer, möglicherweise sogar als „die“ Bioproduzenten der Ausgangsverbindungen der Arboran-/Fernanderivate MATH, MAPH, DAPH 1 und DAPH 2 anzusehen. Die deutlich negativere Kohlenstoffisotopie (-31,68 ‰) einer Sedimentprobe aus der Bohrung Wemmetsweiler-Nord, die gleichzeitig die höchsten Arboran-/Fernanderivat-Konzentrationen enthält, weist auf eine verstärkte mikrobielle Überarbeitung des organischen Materials hin. Fluoreszenz- und Auflichtmikroskopie-Untersuchungen zeigen zudem einen erheblichen, ebenfalls auf bakterielle Aktivität hindeutenden Bituminitanteil, während Relikte von höheren Landpflanzen nur geringfügig vertreten sind. Dies legt den Schluß nahe, daß die Arboran-/Fernanderivate in dieser Probe nicht von Cordaiten, sondern alternativ von Bakterien (oder Algen) abstammen. In diesem Fall ist Isoarborinol als biologischer Vorläufer anzunehmen und es tritt eine deutliche Verschiebung der Kohlenstoffisotopie-Werte zu negativeren Werten auf. Bei den Cordaiten ist eine derartige Isotopenverschiebung dagegen nicht zu beobachten, so daß für MATH, MAPH, DAPH 1 und DAPH 2 Fernen bzw. Fernenol als biologische Vorläufer anzunehmen sind.
Das Ziel der Untersuchung von ultra-relativistischen Schwerionenkollisionen ist die Suche nach dem Quark Gluon Plasma (QGP), einem Zustand hochdichter stark wechselwirkender Materie in dem der Einschluss von Quarks und Gluonen in Hadronen aufgehoben ist. Die bisher gewonnenen experimentellen Hinweise deuten daraufhin,daß in Schwerionenkollisionen bei den derzeit höchsten zur Verfügung stehenden Energien von 158 GeV/Nukleon in Pb+Pb Reaktionen am CERN-SPS die Rahmenbedingungen für einen Phasenübergang von hadronischer Materie zu einer partonischen Phaseerfüllt sind. Die exakte Phasenstruktur stark wechselwirkender Materie hingegen ist derzeit noch nicht vollständig verstanden. Da inklusive hadronische Observablen und "penetrierende Proben" nicht direkt sensitiv auf die Existenz und Natur des Phasenübergangs sind, wurde die Analyse von Einzelereignis-"event-by-event"-Fluktuationenvorgeschlagen. Das Fluktuationsverhalten von Einzelereignis-Observablen sollte direkt sensitiv auf die Natur des zu beobachtenden Phasenübergangssein. In dieser Arbeit wurden Fluktuationen in der "chemischen" Zusammensetzung der Teilchenquelle untersucht und erste Ergebnisse werden präsentiert.
Da die zu untersuchenden physikalischen Observablen des NA49-Exprimentsentscheidend von der Leistungsfähigkeit der Detektoren beeinflußt werden, ist es notwendig, deren Funktion systematisch zu untersuchen und zu überwachen. Im Rahmen dieser Arbeit wurden Methoden vorgestellt, die Genauigkeit der Spurrekonstruktion zuquantifizieren und gegebenenfalls durch die Korrektur systematischer Fehler zu verbessern. Das NA49-Lasersystem hat während dieser Strahlzeit seine Funktionalität bewiesen. Trotz erheblicher technischer Schwierigkeiten hat die Analyse der Laserdaten Resultate geliefert, die entscheidend zum Verständnis der Funktion der Detektoren beigetragen haben. Der Ausbau des NA49-Lasersystems zu einem vollständigen System, das die in der ursprünglichen Konzeption festgelegten Spezifikationen erfüllt, hat sich damit als möglich und wünschenswert erwiesen. Die Untersuchung von Ereignissen ohne Magnetfeld ist ein sehr exaktes Meßinstrument zur Rekonstruktion der Position der Detektorkomponenten. Der Vorteil gegenüber traditionellen Methoden ist, da der Prozeß der Ortsmessung die vollständige Analysekette des Experiments beinhaltet. Damit können nicht nur räumliche Effekte untersucht werden, sondern auch Fehlfunktionen der Ausleseelektronik und der Analysesoftware. Die mit dieser Methode gefundene scheinbare Verschiebung der Detektorhälften relativ zueinander um ca. 4mm ist konsistent mit Ergebnissen anderer Analysemethoden (z.B. der Laseranalyse). Die Ursache dieser Verschiebung konnte bis zur Fertigstellung dieser Arbeit noch nicht lokalisiert werden. Um eine endgültige Klärung dieses Problems sicherzustellen, müssen Spuren in dem Detektor erzeugt werden deren Position besser bekannt ist als die intrinsische Ortsauflösung des Detektors. Das NA49-Lasersystem sollte in der vollständigen Ausbaustufe in der Lage sein, diese Aufgabe zu erfüllen.
Im Rahmen der vorliegenden Arbeit wurde eine Apparatur zur Messung von Fotoströmen in Halbleitermaterialien aufgebaut und charakterisiert. Der Fotostrommeßplatz gestattet es, mit spektral hoher Auflösung Fotostromspektren mit sehr gutem Signal-zu-Rausch-Verhältnis aufzunehmen, wobei die Möglichkeit besteht, die Proben bei tiefen Temperaturen einem äußeren Magnetfeld bis 9T auszusetzen. Mit Hilfe einer elektrischen Kontaktierung auf der Probenvorder- bzw. -rückseite kann durch Anlegen einer Spannung ein variables, homogen über den intrinsischen Bereichen der Proben abfallendes, elektrisches Feld erzeugt werden. Mit Hilfe des Meßaufbaus wurden Fotostromspektren von GaAs/Al0,3Ga0,7As-Übergittern fur verschiedene elektrische und magnetische Felder aufgenommen. Unter Variation des elektrischen Feldes ohne ein zusätzliches Magnetfeld wird deutlich die sog. Wannier-Stark-Quantisierung beobachtet. Es lassen sich die vor einiger Zeit an der RWTH Aachen an identischen Probenstrukturenvorgenommenen Untersuchungen bestätigen bzw. reproduzieren. Die magnetfeldfreien Messungen dienen ferner der genauen Bestimmung des über dem Übergitter abfallenden elektrischen Feldes in Abhängigkeit von der an der Probe angeliegenden Vorspannung. Die Feldbestimmung erfordert dabei aufgrund des Einflusses der Coulomb-Wechselwirkung der Ladungstrager auf den Verlauf der Ubergange in Abhängigkeit vom elektrischen Feld eine gewisse Vorsicht. Messungen ohne Magnetfeld sind außerdem bei der Zuordnung der Übergange in den mit Magnetfeld gemessenen Fotostromspektren äußerst hilfreich. Im Rahmen dieser Arbeit wurden erstmals Fotostrommessungen an Halbleiterübergittern im magnetischen Feld durchgeführt, wobei der gleichzeitige Einfluß eines elektrischen und eines magnetischen Feldes untersucht wurde. Dazu wurde bei elektrischen Feldstärken im Wannier-Stark- sowie im Minibandbereich das äußere Magnetfeld bis 9T variiert. Im Magnetfeld zeigt sich eine deutliche Landau-Quantisierung. Die zu den Landau-Niveaus gehorenden exzitonischen Zustände der Wannier-Stark-Übergänge schieben mit steigendem Magnetfeld zu höheren Energien. In den gemessenen Spektren läßt sich eine Vielzahl von Übergangen ausmachen, die zu einem großen Teil den einzelnen Leichtloch- bzw. Schwerloch-Übergangen zugeordnet werden können. Modellrechnungen zeigen, daß man zu jedem Wannier-Stark-Übergang einen eigenen exzitonischen Landau-Facher erwarten kann, worauf es in den Messungen ebenfalls Hinweise gibt. Eine zweifelsfreie Identifikation von mutmaßlich im Magnetfeld drehimpulsaufgespaltenen Niveaus kann erst geleistet werden, wenn weitere Messungen bei definierter Polarisation des Anregungslichtes vorliegen. Aus den aufgenommenen Fotostromspektren der Übergitterproben lassen sich für spätere zeitaufgelöste Untersuchungen einige interessante Energiebereiche fur mögliche Anregungen von Quanteninterferenz-Phänomenen ableiten. Die aus den Spektren ermittelten Linienbreiten der Wannier-Stark-Übergange von 3-4 meV garantieren eine ausreichende Schmalbandigkeit für die Anregung von Bloch-Oszillationen. Die Linienbreiten sind, bis auf wenige Ausnahmen, unabhängig vom Magnetfeld, so daß keine signifikante Magnetfeldabhängigkeit der beispielsweise für Vier-Wellen-Misch-Experimente relevanten Dephasierungszeiten der Interband-Polarisation zu erwarten ist. Die Ergebnisse lassen allerdings keine Ruckschlüsse auf die Magnetfeldabhängigkeit von Intraband-Polarisationen zu.
Beiträge zur spät- und postglazialen Fluß- und Landschaftsgeschichte im nördlichen Oberrheingraben
(2005)
Die spät- und postglaziale Fluß- und Landschaftsgeschichte im nördlichen Oberrheingraben ist durch einen mehrmaligen Wandel der fluvialen Geomorphodynamik gekennzeichnet. Im Rahmen dieser Studie waren unterschiedliche Entwicklungsphasen der Landschaft mit Hilfe verschiedener Methoden (14C-AMS, IR-OSL, Pollen- und Schwermineralanalysen) erstmals präziser zu datieren. Ab dem Spätglazial entwickelte der nördliche Oberrhein drei Mäandergenerationen. Die Entstehung der Älteren Mäandergeneration setzte vor dem Spät-Allerød ein und dauerte bis in das Atlantikum an, ehe im späten Atlantikum ein flußdynamischer Umbruch die Bildung der Mittleren Mäandergeneration einleitete. Damit begann eine Phase mit vorwiegend toniger Auensedimentation („Schwarze Tone“). Es ist nicht auszuschließen, daß dieses Geschehen teilweise durch die Effekte neolithischer Landnutzung beeinflußt war. Auch der Umbruch zur Jüngsten Mäandergeneration im Übergang vom Subboreal zum Subatlantikum war sicherlich nicht rein klimatisch gesteuert. Wahrscheinlich ist das nun wieder stärker furkativ geprägte Fließmuster und die einhergehende Vergröberung der Auenfazies auf die Überlagerung von natürlichen Abläufen mit anthropogenen Beeinflussungen zurückzuführen. Dafür spricht, daß die Landschaft während der Eisen- und der Römerzeit weitgehend entwaldet war. Die parallel dazu durchgeführten Untersuchungen am spätglazialen Bergstraßen-Neckar erlauben die zeitliche Trennung eines älteren Mäanderkurses, der in der Jüngeren Dryas verlandete, von einem jungdryaszeitlichen Verlauf. In der Paläorinne dieses jüngsten Laufes setzte im frühen Präboreal das Wachstum von Niedermootorfen ein. Das dokumentiert, daß der Bergstraßen-Neckar spätestens im beginnenden Holozän vollständig deaktiviert war. Die Abschnürung des Bergstraßenlaufes erfolgte vermutlich im Anschluß an die letzte würmzeitliche Flugsandphase, die nach schwermineralogischen und tephrostratigraphischen Befunden im Untersuchungsgebiet in die Jüngere Dryas zu stellen ist. Dabei wurde das auf der Oberen Niederterrasse existierende, endpleni- bis frühspätglaziale, zwischenzeitlich vom Bergstraßen-Neckar teilweise fluvial umgelagerte, ältere Dünenrelief überweht, während auf der Unteren Niederterrasse lokale Dünenvorkommen entstanden. Möglicherweise dauerte die Flugsandbildung örtlich bis in das früheste Präboreal an, bevor in den späteren Zeiten des Holozän ein anthropogen induziertes Aufleben der Flugsandaktivität zu beobachten ist.
Analytik von Kontaminationen auf Siliciumoberflächen : Möglichkeiten und Grenzen des VPD-Verfahrens
(2004)
In der Halbleiterindustrie führen in der Massenproduktion von Mikroelektronik-Bauelementen bereits geringfügige Mengen an metallischen Verunreinigungen zu einer erheblichen Verminderung der Ausbeuten und setzen die Zuverlässigkeit der Bauelemente drastisch herab. Deshalb müssen nicht nur die als Ausgangsmaterial verwendeten Siliciumscheiben bezüglich des Kontaminationsgrades durch Fremdatome höchsten Ansprüchen genügen, sondern auch die einzelnen Fertigungsschritte für die Produktion von elektronischen Bauelementen. Für die Detektion der Oberflächenverunreinigungen kommt in der Halbleiterindustrie die Totalreflexions-Röntgenfluoreszenz-Spektrometrie (TXRF) mit einer Empfindlichkeit von 1010 Atomen/cm2 zum Einsatz. Mittlerweile liegen die Anforderungen deutlich unterhalb dieser Nachweisgrenze. Durch Anwendung des Aufkonzentrierungsverfahrens VPD (Vapour-Phase-Decomposition) in Kombination mit etablierten Analysemethoden wie TXRF oder GF-AAS (Graphitrohr-Atom- Absorptions-Spektrometrie) können die in der Halbleiterindustrie notwendigen Nachweisgrenzen zur Detektion der Metalloberflächenbelegungen erreicht werden. VPD ist ein Verfahren, das thermische, chemische oder native Oxide auf Siliciumscheiben durch HFDampf ätzt. Metallische Verunreinigungen, die sich auf oder in der Oxidschicht befinden, können anschließend durch Abscannen der hydrophoben Oberfläche mit einem Tropfen eingesammelt werden. Zwei wichtige Begriffe, die unmittelbar im Zusammenhang mit dem VPD-Verfahren stehen, sind die Einsammelrate (Collecting Efficiency CE) und die Wiederfindungsrate (Recovery Rate RR) des Analyten. Die vorliegende Arbeit beschäftigt sich mit der Bestimmung der beiden Größen am Beispiel des Mangans und des Eisens. Dabei spielt die Frage nach der Zuverlässigkeit und Reproduzierbarkeit der verwendeten Analysemethode eine wichtige Rolle. Inwiefern beeinträchtigt das Silicium, das aus der SiO2-Schicht in Lösung geht und nach einem Trocknungsprozess im Rückstand verbleibt, die mittels TXRF erhaltenen Wiederfindungsraten des Analyten. Da die Antworten auf diese Fragen nur in Verbindung mit anderen Analyseverfahren gefunden werden konnten, kamen neben TXRF, GF-AAS und Photometrie auch radiochemische Methoden zum Einsatz. Im Rahmen der vorliegenden Arbeit wurde zunächst das Adsorptionsverhalten des Mangans auf der Silicium (100)-Oberfläche in verdünnter ammoniakalischer Wasserstoffperoxid- Lösung (SC1) untersucht. Zwischen der Mangan-Konzentration in der SC1-Lösung und der Oberflächenbelegung auf den Siliciumscheiben besteht ein deutlicher Zusammenhang. Mit zunehmender Konzentration in der Lösung steigen die mit TXRF ermittelten Oberflächenbelegungen an. Eine Sättigung der Manganbelegung war im untersuchten Konzentrationsbereich nicht nachweisbar. XPS-Spektren zufolge handelt es sich bei der adsorbierten Mn-Spezies um Mn(III)- und/oder Mn(IV)-Oxide. Winkelabhängige TXRF-Untersuchungen dokumentieren die Filmeigenschaften der Mn- Kontaminationen der aus SC1-Lösungen präparierten Siliciumscheiben. Erst ab hohen Mangankonzentrationen von 15 ppmw im SC1-Bad sinkt der Filmanteil der Adsorption auf 42 %. Auch die aus wässrigen sauren Mn-Lösungen kontaminierten Proben zeigen überwiegend einen filmartigen Charakter der Metalladsorption. VPD-TXRF Analysen wurden zunächst mit SC1 behandelten Siliciumscheiben durchgeführt, deren Mn-Oberflächenbelegungen im Bereich von 1 10 x 1012 Atomen/cm2 lagen. Die ermittelten Mn-TRR-Werte (TRR (totale Wiederfindungsrate) = CE X RR) zeigten deutliche Differenzen zum Maximalwert von 1 und dehnten sich über einen Bereich von 0,55 0,68 aus. Durch den Vergleich mit AAS und TXRF (Gerät EXTRA IIA) konnten die Ursachen für die Minderbefunde der TRR-Werte u.a. auf die direkten TXRF-Messungen (Gerät 8010) zurückgeführt werden, welche die Mn-Ausgangsbelegungen um etwa 20 % überbewerten. Wie sich herausstellte, führt die Quantifizierung von filmartigen Oberflächenbelegungen mit Hilfe eines externen Partikelstandards zu einer Überbewertung der Kontamination. Diese Feststellung wird durch den Vergleich zwischen TXRF 8010 und radiochemischen Messmethoden untermauert. Generell kann es bei der Quantifizierung der Oberflächenbelegungen mittels TXRF 8010 zu Fehlinterpretationen kommen, wenn der Analyt und der Standard ein unterschiedliches Fluoreszenzverhalten in Abhängigkeit des Einfallswinkels aufweisen. Es kommt dadurch zu einer Unterbewertung von partikelartigen Mangan- und Eisenkontaminationen, die nach eigenen Einschätzungen 10 % betragen kann. Weiterhin dokumentieren die Mn-TRR-Werte deutlich die Unterschiede zwischen externer und interner TXRF-8010 Kalibrierung. Die Differenzen der TRR-Werte von durchschnittlich 0,35 ergeben sich aus der verminderten Fluoreszenzstrahlung des internen Standards Rubidium. Die aus den TXRF-Spektren entnommenen Netto-counts des Rubidiums liegen deutlich unterhalb des Erwartungswertes der 1 ng entsprechenden Menge. Die TRR-Werte des Mangans von TXRF (Gerät EXTRA IIA) und AAS liefern vergleichbare und vor allem reproduzierbare Ergebnisse. Die Übereinstimmung der Ergebnisse zeigt deutlich, dass die beiden Analysemethoden als Vergleichsmethoden zu TXRF 8010 geeignet sind. Die Zuverlässigkeit der beiden Methoden dokumentiert sich auch in den übereinstimmenden Ergebnissen der Mn- und Fe-Wiederfindungsraten. Für diesen Vergleich wurden unterschiedlich konzentrierte Mn- und Fe-Lösungen in verschiedenen Matrices angesetzt. Die im Vergleich zu AAS und TXRF EXTRA IIA niedrigeren Wiederfindungsraten von TXRF 8010 sind u.a. auf die Kalibrierung mit dem 1 ng Ni-Standard zurückzuführen. Weiterhin konnte festgestellt werden, dass die TXRF-Messungen der in Siliciummatrix vorliegenden Mn- und Eisenproben noch deutlichere Minderbefunde aufweisen. Die Ursachen dafür sind Streueffekte, die durch die Siliciummatrix im Rückstand hervorgerufen werden (s.u.). Wie aus den radioaktiven Tracer-Experimenten hervorgeht, kann der überwiegende Teil der Gesamtkontamination des Mangans und des Eisens auf der Siliciumscheibe durch den ersten Abrollvorgang eingesammelt werden. Anhand der Mangan- und Eisenmengen, die im ersten DSE-Tropfen mittels ³-Messung detektiert werden, errechnen sich die durchschnittlichen Collecting Efficiencies von Mangan und Eisen zu 96,5 bzw. 98,5 %. Die Einsammelraten sind in dem untersuchten Konzentrationsbereich unabhängig von der Ausgangsbelegung. Collecting Efficiencies können auch ohne Kenntnis der Ausgangsbelegung bestimmt werden, wenn die Gesamtmenge der Kontamination durch die Analyse der VPD-Rückstände und der Restbelegung auf der Siliciumscheibe ermittelt wird. Die Bestimmung der Collecting Efficiency nach dieser Methode ist sinnvoll, da eine fehlerhafte Analyse der Ausgangsbelegung - wie am Beispiel der direkten TXRF-Messung gezeigt - zu verfälschten Resultaten führt. Die Anwendbarkeit beschränkt sich jedoch nur auf nichtflüchtige Analyten. Im Vergleich zur ³-Analyse zeigen die Mn-Wiederfindungsraten von TXRF 8010 deutliche Minderbefunde. Auch in diesem Beispiel liegen die Ursachen für die Unstimmigkeiten u.a. in der Kalibrierung durch den 1 ng Ni-Standard begründet. Beim Eisen deutet sich ein konzentrationsabhängiger Trend an. Die höchsten Fe-Wiederfindungsraten erhält man von den Proben mit den niedrigsten Ausgangsbelegungen. Ein Erklärungsansatz beruht auf der Annahme, dass hohe Konzentrationen an Kationen (>1015 Fe-Atome pro Siliciumscheibe) die Verflüchtigung des Siliciums als SiF4 verstärkt unterbinden und somit zu einer massiven Siliciummatrix im VPD-Rückstand führen. Daraus resultieren Streueffekte durch die Matrix, die ein vermindertes Fluoreszenzsignal des Analyten zur Folge haben. VPD-Experimente an SC1-gereinigten Siliciumscheiben belegen, dass der eingetrocknete Rückstand im Wesentlichen aus Silicium besteht. Die Summe der Metallverunreinigungen der SC1- gereinigten Proben liegt deutlich unterhalb 1015 Atomen pro Siliciumscheibe. Wie am Beispiel des Mangans und des Eisens gezeigt werden konnte, liegt die Zuverlässigkeit des VPD-Verfahrens in den hohen und vor allem reproduzierbaren Einsammelraten. Die festgestellten Differenzen der TRR-Ergebnisse sind ausschließlich auf die unterschiedlichen Wiederfindungsraten der eingesetzten Analysemethoden zurückzuführen. Radiochemische Messmethoden wurden bis auf wenige Ausnahmen für derartige Untersuchungen noch nicht angewendet. Die übereinstimmenden Ergebnisse mit den etablierten Analysemethoden und die hohe Empfindlichkeit der ²- und ³-Analyse zeigen ihr Potenzial als Ergänzungsmethode auf diesem Anwendungsgebiet. Die chemischen Wechselwirkungen zwischen Flusssäure und der SiO2-Schicht während des Ätzprozesses im VPD-Reaktor sind abhängig von der relativen Luftfeuchtigkeit. Anhand der Siliciummengen, die nach dem Ätzprozess mit Hilfe unterschiedlicher DSE-Lösungen eingesammelt wurden, konnten viele neue Informationen erarbeitet werden. Das entwickelte qualitative Modell beschreibt in Abhängigkeit von der relativen Luftfeuchtigkeit, in welcher Phase (fest/flüssig/gasförmig) das aus der SiO2-Schicht geätzte Silicium vorliegt.
During the last years the lending business has come under considerable competitive pressure and bank managers often express concern regarding its profitability vis-a-vis other activities. This paper tries to empirically identify factors that are able to explain the financial performance of bank lending activities. The analysis is based on the CFS-data-set that has been collected in 1997 from 200 medium-sized firms. Two regressions are performed: The first is directed towards relationships between the interest rate premiums and various determining factors, the second aims at detecting relationships between those factors and the occurrence of several types of problems during the course of a credit engagement. Furthermore, the results of both regressions are used to test theoretical hypotheses regarding the impact of certain parameters on credit terms and distress probabilities. The findings are somewhat “puzzling“: First, the rating is not as significant as expected. Second, credit contracts seem to be priced lower for situations with greater risks. Finally, the results do not fully support any of three hypotheses that are often advanced to describe the role of collateral and covenants in credit contracts.
Quasikristalle im System Zink-Magnesium-Seltene-Erden : Materialpräparation und Einkristallzüchtung
(2005)
Diese Arbeit beschäftigt sich mit der Materialpräparation und Einkristallzüchtung von Quasikristallen und verwandten Verbindungen im System Zink-Magnesium-Seltene-Erden (Zn-Mg-SE). Für eine Einkristallzüchtung der hochgeordneten primitiv-ikosaedrischen Phase (si Zn-Mg-Ho) wird zuerst eine geeignete Schmelzzusammensetzung ermittelt, aus der si Zn-Mg-Ho primär erstarrt. Es wird gezeigt, daß sich diese auch auf die Seltenen Erden Erbium und Thulium, die einen ähnlich großen Atomradius haben, übertragen läßt. Bei der Verwendung von Seltenen Erden mit größerem Atomradius bildet sich eine bisher unbekannte rhomboedrische Phase mit einer Zusammensetzung von Zn84Mg5SE11, von der im Zn-Mg-Gd--System Einkristalle mit der Bridgman-Methode in einem geschlossenen Tantaltiegel gezüchtet werden. Die Kristallzüchtung von si Zn-Mg-Ho erfolgt sowohl mit der Bridgman-Methode als auch aus einem offenen Tiegel mit Keimvorgabe von oben, wobei die Schmelze mit einer Salzabdeckung vor Verdampfungsverlusten geschützt wird (LETSSG-Methode). Auf diese Weise werden facettierte Einkristalle mit einer Kantenlänge von über einem Zentimeter gezüchtet. Auch von der flächenzentriert-ikosaedrischen Phase im System Zn-Mg-Y, Zn-Mg-Ho und Zn-Mg-Er sowie von der hexagonalen Zn-Mg-Y--Z-Phase werden mit dieser Methode ähnlich große Einkristalle hergestellt. Zur Synthese von größeren Mengen polykristallinen Materials durch Abschrecken und Tempern wird eine Meltspinanlage aufgebaut, die durch die Verwendung eines ebenen Drehtellers (statt des sonst üblichen Rades) sehr kompakt ist und in eine vorhandene Metallschmelzanlage integriert werden kann. Mit diesem Gerät wird quasikristallines si Zn-Mg-Ho einphasig synthetisiert und dekagonales Zn-Mg-Dy, Zn-Mg-Ho und rhomboedrisches Mg21Zn25 als Probenhauptbestandteil hergestellt. Die erzeugten Proben werden zur Untersuchung von Struktur und physikalischen Eigenschaften an Kooperationspartner weitergegeben. Dabei wird ein lokales Strukturmodell der fci und si Quasikristalle mittels Analyse der Atompaarverteilungsfunktionen, die aus Röntgenpulverdaten (Molybdän- und Synchrotronstrahlung) gewonnen werden, entwickelt. Anhand dessen lassen sich erstmals ikosaedrische Cluster in den Quasikristallen eindeutig nachweisen. Die magnetische Suszeptibilität von si Zn-Mg-Ho zeigt bis zu einer Temperatur von 50~mK paramagnetisches Verhalten. Eine magnetische Fernordnung tritt bis zu dieser Temperatur nicht auf. Untersuchungen mit der Radio-Tracer-Methode zeigen, daß Phasonen an der Diffusion in fci Zn-Mg-Y und Zn-Mg-Ho nicht beteiligt sind.
The mammalian retina contains around 30 morphological varieties of amacrine cell types. These interneurons receive excitatory glutamatergic input from bipolar cells and provide GABA- and glycinergic inhibition to other cells in the retina. Amacrine cells exhibit widely varying light evoked responses, in large part defined by their presynaptic partners. We wondered whether amacrine functional diversity is based on a differential expression of glutamate receptors among cell populations and types. In whole cell patch-clamp experiments on mouse retinal slices, we used selective agonists and antagonists to discriminate responses mediated by NMDA/ non-NMDA (NBQX) and AMPA/ KA receptors (cyclothiazide, GYKI 52466, GYKI 53655, SYM 2081). We sampled a large variety of individual cell types, which were classified by their dendritic field size into either narrow-field or wide-field cells after filling with Lucifer yellow or neurobiotin. In addition, we used transgenic GlyT2-EGFP mice, whose glycinergic neurons express EGFP. This allowed us to classify amacrines on basis of their neurotransmitter into either glycinergic or GABAergic cells. All cells (n = 300) had good responses to non-NMDA agonists. Specific AMPA receptor responses could be obtained from almost all cells recorded: 94% of the AII (n = 17), 87% of the narrow-field (n = 45), 81% of the wide-field (n = 21), 85% of the glycinergic (n = 20) and 78% of the GABAergic cells (n = 9). KA receptor selective drugs were also effective on the majority of the AII (79%, n = 14), narrow-field (93%, n = 43), wide-field (85%, n = 26), glycinergic (94%, n = 16) and GABAergic amacrine cells (100%, n = 6). Among the cells tested for the two receptors (n = 65), we encountered both exclusive expression of AMPA or KA receptors and co-expression of the two types. Most narrow-field (70%, n = 27), glycinergic (81%, n = 16) and GABAergic cells (67%, n = 6) were found to have both AMPA and KA receptors. In contrast, only less than half of the wide-field cells (43%, n = 14) were found to co-express AMPA and KA receptors, most of them expressing exclusively AMPA (36%) or KA receptors (21%). We could elicit small NMDA responses from most of the wide-field (75%, n = 13) and GABAergic cells (67%, n = 3), whereas only 47% of the narrow-field (n = 15), 14% of the AII (n = 22) and no glycinergic cell (n = 2) reacted to NMDA. Abstract 83 Our data suggest that AMPA, KA and NMDA receptors are differentially expressed among different types of amacrine cells rather than among populations with different neurotransmitters or different dendritic coverage of the retina. Selective expression of kinetically different glutamate receptors among amacrine types may be involved in generating transient and sustained inhibitory pathways in the retina. Since AMPA and KA receptors are not generally clustered at the same postsynaptic sites, a single amacrine cell expressing both AMPA and KA receptors may provide inhibition with different temporal characteristics to individual synaptic partners.
Life of Varroa destructor, Anderson and Trueman, an ectoparasitic mite of honeybees, is divided into a reproductive phase in the bee brood and a phoretic phase during which the mite is attached to the adult bee. Phoretic mites leave the colony with workers involved in foraging tasks. Little information is available on the mortality of mites outside the colony. Mites may or not return to the colony as a result of death of the infested foragers, host change by drifting of foragers, or removal of mites outside the colony. That mites do not return to the colony was indicated by substantially higher infestation of outflying workers compared to the infestation of returning workers (Kutschker, 1999). The main objective of the study was to provide information whether V. destructor influences flight behaviour of foragers and consequently returning frequency of foragers to the colony. I first repeated the experiment of Kutschker (1999) examining the infestation of outflying and returning workers. Further, I registered flight duration of foragers using a video method. In this experiment I compared also the infestation and flight duration of bees of different genetic origin, Carnica from Oberursel and bees from Primorsky region. I investigated returning time of workers, returning frequency until evening, drifting to other colonies and orientation toward the nest entrance in the experiments in which workers were released in close vicinity of the colony. At last, I measured the loss of foragers in relation to colony infestation using a Bee Scan. Results from this study, listed below, showed considerable influence of V. destructor on flight behavior of foragers translating into loss of mites. Loss of mites with foragers add substantial component to mite mortality and was underestimated in previous studies. Such loss might be viewed as a mechanism of resistance against V. destructor. a) The mean infestation of outflying workers (0.019±0.018) was twice as the mean infestation of returning workers (0.009±0.018). The difference in the infestation between outflying and returning workers was more marked in highly infested colonies. b) Investigation of individually tagged workers by use of a two camera video recording device showed significantly higher infestation of outflying workers compared to returning workers. Mites were lost by the non returning of infested foragers (22%) and by loss of mites from foragers that returned to the colony without the mite (20%). A small portion of mites (1.8%) was gained. Loss of mites significantly exceeded mite gain. c) The flight duration of infested workers determined by using the same two camera video system was significantly higher in infested compared to uninfested workers of the same age that flew closest at time. The median flight duration of infested workers was 1.7 higher (214s) than the median duration of unifested workers (128s). d) Infested workers took 2.3 times longer to return to the colony than uninfested workers of the same age when released from the same locations, closest at time. The returning time increased with the distance of release. In a group of bees released simultaneously the infestation was higher in bees returning later and in those that did not return in the observation period of 15 min. e) Released workers did not return to the colony 1.5 more frequently than uninfested workers in evening. The difference in returning was significant for locations of 20 and 50m from the colony. No difference in returning between infested and uninfested workers were observed for the most distant location of 400m. f) No significant difference was found in returning time and/or in the returning frequency until evening between workers artificially infested overnight and naturally infested workers. Artificially infested workers returned later and less frequently than a control group indicating rapid influence of V. destructor on flight behavior of foragers. g) The orientation ability of infested workers toward the nest entrance was impaired. Infested workers compared to uninfested workers twice as often approached a dummy entrance before finding the nest entrance. h) No significant differences were found in drifting between infested and uninfested workers. Drifting in the neighboring nucleus colony occurred in about 1% occasions after release of marked workers. Similarly, more infested, but not significantly more infested workers (2.6%) entered a different colored hive than the same colored hive (1.9%). However, the number of drifting bees were to low to make results conclusive. i) The comparison between Carnica and Primorsky workers revealed higher infestation in Carnica compared to Primorsky. Further, Primorsky workers lost more mites during foraging due to mite loss from foragers and non returning of infested workers. No significant differences in flight duration were observed between the two bee stocks. j) Loss of foragers, as determined by the Bee Scan counts of outflying and returning foragers, and the infestation of outflying bees increased significantly over a period of 70 days. A colony with 7.7. higher infestation of outflying foragers lost 2.2. time more bees per flight per day compared to a low infested colony. k) The estimates of mite loss with foragers from mite population per day up to 3.1% exceeds approximately mite mortality of 1% within the colony as represented by counting dead mites on bottom board inserts.
Das 1913 auf dem Gipfel des Kleinen Feldbergs gegründete Taunus-Observatorium (T.O.) ist eine Einrichtung der Johann Wolfgang Goethe-Universität Frankfurt am Main. Es dient dem Institut für Meteorologie und Geophysik als Forschungsstätte für kontinuierliche Messungen und als Standort für Meßkampagnen in Zusammenarbeit mit anderen Instituten, wie z. B. beim The Kleiner Feldberg Cloud Experiment 1990 [Fuzzi, 1995]. Darüber hinaus wird das Observatorium mit seinen Einrichtungen immer wieder für Messungen im Rahmen von Diplom- und Doktorarbeiten genutzt. Primäres Ziel dieser Diplomarbeit war eine Charakterisierung der zeitlichen Variabilität der luftchemischen Bedingungen am Taunus-Observatorium in Abhängigkeit von Wetter und Witterung. In der Zeit vom 13. Dezember 1996 bis zum 26. März 1997 wurden am Taunus- Observatorium auf dem Kleinen Feldberg mit Hilfe eines gaschromatographischen Analyseverfahrens die Spurengase Kohlenmonoxid und molekularer Wasserstoff gemessen, um die zeitliche Variabilität der luftchemischen Bedingungen am Taunus-Observatorium in Abhängigkeit von Wetter und Witterung zu untersuchen. Bei der Meßreihe am Taunus-Observatorium zeigte sich, daß die zeitlichen Variationen der langlebigen Spurengase CO und H2 über Tage und Wochen maßgeblich durch den Ferntransport von Luftmassen und die jeweilige Großwetterlage bestimmt werden. Mit Hilfe von Trajektorienanalysen konnte gezeigt werden, daß die Messungen stark von Herkunft und Zugweg der jeweiligen Luftmassen abhängen. Deutliche Änderungen der mittleren CO- und H2-Mischungsverhältnisse wurden bei Luftmassenänderungen beobachtet, wie z. B. eine markante Abnahme von Kohlenmonoxid und molekularem Wasserstoff nach dem Durchgang von Kalt- oder Warmfronten. Extreme Unterschiede der gemessenen Spurengaskonzentrationen konnten auch bei verschiedenen winterlichen Inversionswetterlagen registriert werden. Befand sich das Taunus-Observatorium unterhalb einer Temperaturinversion in der bodennahen Grenzschicht, wurden ungewöhnlich hohe CO- und H2-Mischungsverhältnisse gemessen; war der Kleine Feldberg dagegen über der Inversion innerhalb der freien Atmosphäre, wurden wiederholtdie atmosphärischen Hintergrundkonzentrationen von Kohlenmonoxid und molekularem Wasserstoff beobachtet. Auch durch lokale und regionale Effekte konnten in Abhängigkeit von der lokalen Windrichtung starke zeitliche Variationen der luftchemischen Bedingungen beobachtet werden. Durch die Orographie bedingt Verursachen kleine Änderungen der lokalen Windrichtung drastische Veränderungen in den gemessenen Spurengaskonzentrationen. So trennt z. B. der Taunuskamm die durch regionale Quellen im Großraum Frankfurt belastete Luft im Vordertaunus von der weniger verschmutzter Luft im ländlichen Hintertaunus. Darüber hinaus kann durch die Kanalisierung des Windes in verschiedenen Tälern oder an den Flanken des Taunuskammskontaminierte Luft aus den Niederungen herangeführt werden. Die hohe Variabilität der gemessenen Mischungsverhältnisse in Abhängigkeit von Meteorologie und Orographie dominiert den Tagesverlauf der CO- und H2-Messungen. Daher war eine Untersuchung von anthropogenen Tages- und Wochengängen oder sogar jahreszeitlicher Variationen der langlebigen Spurengase CO und H2 am Taunus-Observatorium nicht möglich. Zusätzlich zu den Messungen am Taunus-Observatorium wurde mit der in dieser Arbeit vorbereiteten Analytik das Mischungsverhältnis von molekularem Wasserstoff in stratosphärischen Luftproben von drei verschiedenen Ballonflügen gemessen, entsprechende H2-Vertikalprofile erstellt und die Ergebnisse der Messungen mit Modellrechnungen verglichen.
Cold target recoil ion momentum spectroscopy (COLTRIM) has been employed to image the momentum distributions of continuum electrons liberated in the impact of slow He2+ on He and H2. The distributions were measured for fully determined motion of the nuclei that is as a function of the impact parameter and in a well de ned scattering plane The single ionization (SI) of H2 leading to H2+ recoil ions in nondissociative states (He2+ + H+ -> He2+ + H+ + e-) and the transfer ionization (TI) of H2 leading to H2 dissociation into two free protons (He2+ H2 -> He+ + H+ + H+ + e-) were investigated. Similar measurements have been carried out for He target, the corresponding atomic two electron system, i.e. the single ionization (SI) (He2+ + He -> He+ + He2+ e- and the transfer ionization (TI) (He2+ + He -> He+ + He2+ + e-). These measurements have been exploited to understand the results obtained for H target. In comparing the continuum electron momentum distributions for H2 with that for He, a high degree of similarity is observed. In the case of transfer ionization of H2, the electron momentum distributions generated for parallel and perpendicular molecular orientations revealed no orientation dependence. The in scattering plane electron momentum distributions for the transfer ionization of H2 by He2+ and for the transfer ionization of He by He2e showed that the salient feature of these distributions for both collisions systems consists in the appearance of two groups of electrons with difeerent structures. In addition to the group of the saddle electrons forming two jets separated by a valley along the projectile axis we nd a new group of electrons moving with a velocity higher than the projectile velocity These new fast forward electrons result from a narrow range of impact parameters and appear as image saddle in the projectile frame. In contrast to the transfer ionization of He, the fast forward electrons group disappears in the in scattering plane electron momentum distribution generated for the single ionization of He. Instead of this group another new group of electrons appear These electrons exhibit an amount of backscattering These backward elec trons appear as image saddle in the target frame The structures that the saddle electrons show are owing to the quasi molecular nature of the collision process For the TI of H2, the TI of He and the SI of He, a pi-orbital shape of the electron momentum distribution is observed This indicates the importance of the rotational coupling 2-p-theta -> 2p-pi in the initial promotion of the ground state followed by further promotions to the continuum The backward electrons as well as the fast forward electrons are not discussed in the theoretical literature at all. However, a number of obvious indications of the existence of the backward and fast forward electrons could be seen in the experimental works of Abdallah et al. as well as in the theoretical calculations of Sidky et al One might speculate that electrons which are promoted on the saddle for some time during the collision could finally swing around the He+ ion in the way out of the collision, i.e. either around the projectile in the forward direction as in the TI case forming the fast forward electrons or around the recoil ion in the backward direction as in the SI case forming the backward electrons. This might be a result of the strong gradient, and hence the large acceleration of the screened He+ potential.
"Wie sieht die Bilanz der eBay-Selbständigkeit aus und welches Fazit kann im Hinblick auf die Möglichkeiten und Beschränkungen der interviewten Selbstständigen gezogen werden? Die Einschätzung von eBay als Sprungbrett, als neue Möglichkeit, sich kostengünstig und einfach aus dem privaten Kontext heraus selbstständig zu machen, ist positiv zu werten. Indem lohnabhängige, fremdbestimmte Arbeitsverhältnisse durch Selbstständigkeit ersetzt werden können, enstehen für die Interviewten hinsichtlich der selbstbestimmten Gestaltung vonArbeit und Leben, trotz neuer spezifischer (eBay-)Abhängigkeiten und unternehmerischer Risiken, neue Chancen und Freiräume. Kurz, der Weg über eBay in die Selbstständigkeit stellt für die befragten Akteure und Akteurinnen "Empowerment" dar, sie sind ihr eigener Chef bzw. ihre eigene Chefin. Dass sie damit aber auch die perfekte Führungskraft sind, sich selbst am besten zu verwerten und auszubeuten, wurde gerade im Zusammenhang von Arbeitsvolumen und Arbeitszeiten deutlich. Trotz dieser paradoxen Verquickung ziehen alle Interviewten eine eindeutig positive Bilanz. "Wir hoffen, irgendwann mal demnächst soviel Geld damit zu verdienen, dass wir ein bisschen früher nicht mehr arbeiten müssen", erzählten Inga und Tom Finke und setzen ihr aktuelles Zeitmanko damit biographisch in einen größeren Zeit-Zusammenhang. Auch einige an- dere verlegen den jeweils individuell denierten Nutzen all der Anstrengung und Arbeit in die Zukunft, zu einer Art Zielder Lebensbilanz. Frieda und Paul Jenkins drückten das so aus: Wir wollen irgendwann dastehen und sagen, [Firma Jenkins], das hat mal ganz klein angefangen mit einem Ring von Joop, wo jemand kam und gesagt hat, guckt mal auf eBay. Neben diesem an Gründerleitbildern und Unternehmerbiographien orientierten prospektiven "Bilderbuch-Rückblick" als Zukunftswunsch, erfolgte in den Interviews auch eine Zwischenbilanz, ein Rückblick auf bisherige Erfolge. Erfolg ist dabei zwar an den betriebswirtschaftlichen Erfolg des jeweiligen Unternehmens gekoppelt, wird aber hauptsächlich individuell über die positiven Punkte für die gegenwärtige Arbeitssituation de niert: das selbstbestimmte Arbeiten, die (Lern-)Erfahrungen durch die Selbständigkeit, die Möglichkeit, dem individuellen Arbeits- und Lebensentwurf nachgehen zu können....."
Alzheimer’s disease (AD) is the most common neurodegenerative disorder world wide, causing presenile dementia and death of millions of people. During AD damage and massive loss of brain cells occur. Alzheimer’s disease is genetically heterogeneous and may therefore represent a common phenotype that results from various genetic and environmental influences and risk factors. In approximately 10% of patients, changes of the genetic information were detected (gene mutations). In these cases, Alzheimer’s disease is inherited as an autosomal dominant trait (familial Alzheimer’s disease, FAD). In rare cases of familial Alzheimer’s disease (about 1-3%), mutations have been detected in genes on chromosomes 14 and 1 (encoding for Presenilin 1 and 2, respectively), and on chromosome 21 encoding for the amyloid precursor protein (APP), which is responsible for the release of the cell-damaging protein amyloid-beta (ß-amyloid, Aß). Familial forms of early-onset Alzheimer’s disease are rare; however, their importance extends far beyond their frequency, because they allow to identify some of the critical pathogenetic pathways of the disease. All familial Alzheimer mutations share a common feature: they lead to an enhanced production of the Aß, which is the major constituent of senile plaques in brains of AD patients. New data indicates that Aß promotes neuronal degeneration. Therefore, one aim of these thesis was to elucidate the neurotoxic biochemical pathways induced by Aß, investigating the effect of the FAD Swedish APP double mutation (APPsw) on oxidative stress-induced cell death mechanisms. This mutation results in a three- to sixfold increased Aß production compared to wild-type APP (APPwt). As cell models, the neuronal PC12 (rat pheochromocytoma) and the HEK (human embryonic kidney 293) cell lines were used, which have been transfected with human wiltyp APP or human APP containing the Swedish double mutation. The used cell models offer two important advantages. First, compared to experiments using high concentrations of Aß at micromolar levels applied extracellularly to cells, PC12 APPsw cells secret low Aß levels similar to the situation in FAD brains. Thus, this cell model represents a very suitable approach to elucidate the AD-specific cell death pathways mimicking physiological conditions. Second, these two cell lines (PC12 and HEK APPwt and APPsw) with different production levels of Aß may additionally allow to study dose-dependent effects of Aß. The here obtained results provide evidence for the enhanced cell vulnerability caused by the Swedish APP mutation and elucidate the cell death mechanism probably initiated by intracellulary produced Aß. Here it seems likely that increased production of Aß at physiological levels primes APPsw PC12 cells to undergo cell death only after additional stress, while chronic high levels in HEK cells already lead to enhanced basal apoptotic levels. Crucial effects of the Swedish APP mutation include the impairments of cellular energy metabolism affecting mitochondrial membrane potential and ATP levels as well as the additional activation of caspase 2, caspase 8 and JNK in response to oxidative stress. Thereby ,the following model can be proposed: PC12 cells harboring the Swedish APP mutation have a reduced energy metabolism compared to APPwt or control cells. However, this effect does not leads to enhanced basal apoptotic levels of cultured cells. An exposure of PC12 cells to oxidative stress leads to mitochondrial dysfunction, e.g., decrease in mitochondrial membrane potential and depletion in ATP. The consequence is the activation of the intrinsic apoptotic pathway releasing cytochrome c and Smac resulting in the activation of caspase 9. This effect is amplified by the overexpression of APP, since both APPsw and APPwt PC12 cells show enhanced cytochrome c and Smac release as well as enhanced caspase 9 activity as vector transfected control. In APPsw PC12 cells a parallel pathway is additionally emphased. Due to reduced ATP levels or enhanced Aß production JNK is activated. Furthermore, the extrinsic apoptotic pathway is enhanced, since caspase 8 and caspase 2 activation was clearly enhanced by the Swedish APP mutation. Both pathways may then converge by activating the effector enzyme, caspase 3, and the execution of cell death. In addition, caspase independent effects also needs to be considered. One possibility could be the implication of AIF since AIF expression was found to be induced by the Swedish APP mutation. In APPsw HEK cells high chronic Aß levels leads to enhanced apoptotic levels, reduce mitochondrial membrane potential and ATP levels even under basal conditions. Summarizing, a hypothetical sequence of events is proposed linking FAD, Aß production, JNK-activation, mitochondrial dysfunction with caspase pathway and neuronal loss for our cell model. The brain has a high metabolic rate and is exposured to gradually rising levels of oxidative stress during life. In Swedish FAD patients the levels of oxidative stress are increased in the temporal inferior cortex. This study using a cell model mimicking the in vivo situation in AD brains indicates that probably both, increased Aß production and the gradual rise of oxidative stress throughout life converge at a final common pathway of an increased vulnerability of neurons to apoptotic cell death from FAD patients. Presenilin (PS) 1 is an aspartyl protease, involved in the gamma-secretase mediated proteolysis of Amyloid-ß-protein (Aß), the major constituent of senile plaques in brains of Alzheimer’s disease (AD) patients. Recent studies have suggested an additional role for presenilin proteins in apoptotic cell death observed in AD. Since PS 1 is proteolytic cleaved by caspase 3, it has been prosposed that the resulting C-terminal fragment of PS1 (PSCas) could play a role in signal transduction during apoptosis. Moreover, it was shown that mutant presenilins causing early-onset of familial Alzheimer's disease (FAD) may render cells vulnerable to apoptosis. The mechanism by which PS1 regulates apoptotic cell death is yet not understood. Therefore one aim of our present study was to clarify the involvement of PS1 in the proteolytic cascade of apoptosis and if the cleavage of PS1 by caspase 3 has an regulatory function. Here it is demonstrated that both, PS1 and PS1Cas lead to a reduced vulnerability of PC12 and Jurkat cells to different apoptotic stimuli. However a mutation at the caspase 3 recognition site (D345A/ PSmut), which inhibits cleavage of PS1 by caspase 3, show no differences in the effect of PS1 or PSCas towards apoptotic stimuli. This suggest that proteolysis of PS1 by caspase 3 is not a determinant, but only a secondary effect during apoptosis. Since several FAD mutation distributed through the whole PS1 gene lead to enhanced apoptosis, an abolishment of the antiapoptotic effect of PS1 might contribute to the massive neurodegeneration in early age of FAD patients. Here, the regulate properties of PS1 in apoptosis may not be through an caspase 3 dependent cleavage and generation of PSCas, but rather through interaction of PS1 with other proteins involved in apoptosis.
The German financial market is often characterized as a bank-based system with strong bank-customer relationships. The corresponding notion of a housebank is closely related to the theoretical idea of relationship lending. It is the objective of this paper to provide a direct comparison between housebanks and "normal" banks as to their credit policy. Therefore, we analyze a new data set, representing a random sample of borrowers drawn from the credit portfolios of five leading German banks over a period of five years. We use credit-file data rather than industry survey data and, thus, focus the analysis on information that is directly related to actual credit decisions. In particular, we use bank-internal borrower rating data to evaluate borrower quality, and the bank's own assessment of its housebank status to control for information-intensive relationships.
This paper reviews the factors that will determine the shape of financial markets under EMU. It argues that financial markets will not be unified by the introduction of the euro. National central banks have a vested interest in preserving local idiosyncracies (e.g. the Wechsels in Germany) and they might be allowed to do so by promoting the use of so-called tier two assets under the common monetary policy. Moreover, a host of national regulations (prudential and fiscal) will make assets expressed in euro imperfect substitutes across borders. Prudential control will also continue to be handled differently from country to country. In the long run these national idiosyncracies cannot survive competitive pressures in the euro area. The year 1999 will thus see the beginning of a process of unification of financial markets that will be irresistible in the long run, but might still take some time to complete.
Es werden verschiedene Methoden zur Messung der Risikoeinstellung einzelner Individuen vorgestellt und kritisch diskutiert. Berücksichtigt werden unter anderem Selbsteinschätzungen und experimentell orientierte Verfahren. Die Zusammenstellung wendet sich insbesondere an Wissenschaftler und Praktiker, die nach anwendbaren Verfahren zur Risikoeinstellungsmessung suchen.
Ein Value-at-Risk-Limit wird als DM-Betrag gekennzeichnet, der von den tatsächlichen Handelsverlusten innerhalb einer bestimmten Zeitdauer nur mit geringer Wahrscheinlichkeit überschritten werden darf. Da der Bankvorstand i.d.R. Jahres-Value-at-Risk-Limite beschließt, im Handelsbereich die Geschäfte aber für einen kurzfristigen - unterstellt wird ein eintägiger - Planungshorizont abgeschlossen werden, ist zu klären, wie Jahres-Limite in Tages-Limite umgerechnet und während des Jahres realisierte Gewinne und Verluste auf die Limite angerechnet werden können. Auf der Grundlage des Umrechnungsverfahrens nach der Quadratwurzel-T-Formel lassen sich drei Verfahren für die Ermittlung des Tages-Limits unterscheiden: 1. Realisierte Gewinne und Verluste werden nicht angerechnet (starres Limit). 2. Bei Verlusteintritt vermindert sich das Tages-Limit für die Restperiode, realisierte Gewinne machen Kürzungen rückgängig (Verlustbegrenzungslimit). 3. Tages-Limite werden um Gewinne und Verluste angepaßt, wodurch eine Erweiterung des Handlungsspielraumes möglich ist (dynamisches Limit). Die drei Limite werden in einem Simulationsmodell gegeneinander abgewogen, wobei unterstellt wird, ein Händler handle nur eine einzige Aktie und antizipiere in 55% der Fälle die Kursrichtung. Die Simulationsergebnisse sind bei den unterstellten Renditeprozessen (geometrische Brownsche Bewegung und reale Renditen von 77 deutschen Aktien für die Zeit vom 01.01.1974 bis 31.12.1995) weitgehend identisch. Das dynamische Limit produziert deutlich höhere durchschnittliche Ergebnisse als das starre Limit und das Verlustbegrenzungslimit. Überschreitungen des Jahres-Limits treten nur beim starren Verfahren auf, die Häufigkeit ist allerdings wesentlich geringer als die zulässige Wahrscheinlichkeit von 1 %.
In this paper we analyze the relation between fund performance and market share. Using three performance measures we first establish that significant differences in the risk-adjusted returns of the funds in the sample exist. Thus, investors may react to past fund performance when making their investment decisions. We estimated a model relating past performance to changes in market share and found that past performance has a significant positive effect on market share. The results of a specification test indicate that investors react to risk-adjusted returns rather than to raw returns. This suggests that investors may be more sophisticated than is often assumed.
From the mid-seventies on, the central banks of most major industrial countries switched to monetary targeting. The Bundesbank was the first central bank to take this step, making the switch at the end of 1974. This changeover to monetary targeting was due to the difficulties which the Bundesbank - like other central banks - was facing in pursuing its original strategy, and whichcame to a head in the early seventies, when inflation escalated. A second factor was the collapse of the Bretton Woods system of fixed exchange rates, which created the necessary scope for national monetary targeting. Finally, the advance of monetarist ideas fostered the explicit turn towards monetary targets, although the Bundesbank did not implement these in a mechanistic way. Whereas the Bundesbank has adhered to its policy of monetary targeting up to the present, nowadays monetary targeting plays only a minor role worldwide. Many central banks have switched to the strategy of direct inflation targeting. Others favour a more discretionary approach or a policy which is geared to the exchange rate. In the academic debate, monetary targeting is often presented as an outdated approach which has long since lost its basis of stable money demand. These findings give riseto a number of questions: Has monetary targeting actually become outdated? Which role is played by the concrete design of this strategy, and, against this background, how easily can it be transferred to European monetary union? This paper aims to answer these questions, drawing on the particular experience which the Bundesbank has gained of monetary targeting. It seems appropriate to discuss monetary targeting by using a specific example, since this notion is not very precise. This applies, for example, to the money definition used, the way the target is derived, the stringency applied in pursuing the target and the monetary management procedure.
In this speech (given at the CFSresearch conference on the Implementation of Price Stability held at the Bundesbank Frankfurt am Main, 10. - 12. Sept 1998), John Vickers discusses theoretical and practical issues relating to inflation targeting as used in the United Kingdom doing the past six years. After outlining the role of the Bank s Monetary Policy Committee, he considers the Committee s task from a theoretical perspective, beforediscussing the concept and measurement of domestically generated inflation.
Credit Unions are cooperative financial institutions specializing in the basic financial needs of certain groups of consumers. A distinguishing feature of credit unions is the legal requirement that members share a common bond. This organizing principle recently became the focus of national attention as the Supreme Court and the U.S. Congress took opposite sides in a controversy regarding the number of common bonds that could co-exist within the membership of a single credit union. Despite its importance, little research has been done into how common bonds affect how credit unions actually operate. We frame the issues with a simple theoretical model of credit-union formation and consolidation. To provide intuition into the flexibility of multiple-group credit unions in serving members, we simulate the model and present some comparative-static results. We then apply a semi-parametric empirical model to a large dataset drawn from federally chartered occupational credit unions in 1996 to investigate the effects of common bonds. Our results suggest that credit unions with multiple common bonds have higher participation rates than credit unions that are otherwise similar but whose membership shares a single common bond.
"In this paper, I analyse the conduct of business rules included in the Directive on Markets in Financial Instruments (MiFID) which has replaced the Investment Services Directive (ISD). These rules, in addition to being part of the regulation of investment intermediaries, operate as contractual standards in the relationships between intermediaries and their clients. While the need to harmonise similar rules is generally acknowledged, in the present paper I ask whether the Lamfalussy regulatory architecture, which governs securities lawmaking in the EU, has in some way improved regulation in this area. In section II, I examine the general aspects of the Lamfalussy process. In section III, I critically analyse the MiFID s provisions on conduct of business obligations, best execution of transactions and client order handling, taking into account the new regime of trade internalisation by investment intermediaries and the ensuing competition between these intermediaries and market operators. In sectionIV, I draw some general conclusions on the re-regulation made under the Lamfalussy regulatory structure and its limits. In this section, I make a few preliminary comments on the relevance of conduct of business rules to contract law, the ISD rules of conduct and the role of harmonisation."
Die rechtliche Beurteilung der Verwendung des Gewinns von Zentralbanken bewegt sich im Überschneidungsbereich von: 1) Währungsrecht 2) Finanzverfassungsrecht und 3) Finanzpolitik. Rechtliche Bedenken ergeben sich im Wesentlichen aus den verfassungsrechtlichen Vorgaben für die Staatsfinanzierung sowie aus der Garantie der Unabhängigkeit der Europäischen Zentralbank und der Bundesbank. Maßgebende Rechtsquellen sind sowohl das Recht der Europäischen Union als auch das deutsche Finanzverfassungsrecht, angereichert um das einfache Haushaltsrecht des Bundes.
In contrast to the class A heat stress transcription factors (Hsfs) of plants, a considerable number of Hsfs assigned to classes B and C have no evident function as transcription activators on their own. In the course of my PhD work I showed that tomato HsfB1, a heat stress induced member of class B Hsf family, is a novel type of transcriptional coactivator in plants. Together with class A Hsfs, e.g. tomato HsfA1, it plays an important role in efficient transcrition initiation during heat stress by forming a type of enhanceosome on fragments of Hsp promoter. Characterization of promoter architecture of hsp promoters led to the identification of novel, complex heat stress element (HSE) clusters, which are required for optimal synergistic interactions of HsfA1 and HsfB1. In addition, HsfB1 showed synergistic activation of the expression of a subset of viral and house keeping promoters. CaMV35S promoter, the most widely expressed constitutive promoter turned out to be the the most interesting candidate to study this effect in detail. Because, for most house-keeping promoters tested during this study, the activators responsible for constitutive expression are not known, but in case of CaMV35S promoter they are quite well known (the bZip proteins, TGA1/2). These proteins belong to the acidic activators, similar to class A Hsfs. Actually, on heat stress inducible promoters HsfA1 or other class A Hsfs are the synergistic partners of HsfB1, whereas on house-keeping or viral promoters, HsfB1 shows synergistic transcriptional activation in cooperation with the promoter specific acidic activators, e.g. with TGA proteins on 35S promoter. In agreement with this the binding sites for HsfB1 were identified in both house-keeping and 35S promoter. It has been suggested during this study that HsfB1 acts in the maintenance of transcription of a sub-set of house-keeping and viral genes during heat stress. The coactivator function of HsfB1 depends on a single lysine residue in the GRGK motif in its CTD. Since, this motif is highly conserved among histones as the acetylation motif, especially in histones H2A and H4,. It was suggested that the GRGK motif acts as a recruitment motif, and together with the other acidic activator is responsible for corecruitment of a histone acetyl transferase (HAT). So, the effect of mammalian CBP (a well known HAT) and its plant orthologs (HAC1) was tested on the stimulation of synergistic reporter gene activation obtained with HsfA1 and HsfB1. Both in plant and mammalian cells, CBP/HAC1 further stimulated the HsfA1/B1 synergistic effect. Corecruitment of HAC1 was proven by in vitro pull down assays, where the NTD of HAC1 interacted specifically both with HsfA1 and HsfB1. Formation of a ternary complex between HsfA1, HsfB1 and CBP/HAC1 was shown via coimmunoprecipitation and electrophoretic mobility shift assays (EMSA). In conclusion, the work presented in my thesis presents a new model for transcriptional regulation during an ongoing heat stress.
Das Recht der sog. eigenkapitalersetzenden Gesellschafterdarlehen ist in der jüngeren Vergangenheit zunehmend Gegenstand der Kritik geworden. Mit dem nachfolgenden Beitrag wird auf der Grundlage einer kritischen Analyse der lex lata ein Vorschlag für eine Vereinfachung der Regeln über die Gesellschafterfremdfinanzierung in der Krise entwickelt.
Der vorliegende Beitrag - die stark überarbeitete Fassung des Vortrages "Lektüren des Unausdeutbaren ", den der Verfasser im Januar 2004 im Rahmen der kulturwissenschaftlichen Vortragsreihe GrenzBereiche des Lesens hielt - ist auch erschienen in: literatur für leser 27 (2004), Heft 4, S. 181-199. Ein Beispiel für die Schwierigkeit der literarischen Lektüre gibt Friedrich Schmidt. Er untersucht Lektüremöglichkeiten für das formale wie semantische "Abgebrochensein" des literarischen Kunstwerks der Moderne, wie es in den Fragmenten Kafkas seinen exponierten Ausdruck findet. In diesen Texten tritt zur äußeren Unabgeschlossenheit des Textkorpus ein brüchiges Sinngefüge: die Endlosigkeit der Reflexionen und Handlungszüge, die Heterogenität der Erzählfiguren, die Inkonsistenz jeder Bedeutungskonstruktion von Seiten des Lesers. Indem überdies der Abbruch, als verlorene Schrift oder verschwiegene Botschaft, in Kafkas Fragmenten explizit zum Thema wird, erhebt sich der Text gleichzeitig zum metareflexiven Kommentar: er vollzieht selbst, wovon er spricht. Insofern handelt er – sprachskeptisch – vom Defizit seines eigenen Ausdrucks, das letztlich auch von Lektüren nie vollständig eingeholt werden kann.
In an attempt to search for potential candidate molecules involved in the pathogenesis of endometriosis, a novel 2910 bp cDNA encoding a putative 411 amino acid protein, shrew-1 was discovered. By computational analysis it was predicted to be an integral membrane protein with an outside-in transmembrane domain but no homology with any known protein or domain could be identified. Antibodies raised against the putative open-reading frame peptide of shrew-1 labelled a protein of ca. 48 kDa in extracts of shrew-1 mRNA positive tissues and also detected ectopically expressed shrew-1. In the course of my PhD work, I confirmed the prediction that shrew-1 is indeed a transmembrane protein, by expressing epitope-tagged shrew-1 in epithelial cells and analysing the transfected cells by surface biotinylation and immunoblots. Additionally, I could show that shrew-1 is able to target to E-cadherin-mediated adherens junctions and interacts with the E-cadherin-catenin complex in polarised MCF7 and MDCK cells, but not with the N-cadherin-catenin complex in non-polarised epithelial cells. A direct interaction of shrew-1 with beta-catenin could be shown in an in vitro pull-down assay. From this data, it could be assumed that shrew-1 might play a role in the function and/or regulation of the dynamics of E-cadherin-mediated junctional complexes. In the next part of my thesis, I showed that stable overexpression of shrew-1 in normal MDCK cells. causes changes in morphology of the cells and turns them invasive. Furthermore, transcription by ²-catenin was activated in these MDCK cells stably overexpressing shrew-1. It was probably the imbalance of shrew-1 protein at the adherens junctions that led to the misregulation of adherens junctions associated proteins, i.e. E-cadherin and beta-catenin. Caveolin-1 is another integral membrane protein that forms complexes with Ecadherin- beta-catenin complexes and also plays a role in the endocytosis of E-cadherin during junctional disruption. By immunofluorescence and biochemical studies, caveolin-1 was identified as another interacting partner of shrew-1. However, the functional relevance of this interaction is still not clear. In conclusion, it can be said that shrew-1 interacts with the key players of invasion and metastasis, E-cadherin and caveolin-1, suggesting its possible role in these processes and making it an interesting candidate to unravel other unknown mechanisms involved in the complex process of invasion.
Ein gastroösophagealer Reflux, der keine gastroenterologischen Symptome wie Erbrechen oder saure Regurgitation zeigt, kann im Kindesalter chronische Erkrankungen der Lunge auslösen. Typische Krankheitsbilder sind hierbei zum Beispiel Asthma bronchiale oder rezidivierende Bronchitiden. Die Inzidenz hierfür beträgt 1 : 300 bis 1 : 500. Für die Entstehung eines gastroösophagealen Reflux wird ein multifaktorielles Geschehen diskutiert. So kann zum Beispiel ein verminderter Druck des unteren Ösophagussphinkters, eine verminderte Leistung der Clearancefunktion des Ösophagus, eine pathologische Magensäuresekretion und auch eine verlängerte Entleerung des Magens ursächlich sein. Studien haben einen Zusammenhang zwischen einer pathologischen Magenentleerungszeit und einem symptomatischen gastroösophagealen Reflux beschrieben. Ein primärer Defekt wird hierbei in einer Motilitätsstörung vermutet, da ein signifikanter Zusammenhang zwischen pathologischen Magenentleerungszeiten und Dysrhythmien (abnormen elektrischen Potentialen) des Magens beschrieben ist. Bisher ist kein diagnostisches Verfahren bekannt, dass mit hoher Sensitivität und Spezifität das Vorliegen eines gastroösophagealen Reflux beweist. Vielmehr umfasst die derzeitige Diagnostik lediglich Teilaspekte der Erkrankung und liefert uneinheitliche Bilder. Bei insgesamt 25 Kindern mit Lungenproblemen bedingt durch einen gastroösophagealen Reflux wurde die Magenentleerungszeit, eine 2 Punkt-pH Metrie, eine obere Magendarmpassage sowie eine quantitative Bestimmung von fettbeladenen Alveolarmakrophagen im Rahmen einer Bronchoskopie erhoben. Im Gegensatz zur bisher üblichen Bestimmung der Magenentleerungszeit per Szintigraphie konnten im Rahmen dieser Arbeit die Werte mit einem 13C-Acetat- Atemtest gemessen werden. Eine pathologische Magenentleerungszeit wurde bei ungefähr der Hälfte der Patienten dargestellt. Obwohl ein Zusammenhang zwischen der Magenentleerungszeit und anderen Untersuchungsbefunden vermutet wurde, konnte keine signifikante Korrelation aufgezeigt werde. Alle Testverfahren lieferten unterschiedliche Ergebnisse. Bei keinem Kind mit klinisch gesichertem gastroösophagealen Reflux waren alle erhobenen Parameter pathologisch. Die Verteilung der Ergebnisse erfolgte auch im grenzpathologischen Bereich nicht signifikant. Als Grund hierfür kann vermutet werden, dass der gastroösophageale Reflux bei Kindern unterschiedliche Ursachen hat. So könnte eine pathologische Magenentleerungszeit bei einem Teil der Kinder ursächlich sein oder im Vordergrund stehen, während andere pathologische Korrelate das gleiche Krankheitsbild verursachen. Die Diagnosestellung eines gastroösophagealen Reflux bei Kindern mit pulmonaler Symptomatik kann somit nur mit hinweisenden Untersuchungen erfolgen, bei denen auch Widersprüche geduldet werden müssen.
Im Mittelpunkt der Arbeit steht die theoretische Beschreibung von ultraschnellen nichtadiabatischen cis-trans-Photoisomerisierunen in kondensierter Phase. Zu diesem Zweck wurde auf einen etablierten Modell-Hamilton-Operator zur Darstellung des isomerisierenden Systems zurückgegriffen und die Wechselwirkung mit der Umgebung im Rahmen der Redfield-Theorie behandelt. Eine gängige Näherung im Rahmen der Redfield-Theorie ist die Säkularnäherung, welche eine deutliche Reduktion des numerischen Aufwands bewirkt. Allerdings liefert die Säkularnäherung keine korrekte Beschreibung der Dynamik für Systeme, welche Regelmäßigkeiten im Eigenwertspektrum aufweisen, was für die in dieser Arbeit benutzten Isomerisierungsmodelle mit harmonischen Schwingungsmoden zutrifft. Andererseits verbietet sich für diese Systeme aus numerischer Sicht der Redfield-Algorithmus mit vollem Relaxationstensor. Daher wurde in dieser Arbeit ein nichtsäkularer Algorithmus entwickelt, der durch die Berücksichtigung der wichtigsten nichtsäkularen Terme eine adäquate Beschreibung der Dynamik im Rahmen der Redfield-Theorie liefert und gleichzeitig zu einer durchschnittlichen Reduktion der Rechenzeit auf ein Zehntel gegenüber der vollen Redfield-Rechnung führt. Im Rahmen der Redfield-Theorie wurden dann Dekohärenz- und dissipative Effekte für ein zweidimensionales Isomerisierungsmodell untersucht, wobei die unterschiedliche nichtadiabtische Dynamik an einer konischen Durchschneidung versus einer vermiedenen Kreuzung im Mittelpunkt des Interesses stand. Fazit dieser Studie ist, dass die konische Durchschneidung ein schnelles Abklingen anfänglicher Kohärenzen und eine effiziente Energieabgabe an die Umgebung bewirkt, was zu einer um eine Größenordnung schnelleren Isomerisierung gegenüber der vermiedenen Kreuzung führt. Daraus kann gefolgert werden, dass der photochemische Trichter tatsächlich der bevorzugte Reaktionsweg bei ultraschnellen internen Konversionsprozessen ist. Ein weiteres Anliegen dieser Arbeit war die Simulation von zeit- und frequenzaufgelösten Pump-Probe-Spektren für Photoreaktionen in dissipativer Umgebung. Hierzu wurde der Doorway-Window-Formalismus herangezogen, bei dem die Wechselwirkung der Pump- und Probepulse mit dem System im Doorway- bzw. Window-Operator enthalten ist. Für diese wurden unter der Annahme gaussförmiger Laserpulse durch analytische Integration der zweizeitigen Antwortfunktionen explizite Ausdrücke erhalten, die in den Redfield-Algorithmus integriert wurden. Somit existiert nun eine Methode zur Berechnung von Pump-Probe-Spektren, deren Skalierungsverhalten durch den Redfield-Algorithmus bestimmt wird. Diese Methode wurde dann angewandt für eine umfangreiche Modellstudie zu PumpProbe-Spektren von Isomerisierungsreaktionen in dissipativer Umgebung. Dabei wurden potentielle Probleme bei der Interpretation von transienten Spektren durch die Überlagerung und teilweisen Auslöschung der spektralen Beiträge zum Gesamtsignal aufgezeigt und diskutiert. In einer weiteren Studie wurde die Methode benutzt, um am Beispiel eines Morse-Oszillators zeitaufgelöste IR-Experimente zu simulieren, wie sie zur Gewinnung von modenselektiven Informationen über eine Reaktion durchgeführt werden.
Bendamustin ist eine Substanz, die seit über 40 Jahren in den Indikationen Non-Hodgkin Lymphom, CLL, multiples Myelom, Morbus Hodgkin, Mammakarzinom und SCLC eingesetzt wird, die jedoch erst nach der Wiedervereinigung Deutschlands systematisch neu entwickelt wurde. Die Wirksamkeit der Substanz als Monotherapie wurde, mit Ausnahme des Morbus Hodgkin, in allen Indikationen nachgewiesen. Obwohl in der Monotherapie hier keine Ergebnisse von randomisierten Studien vorliegen, ist der Stellenwert von Bendamustin als Einzelsubstanz eindeutig belegt, denn es wird als Monotherapie meist in fortgeschrittenen Therapiestadien eingesetzt, in denen es kaum Standardtherapieempfehlungen gibt. Die Ergebnisse in diesen Therapiesituationen sind insbesondere bei NHL beeindruckend (9, 28) und mit den Ergebnissen von Polychemotherapien in früheren Stadien der Erkrankung zu vergleichen (11). Beim Mammakarzinom wird Bendamustin als Monotherapie hauptsächlich palliativ eingesetzt, (36, 38, 64). Der Vorteil gegenüber anderen vergleichbaren Substanzen liegt in der Tatsache, daß Bendamustin kaum Alopezie und Organtoxizität verursacht, so dass die Patientinnen bezüglich Lebensqualität profitieren. In allen Indikationen sind oben beschriebene verschiedenste Kombinationsschemata geprüft worden. In-vitro konnte gezeigt werden, dass Bendamustin mit dem Purinanalogon Cladribin sowie mit dem monoklonalen Antikörper Rituximab synergistisch wirkt. Die Kombination mit einem Purinanalogon erwies sich klinisch zwar als sehr effektiv, aber durch das überschneidende Toxizitätsprofil ist sie mit schweren Nebenwirkungen verbunden (49). Als besonders günstig erwies sich bei den NHL die Kombination mit dem monoklonalen Antikörper Rituximab (68, 79). Die Kombination ist mit Ansprechraten von über 90% hocheffektiv und die Nebenwirkungen waren selten und nur von geringer Ausprägung. Dieses ist die einzige Bendamustin-Kombination, die systematisch vom Labor bis zur klinischen Prüfung entwickelt wurde. Die Prüfung dieser Kombination in prospektiv randomisierten Studien ist für die Weiterentwicklung der Substanz der logische nächste Schritt. Eine Indikationserweiterung erscheint insbesondere beim multiplen Myelom und bei der CLL sinnvoll. Die Ergebnisse der vorliegenden Studien zeigen, dass Bendamustin auch bei diesen Erkrankungen der B-Zellreihe sehr effektiv ist (2, 29, 59). Beim Mammakarzinom liegt der Stellenwert der Substanz eher in der Monotherapie als palliativer Ansatz (38, 64). Die Ergebnisse der Phase-III Studie in der BMF Kombination werden mit Spannung erwartet, jedoch sind die Therapiestandards in dieser Indikation inzwischen durch neue Substanzen, wie den Taxanen, modifiziert, so dass nur eine Prüfung gegen einen modernen Therapiestandard den Stellenwert des Bendamustins realistisch bestimmen könnte. Die Prüfung des Stellenwertes bei soliden Tumoren wäre insbesondere beim SCLC interessant, sofern gezeigt werden kann, dass die Substanz äquipotent ist und eine bessere Verträglichkeit aufweist. Das Toxizitätsprofil der Substanz ist ausreichend belegt. Die Haupttoxizität ist die Hämatotoxizität im Sinne von Leukozytopenie, Granulozytopenie und Thrombozytopenie. Als nicht-hämatologische Toxizität sind Übelkeit und Erbrechen dominierend. Die Toxizitäten sind in der Regel geringer Ausprägung, gut handhabbar und kontrollierbar. Langzeiteffekte sind bisher nicht bekannt, eine kumulative Thrombozytopenie ist anzunehmen (64), jedoch nicht an großen Patientenzahlen belegt. Bisher sind keine Zweittumoren als Langzeiteffekt dokumentiert worden, dies mag an der zum Teil erst relativ kurzen Nachbeobachtungszeit der in neueren Zeiten systematisch durchgeführten Studien liegen. Als Hauptindikation stellen sich die Non-Hodgkin Lymphome dar. In dieser Indikation dominiert die Zahl der durchgeführten Studien . Die Kombination mit Rituximab könnte eine sinnvolle mögliche Vergleichstherapie zur derzeitigen Standardtherapie darstellen. Ein Stellenwert als Standardtherapie kann der Substanz derzeit allerdings noch nicht zugesprochen werden. Die Substanz scheint insbesondere in der Kombination mit Rituximab bei NHL ein ideales Profil zu erfüllen: hohe Effektivität in Einklang mit einem patientenfreundlichen Toxizitätsprofil.
Barriere Sprachkompetenz : Dokumentation zur Impulstagung vom 2. November 2001 im Volkshaus Zürich
(2002)
NMDA-Rezeptoren sind als ionotrope Glutamatrezeptoren (iGluRs) an der Signalübertragung durch den wichtigen Neurotransmitter L-Glutamat beteiligt. Vor allem aufgrund ihrer Bedeutung für das Phänomen der neuronalen Plastizität sind NMDA-Rezeptoren außerordentlich gründlich untersucht worden. Dennoch sind auch heute noch zentrale Fragen zu ihrer Funktionsweise ungeklärt, darunter auch diejenige, wie auf molekularer Ebene die Umsetzung der Glutamatbindung in die Öffnung des Ionenkanals erfolgt. Publizierte Kristallstrukturen der Liganden-bindungsdomänen zweier iGluRs haben die Grundlage für ein Modell der ligandeninduzierten und der Kanalöffnung vorausgehenden Vorgänge in der Bindungsdomäne geschaffen. Diesem zufolge schließt sich die aus zwei Teildomänen bestehende Bindungsdomäne venusfliegenfallenartig um den Liganden und die dabei entstehende mechanische Spannung führt zur Öffnung des Ionenkanals. Dieses Modell wurde in der vorliegenden Arbeit überprüft. Hierzu wurden verschiedene in der Ligandenbindungsdomäne punktmutierte NR1/NR2A-Rezeptoren heterolog in Säugerzellen exprimiert und durch Glutamat hervorgerufene Gesamtzellströme elektrophysiologisch gemessen. Mittels kinetischer Auswertung wurden dann Aminosäurereste in der Bindungsdomäne identifiziert, die einen Beitrag zur Kanalöffnung leisten. Die notwendige Schnelligkeit der Ligandenzugabe wurde dabei durch dessen photochemische Freisetzung aus einer maskierten und dadurch inaktiven Vorstufe (caged compound) erreicht. Die Ergebnisse bestätigen das Modell der Kopplung der Kanalöffnung an das Schließen der Bindungsdomäne und erweitern das Verständnis der genauen zeitlichen Abfolge der ligandeninduzierten Konformationsänderungen in der Bindungsdomäne. Intramolekulare Wechselwirkungen zwischen den Teildomänen S1 und S2 spielen demnach erst relativ spät im Aktivierungsprozeß eine Rolle und dienen vor allem der Stabilisierung des geschlossenen Zustandes der Bindungsdomäne und damit des offenen Ionenkanals.
In dieser Arbeit wurden zwei Idealkristallsysteme und drei Systeme, die im weitesten Sinne als Domänenkristalle zu bezeichnen sind, mit quantenmechanischen Methoden untersucht, die auf Dichte-Funktional-Theorie basieren. Dabei wurden je nach System unterschiedliche Eigenschaften der jeweiligen Kristalle betrachtet. Zusätzlich wurden die berechneten Domänenkristalle jeweils mit entsprechenden Idealkristallen bezüglich ihrer Stabilität verglichen. Insgesamt konnte gezeigt werden, dass sich die hier verwendeten Rechenmethoden sehr gut zur Untersuchung von Grundzuständen und Strukturen unter hydrostatischem Druck sowie von Bindungseigenschaften eignen. Desweiteren lieferten die Ergebnisse starke Hinweise darauf, dass Kristalle mit Strukturgradienten nur dann existieren können, wenn sie sich vom Idealkristall um sehr geringe Energien unterscheiden, die unter der Fehlergrenze der hier angewendeten Methode (2-3 kJ/Mol) liegen.
Intelligenz : ein relevantes differenzialdiagnostisches Merkmal bei Sprachentwicklungstörungen?
(2003)
Die Spezifische Sprachentwicklungsstörung (SSES) ist als erwartungswidrige Minderleistung der Sprachentwicklung im Vergleich zur kognitiven Entwicklung definiert. Untersucht wird, (1) ob sich für SSES-Kinder im Vergleich zu unterdurchschnittlich intelligenten sprachentwicklungsgestörten Kindern (SES-Lb) ein typisches Muster von sprachlichen Leistungen sowie von Teilleistungsstörungen nachweisen lässt, das für eine Differenzialdiagnostik und damit für eine Untergruppenbildung sprachentwicklungsgestörter Kinder nutzbringend eingesetzt werden kann, (2) ob und in welcher Weise eine solche Differenzierung Konsequenzen für die Diagnostik und nachfolgend für eine Therapie zeitigt und (3) ob es Defizite in umschriebenen Leistungsbereichen gibt, die als Bedingungsfaktoren für eine Sprachentwicklungsstörung gelten, sich aber als unabhängig von der Intelligenz erweisen. Eine Gruppe von 138 fünf- und sechsjährigen Kindern mit einer schweren Sprachentwicklungsstörung, von denen 108 eine normale nonverbale Intelligenz aufwiesen, wurde anhand von IDIS (Inventar diagnostischer Informationen bei Sprachentwicklungsauffälligkeiten) untersucht. Erfasst wurden neben den sprachlichen Fähigkeiten auf der phonetisch-phonologischen, der semantisch-lexikalischen, der morphologisch-syntaktischen und der pragmatischen Ebene auch die Intelligenz, die auditive und visuelle Wahrnehmung, die auditive und visuelle Merkfähigkeit, sowie die Fein- und Grobmotorik. In den meisten geprüften Bereichen zeigt sich ein deutlicher Effekt der Intelligenz auf die Leistungen, der nicht nur auf Unterschiede in der Profilhöhe, sondern auch im Profilverlauf, also auf strukturelle Leistungsdifferenzen, hinweist. Als ein von der Intelligenz unabhängiger Bedingungsfaktor für eine Sprachentwicklungsstörung gilt eine gestörte phonologische Schleife, das auditive Subsystem des Arbeitsgedächtnisses. Für die Beibehaltung der Differenzierung der Sprachentwicklungsstörungen nach der kognitiven Leistungsfähigkeit wird nicht nur aufgrund der unterschiedlichen Leistungsstrukturen plädiert, sondern auch, weil die therapeutischen Möglichkeiten in Abhängigkeit von der Intelligenz als verschiedenartig eingeschätzt werden.
This paper proves correctness of Nocker s method of strictness analysis, implemented for Clean, which is an e ective way for strictness analysis in lazy functional languages based on their operational semantics. We improve upon the work of Clark, Hankin and Hunt, which addresses correctness of the abstract reduction rules. Our method also addresses the cycle detection rules, which are the main strength of Nocker s strictness analysis. We reformulate Nocker s strictness analysis algorithm in a higherorder lambda-calculus with case, constructors, letrec, and a nondeterministic choice operator used as a union operator. Furthermore, the calculus is expressive enough to represent abstract constants like Top or Inf. The operational semantics is a small-step semantics and equality of expressions is defined by a contextual semantics that observes termination of expressions. The correctness of several reductions is proved using a context lemma and complete sets of forking and commuting diagrams. The proof is based mainly on an exact analysis of the lengths of normal order reductions. However, there remains a small gap: Currently, the proof for correctness of strictness analysis requires the conjecture that our behavioral preorder is contained in the contextual preorder. The proof is valid without referring to the conjecture, if no abstract constants are used in the analysis.
Work on proving congruence of bisimulation in functional programming languages often refers to [How89,How96], where Howe gave a highly general account on this topic in terms of so-called lazy computation systems . Particularly in implementations of lazy functional languages, sharing plays an eminent role. In this paper we will show how the original work of Howe can be extended to cope with sharing. Moreover, we will demonstrate the application of our approach to the call-by-need lambda-calculus lambda-ND which provides an erratic non-deterministic operator pick and a non-recursive let. A definition of a bisimulation is given, which has to be based on a further calculus named lambda-~, since the na1ve bisimulation definition is useless. The main result is that this bisimulation is a congruence and contained in the contextual equivalence. This might be a step towards defining useful bisimulation relations and proving them to be congruences in calculi that extend the lambda-ND-calculus.
In this paper we demonstrate how to relate the semantics given by the nondeterministic call-by-need calculus FUNDIO [SS03] to Haskell. After introducing new correct program transformations for FUNDIO, we translate the core language used in the Glasgow Haskell Compiler into the FUNDIO language, where the IO construct of FUNDIO corresponds to direct-call IO-actions in Haskell. We sketch the investigations of [Sab03b] where a lot of program transformations performed by the compiler have been shown to be correct w.r.t. the FUNDIO semantics. This enabled us to achieve a FUNDIO-compatible Haskell-compiler, by turning o not yet investigated transformations and the small set of incompatible transformations. With this compiler, Haskell programs which use the extension unsafePerformIO in arbitrary contexts, can be compiled in a "safe" manner.
This paper proposes a non-standard way to combine lazy functional languages with I/O. In order to demonstrate the usefulness of the approach, a tiny lazy functional core language FUNDIO , which is also a call-by-need lambda calculus, is investigated. The syntax of FUNDIO has case, letrec, constructors and an IO-interface: its operational semantics is described by small-step reductions. A contextual approximation and equivalence depending on the input-output behavior of normal order reduction sequences is defined and a context lemma is proved. This enables to study a semantics of FUNDIO and its semantic properties. The paper demonstrates that the technique of complete reduction diagrams enables to show a considerable set of program transformations to be correct. Several optimizations of evaluation are given, including strictness optimizations and an abstract machine, and shown to be correct w.r.t. contextual equivalence. Correctness of strictness optimizations also justifies correctness of parallel evaluation. Thus this calculus has a potential to integrate non-strict functional programming with a non-deterministic approach to input-output and also to provide a useful semantics for this combination. It is argued that monadic IO and unsafePerformIO can be combined in Haskell, and that the result is reliable, if all reductions and transformations are correct w.r.t. to the FUNDIO-semantics. Of course, we do not address the typing problems the are involved in the usage of Haskell s unsafePerformIO. The semantics can also be used as a novel semantics for strict functional languages with IO, where the sequence of IOs is not fixed.
Context unification is a variant of second order unification. It can also be seen as a generalization of string unification to tree unification. Currently it is not known whether context unification is decidable. A specialization of context unification is stratified context unification, which is decidable. However, the previous algorithm has a very bad worst case complexity. Recently it turned out that stratified context unification is equivalent to satisfiability of one-step rewrite constraints. This paper contains an optimized algorithm for strati ed context unification exploiting sharing and power expressions. We prove that the complexity is determined mainly by the maximal depth of SO-cycles. Two observations are used: i. For every ambiguous SO-cycle, there is a context variable that can be instantiated with a ground context of main depth O(c*d), where c is the number of context variables and d is the depth of the SO-cycle. ii. the exponent of periodicity is O(2 pi ), which means it has an O(n)sized representation. From a practical point of view, these observations allow us to conclude that the unification algorithm is well-behaved, if the maximal depth of SO-cycles does not grow too large.
Context unification is a variant of second-order unification and also a generalization of string unification. Currently it is not known whether context uni cation is decidable. An expressive fragment of context unification is stratified context unification. Recently, it turned out that stratified context unification and one-step rewrite constraints are equivalent. This paper contains a description of a decision algorithm SCU for stratified context unification together with a proof of its correctness, which shows decidability of stratified context unification as well as of satisfiability of one-step rewrite constraints.
It is well known that first order uni cation is decidable, whereas second order and higher order unification is undecidable. Bounded second order unification (BSOU) is second order unification under the restriction that only a bounded number of holes in the instantiating terms for second order variables is permitted, however, the size of the instantiation is not restricted. In this paper, a decision algorithm for bounded second order unification is described. This is the fist non-trivial decidability result for second order unification, where the (finite) signature is not restricted and there are no restrictions on the occurrences of variables. We show that the monadic second order unification (MSOU), a specialization of BSOU is in sum p s. Since MSOU is related to word unification, this is compares favourably to the best known upper bound NEXPTIME (and also to the announced upper bound PSPACE) for word unification. This supports the claim that bounded second order unification is easier than context unification, whose decidability is currently an open question.
This paper describes the development of a typesetting program for music in the lazy functional programming language Clean. The system transforms a description of the music to be typeset in a dvi-file just like TEX does with mathematical formulae. The implementation makes heavy use of higher order functions. It has been implemented in just a few weeks and is able to typeset quite impressive examples. The system is easy to maintain and can be extended to typeset arbitrary complicated musical constructs. The paper can be considered as a status report of the implementation as well as a reference manual for the resulting system.
The extraction of strictness information marks an indispensable element of an efficient compilation of lazy functional languages like Haskell. Based on the method of abstract reduction we have developed an e cient strictness analyser for a core language of Haskell. It is completely written in Haskell and compares favourably with known implementations. The implementation is based on the G#-machine, which is an extension of the G-machine that has been adapted to the needs of abstract reduction.
This paper describes context analysis, an extension to strictness analysis for lazy functional languages. In particular it extends Wadler's four point domain and permits in nitely many abstract values. A calculus is presented based on abstract reduction which given the abstract values for the result automatically finds the abstract values for the arguments. The results of the analysis are useful for veri fication purposes and can also be used in compilers which require strictness information.
A partial rehabilitation of side-effecting I/O : non-determinism in non-strict functional languages
(1996)
We investigate the extension of non-strict functional languages like Haskell or Clean by a non-deterministic interaction with the external world. Using call-by-need and a natural semantics which describes the reduction of graphs, this can be done such that the Church-Rosser Theorems 1 and 2 hold. Our operational semantics is a base to recognise which particular equivalencies are preserved by program transformations. The amount of sequentialisation may be smaller than that enforced by other approaches and the programming style is closer to the common one of side-effecting programming. However, not all program transformations used by an optimising compiler for Haskell remain correct in all contexts. Our result can be interpreted as a possibility to extend current I/O-mechanism by non-deterministic deterministic memoryless function calls. For example, this permits a call to a random number generator. Adding memoryless function calls to monadic I/O is possible and has a potential to extend the Haskell I/O-system.
Automatic termination proofs of functional programming languages are an often challenged problem Most work in this area is done on strict languages Orderings for arguments of recursive calls are generated In lazily evaluated languages arguments for functions are not necessarily evaluated to a normal form It is not a trivial task to de ne orderings on expressions that are not in normal form or that do not even have a normal form We propose a method based on an abstract reduction process that reduces up to the point when su cient ordering relations can be found The proposed method is able to nd termination proofs for lazily evaluated programs that involve non terminating subexpressions Analysis is performed on a higher order polymorphic typed language and termi nation of higher order functions can be proved too The calculus can be used to derive information on a wide range on di erent notions of termination.
We consider unification of terms under the equational theory of two-sided distributivity D with the axioms x*(y+z) = x*y + x*z and (x+y)*z = x*z + y*z. The main result of this paper is that Dunification is decidable by giving a non-deterministic transformation algorithm. The generated unification are: an AC1-problem with linear constant restrictions and a second-order unification problem that can be transformed into a word-unification problem that can be decided using Makanin's algorithm. This solves an open problem in the field of unification. Furthermore it is shown that the word-problem can be decided in polynomial time, hence D-matching is NP-complete.
We consider the problem of unifying a set of equations between second-order terms. Terms are constructed from function symbols, constant symbols and variables, and furthermore using monadic second-order variables that may stand for a term with one hole, and parametric terms. We consider stratified systems, where for every first-order and second-order variable, the string of second-order variables on the path from the root of a term to every occurrence of this variable is always the same. It is shown that unification of stratified second-order terms is decidable by describing a nondeterministic decision algorithm that eventually uses Makanin's algorithm for deciding the unifiability of word equations. As a generalization, we show that the method can be used as a unification procedure for non-stratified second-order systems, and describe conditions for termination in the general case.
1. Das Gemeinschaftsrecht garantiert durch Art. 108 EGV umfassend die Weisungsfreiheit der Europäischen Zentralbank und der nationalen Zentralbanken als Institution. Diese Garantie erfasst auch die natürlichen Personen, die Mitglieder der Entscheidungsgremien sind. 2. Hinzu treten weiter Regelungen des Gemeinschaftsvertrages und der Satzung von ESZB und EZB, welche diese Garantie zu einer allgemeinen Unabhängigkeitsgarantie ausbauen und verstärken. 3. Garantiert ist vor allem auch die persönlicher Unabhängigkeit der Mitglieder in den Entscheidungsgremien. 4. Von wenigen Ausnahmen abgesehen, sind diese Regelungen für das sekundäre Gemeinschaftsrecht unantastbar. Als Teil des primären Gemeinschaftsrechts können sie prinzipiell nur durch Vertragsänderung, also einstimmig verändert werden. 5. Diese europarechtlichen Garantien werden über Art. 88 Satz 2 GG für die Bundesbank als integrales Bestandteil des ESZB in das deutsche Verfassungsrecht transponiert. Daraus ergibt sich eine „gemeinschaftsrechtlich vermittelte verfassungsrechtliche Unabhängigkeitsgarantie“ für die Bundesbank. 6. Die Regelung ist mit dem Demokratieprinzip vereinbar. 7. Änderungen der umfassenden Garantie können die verfassungsrechtlichen Voraussetzungen für die Übertragung der währungs- und notenbankpolitischen Befugnisse auf das ESZB entfallen lassen. 8. Der Entwurf einer Verfassung für Europa enthält keine verfassungsrechtlich relevanten Relativierungen der Unabhängigkeitsgarantie. 9. Das Ziel der Preisstabilität hat den ihm gebührenden Rang behalten. Bei genauer Analyse zeigt sich auch, dass sein besonderer Rang für die Tätigkeit des ESZB nicht beeinträchtigt ist. 10. Ein Vergleich der verschiedenen sprachlichen Fassungen des Verfassungsvertrages zeigt auch, dass – entgegen dem deutschen Text – die EZB nicht als – möglicherweise weniger unabhängiges - Organ der EU, sondern als sonstige Einrichtung eingestuft worden ist.
Der vorliegende Hochschulentwicklungsplan I wurde in seinen Teilen 1, 2 und 4 am 17.10.2001 vom Senat der Johann Wolfgang Goethe-Universitt verabschiedet. Den Teil 3 (Entwicklungspläne der Fachbereiche) nahm der Senat zur Kenntnis. Mit dem Hochschulentwicklungsplan I beschließt der Senat ein strategisches Konzept, in dem die Richtung der Hochschulentwicklung und die Schwerpunktbildung in Forschung und Lehre beschrieben werden. Dieser Plan dient der inneruniversitären Vergewisserung und Bewußtseinsbildung und als Initial für weitere inneruniversitäre Diskussionen und Konkretisierungen. Er beruht auf vorhandenen Planungen der Fachbereiche, Fächer und Zentren und enthält gleichzeitig die Aufforderung, zukünftige Planungen an seinen Zielen und Schwerpunkten auszurichten. Er wird Maßstab bei Berufungen und anderen strategischen Entscheidungen sein. Er muß klare Leitlinien und eine strukturierte Planung vorgeben, damit die Universität den Anforderungen der Zukunft gerecht werden kann, und er muß gleichzeitig eine produktive Fortschreibung ermöglichen, um der Universität ihre Dynamik und ihr Potential zu erhalten, auf kurzfristige Entwicklungen und Innovationen zu reagieren. Als Rahmenplanung verzichtet der Hochschulentwicklungsplan auf Detailvorgaben. Er ist angelegt auf Konkretisierung durch die Organe der Universität, durch Senat und Hochschulleitung und insbesondere durch die Fachbereiche und Zentren der Universität. Der vorliegende Hochschulentwicklungsplan I basiert auf einer ersten Runde der Entwicklungsplanung an der Johann Wolfgang Goethe-Universität, in der Fachbereiche und Senat vorrangig die wichtigsten Grundlinien der Schwerpunkt- und Profilbildung in den Fachbereichen und auf gesamtuniversitärer Ebene herausgearbeitet haben. In einer zweiten Phase werden im Wintersemester weitere Themen in Angriff genommen.(vgl. Teil IV)
Operative Eingriffe am offenen Herzen wie die häufig durchgeführten Bypass- und Herzklappenersatzoperationen bedürfen fast immer der Unterstützung durch die Herz Lungenmaschine bzw. extrakorporale Zirkulation. Durch den Kontakt des Blutes mit nichtorganischen Fremdoberflächen der EKZ kommt es zur Induktion einer transienten Hyperaktivität neutrophiler Granulozyten. Nachdem Herz und Lunge nach Öffnung der Aortenklemme ihre physiologische Funktion wieder aufnehmen und reperfundiert werden, werden aus diesen ischämischen Organen darüber hinaus pathogene Moleküle wie freie Sauerstoffradikale freigesetzt. Von aktivierten Neutrophilen freigesetzte, immmunkompetente Moleküle (z.B. Zytokine) führen zusammen mit diesem oxidativen Stress zu Organdysfunktionen durch Ödembildung in Körpergeweben wie Myokard, Lunge, Gehirn und Gastrointestinaltrakt und dadurch zu typischen Folgeerscheinungen wie z.B. verlängerter postoperativer Beatmungszeit oder (meist transienten) neuropsychologischen Dysfunktionen im Sinne von kognitiven Defiziten. Andere Pathomechanismen wie Mikroembolien durch z.B. Kleinstteilchen und Gasbildungen aus dem OP Gebiet verstärken diese pathogenen Effekte. Resultat ist eine verlängerte Regenerationsdauer und ein verlängerter Krankenhausaufenthalt der operierten Patienten. Zur Minimierung dieser unerwünschten Wirkungen der EKZ wurden in den letzen 20 Jahren diverse Techniken zur Filtration der unterschiedlichen Kreislaufbestandteile innerhalb der EKZ entwickelt. Von besonderem Interesse ist die seit ca. 8 bis 10 Jahren etablierte Filtration aktivierter neutrophiler Granulozyten, die die Hauptverantwortung für das aseptische Entzündungsgeschehen unter Anwendung der EKZ tragen. Entwicklung und Einsatz dieser leukozytenspezifischen Filtersysteme führt zwar zu einer deutlichen Reduktion der zirkulierenden immunaktiven Zellen und zu einer geringgradigen Verringerung der pathogenen EKZ Folgeerscheinungen, die Effektivität der gegenwärtigen Leukozytenfiltration stellt sich allerdings nur in einzelnen Berichten als positiv dar. Die Daten, die einen deutlichen klinischen Vorteil der Leukozytenfiltration zeigen, sind nicht vorhanden. Die unterstützende Anwendung antiinflammatorischer, systemisch angewandter Pharmaka führte zwar bei den meisten Präparaten zu Erfolg versprechenden Ergebnissen im Tierversuch, konnte aber beim operierten Patienten selbst zu keiner deutlichen Verminderung der unerwünschten EKZ Wirkungen beitragen. Unter der Vorstellung, dass gefilterte, aktivierte Leukozyten zum Großteil zwar nicht in den Patientenkreislauf zurückgepumpt werden, jedoch immer noch immunaktive Stoffe von ihnen synthetisiert und sezerniert werden können, liegt es auf der Hand, dass die aktuell zum klinischen Einsatz kommenden Filtersysteme zum Zwecke der Filtrationsoptimierung und konsekutiver Pathogenitätsminimierung durchaus verbesserungsbedürftig sind. Die in Abschnitt 3 angeführten Ergebnisse belegen, dass antikörperbeschichtete Leukozytenfiltermembranen durchaus in der Lage sind, in einem Kreislaufmodell ihre entsprechenden Antigene herauszufiltern und damit zu inaktivieren. Als klinische Anwendung ist dieses Modell allerdings nur unter einem immensem Technik- sowie Kostenaufwand umsetzbar, so dass sich die Frage nach alternativen Lösungsstrategien stellt. Diese Arbeit leistete die theoretische Grundlage zur Entwicklung eines in naher Zukunft möglicherweise klinisch praktikablen Moduls zur Leukozyteninaktivierung. Da anti CD95 IgM in der Lage sind, Apoptose in CD95 Rezeptor tragenden Zellen zu induzieren und diese damit bzgl. ihrer Stoffwechselaktivität zu limitieren bzw. zu inaktivieren, konnte ein ebenfalls in Abschnitt 3 vorgestelltes Modell zeigen, dass in CD 95 Rezeptor tragenden Zellen über ihren Kontakt mit anti CD95 IgM beschichteten Leukozytenfiltermembranen Apoptose induziert werden kann. Ein detailverbessertes, anti CD95 IgM beschichtetes Leukozytenfiltersystem (Leukozyteninhibitionsmodul, „LIM“) zeigte bereits im Schweineversuch eine deutliche Verbesserung der postoperativen Herzfunktion gegenüber der Tiergruppe, die mit herkömmlichem Leukozytenfiltersystem operiert wurde. Außerdem konnte eine deutlich reduzierte Transmigrationsfähigkeit (als Maß des Aktivierungszustandes) der aus dieser EKZ isolierten Neutrophilen nachgewiesen werden, so dass Grund zur Annahme besteht, dass dieses Modell in Zukunft den herkömmlichen Leukozytenfilter ablösen könnte. Mit dieser Arbeit wurde eine Möglichkeit aufgezeigt, wie die Problematik der EKZ induzierten Immunpathogenese grundlegender bekämpft werden kann.
Innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. Thomas Küpper nimmt in seinem Beitrag das Kriterium der Wiederholungslektüre, das als Qualitäts- und Differenzmerkmal ästhetisch anspruchsvoller Literatur gilt, zum Anlass, die Grenzziehung zwischen Kitsch und Kunst genauer zu überdenken. Nicht die Wiederholungslektüre an sich macht bereits den Unterschied, vielmehr muss eine Unterscheidung zwischen verschiedenen Formen der Wiederholungslektüre getroffen werden. In systemtheoretischer Perspektive lässt sich eine solche typologische Differenzierung anhand des je spezifischen Verhältnisses von Medium, d.h. hier: der Gattungen, und der Form, d.h. der Texte, präzise vornehmen. Trivialliteratur unterscheidet sich dann von der Kunst, insofern ihre Medien der eigentlichen Formrealisierung nur wenig Spielraum lassen: Nicht die Abweichung, sondern die Bestätigung der gegebenen Schemata wird honoriert. Auch der Kitsch bietet Variationen des Bekannten, doch – und hier nähert er sich der Kunst an – die vertrauten und wiederholten Muster werden als einmalige und besondere Formen von bleibendem Wert inszeniert. Am Beispiel des Kultfilms "Pretty Woman" spielt Thomas Küpper diese unterschiedlichen Lektüren durch und zeigt an diesem vermeintlich eindeutig trivialen Fall, dass sich die Faszination des Films den vielen Wiederholungen verdankt.
Innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. In ihrem Beitrag zu Spannungsliteratur und Lesepraxen um 1800 entwirft Ute Dettmar aus kultursoziologischer Perspektive ein Bild von der Vielfalt und Dynamik der kulturellen, literarischen und diskursiven Praxen des ausgehenden 18. Jahrhunderts. Die Gleichzeitigkeit von ästhetisch-normierender Auseinandersetzung um die Faszination des Schrecklichen, von aufgeklärter Lesekritik und einer unbefangenen bürgerlichen Lese- und Theaterpraxis, die sich nicht an das vorgegebene Maß und die Grenzen eines autonomieästhetisch konstituierten Kunstbegriffs hält, charakterisiert das spannungsreiche Mit- und Gegeneinander dieser Umbruchzeit. Anhand der Lektüre populärer Räuberromane erweist sich, dass Grenzziehungen zwischen hoch- und unterhaltungskulturellen Textverwendungsweisen weder in Hinblick auf Stoffe und Gattungen, noch in Hinblick auf die lesende Öffentlichkeit hier bereits rigide gezogen sind.
Innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. Manuel Gujber widmet sich einem vordergründig "sprachlosen" Gegenstand: der Architektur. Sein Interesse gilt dabei dem Spannungsverhältnis zwischen architektonischer Konstruktion und Oberfläche – der "Haut" des Hauses. So bietet die architektonische Oberfläche nicht nur fortwährend neue Möglichkeiten der Gestaltung sondern auch der Interpretation – Lesarten, in denen sich das Verhältnis zwischen "Haut" und "Haus" sowie von deren Wahrnehmung spiegelt.
Innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. Ein weiterer medialer Wechsel vollzieht sich im Beitrag von Annette Becker, der dem Fernsehen, genauer: dem Fernsehinterview gilt. Anhand verschiedener Fernsehinterviews zum gleichen politischen Anlass wird gezeigt, dass und wie verschiedene Lesarten solcher Interviews mit linguistischen Mitteln greif- und analysierbar gemacht werden können.
Protected Mode
(2005)
Innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. Gegenstand von Harald Hillgärtners Untersuchung ist die Frage nach der Lesbarkeit des Computers, vielmehr seiner System- und Programmcodes. Gilt der Computer einerseits als "Textmaschine", die endlose Schreib- und Leseakte prozessiert, so finden jene Programmabläufe doch zumeist jenseits der für alle zugänglichen Benutzeroberflächen statt, die ihrerseits in immer stärkerem Maß mit Icons – Bildern – arbeiten. Und selbst im Falle von frei zugänglichen Software-Codes ist zu fragen, um welche Art Text es sich hier handelt – ob in diesen Fällen gar von Literatur die Rede sein kann. Insofern ist die Frage nach der Lesbarkeit des Computers nicht nur eine Frage nach der Zukunft des Lesens (geht es um Sinn oder um Information?) sondern vielmehr nach dem (Zu-)Stand unserer Schriftkultur selbst.
Innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. Irene Pieper beschäftigt sich aus literaturdidaktischer und lesesoziologischer Perspektive mit der kulturellen Praxis des Lesens. Ihr Beitrag entwickelt systematisch, worin die "Kunst" des literarischen Lesens im Einzelnen besteht und wie diese Kompetenz methodisch in der Auseinandersetzung mit dem Gegenstand Literatur zu erwerben bzw. zu vermitteln ist. Ein kompetenter Leser zu werden heißt, ein breites Spektrum von Fähigkeiten zu erwerben, das vom Realisieren der poetischen Funktion der Literatur über die Empathiefähigkeit bis hin zur Lust am Text reicht. Der Beitrag lotet aus, in welcher Weise vor allem die Schule, die außerhalb der Familie Begegnungen mit und Kommunikationen über Literatur herbeiführt und anregt, an der Bildung solcher Leser und Leserinnen mitwirken kann.
Im Jahr 2003 innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. Sabine Nessel eröffnete die Vortragsreihe mit Beobachtungen zum Lektürebegriff hinsichtlich des Phänomens Film: am Beispiel von Otto Premingers "Bonjour Tristesse" zeigt sie, wie die seit den späten 1960er Jahren übliche Übertragung des Textparadigmas auf den Film im Folgenden eine Erfassung des „Erlebnis Kino“ als Ereignis verstellte. Im Durchgang durch verschiedene Filmtheorien zeigt sie auf, dass Filme zwar "gelesen" aber auch auf einer Ebene jenseits des Kino-Texts somatisch rezipiert – "genossen" – werden, dass also die Begriffe Film, Text und Lesen auf die Bereiche Kino, Ereignis und Erleben hin zu erweitern sind.
Mit den Erinnerungstexten jüdischer Emigranten, in denen die Kindheit im altösterreichischen Galizien eine herausragende Rolle spielt, behandelt diese Arbeit eine bisher wenig beachtete Komponente der deutschen Exilliteratur. Enttäuscht in ihrer Identifikation mit Deutschland und verunsichert durch das Leben im Exil richten die Autoren die Gedanken nach rückwärts: Sie besinnen sich auf die schon weit entfernte Welt ihrer Kindheit im galizischen Schtetl. Trotz unterschiedlicher Formen weisen die Texte viele thematische Parallelen auf und sind in der farbigen Zeichnung der 'Welt von Vorgestern' von der unwirtlichen Exilgegenwart geprägt. Exemplarisch wird diese 'imaginative Aneignung ihrer Herkunft als Heimat' (B.Spies) an der Autobiographie des Schauspielers Granach und dem autobiographischen Roman des Journalisten Katz gezeigt.
Das neue Insiderrecht
(2004)
Mit Inkrafttreten von Art. 1 des Gesetzes zur Verbesserung des Anlegerschutzes (Anlegerschutzverbesserungsgesetz - AnSVG) am 30. Oktober 2004 hat das WpHG zahlreiche Änderungen erfahren. Die nachfolgenden Ausführung gehen anhand einiger ausgewählter Beispiel der Frage nach, inwieweit die Marktmißbrauchsrichtlinie und ihre Umsetzung durch das AnSVG das bisher geltende Insiderrecht geändert haben. Vorab sei bemerkt, daß die Aufgabe, das neue Recht einigermaßen zutreffend zu interpretieren, durch die Besonderheiten des Rechtssetzungsverfahrens, das schließlich in die Neufassung des WpHG eingemündet ist, nicht gerade erleichtert wird: Die europarechtlichen Vorgaben finden sich nicht mehr nur in einer einzigen Richtlinie, sondern sind aufgrund des Komitologieverfahrens über zahlreiche Rechtsakte verteilt. Für das Insiderrecht sind neben der Marktmißbrauchsrichtlinie mehrere Durchführungsrichtlinien und eine Verordnung der Kommission von Bedeutung, für deren Verständnis wiederum die CESR-Vorschläge zusätzliche Anhaltspunkte bieten. Da schon die deutsche Fassung der Richtlinien in etlichen Punkten von den jeweiligen englischen Version und das WpHG wiederum nicht selten von den Richtlinien abweicht, entsteht bisweilen eine Art "stille Post"-Effekt, der es noch mehr als schon bislang notwendig macht, sich bei der Auslegung der Begriffe des WpHG zu vergewissern, ob sich die Umsetzung durch den deutschen Gesetzgeber innerhalb des europarechtlichen Rahmens bewegt. Insbesondere auf der Sanktionenseite ist das nicht durchweg der Fall.
Am 8 Juni 2004 innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. Auch Musik wird "gelesen", nämlich immer dann, wenn es um theoretische Deutungen musikalischer Werke geht. Diese untersucht Ferdinand Zehentreiter, und zwar hinsichtlich der zwei gegensätzlichen Betrachtungsweisen, die sich traditionell in der Interpretation von Musik herausgebildet haben. Geht es einerseits um eine formale Zergliederung der Werke, so werden andererseits außermusikalische Inhalte zur philologischen Erforschung herangezogen. Demgegenüber steht die Beobachtung, dass Kompositionen immanent als Ausdrucks- oder Sinngebilde sui generis nur in Ausnahmefällen entschlüsselt werden, etwa bei E.T.A. Hoffmann, Roland Barthes oder Th. W. Adorno. Der Beitrag geht der Frage nach, ob und wie diese grundlegende Problemkonstellation der Musikwissenschaft heute überwunden werden kann.
QCD-Summenregeln mit Massen
(1993)
Funktionale Programmiersprachen weisen viele Eigenschaften auf, die zur modernen Softwareentwicklung benotigt werden: Zuverlässigkeit, Modularisierung, Wiederverwendbarkeit und Verifizierbarkeit. Als schwer vereinbar mit diesen Sprachen stellte sich die Einbettung von Seiteneffekten in diese Sprachen heraus. Nach einigen mehr oder weniger gescheiterten Ansätzen hat sich mittlerweile fur die nichtstrikte funktionale Sprache Haskell der monadische Ansatz durchgesetzt, bei dem die Seiteneffekte geschickt verpackt werden, so dass zumindest IO-behaftete Teile eines Haskell-Programms dem klassischen imperativen Programmierstil ähneln. S. Peyton Jones bringt dieses in [Pey01, Seite 3] auf den Punkt, indem er schreibt "...Haskell is the world's finest imperative programming language." Dies ist einerseits vorteilhaft, denn die klassischen Programmiertechniken können angewendet werden, andererseits bedeutet dies auch eine Rückkehr zu altbekannten Problemen in diesen Sprachen: Der Programmcode wird unverständlicher, die Wiederverwendbarkeit von Code verschlechtert sich, Änderungen im Programm sind aufwendig. Zudem erscheint die monadische Programmierung teilweise umständlich. Deshalb wurde im Zuge der Entwicklung in fast jede Implementierung von Haskell ein Konstrukt eingebaut, dass von monadischem IO zu direktem IO führt. Da dieses nicht mit dem bisherigen Ansatz vereinbar schien, wird es als "unsafe" bezeichnet, die entsprechende Funktion heißt "unsafePerformIO". Zahlreiche Anwendungen benutzten diese Funktion, teilweise scheint die Verwendung zumindest aus Effizienzgründen unabdingbar. Allerdings ist die Frage, wann dieses verwendet werden darf, d.h. so angewendet wird, dass es nicht "unsicher" ist, nur unzureichend geklärt. Das Zitat in Abbildung 1.1 gibt wenig Aufschluss über die korrekte Anwendung, zumal immer wieder Diskussionen entstehen, ob die Verwendung von unsafePerformIO in diesem oder jenem Spezialfall korrekt ist.
Die Alzheimer-Demenz (AD) ist gekennzeichnet durch extrazelluläre Ablagerungen des Amyloid-beta-Peptids (Aß), durch neurofibrilläre Bündel bestehend aus dem Tau-Protein, massiven Neuronenverlust und synaptische Dysfunktion. Weiterhin ist bekannt, dass mitochondriale Dysfunktion sowie ein gestörter NO-Stoffwechsel eine entscheidende Rolle bei der AD spielen. Um genauere Informationen über die Ursache der mitochondrialen Dysfunktion zu erhalten, wurden akute, chronische und dosisabhängige Effekte von Aß auf die NO-Produktion und die mitochondriale Funktion untersucht. Als Zellkulturmodelle standen PC12- und HEK-Zellen zur Verfügung, die entweder mit humanem Wildtyp-APP (APPwt) oder mit der schwedischen Doppelmutation im APP-Gen (APPsw) stabil transfiziert waren. APPsw-PC12-Zellen wiesen Aß-Spiegel im pikomolaren Bereich auf. Im Vergleich dazu hatten APPsw-HEK-Zellen ca. 20fach erhöhte Aß-Spiegel im niedrig-nanomolaren Bereich. Interessanterweise wiesen sowohl APPsw-PC12- als auch APPsw-HEK-Zellen im Vergleich zu den jeweiligen Kontrollzellen signifikant erhöhte NO-Spiegel auf. Dies ging in beiden Zellsystemen mit signifikant erniedrigten ATP-Spiegeln einher. Die Inkubation untransfizierter Zellen mit extrazellulärem Aß1-42 führte nur zu einem schwachen Anstieg der NO-Spiegel und zu einem leichten Abfall der ATP-Spiegel. Dies weist darauf hin, dass in erster Linie intrazelluläre Aß-Effekte den NO-Anstieg und die ATP-Reduktion bewirken. Die 48-stündige Inkubation mit dem gamma-Sekretasehemmstoff DAPT führte zur beinahe vollständigen Normalisierung der NO- und ATP-Spiegel in APP-transfizierten PC12- und HEK-Zellen. Das stützt die Hypothese, dass der gestörte NO-Stoffwechsel und die mitochondriale Dysfunktion durch Aß-Anreicherungen hervorgerufen werden und nicht durch eine Überexpression von APP. Passend zu den reduzierten ATP-Spiegeln zeigten APPsw-PC12-Zellen eine signifikant erniedrigte Cytochrom-C-Oxidase-Aktivität. Des Weiteren konnte APP in Mitochondrien von APPsw-PC12-Zellen nachgewiesen werden. Die Reduktion der ATP-Spiegel und die verminderte Cytochrom-C-Oxidase-Aktivität können also zum einen durch die Aß-bedingten erhöhten NO-Spiegel und zum anderen durch die Anwesenheit von APP bzw. Aß im Mitochondrium hervorgerufen werden. Auf der Ebene des mitochondrialen Membranpotentials wiesen die beiden Zelllinien stark unterschiedliche Ergebnisse auf. APPsw-PC12-Zellen zeigten unter basalen Verhältnissen ein leicht hyperpolarisiertes mitochondriales Membranpotential, was auf einen Gegenregulationsmechanismus hinweist. APPsw-HEK-Zellen wiesen bereits basal ein signifikant erniedrigtes mitochondriales Membranpotential auf. Nach Inkubation mit dem gamma-Sekretasehemmstoff DAPT normalisierte sich sowohl die Hyperpolarisation des mitochondrialen Membranpotentials in APPsw-PC12-Zellen als auch die Depolarisation in APPsw-HEK-Zellen. Anhand der in dieser Arbeit gewonnenen Daten konnte ein Modell sowohl für die sporadische als auch für die familiäre AD entwickelt werden. APPsw-PC12-Zellen spiegeln hierbei die pathogenen Mechanismen in Patienten mit sporadischer AD wider, wohingegen APPsw-HEK-Zellen die initialen Veränderungen bei Patienten mit familiärer AD aufzeigen. Mitochondriale Fehlfunktion und ein gestörter NO-Stoffwechsel stellen entscheidende initiale Pathomechanismen bei AD dar. Innerhalb der Gruppe der Antidementiva konnte gezeigt werden, dass sowohl Ginkgo-biloba-Extrakt als auch Piracetam schützende Effekte auf die mitochondriale Funktion ausüben. Aufgrund der wichtigen Rolle von mitochondrialer Fehlfunktion in der Pathogenese der Alzheimer Demenz stellen Ginkgo-biloba-Extrakt und Piracetam zwei sehr interessante Präventions- und Therapieoptionen bei Patienten mit leichten kognitiven Störungen bzw. bei Patienten mit AD dar.
Lavater was admired and detested for his unconventional approach to theology and his rediscovery of physiognomy. He was an avid communicator and through his correspondence became known to almost all leading personalities of eighteenth century Europe, such as Goethe, Wieland and Rousseau. The more than 21,000 letters in Lavater's estate in the Zentralbibliothek Zürich display the enormous thematic variety produced during a remarkable forty years of correspondence. This unique source material is now being published for the first time. IDC Publishers makes this collection available for research to such various disciplines as theology, history, literature, arts, humanities and above all, the history of eighteenth century culture. Scope: * 9,121 letters from Lavater * 12,302 letters to Lavater * 1,850 correspondents
Um zu sehen, was im atomaren Bereich "die Welt im Innersten zusammenhält", werden seit fast einem Jahrhundert atomphysikalische Stoßexperimente durchgeführt. Es ist also möglich, durch den Beschuß von "Targetteilchen" mit "Projektilteilchen" Aussagen über verschiedene Größen in der atomaren Welt zu treffen. Hierbei werden nicht nur Eigenschaften wie der "Durchmesser" oder eine "Ladungsverteilung" eines Atoms untersuchbar, sondern - durch entsprechend geschickte Variation des Prinzips "Stoßexperiment" - auch Größen, die ein Laie niemals mit einem Stoß zwischen zwei Teilchen in Verbindung brächte. Moderne Experimente erlauben es inzwischen zum Beispiel, selektiv die Impulsverteilung einzelner Elektronen in Atomen und Molekülen sichtbar zu machen, indem diese durch Photonen entsprechender Energie aus dem zu untersuchenden Teilchen herausgerissen werden. Besagte Experimente stellen nicht nur hohe Anforderungen an die Nachweiseinheit, die den eigentlichen Prozeß sichtbar macht, sondern auch an das verwendete Target und das Projektil. Im Bereich der atomaren Grundlagenforschung bietet sich Helium als zu untersuchendes Objekt oftmals an. Um die Natur zu verstehen, ist es nötig, gemessene Größen mit einer Theorie, die den untersuchten Vorgang beschreiben soll, zu vergleichen. Im Bereich der theoretischen Physik kann bisher nur das Wasserstoffatom, das ein sog. "Zweikörperproblem" ist, ohne Näherungsverfahren vollständig beschrieben werden. Ein Heliumatom stellt also das "einfachste" atomare System dar, das als noch nicht "komplett verstanden" gilt. Genauso ist ein Heliumatom mit seinem Atomkern und seinen zwei Elektronen das erste "Mehrelektronensystem" im Periodensystem. Es können hier also im Vergleich zu Wasserstoff auch Korrelationseffekte zwischen Elektronen untersucht werden. Die gesamte Dynamik innerhalb des Atoms erhält einen anderen Charakter. Bisherige Experimente mit Helium innerhalb unserer Arbeitsgruppe haben allerdings eine prinzipielle Beschränkung: es ist im Allgemeinen sehr schwierig, den Spin der beteiligten Elektronen im Experiment nachzuweisen, so daß alle bisherigen Messungen immer die Einstellung der Elektronenspins nicht berücksichtigen. Es wird also über den Spin gemittelt gemessen. Ein Weg, dieses Problem zu umgehen, ist, neben einer wirklichen Messung des Spins, den Spin im Anfangszustand - also vor dem Streuexperiment - zu kennen. Dies geschieht in der vorliegenden Arbeit dadurch, daß Heliumatome in einem durch "Mikrostrukturelektroden" erzeugten Mikroplasma angeregt werden, und sich so die Spins ihrer beiden Elektronen zum Teil auch parallel zueinander einstellen. Während bisherige Ansätze das Prinzip verfolgen, die angeregten Heliumatome in Niederdruckplasmen bei einigen Millibar zu erzeugen, wird die Plasmaquelle in dieser Arbeit bei Drücken von bis zu einem Bar betrieben. Dadurch kann das Prinzip des "supersonic jets" ausgenutzt werden, so daß der hier erzeugte Atomstrahl eine interne Temperatur von einigen Millikelvin und eine mittlere Geschwindigkeit von 1000 m/s besitzt. Durch einen nur 10 cm langen Separationsmagneten werden die angeregten Zustände mit Spin (#; #) von den Zuständen mit Spin ("; ") und den nicht- angeregten Heliumatomen getrennt und in einem Fokuspunkt für ein Streuexperiment zur Verfügung gestellt. In der folgenden Arbeit wird also ein sehr kompakter Aufbau eines Gastargets aus angeregtem Helium mit polarisiertem Elektronenspin vorgestellt. Ein Target aus angeregtem Helium hat außerdem einen weiteren großen Vorteil gegenüber gewöhnlichen Heliumtargets. In der modernen experimentellen Physik werden oftmals Laser zur Manipulation von Atomen eingesetzt. So ist es möglich, durch gezielte Anregung eines Atoms mit einem Laser dieses zum Beispiel extrem zu kühlen. Hierzu müssen allerdings Anregungsniveaus im Atom zur Verfügung stehen, die mit den Wellenlängen heutiger Laser erreicht werden können. Das erste Anregungsniveau von Helium liegt jedoch mit 19.8 eV deutlich zu hoch. Der nächst höhere P-Zustand ist von diesem Niveau aber nur noch ca. 1.1 eV entfernt. Photonen dieser Energie können leicht mit Lasern erzeugt werden. Angeregtes Helium ist also durch Laser manipulierbar und liefert so zum Beipiel auch den Ausgangspunkt für die Bose-Einstein Kondensation von Helium.
Welches der vielen Internet-Bezahlsysteme sich am Markt durchsetzen wird, hängt entscheidend von der „gefühlten Sicherheit“ bei den Kunden ab. Dieses Fazit konnte man Ende Juni 2002 zum Abschluss des Symposiums „Digitales Geld“ im Institut für Telematik ziehen. Weitere Voraussetzungen für den wirtschaftlichen Erfolg sind einfache Bedienung, transparente und bequeme Abwicklung sowie niedrige Kosten für Verbraucher und Anbieter, waren sich die 14 Referenten aus Wissenschaft, Wirtschaft und Verbänden einig. Das Symposium zur Sicherheit von Internet-Bezahlsystemen verfolgten rund 30 Teilnehmer vor Ort und mehr als 100 durch Live-Übertragung im World Wide Web. Die technischen Probleme - so wurde klar - sind mehr oder weniger alle gelöst. Offen bleibt die Frage, wie für das Verträgeschließen und Bezahlen im Internet mehr gesellschaftliche Akzeptanz und juristische Absicherung erreicht werden kann. Nach dem übereinstimmenden Urteil der meisten Referenten sind Internet-Bezahlsysteme „selbst für die technische Avantgarde“ noch zu kompliziert zu bedienen. Verständlich sei der Wunsch nach einheitlichen Standards. Noch immer stellten für die Kunden die Überweisung nach Rechnung (fast 90% der Internet- Käufer), die Lastschriftabbuchung (über 70%) und die Nachnahme-Zahlung (rund 65%) die beliebtesten Zahlverfahren beim Online-Shopping dar, betonten Marktforscher und Verbraucherschützer. Den größten Bedarf für neue Verfahren, die sinnvollerweise auf den vorhandenen Abrechnungsmechanismen aufbauen sollten, sahen die Symposiums-Teilnehmer im Bereich der Abrechnung von Klein(st)-Beträgen, wie sie beim Kauf digitaler Güter (Software, Musik, elektronische Dokumente usw.) anfallen. Um rentabel arbeiten zu können, seien hier aber die Sicherheitsanforderungen geringer. Mobiles Bezahlen per Handy werde sich in Zukunft immer mehr durchsetzen. Das Sicherheitsproblem liege hier in der „Luftschnittstelle“, so ein Experte, denn das Abhören von Mobilfunkverkehr sei in Europa besonders weit verbreitet. In jedem Fall - so hochrangige Vertreter der Finanzwirtschaft - haben Verfahren im E- und M-Commerce dann eine Chance, wenn sie auf den weltweit bewährten Transaktionsmechanismen beruhen.