Refine
Year of publication
- 2002 (1268) (remove)
Document Type
- Article (514)
- Doctoral Thesis (190)
- Part of Periodical (117)
- Part of a Book (97)
- Review (88)
- Working Paper (83)
- Book (49)
- Preprint (47)
- Conference Proceeding (23)
- diplomthesis (22)
Language
- German (862)
- English (360)
- French (18)
- Portuguese (11)
- mis (5)
- Spanish (5)
- Multiple languages (3)
- Turkish (2)
- Italian (1)
- Polish (1)
Has Fulltext
- yes (1268) (remove)
Is part of the Bibliography
- no (1268) (remove)
Keywords
- Rezension (49)
- Deutschland (26)
- Literatur (20)
- Frankfurt <Main> / Universität (17)
- Frankfurt <Main> (15)
- Theater (14)
- Vormärz (14)
- Phonetik (12)
- Deutsch (11)
- Phonologie (11)
Institute
- Physik (85)
- Extern (71)
- Medizin (66)
- Rechtswissenschaft (48)
- Biochemie und Chemie (47)
- Wirtschaftswissenschaften (38)
- Biowissenschaften (32)
- Gesellschaftswissenschaften (31)
- Pharmazie (25)
- Informatik (22)
Ambivalence in the regulatory definition of capital adequacy for credit risk has recently stirred the financial services industry to collateral loan obligations (CLOs) as an important balance sheet management tool. CLOs represent a specialised form of Asset-Backed Securitisation (ABS), with investors acquiring a structured claim on the interest proceeds generated from a portfolio of bank loans in the form of tranches with different seniority. By way of modelling Merton-type risk-neutral asset returns of contingent claims on a multi-asset portfolio of corporate loans in a CLO transaction, we analyse the optimal design of loan securitisation from the perspective of credit risk in potential collateral default. We propose a pricing model that draws on a careful simulation of expected loan loss based on parametric bootstrapping through extreme value theory (EVT). The analysis illustrates the dichotomous effect of loss cascading, as the most junior tranche of CLO transactions exhibits a distinctly different default tolerance compared to the remaining tranches. By solving the puzzling question of properly pricing the risk premium for expected credit loss, we explain the rationale of first loss retention as credit risk cover on the basis of our simulation results for pricing purposes under the impact of asymmetric information. Klassifikation: C15, C22, D82, F34, G13, G18, G20
The following descriptive paper surveys the various types of loan securitisation and provides a working definition of so-called collateralised loan obligations (CLOs). Free of the common rhetoric and slogans, which sometimes substitute for understanding of the complex nature of structured finance, this paper describes the theoretical foundations of this specialised form of loan securitisation. Not only the distinctive properties of CLOs, but also the information economics inherent in the transfer of credit risk will be considered, so that we can equally privilege the critical aspects of security design in the structuring of CLO transactions.
In this paper we assess the implications of sunk costs and product differentiation on the pricing decisions of the multinational firms. For this purpose we use a modified version of Salop's spatial competition. The model yields clear-cut predictions regarding the effects of exchange rate shocks on the market structure and on pass-through. The main results are following: shocks within the band of inaction do not affect market structure. The upper bound of this range rises as the industry ratio of sunk- to fixed costs increases. As fixed costs and product heterogeneity jointly increase, the lower bound drops. Outside of the range, depreciations cause one or several of those foreign brands closest to the home brand to leave. This decreases the overall responsiveness of prices to exchange rate shocks. Large appreciations induce entry and increase the elasticity of prices. This asymmetry implies larger positive than negative PPP deviations. When accounting for price changes in foreign markets, strategic pricing behaviour is no longer sufficient to generate real exchange rate variability. Incomplete pass-through obtains if and only if the domestic firms have a smaller market share abroad. With large nominal exchange rate shocks a hysteresis result obtains if and only if sunk costs are non-zero. Klassifikation: C33, E31
Since the second half of the nineties the euro area has been subject to a considerable accumulation of temporary and idiosyncratic price shocks. Core inflation indicators for the euro area are thus of utmost interest. Based on euro area-wide data core inflation in this paper is analyzed by means of an indicator derived from the generalized dynamic factor model. This indicator reveals that HICP inflation strongly exaggerated both the decline as well as the increase in the price trend in 1999 and 2000/2001. Our results reinforce those achieved by Cristadoro, Forni, Reichlin and Versonese (2001) based on euro area country data which indicates the robustness of the indicator. Klassifikation: C33, E31
Both unconditional mixed-normal distributions and GARCH models with fat-tailed conditional distributions have been employed for modeling financial return data. We consider a mixed-normal distribution coupled with a GARCH-type structure which allows for conditional variance in each of the components as well as dynamic feedback between the components. Special cases and relationships with previously proposed specifications are discussed and stationarity conditions are derived. An empirical application to NASDAQ-index data indicates the appropriateness of the model class and illustrates that the approach can generate a plausible disaggregation of the conditional variance process, in which the components' volatility dynamics have a clearly distinct behavior that is, for example, compatible with the well-known leverage effect. Klassifikation: C22, C51, G10
In this paper, we present a monetary policy game in which the central bank has a private forecast of supply and demand shocks. The public needs to form its inflationary expectations and can make use of central bank announcements. However, because of the credibility problem that the central bank faces, the public will not believe a precise announcement. By extending the arrangement proposed by Garfinkel and Oh (1995) to a model that includes private information about both demand and supply shocks, we investigate the feasibility of making imprecise credible announcements concerning the rate of inflation. Klassifikation:E52;E58
This paper investigates the financial contracting behavior of German venture capitalists against the results of recent theoretical work on the design of venture capital contracts, especially with regard to the use of convertible securities. First, we identify a special feature of the German market, namely that public-private partnership agencies require significantly lower returns than private and young venture capitalists. The latter are most likely to follow their North-American counterpart by refinancing themselves with closed-end funds. Second, with regard to financing practices it is shown that the use of convertibles, relative to other instruments, is influenced by the anticipated severity of agency problems. Klassifikation: C24; G24; G32
We analyze the desinvestment decision of venture capitalists in the course of an IPO of their portfolio firms. The capital market learns of the project quality only in the period following the IPO. Venture capitalists with high-quality firms face a trade-off between immediately selling their stake in the venture at a price below the true value and having to wait until the true value is revealed. We show that the dilemma may be resolved via a reputation-acquiring mechanism in a repeated game set-up. Thereby, we can explain, e.g., the advent of "hot-issue market behavior" involving early disinvestments and a high degree of price uncertainty. Furthermore, we provide a new rationale for underpricing. Young venture capitalists may use underpricing as a device for credibly committing themselves to acquiring reputation.
Deutsche Börse AG plans to introduce a system (Xetra Best) allowing brokers and broker-dealers to internalize the orders of retail customers. Further, Xetra Best supports payment for order flow arrangements. Both internalization and payment for order flow may be detrimental to market quality. This paper discusses advantages and disadvantages of these arrangements. It draws on experiences made in the US. We derive policy implications that aim at a more stringent interpretation of "best execution", and at higher transparency. Klassifikation: G10, G14
Within a two step GARCH framework we estimate the time-varying spillover effects from European and US return innovations to 10 economic sectors within the euro area, the United States, and the United Kingdom. We use daily data from January 1988 - March 2002. At the beginning of our sample sectors in all three currency areas/blocks formed a quite homogeneous group exhibiting only minor sector-specific characteristics. However, over time sectors became more heterogeneous, that is the response to aggregate shocks increasingly varies across sectors. This provides evidence that sector-specific effects gained in importance. European industries show increased heterogeneity simultaneously with the start of the European Monetary Union, whereas in the US this trend started in the early 1990's. Information technology and non-cyclical services (including telecommunication services) became the most integrated sectors worldwide, which are most affected by aggregate European and US shocks. On the other hand, basic industries, non-cyclical consumer goods, resources, and utilities became less affected by aggregate shocks. Volatility spillovers proved to be small and volatile. JEL_Klassifikation: G1, F36
Forecasting stock market volatility and the informational efficiency of the DAX-index options market
(2002)
Alternative strategies for predicting stock market volatility are examined. In out-of-sample forecasting experiments implied-volatility information, derived from contemporaneously observed option prices or history-based volatility predictors, such as GARCH models, are investigated, to determine if they are more appropriate for predicting future return volatility. Employing German DAX-index return data it is found that past returns do not contain useful information beyond the volatility expectations already reflected in option prices. This supports the efficient market hypothesis for the DAX-index options market.
Money-back guarantees in individual pension accounts : evidence from the German pension reform
(2002)
The German Retirement Saving Act instituted a new funded system of supplementary pensions coupled with a general reduction in the level of state pay-as-you-go old-age pensions. In order to qualify for tax relief, the providers of supplementary savings products must offer a guarantee of the nominal value at retirement of contributions paid into these saving accounts. This paper explores how this "money-back" guarantee works and evaluates alternative designs for guarantee structures, including a life cycle model (dynamic asset allocation), a plan with a pre-specified blend of equity and bond investments (static asset allocation), and some type of portfolio insurance. We use a simulation methodology to compare hedging effectiveness and hedging costs associated with the provision of the money-back guarantee. In addition, the guarantee has important implications for regulators who must find an appropriate solvency system for such saving schemes. This version June 17, 2002 . Klassifikation: G11, G23, G28
Die vorliegende empirische Studie analysiert die Vertragsgestaltung zwischen Investoren und europäischen Venture Capital-Fonds. Im Zentrum steht die Analyse der Vergütung des Fondsmanagements sowie der zum Einsatz kommenden Vertragsklauseln. Deren Ausgestaltung ist entscheidend für die Überwindung der Prinzipal-Agenten-Beziehung innewohnenden Agency-Probleme. Hierzu werden 122 Fondsprospekte sowie 46 Gesellschafterverträge von europäischen Venture Capital-Fonds ausgewertet, die in den Jahren 1996 bis 2001, der ersten großen Boomphase des europäischen Venture Capital-Marktes, aufgelegt wurden. Während die jährliche Vergütung des Fondsmanagements auf den ersten Blick sehr standardisiert erscheint, ergeben sich bei einer Barwertbetrachtung aller zu leistenden Management Fees über die gesamte Fondslaufzeit deutliche Anzeichen für Preisdifferenzierung. In Bezug auf den Einsatz von Vertragsklauseln kann eine Zunahme im Zeitablauf und mithin eine zunehmende Komplexität des Vertragsdesigns festgestellt werden. Vor dem Hintergrund der Erfahrungen aus dem US-amerikanischen Venture Capital-Markt kann diese Entwicklung jedoch noch nicht als abgeschlossen gelten. Der europäische Markt bewegt sich in Bezug auf die Verwendung vertraglicher Restriktionen auf dem Niveau, das in den USA bereits Anfang der neunziger Jahre erreicht war.
Against the difficult background of analysing aggregated data in this paper core inflation in the euro area is estimated by means of the structural vector autoregressive approach. We demonstrate that the HICP sometimes seems to be a misleading indicator for monetary policy in the euro area. We furthermore compare our core inflation measure to the wide-spread "ex food and energy" measure, often referred to by the ECB. In addition we provide evidence that our measure is a coincident indicator of HICP inflation. Assessing the robustness of our core inflation measure we carefully conclude that it seems to be quite reliable. This Version: April, 2002 Revised edition published in: Allgemeinenes Statistisches Archiv, Vol 87, 2003. Klassifikation: C32, E31
In nur wenigen Jahren wird die Euopäische Union um eine Gruppe osteuropäischer Staaten erweitert werden. Diese Erweiterung birgt Chancen und Risiken. Die Chancen liegen unter anderem in der Erweiterung der Märkte und gegenseitigen Handelsbeziehungen. Voraussetzung hierfür ist allerdings gegenseitiges Verständnis im doppelten Sinn dieses Wortes. Wenn die Menschen sich nicht verstehen, werden auch neue Möglichkeiten nicht genutzt werden können, wenn die Wirtschaft nicht die richtige Sprache findet, kann sie nichts verkaufen. Für alle wirtschaftlichen, kulturellen und gesellschaftlichen Bereiche ist eine funktionierende verbale Kommunikation unerläßlich. Wie viel mehr gilt dies für grenzüberschreitende Beziehungen. Die Erweiterung der EU wird nur dann in eine Integration der neuen Kandidaten münden können, wenn die Verständigung zwischen allen Beteiligten gesichert ist. In dem vorliegenden Bändchen weisen die Autoren nach, dass nur durch Sprachkultur und eine einschlägige Forschung, die auch die kulturspezifischen Konnationen mit berücksichtigt, eine interkulturelle Sprachkompetenz erworben werden kann. In der Sprachenvielfalt eines vereinten Europa wird eine solche Kompetenz mehr denn je gefragt sein. Welche Wege uns diesem Ziel näher bringen und welche Möglichkeiten die deutsche Sprache hat, der wachsenden Sprachkonkurrenz international zu begegnen, das ist die Fragestellung der hier publizierten Studien, die dazu eine Fülle von Vorschlägen, Empfehlungen und Anregungen beisteuern. Die Arbeiten sind Ergebnisse des forost-Projektes "Sprachkultur und Sprachkultivierung in Osteuropa – ein paradigmatischer Vergleich", das sich innerhalb der Gruppe III des Forschungsverbundes "Nationale Identität, ethnischer Pluralismus und internationale Beziehungen" dieser Thematik gewidmet hat.
Barriere Sprachkompetenz : Dokumentation zur Impulstagung vom 2. November 2001 im Volkshaus Zürich
(2002)
Lavater was admired and detested for his unconventional approach to theology and his rediscovery of physiognomy. He was an avid communicator and through his correspondence became known to almost all leading personalities of eighteenth century Europe, such as Goethe, Wieland and Rousseau. The more than 21,000 letters in Lavater's estate in the Zentralbibliothek Zürich display the enormous thematic variety produced during a remarkable forty years of correspondence. This unique source material is now being published for the first time. IDC Publishers makes this collection available for research to such various disciplines as theology, history, literature, arts, humanities and above all, the history of eighteenth century culture. Scope: * 9,121 letters from Lavater * 12,302 letters to Lavater * 1,850 correspondents
Um zu sehen, was im atomaren Bereich "die Welt im Innersten zusammenhält", werden seit fast einem Jahrhundert atomphysikalische Stoßexperimente durchgeführt. Es ist also möglich, durch den Beschuß von "Targetteilchen" mit "Projektilteilchen" Aussagen über verschiedene Größen in der atomaren Welt zu treffen. Hierbei werden nicht nur Eigenschaften wie der "Durchmesser" oder eine "Ladungsverteilung" eines Atoms untersuchbar, sondern - durch entsprechend geschickte Variation des Prinzips "Stoßexperiment" - auch Größen, die ein Laie niemals mit einem Stoß zwischen zwei Teilchen in Verbindung brächte. Moderne Experimente erlauben es inzwischen zum Beispiel, selektiv die Impulsverteilung einzelner Elektronen in Atomen und Molekülen sichtbar zu machen, indem diese durch Photonen entsprechender Energie aus dem zu untersuchenden Teilchen herausgerissen werden. Besagte Experimente stellen nicht nur hohe Anforderungen an die Nachweiseinheit, die den eigentlichen Prozeß sichtbar macht, sondern auch an das verwendete Target und das Projektil. Im Bereich der atomaren Grundlagenforschung bietet sich Helium als zu untersuchendes Objekt oftmals an. Um die Natur zu verstehen, ist es nötig, gemessene Größen mit einer Theorie, die den untersuchten Vorgang beschreiben soll, zu vergleichen. Im Bereich der theoretischen Physik kann bisher nur das Wasserstoffatom, das ein sog. "Zweikörperproblem" ist, ohne Näherungsverfahren vollständig beschrieben werden. Ein Heliumatom stellt also das "einfachste" atomare System dar, das als noch nicht "komplett verstanden" gilt. Genauso ist ein Heliumatom mit seinem Atomkern und seinen zwei Elektronen das erste "Mehrelektronensystem" im Periodensystem. Es können hier also im Vergleich zu Wasserstoff auch Korrelationseffekte zwischen Elektronen untersucht werden. Die gesamte Dynamik innerhalb des Atoms erhält einen anderen Charakter. Bisherige Experimente mit Helium innerhalb unserer Arbeitsgruppe haben allerdings eine prinzipielle Beschränkung: es ist im Allgemeinen sehr schwierig, den Spin der beteiligten Elektronen im Experiment nachzuweisen, so daß alle bisherigen Messungen immer die Einstellung der Elektronenspins nicht berücksichtigen. Es wird also über den Spin gemittelt gemessen. Ein Weg, dieses Problem zu umgehen, ist, neben einer wirklichen Messung des Spins, den Spin im Anfangszustand - also vor dem Streuexperiment - zu kennen. Dies geschieht in der vorliegenden Arbeit dadurch, daß Heliumatome in einem durch "Mikrostrukturelektroden" erzeugten Mikroplasma angeregt werden, und sich so die Spins ihrer beiden Elektronen zum Teil auch parallel zueinander einstellen. Während bisherige Ansätze das Prinzip verfolgen, die angeregten Heliumatome in Niederdruckplasmen bei einigen Millibar zu erzeugen, wird die Plasmaquelle in dieser Arbeit bei Drücken von bis zu einem Bar betrieben. Dadurch kann das Prinzip des "supersonic jets" ausgenutzt werden, so daß der hier erzeugte Atomstrahl eine interne Temperatur von einigen Millikelvin und eine mittlere Geschwindigkeit von 1000 m/s besitzt. Durch einen nur 10 cm langen Separationsmagneten werden die angeregten Zustände mit Spin (#; #) von den Zuständen mit Spin ("; ") und den nicht- angeregten Heliumatomen getrennt und in einem Fokuspunkt für ein Streuexperiment zur Verfügung gestellt. In der folgenden Arbeit wird also ein sehr kompakter Aufbau eines Gastargets aus angeregtem Helium mit polarisiertem Elektronenspin vorgestellt. Ein Target aus angeregtem Helium hat außerdem einen weiteren großen Vorteil gegenüber gewöhnlichen Heliumtargets. In der modernen experimentellen Physik werden oftmals Laser zur Manipulation von Atomen eingesetzt. So ist es möglich, durch gezielte Anregung eines Atoms mit einem Laser dieses zum Beispiel extrem zu kühlen. Hierzu müssen allerdings Anregungsniveaus im Atom zur Verfügung stehen, die mit den Wellenlängen heutiger Laser erreicht werden können. Das erste Anregungsniveau von Helium liegt jedoch mit 19.8 eV deutlich zu hoch. Der nächst höhere P-Zustand ist von diesem Niveau aber nur noch ca. 1.1 eV entfernt. Photonen dieser Energie können leicht mit Lasern erzeugt werden. Angeregtes Helium ist also durch Laser manipulierbar und liefert so zum Beipiel auch den Ausgangspunkt für die Bose-Einstein Kondensation von Helium.
Welches der vielen Internet-Bezahlsysteme sich am Markt durchsetzen wird, hängt entscheidend von der „gefühlten Sicherheit“ bei den Kunden ab. Dieses Fazit konnte man Ende Juni 2002 zum Abschluss des Symposiums „Digitales Geld“ im Institut für Telematik ziehen. Weitere Voraussetzungen für den wirtschaftlichen Erfolg sind einfache Bedienung, transparente und bequeme Abwicklung sowie niedrige Kosten für Verbraucher und Anbieter, waren sich die 14 Referenten aus Wissenschaft, Wirtschaft und Verbänden einig. Das Symposium zur Sicherheit von Internet-Bezahlsystemen verfolgten rund 30 Teilnehmer vor Ort und mehr als 100 durch Live-Übertragung im World Wide Web. Die technischen Probleme - so wurde klar - sind mehr oder weniger alle gelöst. Offen bleibt die Frage, wie für das Verträgeschließen und Bezahlen im Internet mehr gesellschaftliche Akzeptanz und juristische Absicherung erreicht werden kann. Nach dem übereinstimmenden Urteil der meisten Referenten sind Internet-Bezahlsysteme „selbst für die technische Avantgarde“ noch zu kompliziert zu bedienen. Verständlich sei der Wunsch nach einheitlichen Standards. Noch immer stellten für die Kunden die Überweisung nach Rechnung (fast 90% der Internet- Käufer), die Lastschriftabbuchung (über 70%) und die Nachnahme-Zahlung (rund 65%) die beliebtesten Zahlverfahren beim Online-Shopping dar, betonten Marktforscher und Verbraucherschützer. Den größten Bedarf für neue Verfahren, die sinnvollerweise auf den vorhandenen Abrechnungsmechanismen aufbauen sollten, sahen die Symposiums-Teilnehmer im Bereich der Abrechnung von Klein(st)-Beträgen, wie sie beim Kauf digitaler Güter (Software, Musik, elektronische Dokumente usw.) anfallen. Um rentabel arbeiten zu können, seien hier aber die Sicherheitsanforderungen geringer. Mobiles Bezahlen per Handy werde sich in Zukunft immer mehr durchsetzen. Das Sicherheitsproblem liege hier in der „Luftschnittstelle“, so ein Experte, denn das Abhören von Mobilfunkverkehr sei in Europa besonders weit verbreitet. In jedem Fall - so hochrangige Vertreter der Finanzwirtschaft - haben Verfahren im E- und M-Commerce dann eine Chance, wenn sie auf den weltweit bewährten Transaktionsmechanismen beruhen.
As there are apparently no doubts concerning the existence of Nazi anti-Semitism before 1933 regarding this topic – having largely been ignored by scholars of contemporary history – seems to be no use. This article tends to trace the role of anti-Semitism during the ascend of the Nazi-movement. Therefore, the author describes the theoretic function of this phenomena for the NSDAP by referring to Hitler’s Weltanschauung and the official program of the party. But how did this anti-Jewish ideology find its way into the party’s day-to-day agitation? By analysing Hitler’s political speeches it is shown how, after 1925/26, the Führer tried to present himself as a moderate politician – for he had realised that the NSDAP had to become a mass-movement in order to gain political power in Weimar Germany. Vis-à-vis the party’s antisemitic membership, mainly retailers and graduates, anti-Jewish stereotypes were pushed in propaganda. Yet, National Socialist anti-Semitism was not only opportunist in that it was played up or down depending upon when and where it hit responsive chords, it was also subject to the regional Gauleiter if this phenomena was promoted like in Streicher’s Franconia or restricted like in Württemberg, Hamburg or Danzig. Only after the world-wide economic crisis of 1929 the NSDAP had considerable success in the Reichstag’s elections. The party presented itself as the only power being capable to establish a new order in Germany. The propaganda focused on the main enemies of the National Socialists: Communism and the liberal democracy – in this context, the anti-Semitism was negligible.
Im Rahmen dieser Projektarbeit sollen drei Beispiele für Publikationsportale vorgestellt werden: das Bibliotheks und Informationssystem der Carl-von-Ossietzky-Universität Oldenburg, der Dokumenten und Publikationsserver der Humboldt-Universität zu Berlin mit Ausblick auf das Projekt ProPrint und das Publikationsportal der Universitätsbibliothek Kassel, das für den Titel dieser Arbeit Pate stand. Um deren Entstehung und Einbindung in einen aktiven Entwicklungsprozess zu verdeutlichen, werden zunächst einige wegweisende Initiativen auf dem Gebiet des elektronischen Publizierens beschrieben, sowie die Kriterien näher erläutert, die für das elektronische Publizieren von grundlegender Bedeutung sind. Es ist noch zu bemerken, dass nur Beispiele zum Publizieren von Monografien beschrieben werden, da das Einbeziehen von Zeitschriftenartikeln zu weit geführt hätte.
Elektronische Information ist ein immer wichtiger werdender Teil in der heutigen Informationsvermittlung und spielt auch für Bibliotheken eine zunehmend bedeutende Rolle. Da sie aber nicht mehr die einzigen Informationsvermittler sind, sondern auch private Anbieter diesen Markt entdeckt haben, müssen Bibliotheken dieser Konkurrenz durch Marketingstrategien entgegentreten. Dies ist eine neue Herausforderung im Bibliotheksbereich. Deshalb stellt sich die Frage, inwieweit Bibliotheken heute schon Marketing betreiben. Im Rahmen unseres Studiums an der Fachhochschule für Bibliothekswesen in Frankfurt am Main, haben wir diese Entwicklung zum Thema einer Projektarbeit gemacht, da sie eine aktuelle Bedeutung für uns als angehende Diplom-Bibliothekare hat. Unsere Ausgangsfragestellung entwickelten wir in der Auseinandersetzung mit den Thesen des Projekts Nutzung elektronischer wissenschaftlicher Informationen in der Hochschulausbildung von der Sozialforschungsstelle Dortmund zusammen mit dem Lehrstuhl für Soziologie der Universität Dortmund und der Gesellschaft für Angewandte Unternehmensforschung und Sozialstatistik mbH (GAUS) im Auftrag des Bundesministeriums für Bildung und Forschung (BMB+F), auch als SteFi-Studie (Studieren mit elektronischen Fachinformationen) bekannt (http://www.stefi.de/). Ziel unserer Arbeit ist es herauszufinden, welche Marketingstrategien bereits von Bibliotheken eingesetzt werden, welche Ziele damit verfolgt werden und wie diese neue Aufgabe organisiert wird. Dazu haben wir mittels eines Fragebogens eine Umfrage an zehn Bibliotheken gerichtet, an der sich neun Bibliotheken beteiligt haben. Diese befasst sich mit den Aspekten Marketingmaßnahmen, Stellenwert dieser Maßnahmen, Marketinggesamtkonzept und Finanzierung. Bei unseren Untersuchungen wurden ausschließlich Universitätsbibliotheken befragt, denen wir für ihre Mitarbeit und Hilfsbereitschaft danken.
Bei der Regulierung und Aufsicht auf den internationalen Wertpapiermärkten gibt es immer noch viele Unterschiede bei den Regelungsinhalten und in der Prioritätensetzung. Die steigende weltweite Verflechtung der Finanzsektoren und deren Akteure sowie die hohe Kapitalmobilität machen es jedoch zunehmend erforderlich, auch die Aufsicht zunehmend zu internationalisieren. Internationale Aufsichtsstandards wiederum können grenzüberschreitende Aktivitäten von Marktteilnehmern erleichtern und sicherer machen. Es ist inzwischen anerkannt, dass eine gute und effiziente Regulierung einen Finanzplatz gerade im internationalen Umfeld attraktiv macht und so dessen Wettbewerbsfähigkeit erhöht. Es ist daher von großer Bedeutung, die nationale Aufsicht internationalen Standards folgen zu lassen. Eine wichtige Funktion bei der Aufstellung dieser Standards haben die internationalen Organisationen wie IOSCO im Wertpapierhandel, die IAIS im Versicherungs- und der Baseler Ausschuss im Bankenbereich inne. In vielfältiger Weise ist deren Arbeit für den Finanzplatz Deutschland richtungsweisend. Das sind wichtige Gründe, weshalb die Teilnahme an Aktivitäten der IOSCO, Mitarbeit an Berichten, Standards und Resolutionen der IOSCO dem deutschen Kapitalmarkt und insbesondere dem Wertpapierhandel in Deutschland nützen kann. Um näher verständlich machen zu können, auf welche Weise IOSCO dem deutschen Kapitalmarkt in diesem Sinne nützlich sein kann, und Arbeiten in der IOSCO von Bedeutung für das deutsche Recht im Bereich des Wertpapierhandels sind, ist es zunächst wichtig, die Organisation IOSCO (1) , ihre Zielsetzung (2) und Struktur (3) zu verstehen, und die Bereiche zu kennen, in denen IOSCO arbeitet (4) sowie die Formen und jeweilige Bindungswirkung der Produkte der IOSCO (5). Wichtig in diesem Zusammenhang sind auch Art und Weise, auf die in IOSCO Beschlossenes unser Finanzsystem tangieren kann und bereits tangiert hat.
We present calculations of two-pion and two-kaon correlation functions in relativistic heavy ion collisions from a relativistic transport model that includes explicitly a first-order phase transition from a thermalized quark-gluon plasma to a hadron gas. We compare the obtained correlation radii with recent data from RHIC. The predicted R_side radii agree with data while the R_out and R_long radii are overestimated. We also address the impact of in-medium modifications, for example, a broadening of the rho-meson, on the correlation radii. In particular, the longitudinal correlation radius R_long is reduced, improving the comparison to data.
We calculate the kaon HBT radius parameters for high energy heavy ion collisions, assuming a first order phase transition from a thermalized Quark-Gluon-Plasma to a gas of hadrons. At high transverse momenta K_T ~ 1 GeV/c direct emission from the phase boundary becomes important, the emission duration signal, i.e., the R_out/R_side ratio, and its sensitivity to T_c (and thus to the latent heat of the phase transition) are enlarged. Moreover, the QGP+hadronic rescattering transport model calculations do not yield unusual large radii (R_i<9fm). Finite momentum resolution effects have a strong impact on the extracted HBT parameters (R_i and lambda) as well as on the ratio R_out/R_side.
We calculate the antibaryon-to-baryon ratios, anti-p/p, anti-Lambda/Lambda, anti-Xi/Xi, and anti-Omega/Omega for Au+Au collisions at RHIC (sqrt{s}_{NN}=200 GeV). The effects of strong color fields associated with an enhanced strangeness and diquark production probability and with an effective decrease of formation times are investigated. Antibaryon-to-baryon ratios increase with the color field strength. The ratios also increase with the strangeness content |S|. The netbaryon number at midrapidity considerably increases with the color field strength while the netproton number remains roughly the same. This shows that the enhanced baryon transport involves a conversion into the hyperon sector (hyperonization) which can be observed in the (Lambda - anti-Lambda)/(p - anti-p) ratio.
We make predictions for the kaon interferometry measurements in Au+Au collisions at the Relativistic Heavy Ion Collider (RHIC). A first order phase transition from a thermalized Quark-Gluon-Plasma (QGP) to a gas of hadrons is assumed for the transport calculations. The fraction of kaons that are directly emitted from the phase boundary is considerably enhanced at large transverse momenta K T ~ 1 GeV/c. In this kinematic region, the sensitivity of the R out/R side ratio to the QGP-properties is enlarged. Here, the results of the 1-dimensional correlation analysis are presented. The extracted interferometry radii, depending on K-Theta, are not unusually large and are strongly affected by momentum resolution effects.
In this paper, I investigate more closely the contribution of modal operators to the semantics of comparatives and I show that there is no need for a maximality or minimality operator. Following Kratzer s (1981, 1991) analysis of modal elements, I assume that the meaning of a modal sentence is dependent on a conversational background and an ordering source. For comparative environments, I demonstrate that the ordering source reduces a set of possible degrees to a single degree that is most (or least) wanted or expected, i.e., maximality and minimality readings of comparative constructions are an effect of the pragmatic meaning of the modal.
Invited talk at the International Workshop XXX on Gross Properties of Nuclei and Nuclear Excitations - Ultrarelativistic Heavy-Ion Collisions, Jan. 13-19, 2002, Hirschegg, Austria. Report-no: LBNL-49674. We discuss predictions for the pion and kaon interferometry measurements in relativistic heavy ion collisions at SPS and RHIC energies. In particular, we confront relativistic transport model calculations that include explicitly a first-order phase transition from a thermalized quark-gluon plasma to a hadron gas with recent data from the RHIC experiments. We critically examine the "HBT-puzzle" both from the theoretical as well as from the experimental point of view. Alternative scenarios are briefly explained.
Differenzierte Verdienststrukturen, wie zum Beispiel qualifikatorische Verdienstunterschiede, tragen der Heterogenität am Arbeitsmarkt und somit auch einer notwendigen Flexibilität der Löhne Rechnung. Trotz dieser bedeutenden Rolle der Lohnstruktur für den Arbeitsmarkt gibt es relativ wenig detaillierte empirische Evidenz zu deren Ausgestaltung und Dynamik für Westdeutschland. In dieser Arbeit werden auf Basis der Gehalts- und Lohnstrukturerhebungen für die Jahre 1990 und 1995 sowohl die Lohndispersion innerhalb bestimmter Erwerbsgruppen („Within-Dispersion“) als auch zwischen diesen Gruppen („Between-Dispersion“) untersucht. Im Fokus der Analysen steht dabei der Vergleich zwischen den Erwerbsgruppen der vollzeitbeschäftigten Männer, der vollzeitbeschäftigten Frauen und der teilzeitbeschäftigten Frauen nach den Qualifikationsniveaus: ohne Berufsabschluss, mit Berufsabschluss und mit Hochschulabschluss. Dichteschätzungen des Bruttotageslohns zeigen, dass vollzeiterwerbstätige Männer über die gesamte Verteilung den höchsten Verdienst aufweisen. Weiterhin deuten die Dichteschätzungen darauf hin, dass die geschlechtsspezifischen Lohndifferentiale mit zunehmendem Verdienst steigen. Der selbe Sachverhalt findet sich auch für die qualifikatorischen Verdienstunterschiede. Mit steigendem Qualifikationsniveau steigt sowohl der Lohn als auch die Dispersion. Besonders ausgeprägt ist die qualifikatorische Dispersion für Männer. Eine Analyse der Lohndifferentiale sowohl innerhalb der Erwerbsgruppen als auch zwischen Männern und Frauen weist darauf hin, dass in der Gruppe der teilzeiterwerbstätigen Frauen die größte Lohndispersion vorzufinden ist und dass diese im Zeitablauf zugenommen hat. Ferner sind die Lohndifferentiale im unteren Bereich der Verteilung kleiner als im oberen. Die weitere Disaggregation nach dem Qualifikationsniveau reduziert die Within-Dispersion, wobei die Lohnunterschiede innerhalb der Erwerbsgruppen mit steigendem Qualifikationsniveau tendenziell zunehmen. Schließlich nimmt die Within-Dispersion für vollzeitbeschäftigte Hochschulabsolventinnen im Zeitablauf zu, während sie für die Teilzeitbeschäftigten sinkt. Betrachtet man die Qualifikations- und die Verteilungsdimension, zeigt sich, dass in beiden Jahren lediglich für vollzeiterwerbstätige Frauen ohne Berufsabschluss bzw. mit Hochschulabschluss das geschlechtsspezifische Differential über die Verteilung hinweg steigt. Für alle anderen Gruppen geht es über die Verteilung hinweg zurück. Die Lohndifferentiale zwischen Männern und Frauen haben im Zeitablauf abgenommen. Das mittlere Reallohnwachstum zwischen 1990 und 1995 ist für teilzeiterwerbstätige Frauen mit 6,8% am höchsten und für vollzeiterwerbstätige Männer mit 0,7% am geringsten. Die Reduktion der geschlechtsspezifischen Unterschiede im Zeitablauf ist unter Berücksichtigung des Qualifikationsniveaus noch ausgeprägter. Dies gilt vor allem für teilzeiterwerbstätige Frauen ohne Berufsabschluss und mit Hochschulabschluss. Für teilzeiterwerbstätige Frauen und für vollzeiterwerbstätige Männer findet sich im Zeitablauf eine zunehmende Lohnspreizung, während für vollzeiterwerbstätige Frauen die Verteilung konstant bleibt. Eine Zunahme der Lohnspreizung ist dabei insbesondere bei Hochschulabsolventen festzustellen, sowohl für vollzeiterwerbstätige Männer wie Frauen. Im Unterschied dazu hat für diese Erwerbsgruppen die Lohndispersion bei den Mittelqualifizierten in den 90er Jahren abgenommen.
Diese Arbeit vergleicht die Verdienststrukturen in Westdeutschland für die Jahre 1990 und 1995 basierend auf der Gehalts- und Lohnstrukturerhebung und der IAB—Beschäftigtenstichprobe. Wir betrachten Verdienstunterschiede im Hinblick auf die berufliche Qualifikation, das Geschlecht, den Erwerbsstatus, die Branchenzugehörigkeit und das Alter. Die Analyse verwendet die Methode der Quantilsregressionen und ist rein deskriptiver Natur. Die beiden Datensätze unterscheiden sich teilweise in der Stichprobenzusammensetzung und es finden sich zum Teil Unterschiede in den geschätzten Verdienstrelationen. Qualitativ stimmen die Ergebnisse vor allem für Männer relativ gut überein. Die Verdienststrukturen erweisen sich als sehr differenziert, beispielsweise nehmen geschlechtsspezifische und qualifikatorische Verdienstunterschiede wie auch die Verdienstdispersion innerhalb einer Arbeitnehmergruppe typischerweise mit dem Alter zu. JEL - Klassifikation: C14 , J31 , C80
Über die Wirkung der Förderung der beruflichen Weiterbildung in Ostdeutschland sind in den letzten Jahren zahlreiche empirische Studien durchgeführt worden, die auf den methodischen Fortschritten der Evaluationsforschung aufbauen. Dieser Beitrag stellt die empirische Evidenz im Kontext der institutionellen Regelungen und der methodischen Probleme einer angemessenen mikro- oder makroökonomischen Evaluation dar. Insbesondere behandeln wir die im ostdeutschen Kontext wichtigen Probleme der Mehrfachteilnahmen und der Reduktion der Beschäftigungsquoten für die Teilnehmer kurz vor einer Weiterbildung ("Ashenfelters Tal"), die bislang in empirischen Analysen kaum Berücksichtigung finden. Die durchgeführten mikroökonomischen Evaluationsstudien basieren auf Umfragedaten mit kleinen Teilnehmerzahlen. Die erzielten Evaluationsergebnisse ergeben ein ernüchterndes Bild der Wirkung geförderter Weiterbildung: Es zeigen sich eher negative als positive Maßnahmeneffekte auf die Beschäftigung. Aufgrund der schwachen Datenbasis und verbleibender methodischer Probleme erlaubt die bisherige Evidenz jedoch noch keine wirtschaftspolitischen Schlussfolgerungen. Stattdessen sollten die eher negativen Ergebnisse von der politischen Seite zum Anlass genommen werden, die Voraussetzungen für eine angemessene und kontinuierliche Evaluation der aktiven Arbeitsmarktpolitik zu schaffen.
Die im Rahmen dieser Diplomarbeit entwickelte sehr einfach und kompakt aufgebaute Mikro-Ionenquelle basiert auf einer Mikro-Struktur-Elektrode (MSE). Mit dieser lässt sich bei einer Betriebsspannung von wenigen 100 Volt eine stabile Hochdruck-Glimmentladung erzeugen. Das Betriebsgas durchströmt die MSE-Pore und expandiert anschließend adiabatisch ins Vakuum, wobei die interne Temperatur des Strahls herabgesetzt wird. Der Vordruck des Gases kann bei dem vorhandenen Aufbau zwischen wenigen 100 hPa und etwa 0,5 MPa liegen. Mit einem ähnlichen Aufbau, jedoch mit deutlich größerer Saugleistung der Vakuumpumpen, konnte selbst bei Vordrücken über 3 MPa noch eine Entladung mit gleichen Eigenschaften betrieben werden. Es wurde gezeigt, dass Ionen durch Diffusion sowie die starke Gasströmung in der MSE-Pore aus dem Plasma extrahiert werden. Eine zusätzliche Beschleunigungsspannung zeigt einen deutlichen Einfluss auf die Formierung eines Ionenstrahls. Es kann ein schmaler Strahl mit maximal einigen mm Durchmesser erzeugt werden. Die Mikroentladung lässt sich mit zahlreichen Gasen betreiben. Erfolgreich getestet wurden Helium, Neon, Argon, Stickstoff und normale Luft sowie Mischungen davon. Auch eine Beimischung von Wasserstoff ist möglich und eröffnet die Erzeugung beispielsweise von molekularen HeH+-Ionen. Zur Extraktion der Ionen kann eine Beschleunigungsspannung von bis zu 5 kV angelegt werden. Der Ionenstrahl wird über ein differenzielles Pumpsystem durch einen Skimmer ins Hochvakuum überführt und dort analysiert. Es entstehen sowohl einfach als auch doppelt geladene Ionen. Bei einem Entladestrom von wenigen mA lässt sich ein Strom von bis zu 3 mA (ohne Sekundärelektronen-Unterdrückung) auf dem Skimmer messen. Die Stromdichte des Strahls ist jedoch zu hoch, um mit der verwendeten einfachen Diodenextraktion den gesamten Strom durch den Skimmer zu transportieren. Nur ein Anteil von ca. 1/50 bis 1/30 des gesamten Ionenstroms kann den Skimmer passieren. Hinter dem Skimmer liegt der Strom zwischen einigen 100 nA und einigen 10 µA. Durch Optimierung der Extraktionsgeometrie sollte hier eine deutliche Erhöhung erreicht werden. Im normalen Betrieb wird mit einem Entladestrom von 1-2 mA gearbeitet. Zum einen ist hier bereits, wie eben erwähnt, die maximale Stromdichte erreicht, die durch den Skimmer transportiert werden kann. Zudem sinkt mit steigendem Strom die Haltbarkeit der MSE-Elektroden aufgrund verstärkten Sputterns erheblich, auch dies spricht gegen einen Betrieb mit hohem Plasmastrom. Der maximale bisher erreichte Entladestrom in einem MSE-Plasma beträgt 50 mA. Der Elektrodenabtrag begrenzt momentan die Betriebsdauer einer MSE auf wenige Stunden. Durch die Einführung von Wolfram-Elektroden konnte bereits eine deutliche Steigerung der Haltbarkeit erreicht werden, für eine sinnvolle Anwendung der Ionenquelle muss jedoch noch eine Weiterentwicklung der MSE stattfinden. Dass sich der Kühleffekt aufgrund der adiabatischen Expansion auf im Plasma erzeugte metastabile He*-Atome auswirkt, wurde im Rahmen einer zweiten Diplomarbeit zum Thema Plasmajet gezeigt. Mit einem Aufbau nach demselben Prinzip, jedoch ohne Extraktionsspannung, wurde eine Apparatur zur Erzeugung eines spinpolarisierten metastabilen Helium-Targets realisiert [Jahn2002]. Es wurde gezeigt, dass zum einen der Energieeintrag ins Gas durch die Entladung sehr gering ist. Es handelt sich also beim MSE-Hochdruck- Plasma tatsächlich um eine nichtthermische Entladung. Zum anderen konnte in ergänzenden Flugzeitmessungen gezeigt werden, dass die Geschwindigkeitsverteilung der Metastabilen der eines herkömmlichen Gasjets entspricht. Der Kühleffekt wirkt also auf die Metastabilen genauso wie auf Gasatome im Grundzustand, ohne dabei die Metastabilen abzuregen. Um die Geschwindigkeitsverteilung der Ionen zu untersuchen, ist die verwendete Methode jedoch nicht ohne weiteres anwendbar. Aufgrund der Coulomb- Abstoßung der Ionen weist der unbeschleunigte Ionenstrahl eine starke Divergenz auf. Die Intensität des Ionensignals auf dem Detektor ist somit äußerst gering, was eine Flugzeitmessung kaum sinnvoll erscheinen lässt. Mit den vorhandenen Diagnosemethoden konnte daher ein Kühleffekt aufgrund der adiabatischen Expansion auf die Ionen nicht verifiziert werden. Mit der Mikro-Ionenquelle wurde jedoch gezeigt, dass es eine Wechselwirkung zwischen Ionen und Gasjet gibt: versucht man, die Ionen mit einer Extraktionsspannung zu beschleunigen, so erfahren sie aufgrund zahlreicher Stöße mit den langsameren Gasteilchen einen massiven Energieverlust. Man erhält einen Ionenstrahl mit stark verbreiterter Energieverteilung. Dies zeigt, dass sich die Ionen im Bereich hoher Dichte mit dem Jet bewegen. Stört man die Expansion, indem man die Ionen mittels der Beschleunigungsspannung aus dem Jet herausreißt, so erfahren sie durch die Wechselwirkung mit den Atomen im Jet einen erheblichen Energieverlust. Es ist daher zu vermuten, dass auch die Ionen gekühlt werden. Misst man mit Hilfe eines Quadrupol-Massenspektrometers das Spektrum von nicht beschleunigten Ionen, so erhält man scharfe Peaks, es tritt also kein Energieverlust auf. Zur Messung des Geschwindigkeitsprofils eignet sich diese Methode jedoch nicht. Es ist daher sinnvoll, in Zukunft mit einer entsprechend angepassten Apparatur auch für die Ionen eine Flugzeitmessung durchzuführen. Die schlechte Energieschärfe des Ionenstrahls ist ein erheblicher Nachteil für viele Anwendungen. Für zukünftige Weiterentwicklungen der Mikro- Ionenquelle muss eine geeignetere Extraktionsgeometrie gefunden werden. Eine Möglichkeit wäre, die Ionen mit dem Gasjet mitfliegen zu lassen und in größerem Abstand zu beschleunigen, wenn die Dichte im Jet stark abgefallen ist. In diesem Fall muss man jedoch eine sinnvolle Lösung für Größe und Position des Skimmers finden oder klären, ob auf einen Skimmer vollständig verzichtet werden kann. Es könnte bei dieser Lösung hilfreich sein, die Raumladungsdichte im Ionenstrahl durch Überlagerung mit einem Elektronenstrahl zu reduzieren und so die Divergenz des Strahls zu verringern. Man könnte die Divergenz auch verringern, indem man den Ionenstrahl durch ein Magnetfeld einschließt. Hierbei provoziert man aber vermutlich durch die Spiralbewegung der Ionen zusätzliche Stöße mit dem Jet. Denkbar wäre auch, die Ionen mit Hilfe elektrischer Felder aus dem Gasjet herauszulenken und anschließend zu beschleunigen. Bekommt man das Problem des Energieverlusts in den Griff, so erhält man eine leistungsfähige Ionenquelle, die ein großes Potential für Anwendungen bietet. Der kompakte Aufbau ermöglicht einen Verzicht auf Wechselspannungen, Mikrowellenstrahlung sowie magnetischen Einschluss. Da es sich um eine Gleichspannungsentladung mit wenigen Watt Leistung handelt, ist ein sehr energieeffizienter Betrieb möglich. Die gemessenen Ionenströme zeigen, dass eine Hochdruckentladung auf der Basis von MSE eine hohe Ionisationseffizienz aufweist. Der hohe Arbeitsdruck ermöglicht eine große Ausbeute an molekularen Ionen. Gelingt es, den Kühleffekt des Gasjets auf die Ionen zu nutzen, so erzeugt man einen Ionenstrahl mit sehr niedriger interner Temperatur, der für atomphysikalische Experimente interessant ist. Zudem ließe sich ein solcher Strahl auf sehr kleine Durchmesser fokussieren, was eine hohe Genauigkeit etwa bei Oberflächenmodifikationen erlaubt. Die Untersuchungen im Bereich Gasanalytik haben gezeigt, dass Hochdruckentladungen hier eine Alternative zu den herkömmlichen, auf Niederdruckentladungen basierenden, Messverfahren darstellen. Die sehr guten Nachweisgrenzen für Freon in Kombination mit dem einfachen und kompakten Aufbau sprechen für die Hochdruckentladung. Jedoch muss für eine sinnvolle Nutzung die Haltbarkeit der MSE noch deutlich erhöht werden.
Auf der methodologischen Grundlage objektiv-hermeneutischer Sequenzanalysen von vier Reden, die der Bundesverteidigungsminister Gerhard Stoltenberg (CDU) und der Bundesminister für Auswärtige Angelegenheiten Hans-Dietrich Genscher (FDP) im Januar 1991 sowie der Bundeskanzler Gerhard Schröder (SPD) und der Bundesminister für Auswärtige Angelegenheiten Joschka Fischer (Bündnis 90/Die Grünen) im November 2001 vor dem Deutschen Bundestag gehalten haben, zeigte sich, dass die militärische Abstinenz der Bundesrepublik im Golfkrieg und der Einsatz der Bundeswehr im Rahmen der Operation »Enduring Freedom«, dem „Krieg gegen den Terror“, auf den geteilten Umgang konservativer und progressiver Bundesregierungen mit dem Tabu des Militärischen zurückzuführen ist, das sich in Deutschland in Reaktion auf den Zweiten Weltkrieg gebildet hatte. Vor dem Hintergrund eines gesinnungsethisch dominierten politischen Diskurses in der Bundesrepublik schreckte die aus Union und Liberalen geführte Regierung von Bundeskanzler Helmut Kohl (CDU) wenige Wochen nach dem Vollzug der Deutschen Einheit und der Wiedererlangung der vollen Souveränität teilweise wider besseres Wissen vor einem Bruch dieses Tabus in Form einer Durchsetzung der Staatsräson zurück, weil sie fürchtete, im Falle einer aktiven Beteiligung deutscher Streitkräfte an den Kriegshandlungen zur Restitution des Völkerrechts, das durch die irakische Invasion Kuwaits gebrochen worden war, von der öffentlichen Meinung eines Rückfalls in die Ära des deutschen Militarismus bezichtigt zu werden. Da sich dieses Problem für Mitte-Links-Regierungen so nicht stellt, sondern ganz im Gegenteil die Aussicht auf eine positive Anrechnung der Verletzung von Tabus als Ausweis ihrer Lernfähigkeit besteht, war es der Koalition aus SPD und Bündnis 90/Die Grünen möglich, die Bundeswehr nach dem Präzedenzfall der NATO-Luftangriffe auf Jugoslawien auch an der militärischen Beantwortung der Terrorattacken vom 11. September 2001 zu beteiligen. Darüber hinaus verweist das Novum einer aktiven militärischen Beteiligung der Bundesrepublik an internationalen Kriegseinsätzen unter der Ägide der ersten rot-grünen Bundesregierung wohl auch auf einen allmählich von den Regierenden auf die Regierten übergehenden langfristigen Wandel auf der Ebene der Mentalitäten, der dadurch begünstigt worden ist, dass sich 1998 ein doppelter Machtwechsel im Bund vollzog, der erstmals seit 16 Jahren wieder eine der Tendenz nach linke Mehrheit etablierte und gleichzeitig einer neuen Generation die Regierungsverantwortung übertrug. Diese neue Generation hat es offenbar nicht nur verstanden, ihre Anhänger in langjährig erprobter ideologischer Abgrenzung von der konservativ-liberalen Regierung Kohl so fest an sich zu binden, dass diese ihr auch »in den Krieg« folgten, sondern sie drückte der deutschen Politik zugleich einen neuen Stil auf, der sehr bald selbst zum Programm werden könnte.
Einbindung und standörtliche Organisation von Ingenieurdienstleistern in der Automobilentwicklung
(2002)
Die Organisation der Automobilentwicklung unterliegt auch in den 1990er Jahren einem tiefgreifenden Wandel, der durch ein anhaltendes Engineering Outsourcing und eine zeitliche Parallelisierung von Entwicklungsaufgaben nach dem Konzept des Simultaneous Engineering zum Ausdruck kommt (vgl. Jürgens 2000a, Rentmeister 2001). Die Automobilhersteller sind dabei die zentralen Akteure. Mit neuen Formen unternehmensübergreifender Arbeitsteilung streben sie eine Reduzierung ihrer Entwicklungskosten und der Entwicklungszeiten für neue Fahrzeugmodelle an. Zugleich versuchen sie auf diese Weise, eine zunehmende Zahl an Modellen auf den Markt zu bringen und ihre Wettbewerbsfähigkeit zu erhöhen. Der wesentliche Grund für die gegenwärtige Reorganisation der Automobilentwicklung liegt in einem verschärften globalen Wettbewerb unter den Automobilkonzernen, die auf zunehmend weltweit integrierten Märkten im Wettbewerb zueinander stehen.
The corporate convergence debate is usually presented in terms of competing efficiency and political claims. Convergence optimists assert that an economic logic will promote convergence on the most efficient form of economic organization, usually taken to be the public corporation governed under rules designed to maximize shareholder value. Convergence skeptics counterclaim that organizational diversity is possible, even probable, because of path dependent development of institutional complementarities whose abandonment is likely to be inefficient. The skeptics also assert that existing elites will use their political and economic advantages to block reform; the optimists counterclaim that the spread of shareholding will reshape politics.
The venture capital market and firms whose creation and early stages were financed by venture capital are among the crown jewels of the American economy. Beyond representing an important engine of macroeconomic growth and job creation, these firms have been a major force in commercializing cutting edge science, whether through their impact on existing industries as with the radical changes in pharmaceuticals catalyzed by venture-backed firms commercialization of biotechnology, or by the their role in developing entirely new industries as with the emergence of the internet and world wide web. The venture capital market thus provides a unique link between finance and innovation, providing start-up and early stage firms - organizational forms particularly well suited to innovation - with capital market access that is tailored to the special task of financing these high risk, high return activities.
This article presents a structural overview of corporate disclosure in Germany against the background of a rapidly evolving European market. Professor Baums first makes the theoretical case for mandatory disclosure and outlines the standard, regulatory elements of market transparency. He then turns to German law and illustrates both how it attempts to meet the principle, theoretical demands of disclosure and how it should be improved. The article also presents in some detail the actual channels of corporate disclosure used in Germany and the manner in which German law now fits into the overall development of the broader, European Community scheme, as well as the contemplated changes and improvements both at the national and the supranational level.
Das Recht zur Verhinderung von Kursmanipulationen ist durch das 4. Finanzmarktförderungsgesetz, das am 1. Juli 2002 in Kraft getreten ist, grundlegend reformiert worden. Der Beitrag befasst sich mit den Hintergründen und der Ausgestaltung dieser Neuregelung sowie der Frage, wie diese zu bewerten ist. Verschiedene (wesentliche) Details waren im Gesetzgebungsverfahren hoch umstritten. Ein wichtiger Punkt, nämlich die subjektiven Voraussetzungen des § 20a Abs.1 S.1 Nr.2 WpHG, ist noch kurz vor Abschluss des Verfahrens geändert worden.
The paper was submitted to the conference on company law reform at the University of Cambridge, July 4th, 2002. Since the introduction of corporation laws in the individual German states during the first half of the 19th century, Germany has repeatedly amended and reformed its company law. Such reforms and amendments were prompted in part by stock exchange fraud and the collapse of large corporations, but also by a routine adjustment of law to changing commercial and societal conditions. During the last ten years, a series of significant changes to German company law led one commentator to speak from a "company law in permanent reform". Two years ago, the German Federal Chancellor established a Regierungskommission Corporate Governance ("Government Commission on Corporate Governance") and instructed it to examine the German Corporate Governance system and German company law as a whole, and formulate recommendations for reform.
Ich möchte diese Gelegenheit nutzen, um die amerikanische Sicht auf einen wohl immer bedeutenderen Bestandteil der deutschen Corporate Governance-Landschaft, das feindliche Übernahmeangebot, darzustellen. Ob Übernahmeangebote von einem ausländischen Bieter abgegeben werden (man denke nur an das Gebot von Vodafone an die Aktionäre von Mannesmann oder an das Gebot von Barilla für Kamps), oder ob es von einem einheimischen Bieter stammt – wer könnte Krupps Gebot für Thyssen vergessen ? –: Feindliche Übernahmegebote betreffen nicht nur die Führungsorgane der einzelnen Zielunternehmen, sondern, wegen ihrer Bedrohung für festgefahrene Geschäftsmuster, auch das ökonomische und politische Umfeld.
Das neue Wertpapiererwerbs- und Übernahmegesetz (WpÜG)1 weist den Wertpapierdienstleistungsunternehmen erstmals eine gesetzliche Rolle im Rahmen der Finanzierung von öffentlichen Übernahmeangeboten zu, indem es eine von einem solchen Unternehmen ausgestellte Bestätigung der Finanzierbarkeit zum zwingenden Bestandteil der Angebotsunterlage macht. Hieraus ergibt sich zum einen ein neues Geschäftsfeld für Kreditinstitute, zum anderen aber auch ein neues Haftungsrisiko.