Refine
Year of publication
Document Type
- Working Paper (3389) (remove)
Language
- English (2353)
- German (1016)
- Spanish (8)
- French (7)
- Multiple languages (2)
Keywords
- Deutschland (223)
- USA (64)
- Corporate Governance (53)
- Geldpolitik (53)
- Schätzung (52)
- Europäische Union (51)
- monetary policy (47)
- Bank (41)
- Sprachtypologie (34)
- Monetary Policy (31)
Institute
- Wirtschaftswissenschaften (1498)
- Center for Financial Studies (CFS) (1471)
- Sustainable Architecture for Finance in Europe (SAFE) (805)
- House of Finance (HoF) (665)
- Rechtswissenschaft (402)
- Institute for Monetary and Financial Stability (IMFS) (214)
- Informatik (119)
- Exzellenzcluster Die Herausbildung normativer Ordnungen (75)
- Gesellschaftswissenschaften (75)
- Geographie (64)
Das Ergebnis des Volksentscheids im Vereinigten Königreich ist ein Weckruf. Alle Entscheidungsträger der Europäischen Union und ihrer Mitgliedstaaten sind aufgerufen, grundlegende Reformen der Verfassung einer Europäischen Union, möglicherweise nur noch einer europäischen „Kontinentalunion“ unverzüglich in Angriff zu nehmen. Unverzüglich bedeutet, einen Reformprozess nicht erst dann zu beginnen, wenn die Verhandlungen über ein Austrittsabkommen beendet worden sind. Eine Rückentwicklung der Europäischen Union zu einer bloßen Wirtschaftsgemeinschaft dürfte dabei keine Lösung sein. Es ist jetzt angezeigt, offen und – notfalls kontrovers – zu diskutieren, wie ein künftiger Bundesstaat auf europäischer Ebene aussehen könnte.
(1) Unter „öffentlichen Banken“ sind Kreditinstitute in unmittelbarer oder mittelbarer Trägerschaft einer Gebietskörperschaft zu verstehen.
(2) Eine Bestandsaufnahme ergibt, dass ein nennenswerter Teil der „öffentlichen Banken“ materiell privatisiert oder stark umgeformt worden ist.
(3) Die Sicherung der Kunden durch Anstaltslast und Gewährträgerhaftung ist weitgehend beseitigt worden, ohne dass dies den Betroffenen hinreichend deutlich gemacht worden ist.
(4) Die bestehenden „öffentlichen Banken“ sind deutlich vielgestaltiger organisiert als noch vor wenigen Jahren.
(5) Auch „öffentliche Banken“ unterliegen regelmäßig der „allgemeinen“ Aufsicht und Kontrolle, wie sie für privatwirtschaftliche Institute in ihrer jeweiligen Rechtsform gelten.
(6) Darüber hinaus ist aus verfassungsrechtlichen Gründen eine besondere Leitung, Aufsicht und Kontrolle der „öffentliche Banken“ durch ihr Trägergemeinwesen erforderlich; nicht zuletzt um die Einhaltung ihres besonderen öffentlichen Auftrags kontrollieren zu können.
(7) Die Prüfung durch Wirtschafsprüfer kann diese Aufgaben nicht erfüllen.
(8) Sie ist an erster Stelle Aufgabe der Exekutive des Trägergemeinwesens.
(9) Eine bloße Rechtsaufsicht ist verfassungsrechtlich problematisch, jedenfalls dann wenn eine Einstandspflicht des Trägergemeinwesens besteht.
(10) Die Mitwirkung in Aufsichtsgremien der „öffentliche Banken“ ist keine hinreichende Aufsicht in diesem Sinne.
(11) Darüber hinaus sind die parlamentarische Kontrolle und die Kontrolle durch die Rechnungshöfe ganz wesentlich.
(12) Die Kontrolle durch Sicherungseinrichtungen kann wirksam und sinnvoll sein.
(13) Öffentlich-rechtliche und privatrechtliche Mischformen dürfen nicht zu einer Ausdünnung von Aufsicht und Kontrolle führen.
(14) Der Einsatz des Instituts der Beleihung ist nur dann rechtlich akzeptabel, wenn ein durchgehender Aufsichts- und Leitungsstrang auch gegenüber dem Beliehenen gesichert ist.
(15) Überlegungen zur Neuordnung der „öffentlichen Banken“ müssen zuerst die Frage beantworten, ob und welche Bankdienstleistungen der Staat unmittelbar oder mittelbar anbieten sollte.
(16) Eine Grundversorgung der Bevölkerung mit einfachen Bankdienstleistungen, die sicher, einfach, kostengünstig und leicht erreichbar sind, ist eine staatliche Aufgabe. Hier liegt in weitem Umfang Marktversagen vor.
(17) Ob ein reformiertes Einlagensicherungssystem die notwendige Sicherheit bieten kann, ist zweifelhaft, solange keine Staatsgarantie für die Sicherungseinrichtungen besteht.
(18) Es ist an eine Reaktivierung von Anstaltslast und Gewährträgerhaftung für einfache Institute zur Grundversorgung der Bevölkerung zu denken.
(19) Leitung und Kontrolle des Managements „öffentlicher Banken“ müssen wesentlich strenger werden, um jegliche Risiken für die öffentlichen Haushalte auszuschließen. Gehaltsmäßig muss ihre Leitung so uninteressant sein, dass sie weder für Politiker noch für „Finanzingenieure“ attraktiv ist.
This note reviews the legal issues and concerns that are likely to play an important role in the ongoing deliberations of the Federal Constitutional Court of Germany concerning the legality of ECB government bond purchases such as those conducted in the context of its earlier Securities Market Programme or potential future Outright Monetary Transactions.
This note reviews the legal issues and concerns that are likely to play an important role in the ongoing deliberations of the Federal Constitutional Court of Germany concerning the legality of ECB government bond purchases such as those conducted in the context of its earlier Securities Market Programme or potential future Outright Monetary Transactions.
This paper summarizes key elements of the German Federal Constitutional Court’s decision on the European Central Bank’s Public Sector Asset Purchase Programme. It briefly explains how it is possible for the German Court to disagree with the ruling of the Court of Justice of the European Union. Finally, it makes suggestions concerning a practical way forward for the Governing Council of the ECB in light of these developments.
Although the elderly are more vulnerable to COVID-19, the empirical evidence suggests that they do not behave more cautiously in the pandemic than younger individuals. This theoretical model argues that some individuals might not comply with the COVID-19 measures to reassure themselves that they are not vulnerable, and that the incentives for such self-signaling can be stronger for the elderly. The results suggest that communication strategies emphasizing the dangers of COVID-19 could backfire and reduce compliance among the elderly.
We examine the inter-linkages between financial factors and real economic activity. We review the main theoretical approaches that allow financial frictions to be embedded into general equilibrium models. We outline, from a policy perspective, the most recent empirical papers focusing on the propagation of exogenous shocks to the economy, with a particular emphasis on works dealing with time variation of parameters and other types of nonlinearities. We then present an application to the analysis of the changing transmission of financial shocks in the euro area. Results show that the effects of a financial shock are time-varying and contingent on the state of the economy. They are of negligible importance in normal times but they greatly matter in conditions of stress.
Luis de Molina (1535-1600) grants slaves a legal status through which they can take up a position with respect to their masters between equivalent legal entity and legal object. Here, what is decisive is the figure of the subjective right, which both for Molina and modern proponents of this legal concept describes the 'right per se'. According to Molina's definition of ius, the denial of a subjective right or the hindrance of exercising an individual right represents an injustice. The rights granted to a slave in virtue of his being regarded a human being (despite the condition of slavery) serve to protect the slave against unjust acts. Molina does not distinguish the slave as a legal entity as separate from his master insofar as the slave should be protected against injustices committed against him or his property; injustices for which he would be entitled to compensation. Yet, the slave is not able to stake his claim to a particular right because it is not possible for him to take the matter to court. His natural law justified coequal legal status with respect to his master is limited in such a way by the positive legal order (by means of which slavery is generally made possible) that he is to be held legally incompetent as a legal entity with regard to defending and enforcing his 'qua homo'-legal rights. This precarious situation is due to the complicated legal intermediate position of a human legal entity, which, at the same time, represents the legal object of another person.
Das 2. UmwG-ÄndG bringt hinsichtlich der grenzüberschreitenden Verschmelzung einen erheblichen Gewinn an Rechtssicherheit. Weil die §§ 122a ff. UmwG-E weitgehend eine getreue Umsetzung der IntVRiL darstellen, werden künftige transnationale Verschmelzungen erleichtert; dies jedenfalls dann, wenn auch die anderen EU-Mitgliedstaaten die Richtlinie alsbald umsetzen. Anders als bei innerstaatlichen Verschmelzungen sind die für die Arbeitnehmer wesentlichen Informationen nicht im Verschmelzungsvertrag bzw. -plan, sondern im Verschmelzungsbericht enthalten. Dementsprechend ist dieser nicht verzichtbar. Sofern ein Verhandlungsverfahren über die künftige Mitbestimmung nach MgVG stattfindet, können sich die Anteilseigner die Bestätigung der dort erzielten Ergebnisse vorbehalten (§ 122g Abs. 1 UmwG-E), wenn die Verhandlungen im Zeitpunkt der Zustimmung zur Verschmelzung noch nicht beendet sind. Für die Bestätigung können andere Beschlussmodalitäten vorgesehen werden als für den Verschmelzungsbeschluss selbst. § 122c Abs. 2 Nr. 11, 12 UmwG-E ist dahingehend teleologisch zu reduzieren, dass die dort geforderten Angaben entfallen können, wenn sie für die Umsetzung und bilanzielle Abbildung der Verschmelzung nach den beteiligten Rechtsordnungen nicht erforderlich sind. Eine Zustimmung der Anteilseigner ausländischer Rechtsträger zur Durchführung eines Spruchverfahrens wird regelmäßig nicht zu erlangen sein. In diesem Fall sind die Gesellschafter des deutschen übertragenden Rechtsträgers – abweichend von § 14 Abs. 2 UmwG – auf die Anfechtungsklage verwiesen. Findet demgegenüber ein Spruchverfahren statt, insbesondere weil alle beteiligten Rechtsordnungen ein solches vorsehen, wird die vom Gesetzgeber gewünschte Zuständigkeitskonzentration kaum je zu erreichen sein. Regelmäßig werden nämlich die Gerichte in den Sitzstaaten sowohl des übertragenden als auch des übernehmenden Rechtsträgers international zuständig sein. Die Vorschrift des § 6c SpruchG-E ist dahingehend teleologisch zu reduzieren, dass ein gemeinsamer Vertreter nur für solche Anteilseigner zu bestellen ist, deren Zustimmung nach § 122h Abs. 1 UmwG-E zur Durchführung des Spruchverfahrens erforderlich ist. Auch in den vom 2. UmwG-ÄndG nicht geregelten Fälle internationaler Umwandlungen (insbesondere Verschmelzung unter Beteiligung von Personengesellschaften und Spaltung) kann weitgehend auf die in §§ 122a ff. UmwG-E enthaltenen Rechtsgedanken zurückgegriffen werden.
Das Dakota besitzt eine Überfülle von Elementen, die auf Lokalität referieren. Neben einer geringeren Zahl von Präfixen und Suffixen gibt es Schätzungsweise 3000 Lokaladverbien und Postpositionen (davon wurden für diese Arbeit etwa 800 berücksichtigt). Die fünf Demonstrativpronominia werden zur Bildung einer Vielzahl von Adverbien herangezogen. Daneben weisen die Verben, vor allem die Bewegungsverben, einen starken Bezug zur Lokalität auf. Fast jede, wie auch immergeartete Handlung wird in Bezug auf die lokale Situation, in der sie abläuft, gesehen. Dieser Lokalitätsbezug ist entweder lexikalisiert oder wird durch Affixe hergestellt [...] Im folgenden werden die lokaien Relatoren des Dakota. untersucht. Die lokalen Relatoren stellen eine lokale Beziehung zwischen zwei Nomina her.
This paper documents the trends in the life-cycle profiles of net worth and housing equity between 1983 and 2004. The net worth of older households significantly increased during the housing boom of recent years. However, net worth grew by more than housing equity, in part because other assets also appreciated at the same time. Moreover, the younger elderly offset rising house prices by increasing their housing debt, and used some of the proceeds to invest in other assets. We also consider how much of their housing equity older households can actually tap, using reverse mortgages. This fraction is lower at younger ages, such that young retirees can consume less than half of their housing equity. These results imply that ‘consumable’ net worth is smaller than standard calculations of net worth. JEL Classification: G11, E21
Industry concentration and markups in the US have been rising over the last 3-4 decades. However, the causes remain largely unknown. This paper uses machine learning on regulatory documents to construct a novel dataset on compliance costs to examine the effect of regulations on market power. The dataset is comprehensive and consists of all significant regulations at the 6-digit NAICS level from 1970-2018. We find that regulatory costs have increased by $1 trillion during this period. We document that an increase in regulatory costs results in lower (higher) sales, employment, markups, and profitability for small (large) firms. Regulation driven increase in concentration is associated with lower elasticity of entry with respect to Tobin's Q, lower productivity and investment after the late 1990s. We estimate that increased regulations can explain 31-37% of the rise in market power. Finally, we uncover the political economy of rulemaking. While large firms are opposed to regulations in general, they push for the passage of regulations that have an adverse impact on small firms.
Under Solvency II, corporate governance requirements are a complementary, but nonetheless essential, element to build a sound regulatory framework for insurance undertakings, also to address risks not specifically mitigated by the sole solvency capital requirements. After recalling the provisions of the second pillar concerning the system of governance, the paper is devoted to highlight the emerging regulatory trends in the corporate governance of insurance firms. Among others, it signals the exceptional extension of the duties and responsibilities assigned to the Board of directors, far beyond the traditional role of both monitoring the chief executive officer, and assessing the overall direction and strategy of the business. However, a better risk governance is not necessarily built on narrow rule-based approaches to corporate governance.
Under Solvency II, corporate governance requirements are a complementary, but nonetheless essential, element to build a sound regulatory framework for insurance undertakings, also to address risks not specifically mitigated by the sole solvency capital requirements. After recalling the provisions of the Second Pillar concerning the system of governance, the paper highlights the emerging regulatory trends in the corporate governance of insurance firms. Among others things, it signals the exceptional extension of the duties and responsibilities assigned to the board of directors, far beyond the traditional role of both monitoring the chief executive officer, and assessing the overall direction and strategy of the business. However, a better risk governance is not necessarily built on narrow rule-based approaches to corporate governance.
This paper empirically investigates how organizational hierarchy affects the allocation of credit within a bank. Using an exogenous variation in organizational design, induced by a reorganization plan implemented in roughly 2,000 bank branches in India during 1999-2006, and employing a difference-in-differences research strategy, we find that increased hierarchization of a branch decreases its ability to produce "soft" information on loans, leads to increased standardization of loans and rationing of "soft information" loans. Furthermore, this loss of information brings about a reduction in performance on loans: delinquency rates and returns on similar loans are worse in more hierarchical branches. We also document how hierarchical structures perform better in environments that are characterized by a high degree of corruption, thus highlighting the benefits of hierarchical decision making in restraining rent seeking activities. Finally, we document a channel - managerial interference - through which hierarchy affects loan outcomes.
The objective of this paper is to test the hypothesis that in particular financially constrained firms lease a higher share of their assets to mitigate problems of asymmetric information. The assumptions are tested under a GMM framework which simultaneously controls for endogeneity problems and firms’ fixed effects. We find that the share of total annual lease expenses attributable to either finance or operating leases is considerably higher for financially strained as well as for small and fast-growing firms – those likely to face higher agency-cost premiums on marginal financing. Furthermore, our results confirm the substitution of leasing and debt financing for lessee firms. However, we find no evidence that firms use leasing as an instrument to reduce their tax burdens. Keywords: Leasing; financial constraints; capital structure; asymmetric information.
Following the neopatrimonialism paradigm, it can be hypothesised that in African states informal politics of the rulers infringe on the collection of taxes and in turn reduce state revenues. This article tests this proposition for the case of Zambia. The main finding is that there is no linear correlation between a neopatrimonial system and the collection of taxes. Neopatrimonial continuity in the country is evidenced by three factors; the concentration of political power, the award of personal favours and the misuse of state resources. Despite this continuity, the revenue performance has increased considerably with the creation of the semi-autonomous Zambia Revenue Authority. This demonstrates that the effect of neopatrimonialism on public policy in the African state is highly context-specific and dependent on the interaction with additional variables. Donor pressure has been the most important in the Zambian case. In order to apply neopatrimonialism for further empirical work on public policy in the African state, these additional variables have to be incorporated into the analysis.
The worldwide diffusion of the good governance agenda and new public management has triggered a renewed focus on state capability and, more specifically, on the capability to raise revenue in developing countries. However, the analytical tools for a comprehensive understanding of the capability to raise revenue remain underdeveloped. This article aims at filling this gap and presents a model consisting of the three process dimensions ‘information collection and processing’, ‘merit orientation’ and ‘administrative accountability’. ‘Revenue performance’ constitutes the fourth capability dimension which assesses tax administration’s output. This model is applied to the case of the Zambia Revenue Authority. The dimensions prove to be valuable not only for assessing the how much but also the how of collecting taxes. They can be a useful tool for future comparative analyses of tax administrations’ capabilities in developing countries.
Mobilität ist eine Grundvoraussetzung, um am gesellschaftlichen Leben teilhaben zu können. Ist der Möglichkeitsraum potenzieller Ortsveränderungen eingeschränkt – beispielsweise durch räumliche, finanzielle oder körperliche Barrieren oder Ängste –, wird von Mobilitätsarmut gesprochen. Wie Mobilitätsarmut auf der Verwaltungsebene verhindert werden kann, zeigt dieser Policy Brief des Projektes Social2Mobility. Diese Handlungsempfehlungen basieren auf Erkenntnissen des Projektes Social2Mobility und adressieren insbesondere Verwaltungsmitarbeitende der Fachplanungen Verkehrs-, Raum- und Sozialplanung von der Kommunal- bis zur Landes- und Bundesebene. Ziel des Projektes Social2Mobility war es, die soziale Teilhabe armutsgefährdeter Personen durch eine Steigerung ihrer Mobilitätsoptionen zu stärken. Der Policy Brief erläutert die Problematik von Mobilitätsarmut, thematisiert deren Relevanz und zeigt verschiedene Facetten von Mobilitätsarmut auf. Er beinhaltet fünf verschiedene Handlungsfelder zur Verhinderung von Mobilitätsarmut. Der Policy Brief soll zu einer dezernats- und abteilungsübergreifenden Zusammenarbeit der Fachplanungen Sozial-, Raum- und Verkehrsplanung zur Lösung von Mobilitätsarmut anregen. Synergieeffekte und gegenseitige Potentiale bei einer Zusammenarbeit werden dabei herausgestellt. Hierzu gehören beispielsweise die Anwendung von Verkehrsnachfragemodellen in der Sozialplanung oder die Berücksichtigung vielfältiger unterschiedlicher Lebenslagen und der daraus hervorgehenden Mobilitätsbedarfe in der Verkehrsplanung.
There are few changes in the history of human existence comparable to urbanization in scope and potential to bring about biologic change. The transition in the developed world from an agricultural to an industrial-urban society has already produced substantial changes in human health, morphology and growth (Schell, Smith and Bilsborough, 1993, p.1). By the year 2000, about 50% of the world s total population will be living crowded in urban areas and soon thereafter, by the year 2025 as the global urban population reaches the 5 billion mark more of the world s population will be living in urban areas. This has enormous health consequences. By the close of the twenty-first century, more people will be packed into the urban areas of the developing world than are alive on the planet today (UNCHS (Habitat), 1996, p.xxi). Africa presents a particularly poignant example of the problems involved, as it has the fastest population and urban growth in the world as well as the lowest economic development and growth and many of the poorest countries, especially in Tropical Africa. Thus it exemplifies in stark reality many of the worst difficulties of urban health and ecology (Clarke, 1993, p.260). This essay is therefore concerned to analyse the trends of urbanization in Africa. This is followed by an overview of the environmental conditions of Africa s towns and cities. The subsequent section explores the links between the urban environment and health. Although the focus is with physical hazards it is important to note that the social milieu is also vital in the reproduction of health. The paper concludes by providing some policy recommendations.
We analyse a 2-period competitive insurance market which is characterized by the simultaneous presence of standard moral hazard and adverse selection with regard to consumer time preferences. It is shown that there exists an equilibrium in which patient consumers use high effort and buy a profit-making insurance contract with high coverage, whereas impatient consumers use low effort and buy a contract with low coverage or even remain uninsured. This finding may help to explain why positive profits and the opposite of adverse selection with regard to risk types can sometimes be observed empirically. JEL Classification: D82, G22
The paper constructs a global monetary aggregate, namely the sum of the key monetary aggregates of the G5 economies (US, Euro area, Japan, UK, and Canada), and analyses its indicator properties for global output and inflation. Using a structural VAR approach we find that after a monetary policy shock output declines temporarily, with the downward effect reaching a peak within the second year, and the global monetary aggregate drops significantly. In addition, the price level rises permanently in response to a positive shock to the global liquidity aggregate. The similarity of our results with those found in country studies might supports the use of a global monetary aggregate as a summary measure of worldwide monetary trends. JEL Classification: E52, F01
This paper argues that the key mechanisms protecting retail investors’ financial stake in their portfolio investments are indirect. They do not rely on actions by the investors or by any private actor directly charged with looking after investors’ interests. Rather, they are provided by the ecosystem that investors (are legally forced to) inhabit, as a byproduct of the mostly self-interested, mutually and legally constrained behavior of third parties without a mandate to help the investors (e.g., speculators, activists). This elucidates key rules, resolves the mandatory vs. enabling tension in corporate/securities law, and exposes passive investing’s fragile reliance on others’ trading.
Motivated by the prominent role of electronic limit order book (LOB) markets in today’s stock market environment, this paper provides the basis for understanding, reconstructing and adopting Hollifield, Miller, Sandas, and Slive’s (2006) (henceforth HMSS) methodology for estimating the gains from trade to the Xetra LOB market at the Frankfurt Stock Exchange (FSE) in order to evaluate its performance in this respect. Therefore this paper looks deeply into HMSS’s base model and provides a structured recipe for the planned implementation with Xetra LOB data. The contribution of this paper lies in the modification of HMSS’s methodology with respect to the particularities of the Xetra trading system that are not yet considered in HMSS’s base model. The necessary modifications, as expressed in terms of empirical caveats, are substantial to derive unbiased market efficiency measures for Xetra in the end.
Im Wirtschaftsregulierungsrecht treten immer häufiger Mehrpersonenverhältnisse auf: Die Regulierungsentscheidung der Regulierungsbehörde betrifft nicht nur den Adressaten, sondern hat mittelbar auch Wirkungen auf die Ausgestaltung der Wettbewerbsfreiheit der Konkurrenten. Materielles und Verfahrensrecht erlauben aber bisher kaum eine Beteiligung der Interessen des Dritten. Verwaltungsrecht und Verwaltungswissenschaft sind aufgefordert, hierfür Problemkonstellationen zu identifizieren und Lösungsvor-schläge zu unterbreiten.
Der Beitrag analysiert zunächst Dreiecksverhältnisse mit besonderem Blick auf das Wirtschaftsverwaltungsrecht und schlägt als einen möglichen Weg zur Bewältigung daraus resultierender Probleme in Instrumenten der Kooperation vor, wie sie etwa im Gesundheitsrecht mit dem Gemeinsamen Bundesausschuss (GBA) existieren, auch wenn dieses Rechtsgebiet (zu Unrecht) als wenig als wegweisend wahrgenommen wird.
Diese Arbeit hat als übergeordnete und finale Zielsetzung das Bestreben eine systematische, effiziente und nachvollziehbare Bestimmung der lexikalisierten Zählbarkeit deutscher Substantive zu ermöglichen. Ein Unterfangen, das zu meinem Wissen bisher weder für Substantive des Deutschen, noch des Englischen, in einem größeren Maßstab unternommen wurde.
Es gibt zwar einige Lexika, die bereits Einträge für nur im Singular oder nur im Plural auftretende Substantive beinhalten, jedoch ist mir keine Ressource bekannt, die eine qualitativ und quantitativ hochwertige Klassifizierung der lexikalischen Zählbarkeit von Substantiven des Englischen oder des Deutschen bietet. Ein Hinweis auf einen ausschließlich verwendeten Numerus eines Substantivs ist hierbei keineswegs ein zuverlässiges Indiz auf die Zählbarkeit dieses Substantivs, sondern lediglich eines von vielem Merkmalen, dass in Summe das ergibt, was gemeinhin unter dem Begriff Zählbarkeit summiert wird.
Auch die Literatur zur Zählbarkeit selbst beschränkt sich fast durchgängig auf einige wenige Substantive, die wie auch bereits in dieser Einleitung geschehen, immer wieder und wieder diskutiert werden. Die Interpretation der Zählbarkeit von Hunden, Katzen und Kaninchen, sowie von Wein, Reis, Möbeln und Schmuck, wird auch in den Beispielen dieser Arbeit immer wieder von Bedeutung sein. Es ist allerdings offenkundig, dass das Deutsche oder Englische weitaus mehr Wörter als die soeben genannten beinhaltet und somit eine Betrachtung über diese Standardbeispiele hinaus sinnvoll ist.
Es ist daher mein Bestreben, Tests und Richtlinien zur Bestimmung der lexikalischen Zählbarkeit von Substantiven zu entwickeln, diese auf über 1.000 Lemmata des Deutschen anzuwenden und somit erstmals einen Gold-Standard zu etablieren, der neben qualitativen Betrachtungen auch eine quantitative Untersuchung der Zählbarkeit von Wörtern in einer großen deutschsprachigen Tageszeitung erlaubt.
In Ergänzung zu einem vorangegangenen Projekt (Schönwiese et al., 2005) ist in der vorliegenden Studie eine weitere extremwertstatistische Untersuchung durchgeführt worden. Dazu wurden auf der Basis von täglichen Klimadaten aus Hessen und Umgebung (49°N bis 52°N, 7°O bis 11°O), und zwar der Temperatur von 53 Stationen und des Niederschlages von 84 Stationen, Schwellen extremer Werte definiert, um die Anzahl der Über- bzw. Unterschreitungen dieser Schwellen auf signifikante Trends hin zu untersuchen. Bei der Temperatur findet sich dabei eine systematische Zunahme von Hitzetagen (Maximumtemperatur über 30 °C) im August, wohingegen im Juli fast keine, und im Juni nur vereinzelt signifikante Zunahmen von Hitzetagen gefunden wurden. Hierbei zeigt sich, wie auch bei anderen Temperatur-Schwellen eine Abnahme der Signifikanz mit zunehmender Schwellenhöhe, was durch selteneres Auftreten besonders extremer Ereignisse verursacht wird. Im Winter und Frühjahr hat entsprechend die Anzahl der Frost- bzw. Eistage (Minimum- bzw. Maximumtemperatur unter 0 °C) signifikant abgenommen. Besonders ausgeprägt ist dies für die Frosttage im Frühling der Fall. Beim Niederschlag hat im Sommer, wiederum vor allem im August, die Anzahl von Trockentagen zugenommen. Extrem hohe Niederschlagssummen sind dagegen in dieser Jahreszeit seltener geworden, in den anderen Jahreszeiten jedoch häufiger. Vor allem der März zeichnet sich durch verbreitet hochsignifikante Zunahmen von Tagen mit Starkniederschlägen aus. Die Erhaltungsneigung von besonders warmen bzw. kalten Witterungen hat sich in den meisten Monaten nicht signifikant verändert. Es ist jedoch eine Neigung zu kürzeren relativ einheitlichen Witterungsabschnitten im Februar und März, sowie zu längeren im Oktober und November zu beobachten. Diese Ergebnisse sind jedoch vermutlich nicht sehr robust, da sich bei einer Verkürzung des Zeitfensters der Autokorrelationsfunktion die Signifikanzen teilweise (vor allem im April) deutlich verändern. Bei den Trends der Zahl der Trockenperioden erkennt man im Sommer einen positiven Trend; sie nehmen somit zu. Dies gilt sowohl für die 7-tägigen als auch für die 11-tägigen Trockenperioden. Die übrigen Jahreszeiten zeigen bei den 7-tägigen Trockenperioden nur schwache oder negative Trends. Bei den 11-tägigen Trockenperioden gilt dies nur für das Frühjahr und den Herbst, im Winter sind die Trends im Norden überwiegend positiv, im Süden negativ. Betrachtet man die Länge der längsten Trockenperioden, so nimmt diese im Sommer zu, im Frühjahr und im Gesamtjahr jedoch ab. Im Herbst ist das Bild uneinheitlich; dies kann aber auch daran liegen, dass lange sommerliche Trockenperioden in den Herbst hineinreichen und dann dort gezählt werden. Ein weiterer Aspekt ist die Analyse der Anzahl und Länge bestimmter Witterungsabschnitte (Clusteranalyse), die durch relativ hohe oder tiefe Temperatur bzw. relativ wenig bzw. viel Niederschlag definiert sind. So können beispielsweise Tage mit weniger als 1 mm Niederschlag als Trockencluster bezeichnet werden. Dabei erkennt man im Sommer einen Trend zu mehr Trockenclustern,in Übereinstimmung mit den oben genannten Ergebnissen, in den übrigen Jahreszeiten und im Gesamtjahr jedoch einen Trend zu weniger Trockenclustern. Innerhalb des Sommers ist dieser Trend im August am stärksten, in den übrigen Jahreszeiten im März, Oktober und Dezember. Bei den Clustern von Feuchteereignissen, das heißt Tagen mit relativ viel Niederschlag, ist das Bild umgekehrt. Im Sommer nimmt deren Zahl ab, ansonsten nimmt sie zu. Die stärksten Trends sind dabei wiederum im August (Abnahme) bzw. im März, Oktober und Dezember (jeweils Zunahme) zu erkennen. Alle diese Trends werden im der Regel umso schwächer, je höher die Schranke der Niederschlagsmenge gewählt wird. Bei den Temperaturdaten sind die Trends von Frost- und Eistagen nur im November überwiegend positiv, in allen Wintermonaten (Dezember, Januar und Februar) jedoch fast ausschließlich negativ. Darin spiegelt sich somit der Trend zu höheren Temperaturen wider. Bei den Wärmeclustern ändern sich die Trends mit der Höhe der Schranke. Bei der Schranke von 25°C zeigen der Juli, insbesondere aber der August positive Trends. Bei der 30°C-Schranke bleibt der Augusttrend positiv, der Julitrend wird dagegen negativ. Bei der Schranke von 35°C werden die Augusttrends dann deutlich geringer, während die Julitrends, wenn auch schwächer ausgeprägt, negativ bleiben. Die Trends im Juni sind dagegen insgesamt schwach. Betrachtet man die Signifikanz der Trends, so sind insbesondere die Trends bei hohen Schranken weniger signifikant. Dies gilt für die hohen Niederschlagschranken (20mm, 30mm, 95%-Perzentil, 99%-Perzentil) ebenso wie für die hohen Temperaturschranken (30°C, 35°C). Weiterhin ist die Signifikanz dann niedrig, wenn die Zahl der Cluster im betrachteten Zeitraum klein ist. In Monaten und Jahreszeiten, in denen nur wenige Cluster auftreten, ist der Trend der Zahl der Cluster meist nicht signifikant. Insgesamt zeigen beim Niederschlag die untere Schranke von 1mm sowie die oberen Schranken von 10mm und 90% die signifikantesten Trends. Bei den Temperaturdaten ist das bei den Frosttagen generell, bei den Eistagen im Januar und Februar sowie bei den sommerlichen Clustern mit einer Tagesmaximumtemperatur von über 25°C der Fall (mit zum Teil über 95% bzw. 99% Signifikanz).
Die Bilder der Terroranschläge des 11. September in den Medien erinnerten viele Menschen an Katastrophenfilme aus Hollywood. Michael Staiger geht davon aus, dass die Bildsprache solcher Filme auch unsere Wahrnehmungsweise des realen Terrors beeinflusst. Er stellt eine zunehmende Verflechtung der Ästhetik des Hollywood-Kinos mit der Medienberichterstattung realer Ereignisse fest. "Die Inszenierung von Fernsehnachrichten verweist inzwischen ebenso auf fiktionale Bildwelten, wie sich die Spielfilmästhetik seit Jahren der Machart von Fernsehbildern bedient." Am Beispiel des Thrillers "Ausnahmezustand" (1998) analysiert Michael Staiger die Inszenierung des Terrors in Hollywood-Filmen und zeigt damit eine medienpädagogische Umsetzungsmöglichkeit des Themas auf.
Die Entwicklung des Verständnisses von globaler Ordnung ist eng mit der Etablierung dessen verbunden, was in den Internationalen Beziehungen gemeinhin als „Westfälisches Staatensystem“ bezeichnet wird. Der Abschluss der Westfälischen Friedensverträge im Jahr 1648, die den Beginn einer auf rechtlicher Gleichheit und Selbstbestimmung basierenden internationalen Ordnung in Europa markieren sollen, wird dabei häufig auch als ein zentraler Meilenstein in der Entstehung der spezifischen politischen Praxis „Außenpolitik“ verstanden. Deren konstitutives Merkmal wird insbesondere im Konzept der „Souveränität“ verortet, eine befähigende Eigenschaft politischer Akteure, frei von Fremdeinfluss in einem größeren Kontext unter Herstellung von Innen-/Außen-Grenzen handeln zu können. Somit ist dieser Begriff einer der Grundprämissen, die in der Vorstellung eines „internationalen Systems“ zum Ausdruck kommt, in dem „souveräne“ Akteure in Beziehungen zu anderen „souveränen“ Akteuren treten – also „Außenpolitik“ betreiben. Nun ist die Denkfigur des Westfälischen Staatensystems bereits aus mehreren disziplinären Perspektiven heraus kritisiert worden, dennoch scheint die Vorstellung eines Systems souveräner Nationalstaaten beachtliche Standfestigkeit zu beweisen. Das Westfälische Staatenmodell – mit seinem „master concept“ Souveränität - verbindet das Konzept von politischer Autorität mit Territorialität und Gruppe und stellt somit ein einschlägiges wie analytisch handliches Ordnungsprinzip internationaler Beziehungen bereit. Oder in Stephen Krasners Worten: „it orders the minds of the policy-makers“.
Die Entwicklung des Verständnisses von globaler Ordnung ist eng mit der Etablierung dessen verbunden, was in den Internationalen Beziehungen gemeinhin als „Westfälisches Staatensystem“ bezeichnet wird. Der Abschluss der Westfälischen Friedensverträge im Jahr 1648, die den Beginn einer auf rechtlicher Gleichheit und Selbstbestimmung basierenden internationalen Ordnung in Europa markieren sollen, wird dabei häufig auch als ein zentraler Meilenstein in der Entstehung der spezifischen politischen Praxis „Außenpolitik“ verstanden. Deren konstitutives Merkmal wird insbesondere im Konzept der „Souveränität“ verortet, eine befähigende Eigenschaft politischer Akteure, frei von Fremdeinfluss in einem größeren Kontext unter Herstellung von Innen-/Außen-Grenzen handeln zu können. Somit ist dieser Begriff einer der Grundprämissen, die in der Vorstellung eines „internationalen Systems“ zum Ausdruck kommt, in dem „souveräne“ Akteure in Beziehungen zu anderen „souveränen“ Akteuren treten – also „Außenpolitik“ betreiben. Nun ist die Denkfigur des Westfälischen Staatensystems bereits aus mehreren disziplinären Perspektiven heraus kritisiert worden, dennoch scheint die Vorstellung eines Systems souveräner Nationalstaaten beachtliche Standfestigkeit zu beweisen. Das Westfälische Staatenmodell – mit seinem „master concept“ Souveränität - verbindet das Konzept von politischer Autorität mit Territorialität und Gruppe und stellt somit ein einschlägiges wie analytisch handliches Ordnungsprinzip internationaler Beziehungen bereit. Oder in Stephen Krasners Worten: „it orders the minds of the policy-makers“.
For the German observer the idea of a Company repurchasing its own shares seems to resemble the picture of a snake eating its own tail. It appears to be highly unnatura1 and one wonders how the tail tan possibly be eatable for the snake. Not in the United States. Although repurchases have once been subject to the most stubbornly fought conflict in US Company law only some modest disclosure requirements and safeguards against overt market manipulation exist today. Large repurchases are an almost everyday event and there is an increasing tendency. The aggregate value of shares repurchased by NYSE listed companies has increased from $ 1 .l billion in 1975 to $ 6.3 billion in 1982 to $ 37.1 billion in 1985*. Few examples may illustrate this practice further: Within three years Ford Motor Corp. repurchased 30 million shares for $ 1.2 billion. In 1985 Phillips Petroleum Corp. was faced with two hostile bids and took several defensive Steps, one of which was to tender for 20 million of its own shares at a total tost of $ 1 billion. And by the end of 1988 Exxon Corp. retired 28 percent of its shares that had once been outstanding at an aggregate tost of $ 14.5 billion. The Situation in Germany is completely different. As it will be shown under German law repurchases are severely restricted and do appreciable amount at all. not take place at an In contrast to German law the United Kingdom does not prohibit repurchases but requires companies to comply with such complex rules that US companies would regard simply as limiting their economic freedom. Therefore UK companies very seldom repurchase their own shares, too. This Paper deals with repurchases by quoted companies, in particular the UK public Company and the more or less German equivalent, the Aktiengesellschaft (AG). It seeks to ascertain the reasons why companies might want to engage in those activities. Moreover, it tries to analyse the Problems which may arise from repurchases and the safeguards which the UK and German legal Systems provide for these Problems.This Paper deals with repurchases by quoted companies, in particular the UK public Company and the more or less German equivalent, the Aktiengesellschaft (AG). It seeks to ascertain the reasons why companies might want to engage in those activities. Moreover, it tries to analyse the Problems which may arise from repurchases and the safeguards which the UK and German legal Systems provide for these Problems.
Increasingly, alternative investments via hedge funds are gaining importance in Germany. Just recently, this subject was taken up in the legal literature, too; this resulted in a higher product transparency. However, German investment law and, particularly, the special division "hedge funds" is still a field dominated by practitioners. First, the present situation shall be outlined. In addition, a description of the current development is given, in which the practical knowledge of the author is included. Finally, the hedge fund regulation intended by the legislator at the beginning of the year 2004 is legally evaluated against this background.
Wie in vielen anderen Bereichen unserer Gesellschaft hat das Internet auch in die Wertpapierbranche Einzug erhalten. Diesbezüglich haben die USA sowohl in tatsächlicher als auch in rechtlicher Hinsicht wieder einmal eine Vorbildfunktion inne. Dies nimmt der Verfasser zum Anlaß, um sich kritisch mit den dortigen Erfahrungen zu beschäftigen. Ferner werden USamerikanische Wertpapiervorschriften besprochen, die sich nicht auf die USA beschränken. Der Gesetzgeber hat neben den Vorschriften über die elektronische Informationsverbreitung bereits Spezialregeln aufgestellt, die alle ausländischen Anbieter betreffen, die das Internet zu Handelszwecken nutzen. Dafür ist es sogar ohne Bedeutung, ob die Anbieter überhaupt einen internationalen Handel betreiben. Die Ausführungen und Regeln betreffen zum Teil die gesamte Wertpapierbranche. Das Hauptaugenmerk des Beitrags ist aber auf Investmentfonds gerichtet. Dabei stützt sich der Verfasser auf eine Untersuchung, die er 1998/99 als „Visiting Scholar“ an der New York University durchführen konnte.
Im folgenden sollen Alternativen des Delisting, der Beendigung der Notierung eines zum Börsenhandel zugelassenen Unternehmens, erörtert werden. Dieses Thema hat mit der Berücksichtigung im Dritten Finanzmarktförderungsgesetz (III. FMFG) erneut an Aktualität gewonnen. Einleitend wird ein Überblick über das Delisting im engeren Sinne (d. h. ohne vorangehende Umwandlung), also den Börsenrückzug nur auf Antrag der Gesellschaft ohne Änderung der Rechtsform des betreffenden Unternehmens, gegeben. Dabei wird sich der Beitrag darauf beschränken, den Totalrückzug (sog. going private ) zu untersuchen. Das Interesse an einem going private kann vielfältiger Natur sein. In Betracht kommt beispielsweise ein vollständiger Börsenrückzug, um den börsenrechtlichen Publizitätspflichten zu entkommen und somit durch die abnehmende Transparenz aus den Negativschlagzeilen zu gelangen, um Kosten zu senken, um einer Aufkaufgefahr entgegenzutreten oder sogar um ein freezeout von Kleinaktionären vorzubereiten. Allerdings sind neben den börsenrechtlichen Voraussetzungen insbesondere die gesellschaftsrechtlichen Anforderungen unklar und erschweren daher einen praktikablen Totalrückzug. In der Beratungspraxis kann jedenfalls nicht mit Sicherheit vorhergesagt werden, welche gesellschaftsrechtlichen und börsenrechtlichen Bedingungen erfüllt sein müssen, damit ein reguläres going private vonstatten gehen kann. Dies zeigt sich besonders deutlich, wenn man sich die unterschiedlichen Lösungsvorschläge zur Beteiligung der Hauptversammlung vergegenwärtigt, wobei insbesondere im Hinblick auf die erforderliche Mehrheit die unterschiedlichsten Ansichten vertreten werden [dazu unten I 1) b)] und zudem eine klärende Rechtsprechung fehlt. Deshalb wird eine rechtssichere Alternative zum regulären going private vorgestellt, die es einer rückzugsgeneigten Gesellschaft ermöglicht, in praktikabler Weise ein vollständiges Delisting zu erreichen. Der Hauptteil des vorliegenden Beitrages ist daher dem going private über das UmwG gewidmet, nämlich der Darstellung der Börsenrückzugsmöglichkeit durch Verschmelzung oder Formwechsel einerseits ( kaltes Delisting ) und der Erörterung der auf diesem Weg des Delisting auftretenden Umgehungsprobleme andererseits [dazu unten II].
In der Literatur zur Abschlußprüfung ist ein negativer Effekt eines ökonomischen Vorteils aus der wiederholten Mandatsannahme, der aufgrund von Transaktionskosten entsteht, auf die Unabhängigkeit des Abschlußprüfers diskutiert worden. Anders als die bisher vorgestellten Ansätze wird im Rahmen des vorliegenden Modells rationales Verhalten der Kapitalmarktakteure unterstellt, die ihre Ansprüche in Abhängigkeit der Reputation des Prüfers und damit der Glaubwürdigkeit des Testats stellen. Als Ergebnis kann festgehalten werden, daß transaktionskostenbedingte Quasirenten die Urteilsfreiheit nicht gefährden, sondern daß vielmehr Informationsrenten für das Berichtsverhalten des Prüfers ausschlaggebend sind. Auch ergeben sich neue Ansatzpunkte zur Diskussion der externen Pflichtrotation und von Maßnahmen zur Steigerung der Kapitalmarkteffizienz.
It has become commonplace to say that, in the past, international governance has been legitimated mainly, if not exclusively, by its welfare-enhancing ‘output’. There has been very little research, however, on the history of legitimating international governance by its output to validate this point. In this essay I begin to address this gap by inquiring into the origins of output-oriented strategies for legitimating international organizations. Scrutinizing the programmatic literature on international organizations from the early 20th century, I illustrate how a new and distinctive account of technocratic legitimation emerged and in the 1920s separated from other types of liberal internationalism. My inquiry, centring on the works of James Arthur Salter, David Mitrany, Paul S. Reinsch and Pitman B. Potter, explores their respective conceptions of ‘good functional governance’, executed by a non-political international technocracy. Their account is explicitly pitched against a notion of ‘international politics’, perceived as violent, polarizing, and irrational. The emergence of such a technocratic legitimation of international governance, I submit, needs to be seen in the context of societal modernization and bureaucratization that unfolded in the first half of the 20th century. I also highlight how in this account the material output of governance is intimately linked to the virtues of the organizational form that brings it about.
Robustness, validity, and significance of the ECB's asset quality review and stress test exercise
(2014)
As we are moving toward a eurozone banking union, the European Central Bank (ECB) is going to take over the regulatory oversight of 128 banks in November 2014. To that end, the ECB conducted a comprehensive assessment of these banks, which included an asset quality review (AQR) and a stress test. The fundamental question is how accurately will the financial condition of these banks have been assessed by the ECB when it commences its regulatory oversight? And, can the comprehensive assessment lead to a full repair of banks’ balance sheets so that the ECB takes over financially sound banks and is the necessary regulation in place to facilitate this? Overall, the evidence presented in this paper based on the design of the comprehensive assessment as well as own stress test exercises suggest that the ECB’s assessment might not comprehensively deal with the problems in the financial sector and risks may remain that will pose substantial threats to financial stability in the eurozone.
Die Entwicklung des aggregierten Privatvermögens und seine Verteilung in Deutschland seit 1970
(2002)
Die hier vorgestellte Untersuchung des Vermögens privater Haushalte als ein möglicher Indikator für den Wohlstand einer Gesellschaft hat für die Bundesrepublik Deutschland einen starken Anstieg der Vermögen seit 1970 aufgezeigt. Dies gilt sowohl für die makroökonomischen Resultate der Finanzierungsrechnung der Deutschen Bundesbank als auch für die mikroökonomischen Ergebnisse der Einkommens- und Verbrauchsstichproben des Statistischen Bundesamts. Allerdings werden auch wesentliche Unterschiede im Aussagegehalt der einzelnen Datensätze deutlich. Während die Finanzierungsrechnung eine Steigerung des Nettovermögens um 808 Prozent in 27 Jahren aufweist (von 1,3 Billionen DM im Jahr 1970 auf 12,1 Billionen DM im Jahr 1997) lautet der entsprechende Prozentwert auf der Berechnungsbasis der Einkommens- und Verbrauchsstichproben nur 280 Prozent in 25 Jahren bei einer wesentlich niedrigeren Gesamthöhe in späteren Untersuchungen (von 2,2 Billionen DM im Jahr 1973 auf nur 8,3 Billionen DM im Jahr 1998). Die Untersuchung der Daten der EVS hat aufgezeigt, welch große Bedeutung das Immobilienvermögen für die Vermögenssituation der privaten Haushalte hat. Allerdings ist es nicht so, dass alle Haushalte über Eigentum an Grund- und Hausbesitz verfügen. In Westdeutschland hat es zwar eine starke Steigerungen der Eigentümerquote seit 1961 gegeben. Seit 1993 ist jedoch eine Stagnation bei etwa 50 Prozent zu konstatieren. Die Analyse der Vermögensverteilung nur bezogen auf die westdeutschen Haushalte hat im Zeitraum von 1973 bis 1993 eine abnehmende Konzentration sowohl bei der Betrachtung der Anteile einzelner Haushaltsquintile am Nettogesamtvermögen als auch bei der Analyse des Gini-Koeffizienten ergeben. Allerdings hat sich dieser Trend in den Jahren bis 1998 nicht weiter fortgeführt. Für das Jahr 1998 ist in Westdeutschland feststellbar, dass die unteren 40 Prozent der Haushalte über praktisch kein Vermögen verfügen, während das oberste Quintil über 60 Prozent des Gesamtvermögens aufweisen kann. Für Ostdeutschland sind starke Anpassungstendenzen hin zu den Werten der westdeutschen Bundesländer festzustellen. Dies betrifft einerseits die absolute Höhe der Vermögenswerte, auch wenn diese bisher nur 38 Prozent des entsprechenden Wertes westdeutscher Haushalte bei einer Betrachtung der Durchschnittswerte je Haushalte im Jahr 1998 erreichen. Andererseits ist auch die Eigentümerquote an Haus- und Grundbesitz nach der Wiedervereinigung stark angestiegen. Durch dieses Immobilieneigentum auf breiterer Basis wird die Ungleichheit der Vermögensverteilung in Ostdeutschland im Zeitablauf etwas verringert, so dass der Gini-Koeffizient in den Jahren von 1993 zu 1998 leicht gesunken ist. Jedoch kann auch für die neuen Bundesländer festgestellt werden, dass die unteren 40 Prozent der Haushalte über praktisch kein Vermögen verfügen, während das oberste Quintil ostdeutscher Haushalte sogar über 70 Prozent des Gesamtvermögens aufweisen kann. Feststellbar ist weiterhin eine hohe Übereinstimmung der Vermögensverteilung in Ost- und Westdeutschland. Sowohl die Vermögensverteilung auf der Basis der Quintilswerte als auch die Resultate der Gini-Koeffizienten weisen ähnliche Ergebnisse auf, wobei eine starke Angleichungstendenz zwischen beiden Landesteilen gegeben ist. Diese Ähnlichkeit der Ergebnisse kann nur als erstaunlich bezeichnet werden, wenn man bedenkt, dass beide Landesteile für über 40 Jahre unterschiedlichen wirtschaftspolitischen Leitbildern gefolgt sind – die Bundesrepublik Deutschland der sozialen Marktwirtschaft und die Deutsche Demokratische Republik der sozialistischen Planwirtschaft.
This investigation of the wealth of private households as a possible indicator for the prosperity of a society indicated a strong increase in wealth for the Federal Republic of Germany since 1970. This applies both to the macro-economic results of the financial accounting of the Deutsche Bundesbank and to the micro-economic results of the Income and Consumption Surveys of the Federal Statistical Office. However, substantial differences become clear in the content expressed by these two different sets of data. While the financial accounting of the Deutsche Bundesbank shows an increase of net assets of around 808 per cent over 27 years (from 1.3 trillion DM in the year 1970 to 12.1 trillion DM in 1997), calculations on the basis of the Income and Consumption Surveys yield a corresponding value of only 280 per cent in a 25-year period, with a substantially lower overall magnitude in later investigations (from 2.2 trillion DM in 1973 to only 8.3 trillion DM in 1998). Investigation of the EVS data pointed out the great importance of property for the wealth situation of private households. However, not every household has property in the form of housing and real estate. In West Germany, ownership rates have increased substantially since 1962. However, since 1993 these rates have stagnated at about 50 per cent. The analysis of the distribution of wealth for West German households yielded a decline in the concentration of wealth in the period from 1973 to 1993, both in terms of the shares of total wealth held by individual quintiles of households, and as expressed by the Gini coefficients. However, this trend did not continue in the years between 1993 and 1998. For the year 1998 it can be determined that the lowest 40 per cent of households in West Germany had practically no wealth, while the highest quintile claimed over 60 per cent of total assets. For East Germany, strong tendencies are established toward adapting to the values in the West German Länder. This concerns first the absolute level of net assets, even though in 1998 these amounted to just 38 per cent of the analogous value in West German households, in terms of the average value per household. Similarly, the ownership rates of housing and real estate also rose dramatically after reunification. The inequality of the distribution of wealth in East Germany was reduced somewhat by this broader basis of real-estate ownership over the course of time, such that the Gini coefficient decreased slightly in the period from 1993 to 1998. However, it is also true for the new Länder in the Federal Republic that the lowest 40 per cent of households have practically no wealth, while the highest quintile of East German households claim over 70 per cent of total assets, even higher than its share in West Germany. Furthermore, the distribution of wealth is remarkably congruous in East and West Germany. Both the distribution of wealth as expressed by the quintile values and the results of the Gini coefficients yield similar results, whereby the trend in both regions is toward convergence. The similarity of these results must be regarded as nothing less than amazing, considering that the two regions followed different economic models for over forty years: the social free-market economy (Soziale Marktwirtschaft) in the Federal Republic of Germany, and the socialist planned economy (Sozialistische Planwirtschaft) in the German Democratic Republic.
It is often claimed that decentralisation is effective for the reduction of poverty due to inherent opportunities for higher popular participation and increased efficiency in public service delivery. This paper is a qualitative assessment of the potential of the Ugandan decentralisation reform for poverty alleviation. The Ugandan government initiated an ambitious decentralisation reform in 1992, which represents an example of full-fledged devolution with the transfer of far-reaching responsibilities to local governments. However, several shortcomings, such as low levels of accountability, insufficient human and financial resources, corruption, patronage, and central resistance to decentralisation, constrain the proper implementation of the reform, putting improvements in participation and efficiency at risk and ultimately jeopardising the intended impact on poverty.
In the euro area, monetary policy is conducted by a single central bank for 20 member countries. However, countries are heterogeneous in their economic development, including their inflation rates. This paper combines a New Keynesian model and a neural network to assess whether the European Central Bank (ECB) conducted monetary policy between 2002 and 2022 according to the weighted average of the inflation rates within the European Monetary Union (EMU) or reacted more strongly to the inflation rate developments of certain EMU countries.
The New Keynesian model first generates data which is used to train and evaluate several machine learning algorithms. They authors find that a neural network performs best out-of-sample. They use this algorithm to generally classify historical EMU data, and to determine the exact weight on the inflation rate of EMU members in each quarter of the past two decades. Their findings suggest disproportional emphasis of the ECB on the inflation rates of EMU members that exhibited high inflation rate volatility for the vast majority of the time frame considered (80%), with a median inflation weight of 67% on these countries. They show that these results stem from a tendency of the ECB to react more strongly to countries whose inflation rates exhibit greater deviations from their long-term trend.
Mord-Geschichten
(2003)
We present an empirical study focusing on the estimation of a fundamental multi-factor model for a universe of European stocks. Following the approach of the BARRA model, we have adopted a cross-sectional methodology. The proportion of explained variance ranges from 7.3% to 66.3% in the weekly regressions with a mean of 32.9%. For the individual factors we give the percentage of the weeks when they yielded statistically significant influence on stock returns. The best explanatory power – apart from the dominant country factors – was found among the statistical constructs „success“ and „variability in markets“.
The acquisition of Greek
(1995)
Studie zum Erwerb des Neugriechischen
Studies of syntax in first language acquisition have so far concentrated on the propositional side of the sentence, i.e. on the occurrence and interplay of semantic roles like agent, benefactive, objective, etc. and their syntactic expression. The modality constituent, however, has received little attention in the study of child language. This may be due in part to the impetus more recent research in this field has received from studies of the acquisition of English, a language with poor verb morphology as compared to synthetic languages. The research to be presented in this paper is concerned with an early stage of the acquisition of Modern Greek as a first language, a language with a particularly rich verb morphology. Since modality, aspect, and tense are obligatorily marked on the main verb in Mod. Greek, this language offers an excellent opportunity for studying the development of these fundamental categories of verbal grammar at an earlier stage than in more analytic languages. [...] As this paper is concerned with the semantic categories of verbal grammar mentioned above as weIl as with their formal expression, only utterances containing a verb will be considered. For reasons of space we shall further limit ourselves to those utterances containing a main verb. Such utterances divide into two classes, modal and non-modal. [...] In spite of Calbert's claim (Calbert 1975) that there are no strictly non-modal expressions, affirmative and negative statements as well as questions not containing a modal verb will be considered as non-modal. As will be shown below, modal and non-modal expressions are formally differentiated at the stage of language acquisition studied.
Defined as a general inner-linguistic function, modality pervades language and there can thus be no strictly nonmodal predicative expressions. We shall, however, in what follows, keep to grammatical tradition and exclude declarative and interrogative sentences in the indicative mood from consideration. Although a thorough study of the development of modal negation should prove most rewarding, we must renounce such an attempt out of space limits. […] [W]e shall be concerned with the formal linguistic devices employed by the child for expressing modality in various languages and the functions these serve, i.e. how they are used. Only by the conjoint study of form and function can one hope to arrive at a fair understanding of how the modalizing function develops in the ontogenesis of language.
Bestimmte seit den sechziger Jahren zur Analyse früher kindlicher Äußerungen benutzte Beschreibungsmodelle unterschätzen die sprachliche Kompetenz des Kindes, indem sie die Struktur seiner Äußerungen auf Distributionsphänomene der Oberflächenstruktur reduzieren, andere Modelle überschätzen diese Kompetenz, indem sie kindlichen Äußerungen mehr sprachliche Information zuschreiben, als sie enthalten. Wenn außersprachliche Information auf systematische Art und Weise in die Untersuchung der sprachlichen Kommunikation zwischen Kind und Erwachsenem einbezogen wird, findet einerseits die Tatsache eine Erklärung, daß diese Kommunikation in so erstaunlichem Maße erfolgreich ist, andererseits erlaubt diese Beschreibungsweise es aber, frühe kindliche Äußerungen als sprachlich so undeterminiert darzustellen, wie sie sind.
The two papers included in this volume have developed from work with the CHILDES tools and the Media Editor in the two research projects, "Second language acquisition of German by Russian learners", sponsored by the Max Planck Institute for Psycholinguistics, Nijmegen, from 1998 to 1999 (directed by Ursula Stephany, University of Cologne, and Wolfgang Klein, Max Planck Institute for Psycholinguistics, Nijmegen) and "The age factor in the acquisition of German as a second language", sponsored by the German Science Foundation (DFG), Bonn, since 2000 (directed by Ursula Stephany, University of Cologne, and Christine Dimroth, Max Planck Institute for Psycholinguistics, Nijmegen). The CHILDES Project has been developed and is being continuously improved at Carnegie Mellon University, Pittsburgh, under the supervision of Brian MacWhinney. Having used the CHILDES tools for more than ten years for transcribing and analyzing Greek child data there it was no question that I would also use them for research into the acquisition of German as a second language and analyze the big amount of spontaneous speech gathered from two Russian girls with the help of the CLAN programs. When in the spring of 1997, Steven Gillis from the University of Antwerp (in collaboration with Gert Durieux) developed a lexicon-based automatic coding system based on the CLAN program MOR and suitable for coding languages with richer morphologies than English, such as Modern Greek. Coding huge amounts of data then became much quicker and more comfortable so that I decided to adopt this system for German as well. The paper "Working with the CHILDES Tools" is based on two earlier manuscripts which have grown out of my research on Greek child language and the many CHILDES workshops taught in Germany, Greece, Portugal, and Brazil over the years. Its contents have now been adapted to the requirements of research into the acquisition of German as a second language and for use on Windows.
Children […] growing up with highly inflected languages such as Modern Greek will frequently hear different grammatical forms of a given lexeme used in different grammatical and semantic-pragmatic contexts. In spite of the fact that the Greek noun is not as highly inflected as the verb, acquisition of nominal inflection of this inflecting-fusional language is quite complex, comprising the three categories of case, number, and gender. As is usual in this type of language, the formation of case-number forms obeys different patterns that apply to largely arbitrary classes of nominal lexemes partially based on gender. Further, frequency of the occurrence of the three gender classes and case-number forms of nouns greatly differs in spoken Greek, regarding both the types and tokens. […] [A] child learning an inflecting-fusional language like Greek must construct different inflectional patterns depending not only on parts of speech but also on subclasses within a given part of speech, such as gender classes of nouns and inflectional classes within or (exceptionally) across genders. It is therefore to be expected that the early development of case and number distinctions will apply to specific nouns and subclasses of nouns rather than the totality of Greek nouns. The two main theoretical approaches of morphological development that will be discussed in the present paper are the usage-based approach and the pre- and protomorphology approach.
The early acquisition of Greek compounds by two monolingual Greek girls aged between 1;8 and 3;0 years is studied in a usage-based theoretical framework. Special importance is attached to the morphological structure of Greek compound types occurring in child speech and child-directed speech. Greek nominal compound formation does not consist in the mere juxtaposition of words or roots, but involves stems as well as a compound marker. Major questions addressed are the transparency of compounds and productive nominal compound formation. Evidence for productivity of nominal compound formation has been found with only one of the two girls. In contrast to other languages, neoclassical nominal compounds by far exceed endocentric subordinative ones tokenwise in Greek child speech and child-directed speech providing evidence of entrenchment rather than productivity.
In a cross-linguistic comparison it is shown that, in spite of the fact that both Standard Modern Greek and German are rich in nominal compounds, their number is much more limited in Greek than in German child speech. An explanation for this apparent paradox is provided by an onomasiological approach to lexical typology based on a sample list of nominal compounds occurring in German child language and their Greek translational equivalents. It has been found that while use of nominal compounds is common in colloquial German including child-centered situations, it is more typical of Greek formal than colloquial registers.
Die Lincoln-Siedlung in der Wissenschaftsstadt Darmstadt ist sowohl bundesweites Modellprojekt in Sachen nachhaltiger Mobilität als auch Gegenstand verschiedener Forschungsprojekte. Im Projekt NaMoLi II wird die Zufriedenheit der Bewohnenden in der Lincoln-Siedlung mit dem Mobilitätskonzept und seiner Umsetzung analysiert. Des Weiteren wird geprüft, ob und in welcher Form die vorhandenen Rahmenbedingungen eine nachhaltige Mobilität fördern und wie sich die im Quartier bzw. im Umfeld vorhandenen Angebote der Versorgung und sozialen Infrastruktur auf das Mobilitätsverhalten insbesondere neu Zugezogener auswirken. Hierzu hat eine ausgewählte Bevölkerungsgruppe aus der Lincoln-Siedlung über einen Zeitraum von einer Woche Tagebuchprotokolle ihrer täglichen Mobilität geführt. Teilgenommen haben 14 Haushalte mit insgesamt 28 Personen, die zum Zeitpunkt der Erhebung maximal 15 Monate im Quartier gelebt haben. Die Protokolle wurden von allen Haushaltsangehörigen ab dem Grundschulalter geführt, jüngere Kinder sind in den Tagebüchern der Eltern erfasst. Notiert wurden Wegezwecke und Wegeziele, das genutzte Verkehrsmittel, Start- und Ankunftszeit sowie die (geschätzte) Entfernung. Des Weiteren wurden Kennwerte zur Haushaltsstruktur erhoben, zu geänderten Gewohnheiten nach dem Umzug in die Lincoln-Siedlung sowie nach Problemen in der Alltagsmobilität gefragt. Die Ergebnisse der Mobilitätstagebücher bieten einen interessanten Einblick in den Mobilitätsalltag einer spezifischen Teilnahmegruppe, die ein besonderes Interesse an Mobilitätsthemen gezeigt hat und die sich weitgehend nachhaltig in ihrem Alltag bewegt. Das Fahrrad ist das wichtigste Verkehrsmittel, gefolgt von den eigenen Füßen. Die Mehrzahl der Wegeziele liegt innerhalb eines Radius von bis zu zwei Kilometer. Die multimodalen Angebote im Quartier werden gut genutzt. Es hat sich gezeigt, dass die Methode der Tagebuchprotokolle über einen längeren Zeitraum zielführend ist, um Hinweise für die Alltagstauglichkeit des Mobilitätskonzeptes sowie zu dessen Weiterentwicklung bzw. Nachsteuerung zu erlangen.
Common ownership and the (non-)transparency of institutional shareholdings: an EU-US comparison
(2022)
This paper compares the extent of common ownership in the US and the EU stock markets, with a particular focus on differences in the ap- plicable ownership transparency requirements. Most empirical research on common ownership to date has focused on US issuers, largely relying on ownership data obtained from institutional investors’ 13F filings. This type of data is generally not available for EU issuers. Absent 13F filings, researchers have to use ownership records sourced from mutual funds’ periodic reports and blockholder disclosures. Constructing a “reduced dataset” that seeks to capture only ownership information available for both EU and US issuers, I demonstrate that the “extra” ownership information introduced by 13F filings is substantial. However, even when taking differences in the transparency situation into due account, common ownership among listed EU firms is much less pronounced than among listed US firms by any measure. This is true even if the analysis is limited to non-controlled firms.
Die BaFin hat im August 2021 eine Richtlinie für nachhaltige Investmentvermögen vorgelegt. Diese soll regeln, unter welchen Voraussetzungen ein Fonds als „nachhaltig“, „grün“ o.ä. bezeichnet und vermarktet werden darf. Zwar sind aufsichtsrechtliche Maßnahmen, die darauf abzielen, die Qualität von Informationen zu Nachhaltigkeitscharakteristika von Finanzprodukten zu erhöhen, grundsätzlich zu begrüßen. Der Erlass der konsultierten Richtlinie ist jedoch nicht zu befürworten. Im Lichte der einschlägigen unionsrechtlichen Regelwerke und Initiativen ist unklar, welchen informationellen Mehrwert diese rein nationale Maßnahme schaffen soll. Ferner bleibt auf Grundlage des Entwurfs unklar, anhand welcher Maßstäbe die „Nachhaltigkeit“ eines Investmentvermögens beurteilt werden soll, sodass das primäre Regelungsziel einer verbesserten Anlegerinformation nicht erreicht würde.
Die Natur unterliegt vielfältigen durch den Menschen hervorgerufenen Umweltbelastungen. Neben Veränderungen der Landnutzung oder Konsummuster stellt der anthropogen verursachte Klimawandel einen entscheidenden Einflussfaktor dar. Nicht nur der Temperaturanstieg an sich ist Auslöser für Ökosystemveränderungen, sondern auch die Folgen des Temperaturanstiegs führen zu massiven Änderungen der Biodiversität. Ökosysteme können so aus dem Gleichgewicht geraten und aufgrund starker Umweltbelastungen schließlich zusammenbrechen. Werden keine Maßnahmen zum Schutz der Biodiversität getroffen, wird es langfristig zu folgenschweren Auswirkungen kommen, die auch die Lebensgrundlage der Menschen stark gefährden. In Deutschland liegt die Verantwortung für den Erhalt der Biodiversität bei verschiedenen Ministerien und Ämtern, die eng miteinander vernetzt sind. Die zentrale Referenz der Bundesregierung stellt dabei die nationale Strategie zur biologischen Vielfalt dar.
Der vorliegende Band analysiert die Biodiversitätsstrategie und ihre Umsetzung als wichtige Diskursarena im Diskursfeld „Klimabedingte Biodiversitätsveränderungen“. Ausgehend von einer Analyse der Akteure auf Bundes- und Länderebene sowie aus Wissenschaft und Zivilgesellschaft werden wichtige gesellschaftliche Handlungsfelder und Forschungslücken ebenso aufgezeigt wie die darin erkennbaren Wissenskonflikte.
Seit über 30 Jahren steht der Blaue Engel für besonders umweltfreundliche Produkte und Dienstleistungen. Damit ist er das älteste Umweltschutzzeichen in Deutschland. In den vergangenen Jahren wurden das Produktportfolio des Blauen Engel neu ausgerichtet und die Darstellung des Zeichens modernisiert. Seit 2008 ist der Blaue Engel auch das offizielle Klimaschutzzeichen der Bundesregierung. Regelmäßige empirische Umfragen zeigen, dass der Blaue Engel eine hohe Bekanntheit in der Bevölkerung besitzt. Über ein Drittel der Konsumentinnen und Konsumenten nutzen das Umweltzeichen als Orientierung beim Einkauf. Anders als vor 30 Jahren, muss sich der Blaue Engel heute in der öffentlichen Wahrnehmung in einer Flut von Umwelt- und Nachhaltigkeitszeichen behaupten.
Dieser Studientext präsentiert die Ergebnisse einer empirischen Befragung von Verbraucherinnen und Verbrauchern zu Wahrnehmung und Akzeptanz des Blauen Engel, die das ISOE für das Umweltbundesamt durchgeführt hat. In einer bundesweiten Online-Erhebung wurden 2.034 Personen befragt. Ergänzend erfolgte eine vertiefende qualitative Befragung mit Hilfe von Fokusgruppen. Die Befunde liefern wichtige Erkenntnisse darüber, wofür der Blaue Engel in den Augen der KonsumentInnen steht und wie er im Kontext anderer Label wahrgenommen wird. Darüberhinaus wird deutlich, welche Erwartungen aus Verbrauchersicht mit diesem Zeichen verbunden sind und welche Produkte und Produktgruppen mit ihm assoziiert werden.
In contrast to the US and recently Europe, Japan appears to be unsuccessful in establishing new industries. An oft-cited example is Japan's practical invisibility in the global business software sector. Literature has ascribed Japan's weakness – or conversely, America's strength – to the specific institutional settings and competences of actors within the respective national innovation system. It has additionally been argued that unlike the American innovation system, with its proven ability to give birth to new industries, the inherent path dependency of the Japanese innovation system makes innovation and establishment of new industries quite difficult. However, there are two notable weaknesses underlying current propositions postulating that only certain innovation systems enable the creation of new industries: first, they mistakenly confound context specific with general empirical observations. And second, they grossly underestimate – or altogether fail to examine – the dynamics within innovation systems. This paper will show that it is precisely the dynamics within innovation systems – dynamics founded on the concept of path plasticity – which have enabled Japan to charge forward as a global leader in a highly innovative field: the game software sector as well as the biotechnology industry.
It has often been asked whether today´s Japan will be able to move into new and promising industries, or whether it is locked into an innovation system with an inherent inability to give birth to new industries. One argument reasons that the thick institutional complementarities among labour, innovation, and finance among its enterprises and the public sector favour industrial development in sectors of intermediate uncertainty, while it is difficult to move into areas of major uncertainty. In this paper, we present the case of the silver industry or, somewhat more prosaically, the 60+ or even 50+ industry, for which most would agree that Japan has indeed become a lead market and lead producer on the global market. For an institutional economist, the case of the silver industry is particularly interesting, because Japan´s success is based on the cooperation of existing actors, the enterprise and public sector in particular, which helped overcome the information uncertainties and asymmetries involved in the new market by relying on several established mechanisms developed well before. In that sense, Japan´s silver industry presents a case of of what we propose to call successful institutional path activation with the effect of an innovative market creation, instead of the problematic lockin effects that are usually associated with the term path dependence.
Überarbeitete Version des Arbeitspapiers "The dynamics of labour market participation, unemployment and non-participation in Great Britain, Sweden and Germany" / Wolfgang Strengmann-Kuhn. [Johann-Wolfgang-Goethe-Universität Frankfurt am Main, Fachbereich Wirtschaftswissenschaften, Institut für Volkswirtschaftslehre]
This paper aims to provide a descriptive analysis of the changing patterns of labour market participation, non-participation and unemployment in Great Britain, Sweden and Germany. Since the mid 1970s, most European countries have experienced two parallel developments: on the one hand they have witnessed a huge growth in the proportion of women participating on the labour market. On the other however, they have experienced the return of mass unemployment and a growing insecurity of employment for those in work. In this paper, a typology of work histories is constructed using decade periods. Retrospective and panel data from Germany, Britain and Sweden are then used to compare the effects of different employment and welfare regimes on the proportions of respondents with different types of work histories and how these are combined with unemployment.
The paper explains the absence of resultative secondary predication in Russian as arising from a conflict of inferential interpretations. It formalises the framework necessary to express this proposal in terms of abductive reasoning with Poole systems in Gricean contexts. The conflict is shown to arise for default rules regulating alternative realisation of verb-internally specified consequent states. The paper thus indicates that typological variation may be due not only to different parameter values but to general inferential properties of the syntax-semantics mapping. The proposed theory also contradicts some widespread proposals that the absence of resultative secondary predication is due to the absence of some particular language feature.
The paper makes two contributions to semantic typology of secondary predicates. It provides an explanation of the fact that Russian has no resultative secondary predicates, relating this explanation to the interpretation of secondary predicates in English. And it relates depictive secondary predicates in Russian, which usually occur in the instrumental case, to other uses of the instrumental case in Russian, establishing here, too, a difference to English concerning the scope of the secondary predication phenomenon.
The recent sovereign debt crisis in the Eurozone was characterized by a monetary policy, which has been constrained by the zero lower bound (ZLB) on nominal interest rates, and several countries, which faced high risk spreads on their sovereign bonds. How is the government spending multiplier affected by such an economic environment?While prominent results in the academic literature point to high government spending multipliers at the ZLB, higher public indebtedness is often associated with small government spending multipliers. I develop a DSGE model with leverage constrained banks that captures both features of this economic environment, the ZLB and fiscal stress. In this model, I analyze the effects of government spending shocks. I find that not only are multipliers large at the ZLB, the presence of fiscal stress can even increase their size. For longer durations of the ZLB,multipliers in this model can be considerably larger than one.
JEL Classification: E32, E 44, E62
Unquestionably (or: undoubtedly), every competent speaker has already come to doubt with respect to the question of which form is correct or appropriate and should be used (in the standard language) when faced with two or more almost identical competing variants of words, word forms or sentence and phrase structure (e.g. German "Pizzas/Pizzen/Pizze" 'pizzas', Dutch "de drie mooiste/mooiste drie stranden" 'the three most beautiful/most beautiful three beaches', Swedish "större än jag/mig" 'taller than I/me'). Such linguistic uncertainties or "cases of doubt" (cf. i.a. Klein 2003, 2009, 2018; Müller & Szczepaniak 2017; Schmitt, Szczepaniak & Vieregge 2019; Stark 2019 as well as the useful collections of data of Duden vol. 9, Taaladvies.net, Språkriktighetsboken etc.) systematically occur also in native speakers and they do not necessarily coincide with the difficulties of second language learners. In present-day German, most grammatical uncertainties occur in the domains of inflection (nominal plural formation, genitive singular allomorphy of strong masc./neut. nouns, inflectional variation of weak masc. nouns, strong/weak adjectival inflection and comparison forms, strong/weak verb forms, perfect auxiliary selection) and word-formation (linking elements in compounds, separability of complex verbs). As for syntax, there are often doubts in connection with case choice (pseudo-partitive constructions, prepositional case government) and agreement (especially due to coordination or appositional structures). This contribution aims to present a contrastive approach to morphological and syntactic uncertainties in contemporary Germanic languages (mostly German, Dutch, and Swedish) in order to obtain a broader and more fine-grained typology of grammatical instabilities and their causes. As will be discussed, most doubts of competent speakers - a problem also for general linguistic theory - can be attributed to processes of language change in progress, to language or variety contact, to gaps and rule conflicts in the grammar of every language or to psycholinguistic conditions of language processing. Our main concerns will be the issues of which (kinds of) common or different critical areas there are within Germanic (and, on the other hand, in which areas there are no doubts), which of the established (cross-linguistically valid) explanatory approaches apply to which phenomena and, ultimately, the question whether the new data reveals further lines of explanation for the empirically observable (standard) variation.
Scholars of institutional design attribute large importance to the choice of new institutions. The comparative analysis of how Rwanda and Zambia crafted their new electoral systems and the systems of government regards procedural, structural and rational choice variables which may influence the option for particular solutions. External influences and the type of transition are determinants that can decide which actors make their interests prevail. The degree of innovation or conservatism of new institutions is mainly a result of the speed of the process and the kind of actors involved. However, rational reflections on how to produce legitimacy and minimize personal risks which take into consideration the state of conflict in the country decide on the speed and on innovative outcomes. The structured analysis of only two cases uncovers already that it is rather difficult to realise the transfer of design recommendations into reality.
Die vorliegende Studie wählt […] einen kleinen Ausschnitt in Gestalt eines einzelnen Textes aus: Es geht um den „Schwanenritter“ Konrads von Würzburg, weil sich hier jene historisch-anthropologischen und mediengeschichtlichen Prozesse nicht nur beobachten lassen, sondern weil diese Erzählung sie selbst schon beobachtet. In Konrads kleinem, aber komplexem Text, so (...) [hofft Peter Strohschneider] im weiteren zeigen zu können, wird das Erzählen vom Körper, von seinen Darstellungssystemen und von der Schrift im Medium schriftliterarischen Erzählens in charakteristischer Weise reflexiv.
1. Die Vorschrift des § 18 Abs. 2 WpÜG ist gegen den zu weit geratenen Wortlaut unter Berücksichtigung des Regelungszwecks einschränkend dahin auszulegen, dass ein Angebot mit einem Widerrufs- oder Rücktrittsvorbehalt versehen werden kann, sofern der Bieter oder ihm nach § 18 Abs. 1 WpÜG zuzurechnende Personen oder Unternehmen den Eintritt des Widerrufs- oder Rücktrittsgrunds nicht ausschließlich selbst herbeiführen können. 2. Eine Entscheidung zur Abgabe eines Angebots i.S. des § 10 Abs. 1 Satz 1 WpÜG ist gegeben, wenn die Entscheidung nur noch von Umständen abhängt, deren Eintritt der Bieter oder ihm nach § 18 Abs. 1 WpÜG zuzurechnende Personen oder Unternehmen nicht ausschließlich selbst herbeiführen können, die also nicht aus dem Herrschaftsbereich des Bieters stammen. 3. Der Bieter kann die Entscheidung zur Abgabe eines Angebots analog § 18 Abs. 2 WpÜG ebenso wie ein Angebot unter einen Widerrufs- oder Rücktrittsvorbehalt stellen, sofern der Bieter oder ihm nach § 18 Abs. 1 WpÜG zuzurechnende Personen oder Unternehmen den Eintritt des Widerrufs- oder Rücktrittsgrunds nicht ausschließlich selbst herbeiführen können. Zulässig ist analog §§ 18 Abs. 1, 25 WpÜG zudem ein auf die Zustimmung der Gesellschafterversammlung des Bieters bezogener Vorbehalt. Darüber hinaus darf der Bieter eine Angebotsankündigung mit einem Finanzierungsvorbehalt für den Fall versehen, dass die Gesellschafterversammlung nicht vor Veröffentlichung der Angebotsunterlage einer für die Finanzierung des Angebots erforderlichen Kapitalmaßnahme zustimmt. 4. Der Widerruf der Entscheidung zur Abgabe eines Angebots ist als actus contrarius zu der Angebotsankündigung erst mit Veröffentlichung analog § 10 Abs. 3 Satz 1 WpÜG beachtlich. 5. Mit ordnungsgemäß veröffentlichtem Widerruf der Entscheidung wird der Bieter von der Pflicht zur Übermittlung einer Angebotsunterlage an die BaFin (§ 14 Abs. 1 Satz 1 WpÜG) sowie zur Veröffentlichung einer Angebotsunterlage (§ 14 Abs. 2 Satz 1 WpÜG) frei. Eine Untersagung des Angebots gemäß § 15 Abs. 1 Nr. 3 oder 4 WpÜG kommt damit nicht mehr in Betracht. Darüber hinaus stellt die Nichtübermittlung oder Nichtveröffentlichung der Angebotsunterlage in diesem 15 Fall keine Ordnungswidrigkeit gemäß § 60 Abs. 1 Nr. 1 a) oder Nr. 2 a) WpÜG dar.
We examine the effects of credit default swaps (CDS), a major type of over-the-counter derivative, on the corporate liquidity management of the reference firms. CDS help firms to access the credit market since the lenders can hedge their credit risk more easily using these contracts. However, CDS-protected creditors can be tougher in debt renegotiations and less willing to support distressed borrowers, causing some firms to become more cautious. Consequently, we find that firms hold significantly more cash after the inception of CDS trading on their debt. The increase in cash holdings by CDS firms is more pronounced for financially constrained firms and firms facing higher refinancing risk. Moreover, bank relationships and outstanding credit facilities intensify the CDS effect on cash holding. Finally, firms with greater financial expertise hold more cash when their debt is referenced by CDS. These findings suggest that CDS, which are primarily a risk management tool for lenders, induce firms to adopt more conservative liquidity policies.
Medieninhaltsanalyse zu anthropogenen Spurenstoffen im Wasser : Ergebnisse aus dem Projekt TransRisk
(2014)
Im Projekt TransRisk erstellt das ISOE in Zusammenarbeit mit der Deutschen Vereinigung für Wasserwirtschaft, Abwasser und Abfall (DWA) und der TU-Dresden ein Kommunikationskonzept zur Reduzierung von anthropogenen Spurenstoffen im Wasserkreislauf für die allgemeine Bevölkerung. Hierfür hat das ISOE als Vorarbeit eine Medieninhaltsanalyse von Zeitungsartikeln durchgeführt. Es ging dabei um die Frage, wie das Thema anthropogene Spurenstoffe bisher in der Presse behandelt worden ist. In diesem Studientext werden die Ergebnisse der Medienanalyse vorgestellt. Sie zeigen, dass die Berichterstattung zu anthropogenen Spurenstoffen im Wasserkreislauf in der Regel sachlich ist und nur selten reißerisch oder verharmlosend. Von der Vielzahl an Spurenstoffen stehen Medikamentenreste und Hormone im Mittelpunkt. Konkretes Handlungswissen für Verbraucher wird eher selten vermittelt. Eine zukünftige Kommunikationsstrategie zu anthropogenen Spurenstoffen im Wasserkreislauf sollte daher auf die Vermittlung von solidem Handlungswissen zielen. Weiter lässt sich aus den Ergebnissen ableiten, dass insbesondere bei Spurenstoffen, die nicht aus Medikamenten stammen, zunächst einmal Problembewusstsein geschaffen werden muss.
In diesem Arbeitspapier1 soll die statistische Erfassungstechnologie – im Foucaultschen Sinne einer gouvernementalen Technologie – in zwei ihrer zentralen Bestandteile, die Teilpraxen Zählen und Ordnen zerlegt werden, die gerade in ihrer Kombination einen Reifizierungseffekt von statistischem Wissen bewirken, der, wie hier gezeigt werden soll, wenn es um die Produktion von Wissen über „Rasse“/Ethnizität geht, als solcher gleichzeitig ein rassistischer Effekt ist. Die Macht der Zahlen einerseits und die zumeist stillschweigend im Hintergrund erfolgende taxonomische Arbeit andererseits wirken dabei als Teilpraxen der statistischen Erfassungstechnologie zusammen und bewirken gemeinsam deren Blackboxing-Effekt. Im ersten Abschnitt über das Zählen soll der Unterschied zwischen Zahlen und Worten aufgespürt werden, und damit der Unterschied zwischen Zahlenwissen und anderen Formen des Wissens. Im zweiten Abschnitt über das Ordnen wird ausführlicher die taxonomische Arbeit im Zusammenhang von Regierungswissen einschließlich ihrer Subjektivierungseffekte betrachtet und im Fortgang zunehmend auf die Anlage von Taxonomien der „Rasse“/Ethnizität für amtliche Statistiken fokussiert.
Die folgenden konzeptuellen Überlegungen dienen im Rahmen meiner Studie über das Dilemma der Erhebung von Ethnizitätsdaten zur Diskriminierungsmessung dazu, statistische Taxonomien als Instrument des Regierens und der Wissensproduktion in einer machtanalytischen Perspektive zu fassen.
Das hethitische Phonem /xw/
(2014)
In the Hittite phonological system there was a labialized velar fricative /xw/ beside the plain velar fricative /x/ parallel to the opposition between the velar stops /kw/ and /k/. The frequent syllable /xwa/ was spelled either hu-(u) or hu-wa. Evidence from the frequency of words with initial hu in the lexicon, from spelling variations and from ablaut alternations is presented to demonstrate the existence of /xw/. It is suggested that Hittite /xw/ regularly corresponds to the reflexes of *w in the non-Anatolian Indo-European languages.
Der bevorstehende Beitritt Sloweniens in die OECD1 (Organisation for Economic Cooperation and Development), die jüngste Bewertung des BTI-Status-Index 2008 (Bertelsmann-Transformation-Index) auf dem 2. Platz, der Ratsvorsitz der EU (Europäische Union) im 1. Halbjahr 2008, die Mitgliedschaft zum Schengen-Raum und die Einführung des Euro, sind nur die jüngsten Meilensteine der erfolgreichen und nachhaltigen Transformation in ein demokratisches System und die Festlegung auf eine marktwirtschaftliche Ordnung. Die Geschichte Sloweniens stand lange Zeit im Schatten der Geschichte Österreichs und Jugoslawiens. Als eine Nation in einem eigenen Staat sieht sich Slowenien seit dem Zerfall Jugoslawiens in einer gänzlich neuen Rolle. Das Erbe der früheren Abhängigkeiten ist einem neuen Selbstbewusstsein gewichen. Die graduelle Transformation Sloweniens während der 1990er Jahre in einen völkerrechtlich unabhängigen Staat, eine politische Demokratie und eine freie Marktwirtschaft erscheint im europäischen Kontext „…only [as] a chapter in the larger tale of the democratic wave that rather unexpectedly swept across Central, Eastern, and Southeastern Europe during the last years of the twentieth century.“ In Reflexion der historischen Ereignisse beurteilt Kornai die Transformation am Ende des letzten Jahrhunderts in Europa „…in spite of serious problems and anomalies …[as] a success story.“ Im Rahmen des Transformationsprozesses konnte sich Slowenien als „politischer und ökonomischer Zwerg“ als unabhängiger Staat in das demokratische Europa und die Europäische Union integrieren und fest verankern. Um Gründe und Faktoren dieses Prozesses zu identifizieren, ist eine Betrachtung der Entwicklungen in den 1980er Jahren, die zur Auflösung des blockfreien sozialistischen Jugoslawiens und zur Selbstständigkeit Sloweniens geführt haben, notwendig. Jede der konstituierenden Teilrepubliken und Regionen Jugoslawiens blickt zurück auf eine eigene historische, religiöse und sprachliche Tradition mit individuellen Erfahrungen und spezifischen Spannungen innerhalb und außerhalb der gemeinsamen Föderation. Sloweniens Weg in die politische, ökonomische und demokratische Unabhängigkeit war ein individueller nationaler Differenzierungs- und Umgestaltungsprozess und Ergebnis vielfältiger mehrdimensionaler Konflikte. Unerwartet und plötzlich war der Bruch und die Herauslösung aus dem Staatenbund Jugoslawiens am 25. Juni 1991 nicht. Die Gründung und der Niedergang eines Staates sind schwierig zu erklärende und komplexe Phänomene. Die Triebkräfte der auflösenden gesellschaftlichen Prozesse im Jugoslawien der 1980er Jahre ausschließlich auf die Nationalitätenfrage zu reduzieren, bewertet Weißenbacher als eine zu enge Fokussierung der Darstellung und Begründung auf die ethnischen Spannungen innerhalb des Vielvölkerstaates. Er argumentiert: „Die Wurzeln der Desintegration des sozialistischen Jugoslawiens in alten ethnischen Feindseligkeiten zu suchen, hieße die ökonomischen, sozialen und politischen Prozesse zu ignorieren….“ Die zunehmenden regionalen Inkompatibilitäten Jugoslawiens in den 1980er Jahren verdeutlichen in Betrachtung des spezifischen Entwicklungspfads der Teilrepublik Slowenien, dass die politisch-gesellschaftlichen, kulturellen und die sozioökonomischen Strukturen letztendlich nicht dauerhaft mit den Strukturen anderer jugoslawischer Teilrepubliken vereinbar waren. Die politische und wirtschaftliche Instabilität Jugoslawiens und der frühzeitige Wandel innerhalb der slowenischen Gesellschaft und der Kommunistischen Partei in den 1980er Jahren führten durch politischen Reformdruck und makroökonomische Ungleichgewichte zum Kollaps des jugoslawischen Staatenbundes. Mencinger betont, dass die tiefe Krise Jugoslawiens letzten Endes ohne einen radikalen Systembruch und Sturkurwandel von politischer und ökonomischer Machtverteilung nicht zu überwinden gewesen wäre. Der vorliegende Beitrag greift die Rahmenbedingungen, Entwicklungen, Konflikte und Ziele auf und zeichnet die wesentlichen politischen und wirtschaftlichen Geschehnisse nach, denen sich die slowenische Bevölkerung und Politik in den Jahren vor der Loslösung gegenübersahen und die zur Gründung des unabhängigen Staates geführt haben.
The purpose of the paper is to survey and discuss inflation targeting in the context of monetary policy rules. The paper provides a general conceptual discussion of monetary policy rules, attempts to clarify the essential characteristics of inflation targeting, compares inflation targeting to the other monetary policy rules, and draws some conclusions for the monetary policy of the European system of Central Banks.
We study the problem of a policymaker who seeks to set policy optimally in an economy where the true economic structure is unobserved, and policymakers optimally learn from their observations of the economy. This is a classic problem of learning and control, variants of which have been studied in the past, but little with forward-looking variables which are a key component of modern policy-relevant models. As in most Bayesian learning problems, the optimal policy typically includes an experimentation component reflecting the endogeneity of information. We develop algorithms to solve numerically for the Bayesian optimal policy (BOP). However the BOP is only feasible in relatively small models, and thus we also consider a simpler specification we term adaptive optimal policy (AOP) which allows policymakers to update their beliefs but shortcuts the experimentation motive. In our setting, the AOP is significantly easier to compute, and in many cases provides a good approximation to the BOP. We provide a simple example to illustrate the role of learning and experimentation in an MJLQ framework. JEL Classification: E42, E52, E58
Der Beitrag arbeitet die moralische Subjektivierungsform ökonomischer Verschuldung heraus. In Auseinandersetzung mit Friedrich Nietzsche, Max Weber und Pierre Bourdieu wird argumentiert, dass die Form der Verschuldung durch eine spezifische Zeitlichkeit geprägt ist. Die zentrale These lautet, dass sich das Zeitregime von Schuld und Schulden als paradox erweist: Einerseits ermöglicht die moderne "Entzauberung der Welt" (Max Weber) eine Öffnung auf gesellschaftliche Zukünfte hin und diese temporale Öffnung bildet auch eine notwendige Bedingung kapitalistischer Investitionstätigkeiten. Andererseits verstellt das gegenwärtige rigide Zeitregime der Schuld(en) jedoch die Möglichkeit subjektiver und politischer neuer Anfänge in der Zeit, da die Verschuldung eine Dynamik der ökonomischen Determinierung gegenwärtiger Handlungsoptionen durch den Zwang zur Rückzahlung ins Werk setzt.
Obstetrical care as a matter of time: ultrasound screening in anticipatory regimes of pregnancy
(2014)
This article explores the ways in which ultrasound screening influences the temporal dimensions of prevention in the obstetrical management of pregnancy. Drawing on praxeographic perspectives and empirically based on participant observation of ultrasound examinations in obstetricians’ offices, it asks how ultrasound scanning facilitates anticipatory modes of pregnancy management, and investigates the entanglement of different notions of time and temporality in the highly risk-oriented modes of prenatal care in Germany. Arguing that the paradoxical temporality of prevention – acting now in the name of the future – is intensified by ultrasound screening, I show how the attribution of risk regarding foetal growth in prenatal check-ups is based on the fragmentation of procreative time and ask how time standards come into play, how pregnancy is located in calendrical time, and how notions of foetal time and the everyday life times of pregnant women clash during negotiations between obstetricians and pregnant women about the determination of the due date. By analysing temporality as a practical accomplishment via technological devices such as ultrasound, the paper contributes to debates in feminist STS studies on the role of time in reproduction technologies and the management of pregnancy and birth in contemporary societies.
This paper gives an account of the unmaking of Soviet workers at the Vernissage in Armenia. I argue that the unmaking of Soviet workers, first, is the irrelevance of Soviet workers as workers once they lost their jobs after the collapse of the Soviet Union and came to the Vernissage to trade. During the Soviet period, private trade was forbidden, and the Soviet government persecuted people who dared to engage in it. Consequently, many people grew up thinking of trade as a criminal activity that was non-productive and parasitic, as opposed to productive work that facilitated the modernization of the USSR. After the dissolution of the USSR, when trade was liberalized and many former Soviet workers were pushed into trade as they lost their jobs, it still retained its quality of not being “real” work, to borrow Roberman’s (2013) wording. Even 25 years after the dissolution of the USSR, former Soviet workers at the Vernissage still want to be identified with their former Soviet occupations and not with trade. However, now engaged in trade, former Soviet workers came up with a “new” way of establishing identity and hierarchy—through production. I describe this “new” way as “the identification game”; employing it, I demonstrate how former Soviet workers at the Vernissage identify and represent themselves as masters, whose work is productive and intellectual. In doing so, they single out resellers, people who resell the work of other masters, by implying that their work is parasitic and selfish. However, this “identification game” is reified only by the older generation of traders, former Soviet workers. The younger generation of traders at the Vernissage, which does not have any experience of being Soviet workers, is disengaged from it, thus undermining the Soviet view of trade as not “real” work and making it irrelevant in the postsocialist era. Thus, I contend that the unmaking of Soviet workers consists in, first, their irrelevance as workers in a postsocialist period, and second, the irrelevance of their ideas about trade as not “real” work. Furthermore, to support my depiction of a master who engages in “the identification game” and a younger-generation trader who is disengaged from it, I give two ethnographic portraits of traders at the Vernissage. I assert that the disengagement of a younger generation of traders at the Vernissage signals a change in the perception of trade as “real” work and runs parallel to the unmaking of Soviet workers.
Testing frequency and severity risk under various information regimes and implications in insurance
(2023)
We build on Peter et al. (2017) who examined the benefit of testing frequency risk under various information regimes. We first consider testing only severity risk, and whether the principle of indemnity, i.e. the usual contract term that excludes claims payments above the resulting insured loss, affects the insurance contracts offered and purchased. Under information regimes which are less restrictive (in terms of obtaining and using customer information), it is possible for the insurer to offer different contracts for tested and untested individuals. In the absence of the principle of indemnity, individuals will test their severity risk and a separating equilibrium ensues. With the principle of indemnity, given an actuarially fair pooled contract, individuals will not test for severity under less restrictive information regimes; a pooling equilibrium thus ensues. Under more restrictive information regimes, the insurer offers separating contracts. Individuals will test for severity and purchase appropriate contracts. We also consider testing for both frequency and severity risk. The results here are more varied. The highest gain in efficiency from testing results from one of the more restrictive information regimes. Generally under all information regimes, there is a greater gain in efficiency without the principle of indemnity than with the principle of indemnity.
I have assessed changes in the monetary policy stance in the euro area since its inception by applying a Bayesian time-varying parameter framework in conjunction with the Hamiltonian Monte Carlo algorithm. I find that the estimated policy response has varied considerably over time. Most of the results suggest that the response weakened after the onset of the financial crisis and while quantitative measures were still in place, although there are also indications that the weakening of the response to the expected inflation gap may have been less pronounced. I also find that the policy response has become more forceful over the course of the recent sharp rise in inflation. Furthermore, it is essential to model the stochastic volatility relating to deviations from the policy rule as it materially influences the results.
The Federal Reserve has been publishing federal funds rate prescriptions from Taylor rules in its Monetary Policy Report since 2017. The signals from the rules aligned with Fed action on many occasions, but in some cases the Fed opted for a different route. This paper reviews the implications of the rules during the coronavirus pandemic and the subsequent inflation surge and derives projections for the future.
In 2020, the Fed took the negative prescribed rates, which were far below the effective lower bound on the nominal interest rate, as support for extensive and long-lasting quantitative easing. Yet, the calculations overstate the extent of the constraint, because they neglect the supply side effects of the pandemic.
The paper proposes a simple model-based adjustment to the resource gap used by the rules for 2020. In 2021, the rules clearly signaled the need for tightening because of the rise of inflation, yet the Fed waited until spring 2022 to raise the federal funds rate. With the decline of inflation over the course of 2023, the rules’ prescriptions have also come down. They fall below the actual federal funds rate target range in 2024. Several caveats concerning the projections of the interest rate prescriptions are discussed.
In this paper we investigate the comparative properties of empirically-estimated monetary models of the U.S. economy. We make use of a new data base of models designed for such investigations. We focus on three representative models: the Christiano, Eichenbaum, Evans (2005) model, the Smets and Wouters (2007) model, and the Taylor (1993a) model. Although the three models differ in terms of structure, estimation method, sample period, and data vintage, we find surprisingly similar economic impacts of unanticipated changes in the federal funds rate. However, the optimal monetary policy responses to other sources of economic fluctuations are widely different in the different models. We show that simple optimal policy rules that respond to the growth rate of output and smooth the interest rate are not robust. In contrast, policy rules with no interest rate smoothing and no response to the growth rate, as distinct from the level, of output are more robust. Robustness can be improved further by optimizing rules with respect to the average loss across the three models.
In this paper we investigate the comparative properties of empirically-estimated monetary models of the U.S. economy using a new database of models designed for such investigations. We focus on three representative models due to Christiano, Eichenbaum, Evans (2005), Smets and Wouters (2007) and Taylor (1993a). Although these models differ in terms of structure, estimation method, sample period, and data vintage, we find surprisingly similar economic impacts of unanticipated changes in the federal funds rate. However, optimized monetary policy rules differ across models and lack robustness. Model averaging offers an effective strategy for improving the robustness of policy rules.
Recently there has been an explosion of research on whether the equilibrium real interest rate has declined, an issue with significant implications for monetary policy. A common finding is that the rate has declined. In this paper we provide evidence that contradicts this finding. We show that the perceived decline may well be due to shifts in regulatory policy and monetary policy that have been omitted from the research. In developing the monetary policy implications, it is promising that much of the research approaches the policy problem through the framework of monetary policy rules, as uncertainty in the equilibrium real rate is not a reason to abandon rules in favor of discretion. But the results are still inconclusive and too uncertain to incorporate into policy rules in the ways that have been suggested.
We examine how U.S. monetary policy affects the international activities of U.S. Banks. We access a rarely studied US bank‐level dataset to assess at a quarterly frequency how changes in the U.S. Federal funds rate (before the crisis) and quantitative easing (after the onset of the crisis) affects changes in cross‐border claims by U.S. banks across countries, maturities and sectors, and also affects changes in claims by their foreign affiliates. We find robust evidence consistent with the existence of a potent global bank lending channel. In response to changes in U.S. monetary conditions, U.S. banks strongly adjust their cross‐border claims in both the pre and post‐crisis period. However, we also find that U.S. bank affiliate claims respond mainly to host country monetary conditions.
Joseph E. Stiglitz (1943 - )
(2000)
Am 24.11.1999 gibt Joseph E. Stiglitz seinen vorzeitigen Rücktritt als Chief Economist und Senior Vice President der Weltbank zum Jahresende bekannt. Er will sich wieder ausschließlich der Forschung und Lehre widmen und kehrt auf seinen Lehrstuhl am Economics Department der Stanford University zurück. Stiglitzs Rückzug aus der aktiven Entwicklungspolitik erfolgt nicht ganz freiwillig. Er selbst kommentiert seinen Entschluß: „It has become obvious to me that it would be difficult to continue to speak out as forcefully and publicly as I have on a variety of issues and still remain as chief economist. Rather than muzzle myself, or be muzzled, I decided to leave.“ (New York Times, 1.12.1999). Seit geraumer Zeit galt seine öffentliche Kritik am Washington Consensus, dem ökonomischen Glaubensbekenntnis, auf das sich die politische Linie des US Treasury genauso stützt wie die Stabilisierungs- und Reformpolitik des IWF, als Dorn im Auge der Vertreter dieser Institutionen. Für sie war Stiglitz - so die Metapher der Financial Times vom 26.11.99 - „a veritable gadfly“, eine wahre Viehbremse, deren lästiges Summen aufgrund von Position und Intellekt nicht einfach ignoriert werden konnte. ...
During the 1970s, industrial countries, including the US and continental Europa, experienced a combination of slow productivity growth and high unemplyoment. Subsequent research has shown that the standard model of unemployment actually gives counterfactual predictions. Motivated by the observation that the 1970s were also characterized by high and rising inflation, Tesfaselassie and Wolters examine the effect of growth on unemployment in the presence of nominal price rigidity.
The authors demonstrate that the effect of growth on unemployment may be positive or negative. Faster growth leads to lower unemployment if the rate of inflation is high enough. There is a threshold level of inflation below which faster growth leads to higher unemployment and above which faster growth leads to lower unemployment. The threshold level in turn depends on labor market characteristics, such as hiring efficiency, the job destruction rate, workers' relative bargaining power and the opportunity cost of work.
Die Globalisierung hat nicht, wie es sowohl ordoliberale als auch kritische Theorien einer globalen „economic constitution“ erwarten, eine einheitliche Weltwirtschaftsverfassung hervorgebracht, sondern eine fragmentierte Kollisionsverfassung, d.h. eine Metaverfassung von Verfassungskonflikten. Als deren kollidierende Einheiten fungieren nicht mehr die Nationalstaaten, sondern transnationale Produktionsregimes. Die von Böhm und Sinzheimer für den Nationalstaat formulierte Alternative von ordoliberaler Wirtschaftsverfassung und sozialdemokratischer Wirtschaftsdemokratie ist in der transnationalen Wirtschaftsverfassung vom Gegensatz zwischen den neokorporatistisch organisierten Produktionsregimes Kontinentaleuropas und den finanzkapitalistisch geprägten Produktionsregimes anglo-amerikanischer Prägung, abgelöst worden. Entgegen allen Voraussagen haben die neo-korporatistischen Wirtschaftsverfassungen Kontinentaleuropas trotz Globalisierung und Wirtschaftskrise eine erstaunliche Resilienz bewiesen. Einer wirtschaftsdemokratischen Konstitutionalisierung eröffnen sich hier neue Chancen dadurch, dass, wie am Beispiel der Corporate Codes gezeigt wird, unternehmensexterne gesellschaftliche Kräfte, also neben staatlichen Interventionen rechtliche Normierungen und „zivilgesellschaftliche“ Gegenmacht aus anderen Kontexten so massiven Druck auf die Unternehmen ausüben, dass sie gezwungen sind, gemeinwohlbezogene Selbstbeschränkungen aufzubauen.
Prozesse der Konstitutionalisierung jenseits des Nationalstaates ver-laufen in zwei unterschiedlichen Richtungen: in transnationalen Politikprozessen jenseits der Nationalstaatsverfassungen, gleichzeitig außerhalb der internationalen Politik in den “privaten” Sektoren der Weltgesellschaft. Die Verfassungssoziologie, die solche Prozesse analysiert, distanziert sich damit von den Verengungen des traditionellen Konstitutionalismus auf den Nationalstaat und fokussiert gesellschaftliche Verfassungen im nationalen und transnationalen Raum. Doch was ist das Gesellschaftliche im gesellschaftlichen Konstitutionalismus? Dies ist aktuell Gegenstand einer vielstimmigen Kontroverse über die Subjekte nichtstaatlicher Verfassungen, ihren Ursprung, ihre Legitimation, ihre Reichweite und ihre inneren Strukturen. Der Beitrag versteht die Kontroverse als „Thema mit Variationen“ und stellt folgende Leitfragen an die zahlreichen Variationen: Was ist in der einzelnen Variation das jeweilige „Kompositionsprinzip“? Welche Schwierigkeiten zeigen sich in dessen Durchführung? Welches sind seine aufhebenswerten Motive? In diesem Sinn wird zunächst das von David Sciulli vorgegebene Thema des gesellschaftlichen Konstitutionalismus kurz vorgestellt. Dann werden sechs Variationen in zwei unterschiedlichen Variationsreihen vorgeführt, einer ersten, die Konstitutionalisierung als Expansion einer einzigen Rationalität in alle gesellschaftlichen Bereiche versteht, einer zweiten, welche trotz der Pluralität des gesellschaftlichen Konstitutionalismus auf der Einheit der Verfassung besteht. Im Schlussteil nehmen drei weitere Variationen schließlich die Motive, die sich als aufhebenswert herausgestellt haben – Meta-Verfassung, Nomos und Narrativ, mediale Reflexivität - wieder auf und entwickeln sie weiter.
Constitutionalization beyond the nation state can be observed as an evolutionary process that leads in two quite different directions: (1) constitutions evolve in transnational political processes outside the nation state; (2) simulta-neously, constitutions evolve outside international politics in global society’s ‘private’ sectors. What, however, is the specifically societal element in societal constitutionalism? This is currently the object of a controversy regarding the subjects of non-state constitutions, their origin, their legitimization, their scope, and their internal structures. This article interprets the controversy as a theme with a number of variations. What is the distinctive ‘compositional principle’ in each particular variation? Which problems become evident in its ‘development’? What are its most valuable ‘motifs’? The article starts with David Sciulli’s theme of societal constitutionalism. Then it presents six variations on Sciulli. In a first group, constitutionalization is perceived as the expansion of a single rationality into all spheres of society. In a second group, the motif of the unity of the consti-tution can still be heard, despite the essential pluralism of societal constitution-alism. In the final movement, three further variations will then reprise and devel-op further the most important motifs, in a resumption of the original theme.
We reconsider the issue of price discovery in spot and futures markets. We use a threshold error correction model to allow for arbitrage operations to have an impact on the return dynamics. We estimate the model using quote midpoints, and we modify the model to account for time-varying transaction costs. We find that the futures market leads in the process of price discovery. The lead of the futures market is more pronounced in the presence of arbitrage signals. Thus, when the deviation between the spot and the futures market is large, the spot market tends to adjust to the futures market.
The German financial system is the archetype of a bank-dominated system. This implies that organized equity markets are, in some sense, underdeveloped. The purpose of this paper is, first, to describe the German equity markets and, second, to analyze whether it is underdeveloped in any meaningful sense. In the descriptive part we provide a detailed account of the microstructure of the German equity markets, putting special emphasis on recent developments. When comparing the German market with its peers, we find that it is indeed underdeveloped with respect to market capitalization. In terms of liquidity, on the other hand, the German equity market is not generally underdeveloped. It does, however, lack a liquid market for block trading. Klassifikation: G 51 . Revised version forthcoming in "The German Financial System", edited by Jan P. Krahnen and Reinhard H. Schmidt, Oxford University Press.
Deutsche Börse AG plans to introduce a system (Xetra Best) allowing brokers and broker-dealers to internalize the orders of retail customers. Further, Xetra Best supports payment for order flow arrangements. Both internalization and payment for order flow may be detrimental to market quality. This paper discusses advantages and disadvantages of these arrangements. It draws on experiences made in the US. We derive policy implications that aim at a more stringent interpretation of "best execution", and at higher transparency. Klassifikation: G10, G14
Die mit unterschiedlichen Organisationsformen des Wertpapierhandels einhergehende Liquidität und ihre Messung ist eine der zentralen Fragen im Zusammenhang mit der Gestaltung von Wertpapiermärkten. Zunächst wird die Eignung verschiedener in der Literatur vorgeschlagener Liquiditätsmaße diskutiert. Anhand einer Serie von Marktexperimenten wird dann die Liquidität der grundsätzlichen Ausgestaltungsformen des Wertpapierhandels - Gesamtkursermittlung, kontinuierliche Auktion und Market-Maker-System - miteinander verglichen.
Sowohl das Handelsvolumen als auch das von ROLL (1984) vorgeschlagene Maß sind offenbar für den Vergleich der Liquidität unterschiedlich organisierter Wertpapiermärkte nicht geeignet. Eine aufgrund theoretischer Überlegungen prognostizierte Überschätzung der Transaktionskosten bei der Gesamtkursermittlung kann empirisch bestätigt werden.
Die explizite Geld-Brief-Spanne ist dagegen grundsätzlich ein geeignetes Liquiditätsmaß. Mit den Daten der experimentellen Märkte läßt sich auch für die Gesamtkursermittlung eine solche Spanne ermitteln. Sie erweist sich als niedriger als die Spanne in der kontinuierlichen Auktion und dem Market-Maker-Markt. Jedoch ist auch die Geld-Brief-Spanne mit Vorsicht zu interpretieren. Es wird gezeigt, daß unter bestimmten Umständen systematische Verzerrungen existieren können. In den hier untersuchten experimentellen Märkten ließen sich diese identifizieren. Bei Untersuchungen anhand von Felddaten ist dies jedoch nicht ohne weiteres möglich, so daß hier die Gefahr von Verzerrungen durchaus real ist.
Der Neue Markt soll wachstumsorientierten Unternehmen den Zugang zur Börse eröffnen. Die für dieses Marktsegment neu geschaffene Institution des Betreuers soll Vorbildcharakter für andere Marktsegmente haben. In der vorliegenden Arbeit werden Vor- und Nachteile des Betreuer-Konzeptes erarbeitet. Die daraus abgeleiteten Fragen werden empirisch untersucht. Dabei zeigt sich, daß der Neue Markt eine hohe Handelsintensität und niedrige Geld-BriefSpannen aufweist. Auch eine schriftliche Befragung der notierten Unternehmen ergab eine positive Einschätzung des neuen Marktsegments.
Überlegungen zur Profitabilität der Betreuer-Funktion deuten darauf hin, daß diese nicht an sich profitabel ist. Es findet offenbar eine Quersubventionierung aus Erträgen des Emissionsgeschäftes statt. Diese Abhängigkeit sollte berücksichtigt werden, wenn die Übertragung des Betreuerkonzepts auf andere Marktsegmente diskutiert wird.