Refine
Year of publication
Document Type
- Working Paper (3389) (remove)
Language
- English (2353)
- German (1016)
- Spanish (8)
- French (7)
- Multiple languages (2)
Keywords
- Deutschland (223)
- USA (64)
- Corporate Governance (53)
- Geldpolitik (53)
- Schätzung (52)
- Europäische Union (51)
- monetary policy (47)
- Bank (41)
- Sprachtypologie (34)
- Monetary Policy (31)
Institute
- Wirtschaftswissenschaften (1498)
- Center for Financial Studies (CFS) (1471)
- Sustainable Architecture for Finance in Europe (SAFE) (805)
- House of Finance (HoF) (665)
- Rechtswissenschaft (402)
- Institute for Monetary and Financial Stability (IMFS) (214)
- Informatik (119)
- Exzellenzcluster Die Herausbildung normativer Ordnungen (75)
- Gesellschaftswissenschaften (75)
- Geographie (64)
Using a unique, hand-collected database of all venture-backed firms listed on Germany´s Neuer Markt, we analyze the history of venture capital financing of these firms before the IPO and the behavior of venture capitalists at the IPO. We can detect significant differences in the behavior and characteristics of German vs. foreign venture capital firms. The discrepancy in the investment and divestment strategies may be explained by the grandstanding phenomenon, the value-added hypothesis and certification issues. German venture capitalists are typically younger and smaller than their counterparts from abroad. They syndicate less. The sectoral structure of their portfolios differs from that of foreign venture capital firms. We also find that German venture capitalists typically take companies with lower offering volumes on the market. They usually finance firms in a later stage, carry through fewer investment rounds and take their portfolio firms public earlier. In companies where a German firm is the lead venture capitalist, the fraction of equity held by the group of venture capitalists is lower, their selling intensity at the IPO is higher and the committed lock-up period is longer.
We analyze the venture capitalist´s decision on the timing of the IPO, the offer price and the fraction of shares he sells in the course of the IPO. A venture capitalist may decide to take a company public or to liquidate it after one or two financing periods. A longer venture capitalist´s participation in a firm (later IPO) may increase its value while also increasing costs for the venture capitalist. Due to his active involvement, the venture capitalist knows the type of firm and the kind of project he finances before potential new investors do. This information asymmetry is resolved at the end of the second period. Under certain assumptions about the parameters and the structure of the model, we obtain a single equilibrium in which high-quality firms separate from low-quality firms. The latter are liquidated after the first period, while the former go public either after having been financed by the venture capitalist for two periods or after one financing period using a lock-up. Whether a strategy of one or two financing periods is chosen depends on the consulting intensity of the project and / or on the experience of the venture capitalist. In the separating equilibrium, the offer price corresponds to the true value of the firm. An earlier version of this paper appeared as: The Decision of Venture Capitalists on Timing and Extent of IPOs (ZEW Discussion Paper No. 03-12). This version July 2003.
This paper aims to analyze the impact of different types of venture capitalists on the performance of their portfolio firms around and after the IPO. We thereby investigate the hypothesis that different governance structures, objectives and track record of different types of VCs have a significant impact on their respective IPOs. We explore this hypothesis by using a data set embracing all IPOs which occurred on Germany's Neuer Markt. Our main finding is that significant differences among the different VCs exist. Firms backed by independent VCs perform significantly better two years after the IPO compared to all other IPOs and their share prices fluctuate less than those of their counterparts in this period of time. Obviously, independent VCs, which concentrated mainly on growth stocks (low book-to-market ratio) and large firms (high market value), were able to add value by leading to less post-IPO idiosyncratic risk and more return (after controlling for all other effects). On the contrary, firms backed by public VCs (being small and having a high book-to-market ratio) showed relative underperformance. Klassifikation: G10, G14, G24 . 29th January 2004 .
This paper sets out to analyze the influence of different types of venture capitalists on the performance of their portfolio firms around and after IPO. We investigate the hypothesis that different governance structures, objectives, and track records of different types of VCs have a significant impact on their respective IPOs. We explore this hypothesis using a data set embracing all IPOs that have occurred on Germany's Neuer Markt. Our main finding is that significant differences among the different VCs exist. Firms backed by independent VCs perform significantly better two years after IPO as compared to all other IPOs, and their share prices fluctuate less than those of their counterparts in this period of time. On the contrary, firms backed by public VCs show relative underperformance. The fact that this could occur implies that market participants did not correctly assess the role played by different types of VCs.
This paper contributes a multivariate forecasting comparison between structural models and Machine-Learning-based tools. Specifically, a fully connected feed forward non-linear autoregressive neural network (ANN) is contrasted to a well established dynamic stochastic general equilibrium (DSGE) model, a Bayesian vector autoregression (BVAR) using optimized priors as well as Greenbook and SPF forecasts. Model estimation and forecasting is based on an expanding window scheme using quarterly U.S. real-time data (1964Q2:2020Q3) for 8 macroeconomic time series (GDP, inflation, federal funds rate, spread, consumption, investment, wage, hours worked), allowing for up to 8 quarter ahead forecasts. The results show that the BVAR improves forecasts compared to the DSGE model, however there is evidence for an overall improvement of predictions when relying on ANN, or including them in a weighted average. Especially, ANN-based inflation forecasts improve other predictions by up to 50%. These results indicate that nonlinear data-driven ANNs are a useful method when it comes to macroeconomic forecasting.
Central bank intervention in the form of quantitative easing (QE) during times of low interest rates is a controversial topic. The author introduces a novel approach to study the effectiveness of such unconventional measures. Using U.S. data on six key financial and macroeconomic variables between 1990 and 2015, the economy is estimated by artificial neural networks. Historical counterfactual analyses show that real effects are less pronounced than yield effects.
Disentangling the effects of the individual asset purchase programs, impulse response functions provide evidence for QE being less effective the more the crisis is overcome. The peak effects of all QE interventions during the Financial Crisis only amounts to 1.3 pp for GDP growth and 0.6 pp for inflation respectively. Hence, the time as well as the volume of the interventions should be deliberated.
Much has been written on the success of the Indian software industry, enumerating systemic factors like first-class higher education and research institutions, both public and private; low labour costs, stimulating (state) policies etc. However, although most studies analyzing the 'Indian' software industry cover essentially the South (and West) Indian clusters, this issue has not been tackled explicitly. This paper supplements the economic geography explanations mentioned above with the additional factor social capital, which is not only important within the region, but also in transnational (ethnic) networks linking Indian software clusters with the Silicon Valley. In other words, spatial proximity is complemented with cultural proximity, thereby, extending the system of innovation. The main hypothesis is that some Indian regions are more apt to economic development and innovation due to their higher affinity to education and learning, as well as, their more general openness, which has been a main finding of my interviews. In addition, the transnational networks of Silicon Valley Indians seem to be dominated by South Indians, thus, corroborating the regional clustering of the Indian software industry. JEL Classifications: O30, R12, Z13, L86
Mit einem um die Behandlungskapazität des Gesundheitssystems erweiterten epidemiologischen SIRD-Modell werden Mechanismen und Dynamik einer Virusepidemie wie Corona anhand von stilisierten politischen Reaktionsmustern (Ignore, Shutdown, Ignore-Shutdown-Relax) simuliert. Ferner werden aus dem Modell Lehren für die statistische Analyse von Corona gezogen, wie die Aussagekraft publizierter Verdopplungszeiten und Reproduktionszahlen. Die Dunkelziffer unbestätigter Fälle und die im Epidemieverlauf variable Genauigkeit von medizinischen Infektionstests werden diskutiert. Zur Messung der medizinischen Kosten von Corona sowie für regionale und internationale Vergleiche wird ein Schadensindex der verlorenen Lebenszeit vorgeschlagen. Zuletzt geht die Arbeit kurz auf die ökonomischen Kosten von Corona in Deutschland ein.
Für Zwecke des privaten Konsums werden ständig Gegenwarts- und Zukunftsgüter bewertet und gehandelt. Ein zuverlässiges und umfassendes Maß für die allgemeine Kaufkraft des Geldes und deren Veränderung sollte diesem Grundsachverhalt Rechnung tragen. Im Unterschied zu konventionellen statistischen Verbraucherpreisindizes ist ein ökonomischer Lebenskostenindex intertemporal angelegt, da er die effektiven Konsumgüterpreise (Effektivpreise) über den Planungshorizont der privaten Haushalte bündelt. Ein Preisstabilitätsstandard, der diesen Zusammenhang ausblendet, ist tendenziell verzerrt und leistet einer asymmetrischen Geldpolitik Vorschub.
Effektivpreise sind Gegenwartspreise für künftigen Konsum, sie berücksichtigen Güterpreise und Zinsen bzw. Vermögenspreisänderungen, sind konsumtheoretisch und wohlfahrtsökonomisch fundiert und bilden die zentralen Bausteine für die Modellklasse der ökonomischen Lebenskostenindizes. Nutzentheoretisch gesehen sind Effektivpreise bewerteter Grenznutzen der letzten konsumierten Gütereinheit, und die daraus abgeleiteten Effektiven Inflationsraten sind intertemporale Grenzraten der Substitution.
Die Autoren entwickeln einen intertemporalen Lebenskostenindex auf der Grundlage des Konzepts der Effektivpreise und stellen empirische Zeitreihen und kohortenspezifische Szenarioanalysen für Deutschland vor.
Discussions regarding the planned European Deposit Insurance Scheme (EDIS), the missing third pillar of the European Banking Union, have been ongoing since the Commission published its initial legisla-tive proposal in 2015. A breakthrough in negotiations has yet to be achieved. The gridlock on EDIS is most commonly attributed to moral hazard concerns over insufficient risk reduction harboured on the side of northern member states, particularly Germany, due to the weak state of some other member states’ banking sectors. While moral hazard based on uneven risk reduction is helpful for explaining divergent member-state preferences on the scope of necessary risk reduction, this does not explain preferences on the institutional design of EDIS. In this paper, we argue that contrary to persistent differences on necessary risk reduction, preferences regarding the institutional design of EDIS have become more closely aligned. We analyse how preferences on EDIS developed in the key member states of Germany, France, and Italy. In all sampled countries, we find path-dependent benefits con-nected to the current design of national Deposit Guarantee Schemes (DGS) that shifted preferences of the banking sector or significant subsectors in favour of retaining national DGSs. Overall, given that a compromise on risk-reduction can be accomplished, we argue that current preferences in these key member states provide an opportunity to implement EDIS in the form of a reinsurance system that maintains national DGSs in combination with a supranational fund.
Self-control failure is among the major pathologies (Baumeister et al. (1994)) affecting individual investment decisions which has hardly been measurable in empirical research. We use cigarette addiction identified from checking account transactions to proxy for low self-control and compare over 5,000 smokers to 14,000 nonsmokers. Smokers self-directing their investment trade more frequently, exhibit more biases and achieve lower portfolio returns. We also find that smokers, some of which might be aware of their limited levels of self-control, exhibit a higher propensity than nonsmokers to delegate decision making to professional advisors and fund managers. We document that such precommitments work successfully.
In an earlier paper, I proposed a system for evaluating the relative descriptivity of lexical items in a consistent manner in terms of the interrelations of three metrics. The first of these, including five possible degrees of descriptivity, is based on the premise that the sum of the meaningful parts of a given form is or is not equal to the meaning of the whole. The second, also composed of five degrees, is based on paraphrase-term relations in which the logical quantifiers: all, some and no, are applied to the terms of the paraphrase in one test and to the meaningful parts of the term (linguistic form) in the reversibility test. Both tests are applied in the form of logical propositions. The third metric, with three degrees, deals with the relative explicitness of the meaningful parts of a given form: explicit, implicit or neither. […] This system was then tested in a pilot study involving the fairly limited and semantically homogeneous lexical domain of body-part terms in a specific language, Finnish. The purpose of the present paper is to subject comparable data from other languages to the same kind of analysis and compare the results in order to ascertain whether the generalizations arrived at with the Finnish data also hold for the other languages or, more specifically, which of these generalizations are more or less universal and which language or language-type specific? The additional languages to be examined here are: French, German, Ewe, Maasai and Swahili.
Three quantificational approaches to the measurement of lexical descriptivity are proposed, based on: the semantic sum of the parts of a lexeme is equal to the whole, paraphrase-term and term-paraphrase congruence, explicitness of semantic elements of a construction. Combination of all possible values into tripartite sets and then into equipollent groups results in a system composed of 12 grades. This system was tested with a semantic domain of the Finnish lexicon: body-part terms. The descriptivity indices for each lexical item were correlated with natural divisions of the body, construction-motivation types (form, function, location), grammatical construction types (endo- and exocentric compounds, derived forms, metaphors), and loanwords. These comparisons result in a number of grade profiles whereby specific descriptivity grades are characteristically associated with one or more types of body section, construction motivation, and grammatical construction. Diachronic and synchronic evidence points overwhelmingly to a process of semantic narrowing in the development of descriptive words and labels from phrases or sentences.
Etymologie und Wortgeschichte bezeichnen deutlich voneinander unterschiedene Aufgabenstellungen der Linguistik. Etymologie beschreibt die erste Zuordnung eines Inhalts zu einer hierfür neugeschaffenen Lautkette. Sie hat Lexikon, Wortbildung und Motivation als Faktoren einer solchen Zuordnung darzustellen und gehört damit zur synchronen Beschreibung der Sprache. Wortgeschichte ist eine Aufgabe der historischen Sprachwissenschaft: sie registriert und deutet alles, was sich mit einer einmal geschehenen Form-Inhalt-Zuordnung im Laufe ihrer Verwendung durch die Sprecher ereignet.
Im ersten Teil wird zunächst die wenige Forschungsliteratur zum Thema Deskriptivität selbst und eng verwandten Themen vorgestellt und besprochen. Daraus soll sich im Anschluss auch eine Definition des Begriffes ergeben, die weit genug gefasst ist, um die übliche Verwendungsweise des Begriffs bei Autoren, die ihn zwar benutzen, aber nicht theoretisch behandeln, zu erfassen, die sich aber andererseits dennoch in klar definierten und nachvollziehbaren Grenzen bewegt. Dabei soll weiterhin deutlich werden, dass es sich bei Deskriptivität um ein prinzipiell in allen Sprachen anzutreffendes Phänomen handelt, dass sich aber die Frequenz deskriptiver Ausdrücke von Sprache zu Sprache stark unterscheiden kann. Dabei werde ich Daten aus ausgewählten Sprachen einbeziehen und eine quantitative Analyse des Ausmaßes, mit dem verschiedene Sprachen von deskriptiven Bildungen Gebrauch machen vorstellen. Der zweite Hauptteil der Arbeit beschäftigt sich mit folgender Frage: Wenn jede Sprache zu einem gewissen Grad von deskriptiven Benennungen Gebrauch macht, welche Mechanismen des Sprachwandels gibt es, die die Position einer Sprache auf dieser Skala in die eine oder die andere Richtung verändern können?
This paper considers a trading game in which sequentially arriving liquidity traders either opt for a market order or for a limit order. One class of traders is considered to have an extended trading horizon, implying their impatience is linked to their trading orientation. More specifically, sellers are considered to have a trading horizon of two periods, whereas buyers only have a single-period trading scope (the extended buyer-horizon case is completely symmetric). Clearly, as the life span of their submitted limit orders is longer, this setting implies sellers are granted a natural advantage in supplying liquidity. This benefit is hampered, however, by the direct competition arising between consecutively arriving sellers. Closed-form characterizations for the order submission strategies are obtained when solving for the equilibrium of this dynamic game. These allow to examine how these forces affect traders´ order placement decisions. Further, the analysis yields insight into the dynamic process of price formation and into the market clearing process of a non-intermediated, order driven market.
This paper presents evidence that spillovers through shifts in bank lending can help explain the pattern of contagion. To test the role of bank lending in transmitting currency crises we examine a panel of data on capital flows to 30 emerging markets disaggregated by 11 banking centers. In addition we study a cross-section of emerging markets for which we construct a number of measures of competition for bank funds. For the Mexican and Asian crises, we find that the degree to which countries compete for funds from common bank lenders is a fairly robust predictor of both disaggregated bank flows and the incidence of a currency crisis. In the Russian crisis, the common bank lender helps to predict the incidence of contagion but there is also evidence of a generalized outflow from all emerging markets. We test extensively for robustness to sample, specification and definition of the common bank lender effect. Overall our findings suggest that spillovers through banking centers may be more important in explaining contagion than similarities in macro-economic fundamentals and even than trade linkage.
1 Institutionelle Organisation und politischer Aufbau der Bundesrepublik Deutschland 2 Die Sozio-ökonomische Situation 2.1 Einkommensverteilung und Armut 2.1.1 Generelle Einkommensentwicklung der 90er Jahre 2.1.2 Ungleichheit der Einkommen 2.1.3 Armut und Armutsquoten 2.1.4 Verteilung der Armutsquoten auf bestimmte Personengruppen 2.1.5 Die Verweildauer von in Armut lebenden Menschen 2.2 Erwerbsarbeit und Erwerbslosigkeit 2.2.1 Strukturen der Erwerbsarbeit 2.2.2 Strukturen der Arbeitslosigkeit 2.3 Bildung und Ausbildung 2.4 Wohnsituation 2.5 Gesundheit und Armut 3 Demographische Situation 4 Strategien zur Bekämpfung von sozialer Ausgrenzung und Armut 4.1 Charakterisierung des deutschen Sozialstaats 4.2 Sozialpolitische Strategien zur Armutsbekämpfung 4.2.1 Der Armuts- und Reichtumsbericht der Bundesregierung 4.2.2 Der Nationale Aktionsplan zur Bekämpfung von sozialer Ausgrenzung und Armut 4.2.3 Forum Teilhabe und soziale Integration (FORTEIL) 4.2.4 Die Agenda 2010 als Teilumsetzung des Armutsberichtes und von NAP-incl
Die vorliegende Arbeit widmet sich der phonetischen Motivation phonologischer Palatalisierungsprozesse, bei welchen Vorderzungenvokoide die Palatalisierung (bzw. Affrizierung) vorangehender Plosive bewirken. Durch akustische Analysen zu deutschen und bulgarischen stimmlosen alveolaren und velaren Verschlußlauten wird der Einfluß nachfolgender vorderer Vokoide und des tiefen Vokals /a/ auf die geräuschähnliche Phase nach der plosiven Verschlußlösung der Konsonanten untersucht. Zum Zwecke der Überprüfung einer nach universellen phonologischen Prinzipien formulierten Hierarchie der wahrscheinlichen Inputkandidaten für Palatalisierungen werden akustische Messungen zur Zeitdauer und zu den spektralen Eigenschaften des konsonantischen Segments in wortinitialen Konsonant-Vokoid-Sequenzen vorgestellt. Die Ergebnisse der Studie unterstützen nur teilweise die vorgeschlagene Hierarchiehypothese und zeigen, daß sprachspezifische Besonderheiten einen Einfluß auf die Anordnung der Elemente der Hierarchie ausüben.
A number of recent studies have concluded that consumer spending patterns over the month are closely linked to the timing of income receipt. This correlation is interpreted as evidence of hyperbolic discounting. I re-examine patterns of spending in the diary sample of the U.S. Consumer Expenditure Survey, incorporating information on the timing of the main consumption commitment for most households - their monthly rent or mortgage payment. I find that non-durable and food spending increase with 30-48% on the day housing payments are made, with smaller increases in the days after. Moreover, households with weekly, biweekly and monthly income streams but the same timing of rent/mortgage payments have very similar consumption patterns. Exploiting variation in income, I find that households with extra liquidity decrease non-durable spending around housing payments, especially those households with a large budget share of housing.
Do household inflation expectations affect consumption-savings decisions? We link survey data on quantitative inflation expectations to administrative data on income and wealth. We document that households with higher inflation expectations save less. Estimating panel data models with year and household fixed effects, we find that a one percentage point increase in a household's inflation expectation over time is associated with a 250-400 euro reduction in the household's change in net worth per year on average. We also document that households with higher inflation expectations are more likely to acquire a car and acquire higher-value cars. In addition, we provide a quantitative model of household-level inflation expectations.
Using two datasets containing demographically representative samples of the Dutch population, I study how lifetime experiences of aggregate labor market conditions affect personality. Three sets of findings are reported. First, experienced aggregate unemployment is negatively correlated with the levels of all Big Five personality traits, except for conscientiousness (no significant correlation). Second, in panel data models with individual fixed effects I find that changes in experienced aggregate unemployment cause changes in emotional stability and agreeableness for men, and conscientiousness for women. The correlation is positive, and effects are economically large. Thirdly, I report suggestive evidence that the main driver is experienced aggregate unemployment, instead of other macroeconomic variables as experienced GDP, stock market returns or inflation. Taken together, these findings suggest that changes in Big Five personality traits are systematically related to experienced aggregate labor market conditions.
Im Rahmen des Value Based Managements sollen alle Manahmen der Unternehmensfhrung auf die Steigerung des intrinsischen Marktwertes des Eigenkapitals ausgerichtet werden. Hauptanwendungsbereiche des Value Based Managements sind die Planung, Performancemessung, Managemententlohnung sowie die Bereichssteuerung. Eine konsequente shareholder-orientierte Steuerung beinhaltet eine adquate Ermittlung von Wertbeitrgen in den einzelnen Anwendungsbereichen. Hierzu dienen insbesondere absolute Wertbeitragskennzahlen in Form von Residualgewinnen. Residualgewinne sind dadurch gekennzeichnet, dass der Gewinn um eine auf das Gesamtkapital bezogene Capital bzw. Interest Charge reduziert wird. Der magebliche Gewinn sowie das Gesamtkapital ergeben sich, indem die handelsrechtlichen Gren durch mehr oder minder weitreichende Modifikationen angepasst werden. Die Berechnung der Interest Charge erfolgt entweder auf Basis eines risikoangepassten Zinssatzes oder auf Basis eines risikofreien Zinssatzes. In der Praxis finden sich zahlreiche unterschiedliche Residualgewinnkonzepte, die sich insbesondere durch die jeweils charakteristischen Modifikationen und durch den verwendeten Zinssatz zur Berechnung der Kapitalkosten unterscheiden.1) Herkmmliche Konzepte zeichnen sich dadurch aus, dass die Interest Charge auf Basis eines risikoangepassten Zinssatzes berechnet wird. Das in Velthuis (2003c) theoretisch entworfene und von der KPMG in der Praxis umgesetzte Konzept Earnings less Riskfree Interest Charge, ERIC , ist hingegen dadurch charakterisiert, dass zur Berechnung der Interest Charge ein risikofreier Zinssatz verwendet wird. Ferner werden Modifikationen nur insofern vorgenommen, als dass eine vollstndige Bercksichtigung aller Erfolgskomponenten gewhrleistet wird. Glaubt man den Vertretern herkmmlicher Konzepte, basieren diese Konzepte auf einer hinreichenden theoretischen Fundierung. Diesem Anspruch gengen solche Konzepte tatschlich jedoch nicht, sie zeichnen sich gerade durch eine mangelnde theoretische Fundierung aus.2) In Velthuis (2003c) wird verdeutlicht, dass die in der Praxis verbreitete Vorgehensweise gerade zum Ausweis von Wertbeitrgen fhrt, die inkonsistent mit der Zielsetzung der Shareholder sind. In allen Anwendungsbereichen des VBM zeigt sich nmlich aus theoretischer Sicht die Problematik der VerIm Rahmen des Value Based Managements sollen alle Maßnahmen der Unternehmensführung auf die Steigerung des intrinsischen Marktwertes des Eigenkapitals ausgerichtet werden. Hauptanwendungsbereiche des Value Based Managements sind die Planung, Performancemessung, Managemententlohnung sowie die Bereichssteuerung. Eine konsequente shareholder-orientierte Steuerung beinhaltet eine adäquate Ermittlung von Wertbeiträgen in den einzelnen Anwendungsbereichen. Hierzu dienen insbesondere absolute Wertbeitragskennzahlen in Form von Residualgewinnen. Residualgewinne sind dadurch gekennzeichnet, dass der Gewinn um eine auf das Gesamtkapital bezogene Capital bzw. Interest Charge reduziert wird. Der maßgebliche Gewinn sowie das Gesamtkapital ergeben sich, indem die handelsrechtlichen Größen durch mehr oder minder weitreichende Modifikationen angepasst werden. Die Berechnung der Interest Charge erfolgt entweder auf Basis eines risikoangepassten Zinssatzes oder auf Basis eines risikofreien Zinssatzes. In der Praxis finden sich zahlreiche unterschiedliche Residualgewinnkonzepte, die sich insbesondere durch die jeweils charakteristischen Modifikationen und durch den verwendeten Zinssatz zur Berechnung der Kapitalkosten unterscheiden.1) Herkömmliche Konzepte zeichnen sich dadurch aus, dass die Interest Charge auf Basis eines risikoangepassten Zinssatzes berechnet wird. Das in Velthuis (2003c) theoretisch entworfene und von der KPMG in der Praxis umgesetzte Konzept Earnings less Riskfree Interest Charge, ERIC Ò , ist hingegen dadurch charakterisiert, dass zur Berechnung der Interest Charge ein risikofreier Zinssatz verwendet wird. Ferner werden Modifikationen nur insofern vorgenommen, als dass eine vollständige Berücksichtigung aller Erfolgskomponenten gewährleistet wird. Glaubt man den Vertretern herkömmlicher Konzepte, basieren diese Konzepte auf einer hinreichenden theoretischen Fundierung. Diesem Anspruch genügen solche Konzepte tatsächlich jedoch nicht, sie zeichnen sich gerade durch eine mangelnde theoretische Fundierung aus.2) In Velthuis (2003c) wird verdeutlicht, dass die in der Praxis verbreitete Vorgehensweise gerade zum Ausweis von Wertbeiträgen führt, die inkonsistent mit der Zielsetzung der Shareholder sind. In allen Anwendungsbereichen des VBM zeigt sich nämlich aus theoretischer Sicht die Problematik der Verwendung eines risikoangepassten Zinssatzes zur Berechnung von Kapitalkosten: Schon die Verwendung eines risikoangepassten Kapitalkostensatzes im Rahmen der Planung kann problematisch sein. Die Verwendung risikoangepasster Kapitalkosten als Benchmark bei der Performancemessung ist sogar ganz abzulehnen, und bei der Managemententlohnung ist die Verrechnung von risikoangepassten Kapitalkosten zwingend mit Fehlanreizen verbunden. Aber auch praxisübliche Modifikationen erweisen sich als problematisch, da Erfolgskomponenten nicht bzw. nicht vollständig berücksichtigt werden. Im Gegensatz zu herkömmlichen Konzepten weist das VBM-Konzept ERIC eine tatsächliche theoretische Fundierung auf. In Velthuis (2003c) werden grundlegende theoretische und praktische Anforderungen für die einzelnen Anwendungsbereiche herausgearbeitet und es wird gezeigt, dass ein integriertes VBM-Konzept auf Basis des Residualgewinns ERIC diese Anforderungen stets erfüllt. Ziel dieses Aufsatzes ist es, die Grundkonzeption von ERIC theoretisch weiter zu entwickeln. Während in Velthuis (2003c) stets von einer sehr einfachen Idealwelt ausgegangen wird, soll hier zum einen verdeutlicht werden, wie ein erfolgreiches Value Based Management auf Basis von ERIC in komplexeren und realitätsnäheren Situationen erfolgen kann. Zum anderen gilt es, zusätzliche praktische Problembereiche zu erkennen und Lösungsmöglichkeiten aufzuzeigen. Der Aufsatz ist wie folgt aufgebaut: Zunächst wird gezeigt, wie der Residualgewinn ERIC zu berechnen ist, und es wird ein Überblick über die Anwendungsbereiche gegeben. Anschließend wird die grundlegende Entscheidungssituation für die späteren Darstellungen erörtert und es werden fundamentale Prinzipien des Value Based Managements und ihre Bedeutung für die einzelnen Anwendungsbereichen erläutert. Sodann wird für die einzelnen Bereichen des Value Based Managements, der Planung, Performancemessung, Managemententlohnung und der Bereichssteuerung gezeigt, wie ERIC anzuwenden ist, damit eine tatsächliche Shareholder-Orientierung gewährleistet wird. Die Darstellungen erfolgen dabei jeweils zunächst vor dem Hintergrund einer Idealwelt. In einem zweiten Schritt wird die Entscheidungssituation jeweils modifiziert, um der Realität ein Stück näher zu kommen.
One of the dangers of harmonisation and unification processes taking place within the framework of the EU is that they may result in the codification of the lowest common denominator. This is precisely what is threatening to happen in respect of assignment. Referring the transfer of receivables by way of assignment to the law of the assignor’s residence, as article 13 of the Proposal does, would be opting for the most conservative solution and would for many Member States be a step backward rather than forward. A conflict rule referring assignment to the law of the assignor's residence is too rigid to do justice to the dynamic nature of assignments in cross-border transactions and it is unjustly one-sided. It offers no real advantages when compared to other conflict rules; it even has serious disadvantages which make the conflict rule unsuitable for efficient assignment-based cross-border transactions. It is not unconceivable that this conflict rule would even be contrary to the fundamental freedoms of the ECTreaty. The Community legislators in particular should be careful not to needlessly adopt rules which create insurmountable obstacles for cross-border business where choice-of-law by the parties would perfectly do. Community legislation has a special responsibility to create a smooth legal environment for single market transactions.
In this paper, I introduce lumpy micro-level capital adjustment into a sticky information general equilibrium model. Lumpy adjustment arises because of inattentiveness in capital investment decisions instead of the more common assumption of non-convex adjustment costs. The model features inattentiveness as the only source of stickiness. I find that the model with lumpy investment yields business cycle dynamics which differ substantially from those of an otherwise identical model with frictionless investment and are much more consistent with the empirical evidence. These results therefore strengthen the case in favour of the relevance of microeconomic investment lumpiness for the business cycle.
Motivated by the U.S. events of the 2000s, we address whether a too low for too long interest rate policy may generate a boom-bust cycle. We simulate anticipated and unanticipated monetary policies in state-of-the-art DSGE models and in a model with bond financing via a shadow banking system, in which the bond spread is calibrated for normal and optimistic times. Our results suggest that the U.S. boom-bust was caused by the combination of (i) too low for too long interest rates, (ii) excessive optimism and (iii) a failure of agents to anticipate the extent of the abnormally favorable conditions.
In this speech (given at the CFSresearch conference on the Implementation of Price Stability held at the Bundesbank Frankfurt am Main, 10. - 12. Sept 1998), John Vickers discusses theoretical and practical issues relating to inflation targeting as used in the United Kingdom doing the past six years. After outlining the role of the Bank s Monetary Policy Committee, he considers the Committee s task from a theoretical perspective, beforediscussing the concept and measurement of domestically generated inflation.
We study whether prices of traded options contain information about future extreme market events. Our option-implied conditional expectation of market loss due to tail events, or tail loss measure, predicts future market returns, magnitude, and probability of the market crashes, beyond and above other option-implied variables. Stock-specific tail loss measure predicts individual expected returns and magnitude of realized stock-specific crashes in the cross-section of stocks. An investor that cares about the left tail of her wealth distribution benefits from using the tail loss measure as an information variable to construct managed portfolios of a risk-free asset and market index.
This paper is one of the first to analyse political influence on state-owned savings banks in a developed country with an established financial market: Germany. Combining a large dataset with financial and operating figures of all 457 German savings banks from 1994 to 2006 and information on over 1,250 local elections during this period we investigate the change in business behavior around elections. We find strong indications for political inflence: the probability that savings banks close branches, lay-off employees or engage in merger activities is significantly reduced around elections. At the same time they tend to increase their extraordinary spendings, which include support for social and cultural events in the area, on average by over 15%. Finally, we find that savings banks extend significantly more loans to their corporate and private customers in the run-up to an election. In further analyses, we show that the magnitude of political influence depends on bank specific, economical and political circumstances in the city or county: political influence seems to be facilitated by weak political majorities and profitable banks. Banks in economically weak areas seem to be less prone to political influence.
Motivated by the recent discussion of the declining importance of deposits as banks´ major source of funding we investigate which factors determine funding costs at local banks. Using a panel data set of more than 800 German local savings and cooperative banks for the period from 1998 to 2004 we show that funding costs are not only driven by the relative share of comparatively cheap deposits of bank´s liabilities but among other factors especially by the size of the bank. In our empirical analysis we find strong and robust evidence that, ceteris paribus, smaller banks exhibit lower funding costs than larger banks suggesting that small banks are able to attract deposits more cheaply than their larger counterparts. We argue that this is the case because smaller banks interact more personally with customers, operate in customers´ geographic proximity and have longer and stronger relationships than larger banks and, hence, are able to charge higher prices for their services. Our finding of a strong influence of bank size on funding costs is also in an in- ternational context of great interest as mergers among small local banks - the key driver of bank growth - are a recent phenomenon not only in European banking that is expected to continue in the future. At the same time, net interest income remains by far the most important source of revenue for most local banks, accounting for approximately 70% of total operating revenues in the case of German local banks. The influence of size on funding costs is of strong economic relevance: our results suggest that an increase in size by 50%, for example, from EUR 500 million in total assets to EUR 750 million (exemplary for M&A transactions among local banks) increases funding costs, ceteris paribus, by approximately 18 basis points which relates to approx. 7% of banks´ average net interest margin.
Meine Untersuchung behandelt das Problem der Kennzeichnung notivischer Bestimmtheit/Unbestimmtheit aus der Perspektive der Wortstellung in Sätzen mit Objekt, also in sogenannten transitiven Sätzen. Relativsätze und Sätze, in denen das Verb diskontinuierlich ist, wurden dabei nicht berücksichtigt, weil die Wortstellung hier von anderen Faktoren abhängt. Die Möglichkeit der grammatischen Realisierung des Ausdrucks von notivischer Bestimmtheit/Unbestimmtheit […] wird dabei mit berücksichtigt.
Projected demographic changes in industrialized and developing countries vary in extent and timing but will reduce the share of the population in working age everywhere. Conventional wisdom suggests that this will increase capital intensity with falling rates of return to capital and increasing wages. This decreases welfare for middle aged asset rich households. This paper takes the perspective of the three demographically oldest European nations — France, Germany and Italy — to address three important adjustment channels to dampen these detrimental effects of aging in these countries: investing abroad, endogenous human capital formation and increasing the retirement age. Our quantitative finding is that endogenous human capital formation in combination with an increase in the retirement age has strong implications for economic aggregates and welfare, in particular in the open economy. These adjustments reduce the maximum welfare losses of demographic change for households alive in 2010 by about 2.2 percentage points in terms of a consumption equivalent variation.
Im deutschen Kapitalmarktrecht ist der Gedanke der Vergemeinschaftung von Obligationärsrechten derzeit eher als unterentwickelt zu bezeichnen. Praktische Kollektivhandlungsprobleme sind hieraus in der Vergangenheit verschiedentlich insbesondere dann entstanden, wenn auf Seiten des Emittenten ein Bedürfnis nach einer Abänderung der Anleihebedingungen entstand. Neben praktischen Kommunikationsproblemen scheitert diese regelmäßig an dem grundsätzlichen Erfordernis der Zustimmung sämtlicher Obligationäre. Diesen Schwierigkeiten begegnet etwa das angloamerikanische Recht mit einer Treuhandkonstruktion. Kontinentaleuropäische Rechtsordnungen, deren allgemeines Treuhandrecht weniger ausgeprägt ist, behelfen sich hier mit gesetzlichen Regelungen über Obligationärsversammlung und -vertreter. Auch das deutsche "Gesellschaftsrecht der Obligationäre" ist in einem - heute weitestgehend in Vergessenheit geratenen - Spezialgesetz geregelt, dem allerdings in jüngster Zeit zunehmende Beachtung gezollt wird und das diese Beachtung auch verdient. Mit dieser spezialgesetzlichen Regelung über die Obligationärsvertretung beschäftigt sich der folgende Beitrag.
Das neue Wertpapiererwerbs- und Übernahmegesetz (WpÜG)1 weist den Wertpapierdienstleistungsunternehmen erstmals eine gesetzliche Rolle im Rahmen der Finanzierung von öffentlichen Übernahmeangeboten zu, indem es eine von einem solchen Unternehmen ausgestellte Bestätigung der Finanzierbarkeit zum zwingenden Bestandteil der Angebotsunterlage macht. Hieraus ergibt sich zum einen ein neues Geschäftsfeld für Kreditinstitute, zum anderen aber auch ein neues Haftungsrisiko.
Thesen
1. Um die Anerkennung einer Beschlussnichtigkeit in extremen Situationen wird man kaum umhin kommen. Der Gesetzgeber sollte die Nichtigkeitsgründe und ihre Geltendmachung wie im Aktienrecht klarstellend einschränken.
2. Gläubigerbeschlüsse unterliegen einer (begrenzten) materiellen Beschlusskontrolle anhand des Maßstabs der „gemeinsamen Interessen“ der Gläubigergesamtheit. Ohne ein derartiges materielles Kriterium wird man nicht auskommen. Wie es letztendlich benannt wird, ist dann nichts weiter als eine Frage der Begrifflichkeit. Eine gesetzliche Klarstellung erscheint nicht zwingend. Inhaltlich muss sich die materielle Beschlusskontrolle beschränken auf den Ausschluss sachfremder Erwägungen als Grundlage eines Eingriffs der Mehrheit in Rechte und Ansprüche der Minderheit.
3. Die Gestaltungswirkung des der Anfechtungsklage stattgebenden Urteils folgt bereits aus der kollektiven Bindung des § 4 SchVG. Eine – wenngleich nicht zwingende – gesetzliche Klarstellung könnte in Gestalt eines Hinweises in § 20 SchVG erfolgen, dass ein der Anfechtungs- (und Nichtigkeits-) Klage stattgebendes Urteil der kollektiven Bindung des § 4 SchVG unterliegt.
Der gesetzlichen Korrektur und Präzisierung bedürfen, nicht zuletzt im Interesse der Beschleunigung, Vollzugssperre und Freigabeverfahren.
In der Düsseldorfer Innenstadt und im südlichen Vorort Benrath wurde das Artenspektrum epiphytischer Flechten an freistehenden Bäumen erfasst. Unter den 26 Flechten sind fünf durch den Klimawandel begünstigte Arten (u.a. Punctelia borreri). Bis auf eine meiden diese die Innenstadt. Als Grund dafür wird die gegenüber dem Vorort höhere Immissionsbelastung und höhere relative Trockenheit vermutet (innerstädtische Wärmeinsel).
Central banks have recently introduced new policy initiatives, including a policy called ‘Quantitative Easing’ (QE). Since it has been argued by the Bank of England that “Standard economic models are of limited use in these unusual circumstances, and the empirical evidence is extremely limited” (Bank of England, 2009b), we have taken an entirely empirical approach and have focused on the QE-experience, on which substantial data is available, namely that of Japan (2001-2006). Recent literature on the effectiveness of QE has neglected any reference to final policy goals. In this paper, we adopt the view that ultimately effectiveness will be measured by whether it will be able to “boost spending” (Bank of England, 2009b) and “will ultimately be judged by their impact on the wider macroeconomy” (Bank of England, 2010). In line with a widely held view among leading macroeconomists from various persuasions, while attempting to stay agnostic and open-minded on the distribution of demand changes between real output and inflation, we have thus identified nominal GDP growth as the key final policy goal of monetary policy. The empirical research finds that the policy conducted by the Bank of Japan between 2001 and 2006 makes little empirical difference while an alternative policy targeting credit creation (the original definition of QE) would likely have been more successful.
The European low-carbon transition began in the last few decades and is accelerating to achieve net-zero emissions by 2050. This paper examines how climate-related transition indicators of a large European corporate firm relate to its CDS-implied credit risk across various time horizons. Findings show that firms with higher GHG emissions have higher CDS spreads at all tenors, including the 30-year horizon, particularly after the 2015 Paris Agreement, and in prominent industries such as Electricity, Gas, and Mining. Results suggest that the European CDS market is currently pricing, to some extent, albeit small, the exposure to transition risk for a firm across different time horizons. However, it fails to account for a company’s efforts to manage transition risks and its exposure to the EU Emissions Trading Scheme. CDS market participants seem to find challenging to risk-differentiate ETS-participating firms from other firms.
The paper examines the importance of international labour standards for ESG reporting. International labour standards exist today for almost all working conditions. There are many reasons why ESG criteria should be based on these standards. This is already happening to some extent. However, the references to international labor standards should be expanded and the existing references deepened.
New provisioning rules introduced by IFRS 9 are expected to reduce the procyclicality of provisioning. Heterogeneity among banks in the procyclicality of provisioning may not only reflect the formal accounting rules, but also variation in discretionary provisioning policies. This paper presents empirical evidence on the heterogeneity of provisioning procyclicality among significant banks that are directly supervised by the ECB. In particular, this paper finds that provisioning is relatively procyclical at banks that have i) high loans-to-assets ratios, ii) high shares of non-interest income in total operating income, iii) low capitalization rates, and iv) low total assets. Supervisory guidance provided to banks on how to implement IFRS 9 has mostly been of a qualitative nature, and may prove inadequate to prevent an undesirably wide future variation in provisioning among EU banks.
This paper was provided at the request of the Committee on Economic and Monetary Affairs of the European Parliament and commissioned and drafted under the responsibility of the Economic Governance Support Unit (EGOV) of the European Parliament. It was originally published on the European Parliament’s webpage.
European households face tremendous obstacles when intending to open a savings account outside their home country. The shortage of deposits has become a major reason for banks’ declining loan supply and ultimately is responsible for a substantial part of the investment weakness and GDP decline in affected European countries.
Policy makers have made important efforts to promote European deposit market integration and to stimulate cross border flows of savings within the European Union. But these efforts will only yield the intended benefits if a number of additional non-tariff trade barriers are removed. Currently, these barriers prevent households in surplus countries to transfer their savings to banks in deficit countries where their deposits are most urgently needed.
In den letzten Jahren wurden verschiedene Modelle entwickelt, um das Ausfallrisiko von Banken unter Berücksichtigung von Portfolioeffekten zu quantifizieren. Bisher hat sich kein Ansatz als allgemein akzeptierter Standard durchsetzen können. Da die Modelle grundlegende konzeptionelle Unterschiede aufweisen und unterschiedliche empirische Inputdaten verwenden, hat die Auswahl eines Kreditrisikomodells unter Umständen einen erheblichen Einfluß auf die Kreditportfoliosteuerung der Bank. In diesem Beitrag soll deshalb geklärt werden, ob die Modelle systematisch abweichende Value-at-Risk-Werte berechnen und worin die Ursachen für auftretende Abweichungen liegen. Zunächst wird gezeigt, daß die bestehenden Kreditrisikomodelle in zwei grundlegende Klassen eingeteilt werden können: Assetwert-basierte Modelle und auf Ausfallraten basierende Modelle. Am Beispiel eines Musterportfolios von Krediten an deutsche Baufirmen werden zwei Vertreter der Modellklassen (CreditMetrics und CreditRisk+) verglichen und der Effekt der unterschiedlichen empirischen Inputparameter auf die Risikoergebnisse abgeschätzt. Die Analyse zeigt erhebliche Unterschiede zwischen den Modellen. Eine Analyse der Abweichungsursachen ergibt allerdings, daß der Grund für die großen Value-at-Risk-Unterschiede in erster Linie in den unterschiedlichen empirischen Inputdaten liegt, welche zu unterschiedlichen impliziten Korrelationsannahmen führen. Es wird gezeigt, wie die Modellparameter gewählt werden müssen, um identische Korrelationen zu erzeugen. Bei konsistenten Korrelationsannahmen stimmen die Ergebnisse beider Modelle weitgehend überein. Keywords: Credit Risk Models, credit risk correlation
Das Bundesverfassungsgericht ist für seine Entscheidungen, die sich in besonderer Weise auf das Demokratieprinzip des Grundgesetzes (Art. 20 Abs. 2 GG) stützen, viel kritisiert worden. Der Beitrag analysiert insbesondere die Entscheidungen zum Ausländerwahlrecht und zur Europäischen Integration im Hinblick darauf, ob sich neben dem vielfach kritisierten Demokratieverständnis, das ein monistisch verstandenes (deutsches) Volk zum Ausgangspunkt nimmt, auch offenere Demokratiemodelle zumindest zwischen den Zeilen dieser Entscheidungen entdeckt werden können. Das Ergebnis fällt allerdings ernüchternd aus. Jede Öffnung, die Alternativen neben dem monistischen Modell der Volkssouveränität andeutet, wird in den folgenden Sätzen dieser Entscheidungen sogleich wieder zurückgenommen.
Privatschulfinanzierung
(2014)
Das Privatschulwesen in Deutschland wird ganz überwiegend aus öffentlichen Mitteln finanziert. Seit den 1970er Jahren wird dies vom Bundesverfassungsgericht als Ausfluss des Art. 7 Abs. 4 GG verlangt; die Finanzierung obliegt jedoch den Ländern. Der Beitrag bietet einen systematischen Überblick über die Konflikte die zwischen Privatschulträgern und Ländern über den Umfang der Finanzierung bestehen und nimmt zu den verfassungsrechtlichen Argumenten kritisch Stellung. Es wird gezeigt, dass das Grundgesetz den Ländern mehr Spielräume belässt, als oft behauptet wird.
Die Private Krankenversicherung ist explizit seit Einführung der Versicherungspflicht im Jahr 2008 neben der Gesetzlichen Krankenversicherung zweite Säule eines umfassenden Krankenversicherungsschutzes in Deutschland. Sie ist – auch schon traditionell – umfassend reguliert; Versichertenwettbewerb innerhalb der PKV aber auch zur GKV findet in entsprechend enger rechtlicher Strukturierung statt. In den letzten Jahren wird die PKV zudem auch immer stärker bei der Regulierung der Leistungserbringer berücksichtigt bzw. einbezogen. Der Beitrag gibt einen komprimierten Überblick über die Regulierung der PKV als Teil des Gesundheitssystems.
Wettbewerbsrecht der GKV
(2014)
Seit inzwischen 20 Jahren führt der Gesetzgeber in die Binnenordnung der Gesetzlichen Krankenversicherung Wettbewerbselemente ein. Ausgangspunkt ist die Kassenwahlfreiheit der Versicherten. Die Krankenkassen agieren dadurch immer stärker als Wettbewerber um Versicherte. Seit einigen Jahren ist der Rechtsrahmen dieses Wettbewerbs in der Diskussion und auch prozessual und politisch umstritten. Inwieweit das allgemeine Kartellrecht, konkret die Fusionskontrolle, oder das allgemeine Lauterkeitsrecht Anwendung finden soll, ist noch nicht abschließend geklärt. Weniger grundsätzliche Probleme bereitet hingegen das Vergaberecht. Der Beitrag beschreibt die sich im Fluss befindliche Rechtsgrundlage des GKV-Wettbewerbsrechts in ihrer bisherigen Entwicklung und auf dem Stand von 2013.
Der Deutsche Juristentag 2012 ließ begutachten, wie der Wettbewerb in der Gesetzlichen Krankenversicherung zu regeln sei. Der vorliegende Beitrag ist als Begleitaufsatz hierzu erschienen. Er spürt den Motiven des Gesetzgebers und den theoretischen und konzeptionellen Gründen für Wettbewerb nach, um daraus Antworten auf die Frage nach der Wettbewerbsregulierung im Gesundheitswesen zu entwickeln. Sein Ergebnis ist, dass die spezifische Funktion von Wettbewerb innerhalb des sozialrechtlichen Krankenversicherungssystems ein spezifisches Regulierungsrecht erfordert. Dies ist gegenüber einer generellen Zuordnung dieses Sozialsystems zum allgemeinen Wettbewerbs- und Kartellrecht vorzugswürdig. Außerdem wird die Zuordnung zu den Sozialgerichten befürwortet.
Im Jahr 2005 entschied das Bundesverfassungsgericht, dass die bestehenden Regelungen im Versicherungsvertrags- und Versicherungsaufsichtsgesetz zur Überschussbeteiligung in der Lebensversicherung den Anforderungen des Grundgesetzes nicht genügen. Denn sie sicherten die Ansprüche der Versicherten nicht angemessen gegen einseitige Gestaltungsmöglichkeiten der Versicherer ab. Nach dem Urteil änderte der Gesetzgeber die einschlägigen Regelungen, insbesondere erließ die Bundesanstalt für Finanzdienstdienstleistungsaufsicht BAFin eine neue Mindestzuführungsverordnung. Der Beitrag untersucht die Rechtslage auf dem Stand von April 2012 daraufhin, ob nun den Anforderungen des Bundesverfassungsgerichts genüge getan wird. Er kommt zu dem Ergebnis, dass dies nicht der Fall ist.
Die Private Krankenversicherung ist explizit seit Einführung der Versicherungspflicht im Jahr 2008 neben der Gesetzlichen Krankenversicherung zweite Säule eines umfassenden Krankenversicherungsschutzes in Deutschland. Sie ist – auch schon traditionell – umfassend reguliert; Versichertenwettbewerb innerhalb der PKV aber auch zur GKV findet in entsprechend enger rechtlicher Strukturierung statt. In den letzten Jahren wird die PKV zudem auch immer stärker bei der Regulierung der Leistungserbringer berücksichtigt bzw. einbezogen. Der Beitrag gibt einen komprimierten Überblick über die Regulierung der PKV als Teil des Gesundheitssystems.
Zugehörigkeit im Sozialstaat
(2015)
Der Beitrag befasst sich mit der aktuell kontrovers diskutierten Frage des Zugangs von Ausländern – insbesondere von Unionsbürgern – zu staatlichen Sozialleistungen. Der Schwerpunkt liegt hierbei auf dem Grundsicherungsrecht, namentlich auf der Regelung des § 7 Abs. 1 S. 2 Nr. 2 SGB II, wonach arbeitssuchende Unionsbürger von Leistungen zur Grundsicherung ausgeschlossen werden. Unter Berücksichtigung der unionsrechtlichen Grundlagen wird der Frage nachgegangen, inwieweit sich der Leistungsausschluss für Unionsbürger und Ausländer in die dem Sozialleistungsrecht zugrundeliegende Konzeption der Territorialität (§ 30 Abs. 1 SGB I) einfügt. Es wird sich zeigen, dass Leistungsausschlüsse für diese Personengruppen im Grundsicherungsrecht als Konkretisierung des Territorialitätsgrundsatzes zu begreifen sind. Von der Annahme ausgehend, dass der "gewöhnliche Aufenthalt" im Sinne des § 30 SGB I also Dreh- und Angelpunkt für die sozialrechtliche Zugehörigkeit ist, soll die grundsätzliche Frage des Verhältnisses von Sozial- und Aufenthaltsrecht beleuchtet werden. Konkret formuliert geht es zum einen um die Frage, ob es für den Zugang zum Sozialleistungssystem eines rechtmäßigen Aufenthalts bedarf. Dass dies – anders als von einigen Sozialgerichten unter Berufung auf einschlägige Rechtsprechung des EuGH teilweise angenommen – zu verneinen ist, gilt zu zeigen. Zum anderen soll untersucht werden, ob und inwieweit gesetzlich geregelte Anforderungen an den Integrationsgrad von Ausländern für die sozialrechtliche Zugehörigkeit zulässig sind.
Die vorliegende Arbeit ist einem Phänomen gewidmet, das in den letzten Jahren eine gewisse Rolle gespielt hat bei dem Versuch, die Anwendbarkeit des Modells der generativen Transformationsgrammatik an einer möglichst großen Anzahl unterschiedlicher Sprachen und Phänomene zu erproben. Es gehört in den umfassenderen Phänomenbereich der Koordination bzw. der Koordinationsreduktion und wird in der einschlägigen Literatur als "Gapping" bezeichnet. [...] Wir wollen koordinierte Strukturen, die ein für alle Konjunkte identisches Verb nur einmal repräsentieren, als "reduzierte Strukturen" bezeichnen, und zwar als "vorwärts"- oder "rechtsreduzierte", wenn sie es ausschließlich im ersten Konjunkt repräsentieren und als "rückwärts" oder " linksreduzierte", wenn sie es ausschließlich im zweiten bzw. (da auch mehr als zwei Sätze koordiniert werden können) im letzten Konjunkt repräsentieren. Entsprechend nennen wir koordinierte Strukturen, die das Verb in beiden bzw. allen Konjunkten repräsentieren, "nicht-reduzierte" Strukturen. [...] Beispiele zeigen, daß es Sprachen gibt, die ausschließlich vorwärtsreduzierte Varianten gestatten und solche, die nur rückwärtsreduzierte Varianten gestatten. Daraus ergibt sich folgende Fragestellung: ( i ) Welche Sprachen gestatten welche reduzierten Varianten? ( ii ) Warum gestatten bestimmte Sprachen diese, andere Sprachen jene Varianten? Diese hier noch recht grob formulierte Fragestellung wird im Laufe der Untersuchung weiter verfeinert werden. Der Schwerpunkt wird auf der Frage nach dem Warum? liegen.
Eine ausführliche Analyse der Prinzipien der etikettierenden und der deskriptiven Benennung findet sich in Seiler 1975 a. [...] Wesentlich ist; daß der Term gegenüber der Paraphrase; die vermittels der Proposition, zu der er in Beziehung steht, formuliert werden kann (Lehrer = einer, der lehrt), eine Bedeutungsverengung erfährt, die in diesem Falle durch eine zusätzliche semantische Komponente 'professionell' oder 'habituell' o.ä. erfaßt werden kann. Der deskriptiven Benennung, auch charakterisierbar als "Benennen durch Aussagen", dienen diverse sprachliche Mittel oder Techniken wie Derivation, Komposition (mit der Subtechnik der Inkorporation), Absolutivbildung usw. Nicht alle Techniken kommen in jeder Sprache zur Anwendung und auch in den Sprachen, in denen sie zur Anwendung gelangen, ist diese in vielen Fällen auf bestimmte morpho-syntaktische Bereiche beschränkt. [...] Betrachten wir nun unter diesem Gesichtspunkt der Distribution deskriptiver Techniken die Verteilung von Komposition und Derivation im Deutschen. [...] Gegenstand der folgenden Überlegungen soll […] die verbale Wortbildung, und zwar im Vergleich zur nominalen, sein.
Arzneimittelrückstände werden heute in zahlreichen Gewässern nachgewiesen. Kleinste Spuren finden sich sogar im Trinkwasser. Auch wenn die Konzentrationen in der Regel sehr gering sind, belegen Forschungsergebnisse für einzelne Wirkstoffe klare Umweltrisiken. Fische, Frösche und Kleinstlebewesen zeigen deutliche Reaktionen auf Medikamentenwirkstoffe im Wasser. Gefahren für die menschliche Gesundheit bestehen nach heutigem Kenntnisstand nicht. Aus Umweltschutz- und Vorsorgegründen ist es jedoch geboten, die Einträge von Arzneimittelwirkstoffen in die Umwelt zu reduzieren. Der aktuelle rechtliche Rahmen liefert für wirksame Maßnahmen kaum eine Handhabe. Deshalb muss auch über Handlungsmöglichkeiten nachgedacht werden, die jenseits rechtlicher Lösungsansätze durchführbar sind. Der hier vorgelegte Text umreißt den gegenwärtigen Wissensstand zum Thema „Arzneimittelwirkstoffe im Wasserkreislauf“ und zeigt praktische Handlungsoptionen auf, wie der Eintrag von Arzneimittelwirkstoffen in die Umwelt verringert werden kann. Dabei wird ein integrierter Ansatz verfolgt, der Handlungsmöglichkeiten auf drei verschiedenen Ebenen empfiehlt: bei der Arzneimittelentwicklung, der technischen Abwasserbehandlung und beim Umgang mit Arzneimitteln. Dieser Bericht ist im Rahmen des Projekts „Arznei für Mensch und Umwelt?“ im Auftrag des Umweltbundesamtes entstanden und richtet sich in erster Linie an die Zielgruppe Ärztinnen/Ärzte und Studierende der Medizin.
Vorarbeiten zu einer sozial-ökologischen RisDie Nanotechnologie gilt als eine der Schlüsseltechnologien der Zukunft: Die Verringerung der Teilchengröße in den nanoskaligen Bereich führt zu neuartigen physikalischen und chemischen Stoffeigenschaften, welche Innovationspotenzial in vielfältigen Anwendungsfeldern versprechen. Besonders in den letzten zwei Jahrzehnten hat die Nanotechnologie wirtschaftlich an Bedeutung gewonnen, da immer mehr nanotechnologische Entwicklungen kommerziell umgesetzt werden. Aufgrund des breiten Anwendungsspektrums und der Vielzahl unterschiedlicher Materialien ist bisher weder eine transparente Darstellung der tatsächlichen wirtschaftlichen Bedeutung noch eine adäquate Bewertung potenzieller Gesundheits- und Umweltrisiken, die aus den neuartigen nanospezifischen Eigenschaften hervorgehen könnten, möglich.
Das Papier gibt einen aktuellen Überblick über den Stand des Wissens zum Thema Nanotechnologie, wobei besonderer Fokus auf den Bereich Risiko, Toxikologie und Ökotoxikologie sowie Risikowahrnehmung und -kommunikation gelegt wird. Die Ergebnisse der Literaturstudie sollen künftig dazu dienen, zu prüfen, welchen Beitrag ein sozial-ökologischer Forschungsansatz zur nachhaltigen Entwicklung und Nutzung der Nanotechnologie leisten kann.
We study the returns the venture capital and private equity investment from 221 venture capital and private equity funds that are part of 72 venture capital and private equity firms, 5040 entrepreneurial firms (3826 venture capital and 1214 private equity), and spanning 32 years (1971 - 2003) and 39 countries from North and South America, Europe and Asia. We make use of four main categories of variables to proxy for value-added activities and risks that explain venture capital and private equity returns: market and legal environment, VC characteristics, entrepreneurial firm characteristics, and the characteristics and structure of the investment. We show Heckman sample selection issues in regards to both unrealized and partially realized investments are important to consider for analysing the determinants of realized returns. We further compare the actual unrealized returns, as reported to investment managers, to the predicted unrealized returns based on the estimates of realized returns from the sample selection models. We show there exists significant systematic biases in the reporting of unrealized investments to institutional investors depending on the level of the earnings aggressiveness and disclosure indices in a country, as well as proxies for the degree of information asymmetry between investment managers and venture capital and private equity fund managers. Klassifikation: G24, G28, G31, G32, G35
he predictive likelihood is of particular relevance in a Bayesian setting when the purpose is to rank models in a forecast comparison exercise. This paper discusses how the predictive likelihood can be estimated for any subset of the observable variables in linear Gaussian state-space models with Bayesian methods, and proposes to utilize a missing observations consistent Kalman filter in the process of achieving this objective. As an empirical application, we analyze euro area data and compare the density forecast performance of a DSGE model to DSGE-VARs and reduced-form linear Gaussian models.
European scholars, colonial administrators, missionaries, bibliophiles and others were the main collectors of Malay books in the nineteenth century, both in manuscript or printed form. Among these persons were many well-known names in the field of Malay literature and culture like Raffles, Marsden, Crawfurd, Klinkert, van der Tuuk, von Dewall, Roorda, Favre, Maxwell, Overbeck, Wilkinson and Skeat, to name only a few. Their collections were often handed over to public libraries where they form an important part of the relevant Oriental or Southeast Asian manuscript collections.
Therefore the knowledge of the intellectual culture of the Malay Peninsula and the Malay World in general depended very much on these manuscripts and printed books collected often by chance or in a rather unsystematic way. The collections reflect in a strong sense the interests of its administrative or philologist collectors: court histories, genealogies of aristocratic lineages, law collections (adat-istiadat as well as undangundang) or prose belles-lettres build a vast bulk of these collections, while Islamic religious texts and poetry forms popular in the 19th century (especially syair) are fairly underrepresented. Malay manuscripts and books located in religious institutions like mosques or pondok/pesantren schools have not been searched for; until today there are more or less no systematic studies of these collections. As in some statistics religious texts build about 20% of all existing Malay manuscripts, their neglect by Europeans scholars leads to a distorted view of the literary culture in the Malay language.
We use consumer price data for 81 European cities (in Germany, Austria, Finland, Italy, Spain, Portugal and Switzerland) to study the impact of the introduction of the euro on goods market integration. Employing both aggregated and disaggregated consumer price index (CPI) data we confirm previous results which showed that the distance between European cities explains a significant amount of the variation in the prices of similar goods in different locations. We also find that the variation of relative prices is much higher for two cities located in different countries than for two equidistant cities in the same country. Under the EMU, the elimination of nominal exchange rate volatility has largely reduced these border effects, but distance and border still matter for intra-European relative price volatility.
Using a unique data set of regional inflation rates we are examining the extent and dynamics of inflation dispersion in major EMU countries before and after the introduction of the euro. For both periods, we find strong evidence in favor of mean reversion (ß-convergence) in inflation rates. However, half-lives to convergence are considerable and seem to have increased after 1999. The results indicate that the convergence process is nonlinear in the sense that its speed becomes smaller the further convergence has proceeded. An examination of the dynamics of overall inflation dispersion (ó-convergence) shows that there has been a decline in dispersion in the first half of the 1990s. For the second half of the 1990s, no further decline can be observed. At the end of the sample period, dispersion has even increased. The existence of large persistence in European inflation rates is confirmed when distribution dynamics methodology is applied. At the end of the paper we present evidence for the sustainability of the ECB's inflation target of an EMU-wide average inflation rate of less than but close to 2%. Klassifikation: E31, E52, E58
We use consumer price data for 205 cities/regions in 21 countries to study PPP deviations before, during and after the major currency crises of the 1990s. We combine data from industrialized nations in North America (Unites States, Canada and Mexico), Europe (Germany, Italy, Spain and Portugal), Asia (Japan and South Korea), and Oceania (Australia and New Zealand) with corresponding data from emerging market economies in South America (Argentina, Bolivia, Brazil, Columbia) and Asia (India, Indonesia, Malaysia, Philippines, Taiwan, Thailand). By doing so, we confirm previous results that both distance and border explain a significant amount of relative price variation across different locations. We also find that currency attacks had major disintegration effects by considerably increasing these border effects and by raising within-country relative price dispersion in emerging market economies. These effects are found to be quite persistent since relative price volatility across emerging markets today is still significantly larger than a decade ago.
Steueroasen besitzen drei wichtige Merkmale, die aus der Sicht von Steuerhinterziehern und Steuervermeidern anderer Länder besondere Anziehungskraft haben. Sie bieten niedrige Steuersätze für alle oder für bestimmte Kapitaleinkommen. Sie weisen eine hohe politische Stabilität und funktionierende Institutionen auf. Schließlich verbinden sie dies mit einem hohen Maß an faktischer Intransparenz in den Besitzstrukturen von Briefkastenfirmen sowie einer ausgeprägten Vertraulichkeit von Bankdaten. Unter Führung der OECD hat sich in den letzten Jahren der politische Druck auf die internationalen Steueroasen erhöht und zu einer Reihe von bilateralen und multilateralen Abkommen zum Informationsaustausch geführt. Da diese Abkommen nicht alle Steueroasen umfassen, haben sie die Gesamtanlagen in den Steueroasen allerdings bisher nur in sehr geringem Umfang reduzieren können. In Deutschland werden die internationalen Abkommen der letzten Jahre von Seiten der Steuerpolitik aber bereits als Erfolg verbucht und eine stärker progressive Besteuerung von Kapitaleinkünften diskutiert. Falls weiterhin ein Teil der einschlägigen Steueroasen dem Informationsaustausch fernbleibt, bietet es sich an, auf bilateralem Wege Verhandlungen aufzunehmen oder den Druck über multilaterale Verfahren und Sanktionen zu erhöhen.
Im Schatten der Lowflation
(2014)
Im Jahr 2013 betrug der Anstieg des harmonisierten Konsumentenpreisindex im Euroraum 1,4 %. Vor dem Hintergrund der Niedrigzinspolitik der EZB überrascht diese Entwicklung. Alfons Weichenrieder erläutert wie der starke strukturelle Anpassungsbedarf in den meisten Euroländern von höheren Inflationsunterschieden profitieren könnte. Er weist auf die Gefahren einer längeren Niedrigzinsphase für Banken, Lebensversicherung und die Reduzierung der Staatsschulden hin. Da die traditionellen geldpolitischen Mittel weitgehend ausgereizt sind, wird die quantitative Lockerung als Instrument zur Bekämpfung einer Deflation nicht mehr ausgeschlossen. Im Falle eines Ankaufprogrammes wird es auf einen glaubwürdigem Regelrahmen ankommen.
Da Public Private Partnerships (PPPs) nicht den Beschränkungen der deutschen Schuldenbremse unterliegen, können diese der Politik als Mittel dienen, Lasten in die Zukunft zu verschieben, ohne dabei den Verschuldungsgrad zu erhöhen. Der vorliegende Beitrag beschreibt Vor- und Nachteile von PPP-Konstrukten im Rahmen der öffentlichen Auftragsvergabe. Alfons Weichenrieder argumentiert, dass bei der Wahl von PPP-Instrumenten die Effizienz der Bereitstellung von öffentlicher Infrastruktur und Dienstleistungen im Vordergrund stehen sollte. Die Budgetregeln könnten so angepasst werden, dass das Motiv der Schuldenverschleierung nicht vordergründig die Wahl von PPP-Konstrukten bestimmt.
Digitalization expands the possibility for corporations to reduce taxes, mainly, but not exclusively, by allowing improved planning where profits can be shifted. Against this background, the European Commission and several countries emphatically demand and design new tax instruments. However, a selective turning away from internationally accepted principles of international taxation will bring up more questions than solutions. While there are good reasons to think about a fundamental regime switch in international corporate taxation, there are also good arguments for not turning to ad hoc measures that selectively target the relatively small market of Google and Facebook and raise only negligible tax revenues.
Das ursprüngliche Ziel des Erneuerbare-Energien-Gesetz war die Verringerung der Emissionen. Eigentlich hat die Politik bereits ein Instrument an der Hand, das dieses Ziel fokussiert und kostensparend erreichen kann: den Handel mit CO2-Zertifikaten. Der Autor argumentiert, dass das Nebeneinander von CO2-Handel und EEG höchst unproduktiv ist und schleunigst beendet werden sollte. Ein plausibleres Argument für den politischen Erfolg des EEG und das derzeitige Herumdoktern im Detail ist, dass die Politik mit dem EEG Industriepolitik betreiben und die Kosten auf zukünftige Parlamente und Generationen überwälzen kann.
Greece: threatening recovery
(2015)
Despite the catastrophic phase between 2008 and the end of 2014, much of a previously unsustainable development has been corrected in Greece and there are clear signs that the deterioration came to a halt in 2014. But what is publicly known about the priorities of the newly elected Syriza government suggests that they may be going largely into the wrong direction.
In Absatz 3 des Artikel 136 des Vertrags über die Arbeitsweise der EU (AEUV) wurde für die Verwendung von ESM Geldern festgelegt, dass diese nur dann zur Gewährung von Finanzhilfen verwendet werden dürfen, wenn „... dies unabdingbar ist, um die Stabilität des Euro-Währungsgebiets insgesamt zu wahren." Im vorliegenden Artikel argumentiert Alfons Weichenrieder, dass die nach dem griechischen Referendum entstandene Situation, die Stabilität des “Euro-Währungsgebiets insgesamt" nicht bedroht, so dass die Vergabe von neuen Krediten, zumal diese voraussichtlich unter weichen und im Zweifel nicht durchsetzbaren Auflagen vergeben würden, ein offensichtlicher Verstoß gegen die Grundlagen des ESM wäre.
Die deutsche Steuerpolitik kombiniert hohe Steuersätze mit zahlreichen Ausnahmen. Das reißt Gerechtigkeitslücken, lenkt Investitionen in die falschen Zwecke und verkompliziert das Steuersystem mitunter bis zur Unkenntlichkeit. Bei der Erbschaftsteuer ist dies besonders augenfällig. Der Versuch mit minimalinvasiven Korrekturen Konsistenz in die Erbschaft- und Schenkungsteuer zu bringen ist fast zwangsläufig zum Scheitern verurteilt. Vieles spricht stattdessen für deutlich abgesenkte Steuersätze und eine gleichzeitige Abschaffung der Vergünstigungen für Betriebsvermögen.
This policy letter collects elementary economic statistics and provides a very basic look on Russian public finances (i) to inform the reader’s opinion on a possible planning process behind the war against Ukraine and (ii) to discuss prospects of an energy embargo and its capability to affect the stability of the Russian economy.
This note argues that in a situation of an inelastic natural gas supply a restrictive monetary policy in the euro zone could reduce the energy bill and therefore has additional merits. A more hawkish monetary policy may be able to indirectly use monopsony power on the gas market. The welfare benefits of such a policy are diluted to the extent that some of the supply (approximately 10 percent) comes from within the euro zone, which may give rise to distributional concerns.
Inflation ist ein Konstrukt. Sie wird von unterschiedlichen Akteuren unterschiedlich wahrgenommen. Zum Teil passiert dies, weil Warenkörbe differieren, zum Teil weil Erwartungen unterschiedlich gebildet werden. Dieser Beitrag diskutiert die Heterogenität der Inflation und ihrer Wahrnehmung und was dies für die Zielgröße der Zentralbankpolitik bedeutet.
This paper studies the distributional consequences of a systematic variation in expenditure shares and prices. Using European Union Household Budget Surveys and Harmonized Index of Consumer Prices data, we construct household-specific price indices and reveal the existence of a pro-rich inflation in Europe. Particularly, over the period 2001-15, the consumption bundles of the poorest deciles in 25 European countries have, on average, become 10.5 percentage points more expensive than those of the richest decile. We find that ignoring the differential inflation across the distribution underestimates the change in the Gini (based on consumption expenditure) by up to 0.03 points. Cross-country heterogeneity in this change is large enough to alter the inequality ranking of numerous countries. The average inflation effect we detect is almost as large as the change in the standard Gini measure over the period of interest.
The pressure on tax haven countries to engage in tax information exchange shows first effects on capital markets. Empirical research suggests that investors do react to information exchange and partially withdraw from previous secrecy jurisdictions that open up to information exchange. While some of the economic literature emphasizes possible positive effects of tax havens, the present paper argues that proponents of positive effects may have started from questionable premises, in particular when it comes to the effects that tax havens have for emerging markets like China and India.
The paper uses fiscal reaction functions for a panel of euro-area countries to investigate whether euro membership has reduced the responsiveness of countries to shocks in the level of inherited debt compared to the period prior to succession to the euro. While we find some evidence for such a loss in prudence, the results are not robust to changes in the specification, such as an exclusion of Greece from the panel. This suggests that the current debt problems may result to a large extent from preexisting debt levels prior to entry or from a larger need for fiscal prudence in a common currency, while an adverse change in the fiscal reaction functions for most countries does not apply.
Central banks have faced a succession of crises over the past years as well as a number of structural factors such as a transition to a greener economy, demographic developments, digitalisation and possibly increased onshoring. These suggest that the future inflation environment will be different from the one we know. Thus uncertainty about important macroeconomic variables and, in particular, inflation dynamics will likely remain high.
FIFO is the most prominent queueing strategy due to its simplicity and the fact that it only works with local information. Its analysis within the adversarial queueing theory however has shown, that there are networks that are not stable under the FIFO protocol, even at arbitrarily low rate. On the other hand there are networks that are universally stable, i.e., they are stable under every greedy protocol at any rate r < 1. The question as to which networks are stable under the FIFO protocol arises naturally. We offer the first polynomial time algorithm for deciding FIFO stability and simple-path FIFO stability of a directed network, answering an open question posed in [1, 4]. It turns out, that there are networks, that are FIFO stable but not universally stable, hence FIFO is not a worst case protocol in this sense. Our characterization of FIFO stability is constructive and disproves an open characterization in [4].
A tontine provides a mortality driven, age-increasing payout structure through the pooling of mortality. Because a tontine does not entail any guarantees, the payout structure of a tontine is determined by the pooling of individual characteristics of tontinists. Therefore, the surrender decision of single tontinists directly affects the remaining members' payouts. Nevertheless, the opportunity to surrender is crucial to the success of a tontine from a regulatory as well as a policyholder perspective. Therefore, this paper derives the fair surrender value of a tontine, first on the basis of expected values, and then incorporates the increasing payout volatility to determine an equitable surrender value. Results show that the surrender decision requires a discount on the fair surrender value as security for the remaining members. The discount intensifies in decreasing tontine size and increasing risk aversion. However, tontinists are less willing to surrender for decreasing tontine size and increasing risk aversion, creating a natural protection against tontine runs stemming from short-term liquidity shocks. Furthermore we argue that a surrender decision based on private information requires a discount on the fair surrender value as well.
The modern tontine: an innovative instrument for longevity risk management in an aging society
(2016)
The changing social, financial and regulatory frameworks, such as an increasingly aging society, the current low interest rate environment, as well as the implementation of Solvency II, lead to the search for new product forms for private pension provision. In order to address the various issues, these product forms should reduce or avoid investment guarantees and risks stemming from longevity, still provide reliable insurance benefits and simultaneously take account of the increasing financial resources required for very high ages. In this context, we examine whether a historical concept of insurance, the tontine, entails enough innovative potential to extend and improve the prevailing privately funded pension solutions in a modern way. The tontine basically generates an age-increasing cash flow, which can help to match the increasing financing needs at old ages. However, the tontine generates volatile cash flows, so that - especially in the context of an aging society - the insurance character of the tontine cannot be guaranteed in every situation. We show that partial tontinization of retirement wealth can serve as a reliable supplement to existing pension products.
Zur Versprachlichung des Raums in Bildergeschichten deutschsprachiger Vor- und Grundschulkinder
(2002)
Gegenstand der vorliegenden Arbeit ist die Versprachlichung des Raums in Bildergeschichten deutschsprachiger Vor- und Grundschulkinder. Methodisch fügt sich die Untersuchung in Arbeiten zur Entwicklung der narrativen Kompetenz des Kindes anhand von Bildergeschichten ein, wie sie in neuerer Zeit […] durchgeführt wurden (s. vor allem Berman & Slobin 1994). Hinsichtlich der allgemein-sprachwissenschaftlichen Analyse der Versprachlichung des Raums ist die Arbeit vor allem den typologischen Studien von L. Talmy (1985, 1991) verpflichtet. […] Ziel der vorliegenden Arbeit ist es, die Rolle der Versprachlichung räumlicher Beziehungen unter zwei Aspekten zu untersuchen: hinsichtlich der Erstellung kohärenten narrativen Diskurses und hinsichtlich der sprachlichen Mittel, mittels derer die Kinder auf statische und dynamische räumliche Beziehungen referieren. Entsprechend der Dreiteilung der Ich-Jetzt-Hier-Origo stellen räumliche Beziehungen neben der Referenz auf Personen und zeitliche Beziehungen einen der drei Bereiche dar, in denen sich textuelle Kohärenz manifestiert. Bei der Versprachlichung des Raums geht es einerseits um Einführung, Beibehaltung und Verschiebung narrativer Orte und andererseits um statische räumliche Befindlichkeiten gegenüber dynamischen räumlichen Ereignissen. […] Die Arbeit gliedert sich in einen theoretischen und einen empirischen Hauptteil.
Der Beitrag ruft die zentralen Überlegungen Hugo Sinzheimers zur sozialen Selbstbestimmung, zur Arbeitsverfassung, zum Arbeitsrecht als ein die Grenzen zwischen Zivilrecht und öffentlichem Recht sprengenden Rechtsgebiet sui generis und zur Rechtssoziologie ins Gedächtnis, um daraus einige Folgerungen für die Arbeitsrechtswissenschaft am Fachbereich Rechtswissenschaft der Goethe Universität abzuleiten.
Die vorstehenden Überlegungen führen zu folgenden Ergebnissen:
1. Das SchVG erlaubt den Gläubigern sämtlicher vor Inkrafttreten des Gesetzes begebenen Anleihen, einschließlich solcher die nicht dem SchVG 1899 unterliegen, einen Beschluss über die Anwendbarkeit des SchVG zu fassen (Opt-in).
2. Der Anwendbarkeit des SchVG und damit insbesondere auch der Opt-in-Regelung steht eine Teilrechtswahl ausländischen Rechts in den Anleihebedingungen nicht entgegen, solange die Substanz der verbrieften Forderung deutschem Recht unterliegt.
Dies ergibt sich bereits aus dem gültigen Gesetz. Aufgrund entgegenstehender instanzgerichtlicher Rechtsprechung besteht allerdings Klarstellungsbedarf. Dies insbesondere auch deshalb, weil hiermit Fragen angesprochen sind, welche die Funktionsfähigkeit und Marktakzeptanz des neuen Gesetzes in wesentlichen Anwendungsbereichen berühren. Im Rahmen der Reform des Schuldverschreibungsrechts hat die Bundesregierung angekündigt, laufend zu prüfen, ob beabsichtigten Wirkungen dieses Gesetzes erreicht worden sind, und, soweit erforderlich, rechtzeitig die hieraus resultierenden erforderlichen Maßnahmen zu ergreifen.48 Nachdem unlängst bereits die Straffung des Freigabeverfahrens erfolgte49 ist zu hoffen, dass auch der hier identifizierte gesetzliche Klarstellungsbedarf zügig in Angriff genommen wird.
»Wenn es einen Wirklichkeitssinn gibt, dann muß es« – so folgerte Robert Musil zu Beginn des 20. Jahrhunderts – »auch einen Möglichkeitssinn geben.« Darunter versteht er die Fähigkeit, »alles, was ebenso gut [auch] sein könnte, zu denken und das, was ist, nicht wichtiger zu nehmen, als das, was nicht ist.« Mit dem Begriff des Möglichkeitssinns, der auf die Relativität und Alternativität des individuellen Denkens sowie auf die Utopie eines anderen, hypothetischen Lebens verweist, hat Robert Musil in seinem Jahrhundertroman Der Mann ohne Eigenschaften dem Kontingenzbewusstsein des modernen Menschen Ausdruck gegeben, welches am Ende des 20. Jahrhunderts zum Grundmodus der Existenz und der Verfasstheit des Individuums überhaupt werden sollte. Dem Begriff der Kontingenz liegt bei aller Unschärfe ein grundlegendes, auf Aristoteles zurückgehendes Verständnis zugrunde, welches Niklas Luhmann folgendermaßen definiert: Kontingent ist etwas, was weder notwendig ist, noch unmöglich ist; was also so, wie es ist (war, sein wird), sein kann, aber auch anders möglich ist. Der Begriff bezeichnet mithin Gegebenes (zu Erfahrendes, Erwartetes, Gedachtes, Phantasiertes) im Hinblick auf mögliches Anderssein; er bezeichnet Gegenstände im Horizont möglicher Abwandlungen.
During the past decade, processes associated with what is popularly though perhaps misleadingly known as globalization have come within the purview of anthropology. Migration and mobility ‐ and the footloose or even rootless social groups that they produce ‐ as well as the worldwide diffusion of commodities, media images, political ideas and practices, technologies and scientific knowledge today are on anthropology's research agenda. As a consequence, received notions about the ways in which culture relates to territory have been abandoned. The term transnationalisation captures cultural processes that stream across the borders of nation states. Anthropologists have been forced to revise the notion that transnationalisation would inevitably bring about a culturally homogenized world. Instead, we are witnessing a surge of greatly increasing cultural diversity. New cultural forms grow out of historically situated articulations of the local and the global. Rather than left-over relics from traditional orders, these are decidedly modern, yet far from uniform. The essay engages the idea of the pluralization of modernities, explores its potential for interdisciplinary research agendas, and also inquires into problematic assumptions underlying this new theoretical concept.
The unintended consequences of the debt ... will increased government expenditure hurt the economy?
(2011)
In 2008, governments in many countries embarked on large fiscal expenditure programmes, with the intention to support the economy and prevent a more serious recession. In this study, the overall impact of a substantial increase in fiscal expenditure is considered by providing a novel analysis of the most relevant recent experience in similar circumstances, namely that of Japan in the 1990s. Then a weak economy with risk-averse banks seemed to require some of the largest peacetime fiscal stimulation programmes on record, albeit with disappointing results. The explanations provided by the literature and their unsatisfactory empirical record are reviewed. An alternative explanation, derived from early Keynesian models on the ineffectiveness of fiscal policy is presented in the form of a modified Fisher-equation, which incorporates the recent findings in the credit view literature. The model postulates complete quantity crowding out. It is subjected to empirical tests, which were supportive. Thus evidence is found that fiscal policy, if not supported by suitable monetary policy, is likely to crowd out private sector demand, even in an environment of falling or near-zero interest rates. As a policy conclusion it is pointed out that by changing the funding strategy, complete crowding out can be avoided and a positive net effect produced. The proposed framework creates common ground between proponents of Keynesian views (as held, among others, by Blinder and Solow), monetarist views (as held in particular by Milton Friedman) and those of leading contemporary macroeconomists (such as Mankiw).
Namibia is known to be the most arid country south of the Sahara. Average annual rainfall is not only relatively low in most parts of the country, it is also highly variable. Only 8 per cent of the country receives enough rain during a normal rainy season to practice rainfed cultivation. At the same time between 60 per cent and 70 per cent of the population depend on subsistence agro-pastoralism in non-freehold or communal areas. Against the background of rising unemployment, the livelihoods of the majority of these people are likely to depend on natural resources in the foreseeable future.
Natural resources generally are under considerable strain. As the rural population increases, so is the demand for natural resources, land and water specifically. Dependency on subsistence farming which is the result of large scale rural poverty exacerbates the problem. Large parts of the country are stocked injudiciously, resulting in overgrazing and water is frequently overabstracted, leading to declining water tables (MET 2005: 2).
Unequal access to both land and water has prompted government to introduce reforms in these sectors. These reforms were guided by the desire to manage resources more sustainably while providing more equal access to them. In terms of NDP 2, sustainability means to use natural resources in such a way so as not to ‘compromise the ability of future generations to make use of these resources’ (NDP 2: 595).
Immediately after Independence government started reform processes in the land and water sectors. However, these reforms have happened at different paces and largely independent of each other. Increasingly policy makers and development practitioners realised that land and water management needed to be integrated, as decisions about land management and land use options had a direct impact on water resources. Conversely the availability of water sets the parameters for what is possible in terms of agricultural production and other land uses. The north-central regions face a particular challenge in this regard as the region carries more livestock than it can sustain in the long run. At the same time, close to half the households do not own any livestock. Access to livestock by these households would improve their abilities to cultivate their land more efficiently in order to feed themselves and thus reduce poverty levels.
But livestock are a major consumer of water. In 2000 livestock was consuming more water than the domestic sector. The figures were 77Mm3/a and 67Mm3/a respectively (Urban et al. 2003 Annex 7: 2). This situation has prompted a Project Progress Report on the Namibia Water Resources Management Review in 2003 to conclude that Given the extreme water scarcity in most parts of the country, land and water issues are closely linked. It therefore seems indispensable to mutually adjust land – and water sector reform processes (Ibid: 20).
This paper will briefly look at four institutions that are central to land and water management with a view to assess the extent to which they interact. These are Communal Land Boards, Water Point Committees, Traditional Authorities and Regional Councils. A discussion of relevant policy documents and legislative instruments will investigate whether the existing policy framework
provides for an integrated approach or not. Before doing this, it appears sensible to briefly situate these four institutions in the wider maze of institutions operating at regional and
sub-regional level. All these institutions – important as they are in the quest to improve participation at the regional and sub-regional level – are competing for time and input fros mallscale farmers.
A version of this paper was originally written for a plenary session about "The Futures of Ethnography" at the 1998 EASA conference in Frankfurt/Main. In the preparation of the paper, I sent out some questions to my former fellow researchers by e-mail. I thank Douglas Anthony, Jan-Patrick Heiß, Alaine Hutson, Matthias Krings, and Brian Larkin for their answers.
With the Council regulation (EC) No. 1346/2000 of 29 May 2000 on insolvency proceedings, that came into effect May 31, 2002 the European Union has introduced a legal framework for dealing with cross-border insolvency proceedings. In order to achieve the aim of improving the efficiency and effectiveness of insolvency proceedings having cross-border effects within the European Community, the provisions on jurisdiction, recognition and applicable law in this area are contained in a Regulation, a Community law measure which is binding and directly applicable in Member States. The goals of the Regulation, with 47 articles, are to enable cross-border insolvency proceedings to operate efficiently and effectively, to provide for co-ordination of the measures to be taken with regard to the debtor’s assets and to avoid forum shopping. The Insolvency Regulation, therefore, provides rules for the international jurisdiction of a court in a Member State for the opening of insolvency proceedings, the (automatic) recognition of these proceedings in other Member States and the powers of the ‘liquidator’ in the other Member States. The Regulation also deals with important choice of law (or: private international law) provisions. The Regulation is directly applicable in the Member States3 for all insolvency proceedings opened after 31 May 2002.
While record-making prices at art auctions receive headline news coverage, artists typically do not receive any direct proceeds from those sales. Early-stage creative work in any field is perennially difficult to value, but the valuation, reward, and incentivization for artistic labor are particularly fraught. A core challenge in studying the real return on artists’ work is the extreme difficulty accessing data from when an artwork was first sold. Galleries keep private records that are difficult to access and to match to public auction results. This paper, for the first time, uses archivally sourced primary market records, for the artists Jasper Johns and Robert Rauschenberg. Although this approach restricts the size of the data set, this innovative method shows much more accurate returns on art than typical regression and hedonic models. We find that if Johns and Rauschenberg had retained 10% equity in their work when it was first sold, the returns to them when the work was resold at auction would have outperformed the US S&P 500 by between 2 and 986 times. The implication of this work opens up vast policy recommendations with regard to secondary art market sales, entrepreneurial strategies using blockchain technology, and implications about how we compensate creative work.
Employing the art-collection records of Burton and Emily Hall Tremaine, we consider whether early-stage art investors can be understood as venture capitalists. Because the Tremaines bought artists’ work very close to an artwork’s creation, with 69% of works in our study purchased within one year of the year when they were made, their collecting practice can best be framed as venture-capital investment in art. The Tremaines also illustrate art collecting as social-impact investment, owing to their combined strategy of art sales and museum donations for which the collectors received a tax credit under US rules. Because the Tremaines’ museum donations took place at a time that U.S. marginal tax rates from 70% to 91%, the near “donation parity” with markets, creating a parallel to ESG investment in the management of multiple forms of value.
This paper reviews the rationale for quantitative easing when central bank policy rates reach near zero levels in light of recent announcements regarding direct asset purchases by the Bank of England, the Bank of Japan, the U.S. Federal Reserve and the European Central Bank. Empirical evidence from the previous period of quantitative easing in Japan between 2001 and 2006 is presented. During this earlier period the Bank of Japan was able to expand the monetary base very quickly and significantly. Quantitative easing translated into a greater and more lasting expansion of M1 relative to nominal GDP. Deflation subsided by 2005. As soon as inflation appeared to stabilize near a rate of zero, the Bank of Japan rapidly reduced the monetary base as a share of nominal income as it had announced in 2001. The Bank was able to exit from extensive quantitative easing within less than a year. Some implications for the current situation in Europe and the United States are discussed.
Recent evaluations of the fiscal stimulus packages recently enacted in the United States and Europe such as Cogan, Cwik, Taylor and Wieland (2009) and Cwik and Wieland (2009) suggest that the GDP effects will be modest due to crowding-out of private consumption and investment. Corsetti, Meier and Mueller (2009a,b) argue that spending shocks are typically followed by consolidations with substantive spending cuts, which enhance the short-run stimulus effect. This note investigates the implications of this argument for the estimated impact of recent stimulus packages and the case for discretionary fiscal policy.
This paper introduces adaptive learning and endogenous indexation in the New-Keynesian Phillips curve and studies disinflation under inflation targeting policies. The analysis is motivated by the disinflation performance of many inflation-targeting countries, in particular the gradual Chilean disinflation with temporary annual targets. At the start of the disinflation episode price-setting firms’ expect inflation to be highly persistent and opt for backward-looking indexation. As the central bank acts to bring inflation under control, price-setting firms revise their estimates of the degree of persistence. Such adaptive learning lowers the cost of disinflation. This reduction can be exploited by a gradual approach to disinflation. Firms that choose the rate for indexation also re-assess the likelihood that announced inflation targets determine steady-state inflation and adjust indexation of contracts accordingly. A strategy of announcing and pursuing short-term targets for inflation is found to influence the likelihood that firms switch from backward-looking indexation to the central bank’s targets. As firms abandon backward-looking indexation the costs of disinflation decline further. We show that an inflation targeting strategy that employs temporary targets can benefit from lower disinflation costs due to the reduction in backward-looking indexation.
Inflation-targeting central banks have only imperfect knowledge about the effect of policy decisions on inflation. An important source of uncertainty is the relationship between inflation and unemployment. This paper studies the optimal monetary policy in the presence of uncertainty about the natural unemployment rate, the short-run inflation-unemployment tradeoff and the degree of inflation persistence in a simple macroeconomic model, which incorporates rational learning by the central bank as well as private sector agents. Two conflicting motives drive the optimal policy. In the static version of the model, uncertainty provides a motive for the policymaker to move more cautiously than she would if she knew the true parameters. In the dynamic version, uncertainty also motivates an element of experimentation in policy. I find that the optimal policy that balances the cautionary and activist motives typically exhibits gradualism, that is, it still remains less aggressive than a policy that disregards parameter uncertainty. Exceptions occur when uncertainty is very high and in inflation close to target.
This note argues that the European Central Bank should adjust its strategy in order to consider broader measures of inflation in its policy deliberations and communications. In particular, it points out that a broad measure of domestic goods and services price inflation such as the GDP deflator has increased along with the euro area recovery and the expansion of monetary policy since 2013, while HICP inflation has become more variable and, on average, has declined. Similarly, the cost of owner-occupied housing, which is excluded from the HICP, has risen during this period. Furthermore, it shows that optimal monetary policy at the effective lower bound on nominal interest rates aims to return inflation more slowly to the inflation target from below than in normal times because of uncertainty about the effects and potential side effects of quantitative easing.
Das Working Paper bietet die zusammenfassende Stellungnahme von Prof. Volker Wieland zum Ankaufprogramm der Europäischen Zentralbank für Anleihen des öffentlichen Sektors (Public Sector Purchase Programme, PSPP) am Bundesverfassungsgericht am 30.07.2019. Dabei liegt der Schwerpunkt auf der Frage der Einordnung des PSPP als monetäre, geldpolitische Maßnahme und der Verhältnismäßigkeit des Programms und seiner Umsetzung. Ebenfalls wird kurz auf die weiteren Fragen zur Umsetzung, insbesondere Ankündigung, Begrenzung und Abstand zum Primärmarkt für Staatsanleihen eingegangen.