Refine
Year of publication
Document Type
- Working Paper (3372) (remove)
Language
- English (2338)
- German (1014)
- Spanish (8)
- French (7)
- Multiple languages (2)
Keywords
- Deutschland (223)
- USA (64)
- Corporate Governance (53)
- Geldpolitik (53)
- Schätzung (52)
- Europäische Union (51)
- monetary policy (47)
- Bank (41)
- Sprachtypologie (34)
- Monetary Policy (30)
Institute
- Wirtschaftswissenschaften (1485)
- Center for Financial Studies (CFS) (1458)
- Sustainable Architecture for Finance in Europe (SAFE) (793)
- House of Finance (HoF) (657)
- Rechtswissenschaft (400)
- Institute for Monetary and Financial Stability (IMFS) (210)
- Informatik (119)
- Exzellenzcluster Die Herausbildung normativer Ordnungen (75)
- Gesellschaftswissenschaften (75)
- Geographie (62)
Social Security rules that determine retirement, spousal, and survivor benefits, along with benefit adjustments according to the age at which these are claimed, open up a complex set of financial options for household decisions. These rules influence optimal household asset allocation, insurance, and work decisions, subject to life cycle demographic shocks, such as marriage, divorce, and children. Our model-based research generates a wealth profile and a low and stable equity fraction consistent with empirical evidence. We confirm predictions that wives will claim retirement benefits earlier than husbands, while life insurance is mainly purchased by younger men. Our policy simulations imply that eliminating survivor benefits would sharply reduce claiming differences by sex while dramatically increasing men’s life insurance purchases.
Im vorliegenden Papier werden drei Ansätze zur Reform des Familienleistungsausgleichs (FLA) mit jeweils zwei Varianten dargestellt und hinsichtlich ihrer fiskalischen Effekte und Wirkungen in verschiedenen Segmenten der Einkommensverteilung systematisch verglichen. – Mit dem weitestgehenden Konzept, der Kindergrundsicherung, wird ein Existenz sicherndes und zu versteuerndes Kindergeld in Höhe von monatlich 502 Euro bzw. 454 Euro pro Kind vorgeschlagen. Die bisherigen kindbedingten Freibeträge und mehrere Sozialleis-tungen könnten entfallen bzw. reduziert werden. – Daneben werden Kindergelderhöhungen auf einheitlich 238 Euro bzw. 328 Euro pro Kind und Monat, die allen Kindern – auch denen im SGB II-Leistungsbezug – zugute kommen sollen, untersucht. Das Kindergeld wäre wie bisher nicht zu versteuern, die bisherigen kindbedingten Freibeträge würden aber entfallen. – Schließlich wird der Vorschlag einer deutlichen Erhöhung des Kinderzuschlags bei reduzierter Mindesteinkommensgrenze und Wegfall der Höchsteinkommensgrenze erörtert. Zudem ist bei diesem Ansatz ein nochmals erhöhter Kinderzuschlag bei Alleinerziehenden – analog zum Mehrbedarfszuschlag nach dem SGFB II – (erste Variante) oder eine Herabsetzung der Transferentzugsrate auf Nichterwerbseinkommen von 100% auf 70% (zweite Variante) vorgesehen. Die zu erwartenden fiskalischen Belastungen der einfachen Kindergelderhöhung (ohne Be-steuerung) können ohne Weiteres hochgerechnet werden (16 bzw. 35 Mrd. Euro p. a.), die der anderen Reformmodelle sind aber ohne mikroanalytische Fundierung unter Berücksichtigung der Einkommensverteilung kaum abschätzbar. Zwar lassen sich auch die Bruttokosten der Kindergrundsicherung auf einfachem Wege ermitteln (Multiplikation der Kindergeld-Kinder mit der Betragshöhe), die Aggregate der davon abzusetzenden zahlreichen Einsparungen bei anderen Sozialleistungen und insbesondere der Steuermehreinnahmen sind allerdings nicht offensichtlich. Eine erste Überschlagsrechnung hat ergeben, dass die Nettokosten der ersten „großzügigen“ Variante der Kindergrundsicherung (502 Euro) denen der Kindergelderhöhung auf das sächliche Existenzminimum (322 Euro) ohne Besteuerung ungefähr gleich sind (in der Größenordnung von 35 Mrd. Euro). Eine genauere Quantifizierung kann aber nur auf der Ba-sis repräsentativer Mikrodaten und eines Simulationsmodells erfolgen, da insbesondere der Besteuerungseffekt der Kindergrundsicherung von der faktischen Einkommensverteilung abhängt. Auch eine Kostenschätzung für die Kinderzuschlagsreform bedarf mikroanalytischer Verfahren; ungeachtet dessen würde diese auf einen begrenzten Einkommensbereich gerichte-te Reform aber eindeutig die geringsten Kosten verursachen. Für einen systematischen Vergleich der Verteilungswirkungen der Reformvorschläge werden in der vorliegenden Arbeit Modellrechnungen für zwei ausgewählte Haushaltstypen präsen-tiert. Dabei wird deutlich, dass mit dem vergleichsweise begrenzten Konzept der Ausweitung des Kinderzuschlags die Situation von Familien in prekären Einkommensverhältnissen bis zu Familien der unteren Mittelschicht deutlich verbessert werden könnte. Inwieweit dieser Effekt eintreten würde, hängt allerdings auch vom Inanspruchnahmeverhalten ab; bisher ist die Nicht-Inanspruchnahme von Kinderzuschlag und Wohngeld weit verbreitet. Zudem würde sich die Situation der ärmsten Familien, die auf SGB II-Leistungen angewiesen sind, nicht verbessern, und am oberen Rand würden die Entlastungseffekte des FLA als Folge der kind-bedingten Freibeträge weiterhin mit dem elterlichen Einkommen zunehmen. Demgegenüber würden sich bei den Varianten der Kindergelderhöhung (ohne Besteuerung) die deutlichen Verbesserungen gegenüber dem Status quo gleichmäßig über das Einkommensspektrum vom Niedriglohnsegment – bei unverändert problematischen Effekten des Kinderzuschlags (Ein-kommensbruchstelle bei Höchsteinkommensgrenze) – bis in obere Schichten verteilen und erst am oberen Rand mit steigendem Einkommen sinken (infolge des Wegfalls der bisherigen kindbedingten Freibeträge). Die Förderungen durch die Kindergrundsicherung schließlich würden am stärksten im unteren und unteren Mittelbereich ausfallen und – im Gegensatz zu anderen Konzepten – insbesondere verdeckte Armut systembedingt, also quasi „automatisch“, weitgehend abbauen. Im oberen Mittelbereich und hauptsächlich in höheren Schichten würden die Transfers dagegen mit zunehmendem Einkommen kontinuierlich abnehmen. Insgesamt würde dies zu einem vergleichsweise stetig steigenden Verlauf des verfügbaren Familieneinkommens führen; die wegen der hohen Transferentzugsraten des Kinderzuschlags – gegebenenfalls in Kombination mit Wohngeld – häufigen Befürchtungen negativer Arbeitsanreize im unteren Einkommensbereich wären gegenstandslos. Inwieweit die hier diskutierten Reformkonzepte zu einem Abbau von Kinder- und Familien-armut und zu weniger Ungleichheit der personellen Einkommensverteilung führen können, lässt sich allein auf der Basis von Modellrechnungen allerdings nicht absehen. Dazu bedarf es detaillierter Analysen auf der Basis von repräsentativen Mikrodaten, die die faktische Ein-kommensverteilung abbilden und Simulationsrechnungen zur Quantifizierung der Effekte der Reformvarianten – unter Einbeziehung der Finanzierung der jeweiligen Nettokosten – ermöglichen. Daran wird im Projekt „Vom Kindergeld zu einer Grundsicherung für Kinder“ auf Basis der Daten des Sozio-ökonomischen Panels (SOEP) 2007 gearbeitet; die Repräsentativität des Datensatzes hinsichtlich des Nachweises von Einkommens-, insbesondere Transferar-ten wurde bereits geprüft – mit gutem Ergebnis.
Das LG Mannheim hat in einer Entscheidung einen sog. Faktencheck auf Facebook für lauterkeitsrechtlich unbedenklich erklärt. Die folgende Urteilsbesprechung zeigt jedoch, dass die Entscheidung weder in der Begründung noch im Ergebnis zu überzeugen vermag. Denn der konkrete Faktencheck ist geeignet, den Wettbewerb zwischen Nachrichtenseiten zu verfälschen.
A key solution for public good provision is the voluntary formation of institutions that commit players to cooperate. Such institutions generate inequality if some players decide not to participate but cannot be excluded from cooperation benefits. Prior research with small groups emphasizes the role of fairness concerns with positive effects on cooperation. We show that effects do not generalize to larger groups: if group size increases, groups are less willing to form institutions generating inequality. In contrast to smaller groups, however, this does not increase the number of participating players, thereby limiting the positive impact of institution formation on cooperation.
Mis-selling by banks has occurred repeatedly in many nations over the last decade. While clients may benefit from competition – enabling them to choose financial services at lowest costs – economic frictions between banks and clients may give rise to mis-selling. Examples of mis-selling are mis-representation of information, overly complex product design and non-customized advice. European regulators address the problem of mis-selling in the "Markets in Financial Instruments Directive" (MiFID) I and II and the "Markets in Financial Instruments Regulation" (MiFIR), by setting behavioral requirements for banks, regulating the compensation of employees, and imposing re-quirements on offered financial products and disclosure rules.
This paper argues that MiFID II protects clients but is not as effective as it could be. (1) It does not differentiate between client groups with different levels of financial literacy. Effective advice requires different advice for different client groups. (2) MiFID II uses too many rules and too many instruments to achieve identical goals and thereby generates excessive compliance costs. High compliance costs and low revenues would drive banks out of some segments of retail business.
Die Förderung von Fahrradmobilität und öffentlichem Verkehr ist ein wesentlicher Baustein zur Gestaltung einer ökologisch nachhaltigeren, sozial verträglicheren und ökonomisch tragfähigen Verkehrs- und Siedlungsentwicklung in Deutschland. Mit einer verbesserten intermodalen Verknüpfung werden beide Verkehrsträger attraktiver und somit häufiger genutzt. Öffentliche Verkehrsunternehmen gewinnen dadurch vergrößerte Einzugsbereiche von Haltestellen, können Spitzenbelastungen abfedern und verbessern ihr Image. Fahrradfahrenden ermöglicht die Kombination mit öffentlichen Verkehrsmitteln größere Reichweiten, was gerade auch in randstädtischen, suburbanen oder ländlichen Regionen bedeutsam werden kann. Letztlich leistet die Verknüpfung der beiden Verkehrsträger einen Beitrag zur Daseinsvorsorge und für den Klimaschutz.
Der Handlungsleitfaden wurde innerhalb des Forschungsprojektes „Verbesserte Integration des Fahrrads in den öffentlichen Verkehr – Systematische Erschließung von Handlungsoptionen und Bewertung von Best-Practices“ erarbeitet. Das Projekt wurde vom Bundesministerium für Verkehr und digitale Infrastruktur (BMVI) aus Mitteln zur Umsetzung des Nationalen Radverkehrsplans gefördert.
Das Fahren ohne (gültigen) Fahrschein wird bereits seit den späten 1980er Jahren in der Wissenschaft thematisiert. Bis heute wird das Thema vorwiegend aus einer rechtswissenschaftlichen, einer betriebswirtschaftlichen sowie einer kriminologischen Perspektive betrachtet. Weiterhin wird das Fahren ohne (gültigen) Fahrschein in Ansätzen sozialwissenschaftlich betrachtet. Eine Analyse des Themas aus der Perspektive der sozialwissenschaftlichen Mobilitätsforschung würde den wissenschaftlichen Diskurs erweitern. In den Print- und Onlinemedien wird das Thema ebenfalls relativ häufig thematisiert. Der Forschungsstand spiegelt sich in den Medien wieder, allerdings ist die Auseinandersetzung weitaus differenzierter, da beispielsweise auch politische Motivationen zum Fahren ohne (gültigen) Fahrschein angesprochen werden. Insgesamt lässt sich feststellen, dass Das Fahren ohne (gültigen) Fahrschein bereits Einzug in wissenschaftliche Untersuchungen und Debatten gefunden hat. Das Arbeitspapier fasst den Stand der Forschung zum Fahren ohne (gültigen) Fahrschein zusammen und bildet somit einen Einstieg für die Fokussierung des Themas aus Sicht der sozialwissenschaftlichen Mobilitätsforschung.
A series of recent articles has called into question the validity of VAR models of the global market for crude oil. These studies seek to replace existing oil market models by structural VAR models of their own based on different data, different identifying assumptions, and a different econometric approach. Their main aim has been to revise the consensus in the literature that oil demand shocks are a more important determinant of oil price fluctuations than oil supply shocks. Substantial progress has been made in recent years in sorting out the pros and cons of the underlying econometric methodologies and data in this debate, and in separating claims that are supported by empirical evidence from claims that are not. The purpose of this paper is to take stock of the VAR literature on global oil markets and to synthesize what we have learned. Combining this evidence with new data and analysis, I make the case that the concerns regarding the existing VAR oil market literature have been overstated and that the results from these models are quite robust to changes in the model specification.
Using a normalized CES function with factor-augmenting technical progress, we estimate a supply-side system of the US economy from 1953 to 1998. Avoiding potential estimation biases that have occurred in earlier studies and putting a high emphasis on the consistency of the data set, required by the estimated system, we obtain robust results not only for the aggregate elasticity of substitution but also for the parameters of labor and capital augmenting technical change. We find that the elasticity of substitution is significantly below unity and that the growth rates of technical progress show an asymmetrical pattern where the growth of laboraugmenting technical progress is exponential, while that of capital is hyperbolic or logarithmic.
In a parsimonious regime switching model, we find strong evidence that expected consumption growth varies over time. Adding inflation as a second variable, we uncover two states in which expected consumption growth is low, one with high and one with negative expected inflation. Embedded in a general equilibrium asset pricing model with learning, these dynamics replicate the observed time variation in stock return volatilities and stock- bond return correlations. They also provide an alternative derivation for a measure of time-varying disaster risk suggested by Wachter (2013), implying that both the disaster and the long-run risk paradigm can be extended towards explaining movements in the stock-bond correlation.
This paper is concerned with the tagging of spatial expressions in German newspaper articles, assigning a meaning to the expression and classifying the usages of the spatial expression and linking the derived referent to an event description. In our system, we implemented the activation of concepts in a very simple fashion, a concept is activated once (with a cost depending on the item that activated it) and is left activated thereafter. As an example, a city also activates the nodes for the region and the country it is part of, so that cities from one country are chosen over cities from different countries. A test corpus of 12 German newspaper articles was tested regarding several disambiguation strategies. Disambiguation was carried out via a beam search to find an approximately cost-optimal solution for the conflict set of potential grounding candidates for the tagged spatial expression. Test showed that the disambiguation strategies improved accuracy significantly.
Our motivation is the question whether the lazy lambda calculus, a pure lambda calculus with the leftmost outermost rewriting strategy, considered under observational semantics, or extensions thereof, are an adequate model for semantic equivalences in real-world purely functional programming languages, in particular for a pure core language of Haskell. We explore several extensions of the lazy lambda calculus: addition of a seq-operator, addition of data constructors and case-expressions, and their combination, focusing on conservativity of these extensions. In addition to untyped calculi, we study their monomorphically and polymorphically typed versions. For most of the extensions we obtain non-conservativity which we prove by providing counterexamples. However, we prove conservativity of the extension by data constructors and case in the monomorphically typed scenario.
Our motivation is the question whether the lazy lambda calculus, a pure lambda calculus with the leftmost outermost rewriting strategy, considered under observational semantics, or extensions thereof, are an adequate model for semantic equivalences in real-world purely functional programming languages, in particular for a pure core language of Haskell. We explore several extensions of the lazy lambda calculus: addition of a seq-operator, addition of data constructors and case-expressions, and their combination, focusing on conservativity of these extensions. In addition to untyped calculi, we study their monomorphically and polymorphically typed versions. For most of the extensions we obtain non-conservativity which we prove by providing counterexamples. However, we prove conservativity of the extension by data constructors and case in the monomorphically typed scenario.
Chen and Zadrozny (1998) developed the linear extended Yule-Walker (XYW) method for determining the parameters of a vector autoregressive (VAR) model with available covariances of mixed-frequency observations on the variables of the model. If the parameters are determined uniquely for available population covariances, then, the VAR model is identified. The present paper extends the original XYW method to an extended XYW method for determining all ARMA parameters of a vector autoregressive moving-average (VARMA) model with available covariances of single- or mixed-frequency observations on the variables of the model. The paper proves that under conditions of stationarity, regularity, miniphaseness, controllability, observability, and diagonalizability on the parameters of the model, the parameters are determined uniquely with available population covariances of single- or mixed-frequency observations on the variables of the model, so that the VARMA model is identified with the single- or mixed-frequency covariances.
Die Hauptthese dieser Dissertation ist, dass Nord-Sotho keinen obligatorischen Gebrauch von grammatischen Mitteln zur Markierung von Fokus macht, weder in der Syntax noch in der Prosodie oder Morphologie. Trotzdem strukturiert diese Sprache eine Äußerung nach informationsstrukturellen Aspekten. Konstituenten, die im Diskurs gegeben sind, werden entweder getilgt, pronominalisiert oder an den rechten oder linken Satzrand versetzt. Diese (morpho-)syntaktischen Prozesse wirken so zusammen, dass die fokussierte Konstituente oft final in ihrem Teilsatz erscheint. Obwohl die finale Position keine designierte Fokusposition ist, ist das Wissen um diese Tendenz doch entscheidend für das Verständnis einer morphologischen Alternation, die in Nord-Sotho am Verb erscheint und die in der Literatur im Zusammenhang mit Fokus diskutiert wurde.
Obwohl also ein direkter grammatischer Ausdruck von formaler F(okus)-Markierung im Nord-Sotho fehlt, ist F-Markierung trotzdem entscheidend für die Grammatik dieser Sprache: Fokussierte logische Subjekte können nicht in kanonischer präverbaler Position erscheinen. Sie erscheinen stattdessen entweder postverbal oder in einem Spaltsatz, abhängig von der Valenz des Verbs. Obwohl Nord-Sotho bei Objekten im Gebrauch von Spaltsätzen eine Korrespondenz von komplexer Form mit komplexer Bedeutung zeigt, gilt diese Korrespondenz nicht für logische Subjekte.
Die vorliegende Dissertation modelliert die oben genannten Ergebnisse im theoretischen Rahmen der Optimalitätstheorie (OT). Syntaktischer in situ Fokus und die Abwesenheit von prosodischer Fokusmarkierung können mit unkontroversen Beschränkungen erfasst werden. Für die Ungrammatikaliät fokussierter logischer Subjekte in präverbaler Position schlägt die vorliegende Arbeit die Modifizierung einer in der Literatur vorhandenen Beschränkung vor, die in Nord-Sotho von entscheidener Bedeutung ist. Die Form-Bedeutungs-Korrespondenz wird, wie andere Phänomene pragmatischer Arbeitsteilung auch, innerhalb der schwach bidirektionalen Optimalitätstheorie behandelt.
We survey a representative sample of US households to study how exposure to the COVID-19 stock market crash a↵ects expectations and planned behavior. Wealth shocks are associated with upward adjustments of expectations about retirement age, desired working hours, and household debt, but have only small e↵ects on expected spending. We provide correlational and experimental evidence that beliefs about the duration of the stock market recovery shape households’ expectations about their own wealth and their planned investment decisions and labor market activity. Our findings shed light on the implications of household exposure to stock market crashes for expectation formation.
Market risks account for an integral part of life insurers' risk profiles. This paper explores the market risk sensitivities of insurers in two large life insurance markets, namely the U.S. and Europe. Based on panel regression models and daily market data from 2012 to 2018, we analyze the reaction of insurers' stock returns to changes in interest rates and CDS spreads of sovereign counterparties. We find that the influence of interest rate movements on stock returns is more than 50% larger for U.S. than for European life insurers. Falling interest rates reduce stock returns in particular for less solvent firms, insurers with a high share of life insurance reserves and unit-linked insurers. Moreover, life insurers' sensitivity to interest rate changes is seven times larger than their sensitivity towards CDS spreads. Only European insurers significantly suffer from rising CDS spreads, whereas U.S. insurers are immunized against increasing sovereign default probabilities.
This paper investigates how US and European equity markets affected the US dollar-euro rate from the introduction of the euro through April 2001. More detailed the following questions are raised: First, do movements in the stock market help to explain movements in the exchange rate? Second, how large is the impact of stock market returns on the exchange rate? And third, does the exchange rate respond differently to different equity markets? The investigation was carried out using daily data within a vector-autoregression model (VAR). Surprisingly, positive returns on US equities as well as on European stock markets had a negative impact on the US dollar-euro rate. Quantitatively, the US dollar-euro rate seems to be more influenced by European stock markets compared to US stock markets. Further, there is evidence for a somewhat weaker impact of technology stock indices on the US dollar-euro rate compared with broader market indices. Finally, the long-term interest rate differential seems to contain more information about exchange rate movements than the short-term interest rate differential. This Version: August, 2001. Klassifikation: C32, F31
A number of recent studies have concluded that consumer spending patterns over the month are closely linked to the timing of income receipt. This correlation is interpreted as evidence of hyperbolic discounting. I re-examine patterns of spending in the diary sample of the U.S. Consumer Expenditure Survey, incorporating information on the timing of the main consumption commitment for most households - their monthly rent or mortgage payment. I find that non-durable and food spending increase with 30-48% on the day housing payments are made, with smaller increases in the days after. Moreover, households with weekly, biweekly and monthly income streams but the same timing of rent/mortgage payments have very similar consumption patterns. Exploiting variation in income, I find that households with extra liquidity decrease non-durable spending around housing payments, especially those households with a large budget share of housing.
This paper explores the interplay of feature-based explainable AI (XAI) tech- niques, information processing, and human beliefs. Using a novel experimental protocol, we study the impact of providing users with explanations about how an AI system weighs inputted information to produce individual predictions (LIME) on users’ weighting of information and beliefs about the task-relevance of information. On the one hand, we find that feature-based explanations cause users to alter their mental weighting of available information according to observed explanations. On the other hand, explanations lead to asymmetric belief adjustments that we inter- pret as a manifestation of the confirmation bias. Trust in the prediction accuracy plays an important moderating role for XAI-enabled belief adjustments. Our results show that feature-based XAI does not only superficially influence decisions but re- ally change internal cognitive processes, bearing the potential to manipulate human beliefs and reinforce stereotypes. Hence, the current regulatory efforts that aim at enhancing algorithmic transparency may benefit from going hand in hand with measures ensuring the exclusion of sensitive personal information in XAI systems. Overall, our findings put assertions that XAI is the silver bullet solving all of AI systems’ (black box) problems into perspective.
We analyze the desinvestment decision of venture capitalists in the course of an IPO of their portfolio firms. The capital market learns of the project quality only in the period following the IPO. Venture capitalists with high-quality firms face a trade-off between immediately selling their stake in the venture at a price below the true value and having to wait until the true value is revealed. We show that the dilemma may be resolved via a reputation-acquiring mechanism in a repeated game set-up. Thereby, we can explain, e.g., the advent of "hot-issue market behavior" involving early disinvestments and a high degree of price uncertainty. Furthermore, we provide a new rationale for underpricing. Young venture capitalists may use underpricing as a device for credibly committing themselves to acquiring reputation.
Exit strategies
(2010)
We study alternative scenarios for exiting the post-crisis fiscal and monetary accommodation using the model of Angeloni and Faia (2010), that combines a standard DSGE framework with a fragile banking sector, suitably modified and calibrated for the euro area. Credibly announced and fast fiscal consolidations dominate – based on simple criteria – alternative strategies incorporating various degrees of gradualism and surprise. The fiscal adjustment should be based on spending cuts or else be relatively skewed towards consumption taxes. The phasing out of monetary accommodation should be simultaneous or slightly delayed. We also find that, contrary to widespread belief, Basel III may well have an expansionary macroeconomic effect. Keywords: Exit Strategies , Debt Consolidation , Fiscal Policy , Monetary Policy , Capital Requirements , Bank Runs JEL Classification: G01, E63, H12
Exit strategies
(2014)
We study alternative scenarios for exiting the post-crisis fiscal and monetary accommodation using a macromodel where banks choose their capital structure and are subject to runs. Under a Taylor rule, the post-crisis interest rate hits the zero lower bound (ZLB) and remains there for several years. In that condition, pre-announced and fast fiscal consolidations dominate - based on output and inflation performance and bank stability - alternative strategies incorporating various degrees of gradualism and surprise. We also examine an alternative monetary strategy in which the interest rate does not reach the ZLB; the benefits from fiscal consolidation persist, but are more nuanced.
This paper discusses the implications of transnational media production and diasporic networks for the cultural politics of migrant minorities. How are fields of cultural politics transformed if Hirschmann’s famous options ‘exit’ and ‘voice’ are no longer constituting mutually exclusive responses to dissent within a nation-state, but modes of action that can combine and build upon each other in the context of migration and diasporic media activism? Two case studies are discussed in more detail, relating to Alevi amateur television production in Germany and to a Kurdish satellite television station that reaches out to a diaspora across Europe and the Middle East. Keywords: migrant media, transnationalism, Alevis, Kurds, Turkey, Germany
We develop a model of managerial compensation structure and asset risk choice. The model provides predictions about how inside debt features affect the relation between credit spreads and compensation components. First, inside debt reduces credit spreads only if it is unsecured. Second, inside debt exerts important indirect effects on the role of equity incentives: When inside debt is large and unsecured, equity incentives increase credit spreads; When inside debt is small or secured, this effect is weakened or reversed. We test our model on a sample of U.S. public firms with traded CDS contracts, finding evidence supportive of our predictions. To alleviate endogeneity concerns, we also show that our results are robust to using an instrumental variable approach.
We investigate the suggested substitutive relation between executive compensation and the disciplinary threat of takeover imposed by the market for corporate control. We complement other empirical studies on managerial compensation and corporate control mechanisms in three distinct ways. First, we concentrate on firms in the oil industry for which agency problems were especially severe in the 1980s. Due to the extensive generation of excess cash flow, product and factor market discipline was ineffective. Second, we obtain a unique data set drawn directly from proxy statements which accounts not only for salary and bonus but for the value of all stock-market based compensation held in the portfolio of a CEO. Our data set consists of 51 firms in the U.S. oil industry from 1977 to 1994. Third, we employ ex ante measures of the threat of takeover at the individual firm level which are superior to ex post measures like actual takeover occurrence or past incidence of takeovers in an industry. Results show that annual compensation and, to a much higher degree, stock-based managerial compensation increase after a firm becomes protected from a hostile takeover. However, clear-cut evidence that CEOs of protected firms receive higher compensation than those of firms considered susceptible to a takeover cannot be found.
In this paper, we study the effectiveness of monetary policy in a severe recession and deflation when nominal interest rates are bounded at zero. We compare two alternative proposals for ameliorating the effect of the zero bound: an exchange-rate peg and price-level targeting. We conduct this quantitative comparison in an empirical macroeconometric model of Japan, the United States and the euro area. Furthermore, we use a stylized micro-founded two-country model to check our qualitative findings. We find that both proposals succeed in generating inflationary expectations and work almost equally well under full credibility of monetary policy. However, price-level targeting may be less effective under imperfect credibility, because the announced price-level target path is not directly observable. Klassifikation: E31, E52, E58, E61
We examine the impact of stock exchange trading rules and surveillance on the frequency and severity of suspected insider trading cases in 22 stock exchanges around the world over the period January 2003 through June 2011. Using new indices for market manipulation, insider trading, and broker-agency conflict based on the specific provisions of the trading rules of each stock exchange, along with surveillance to detect non-compliance with such rules, we show that more detailed exchange trading rules and surveillance over time and across markets significantly reduce the number of cases, but increase the profits per case.
For the academic audience, this paper presents the outcome of a well-identified, large change in the monetary policy rule from the lens of a standard New Keynesian model and asks whether the model properly captures the effects. For policymakers, it presents a cautionary tale of the dismal effects of ignoring basic macroeconomics. The Turkish monetary policy experiment of the past decade, stemming from a belief of the government that higher interest rates cause higher inflation, provides an unfortunately clean exogenous variance in the policy rule. The mandate to keep rates low, and the frequent policymaker turnover orchestrated by the government to enforce this, led to the Taylor principle not being satisfied and eventually a negative coeffcient on inflation in the policy rule. In such an environment, was the exchange rate still a random walk? Was inflation anchored? Does the “standard model”” suffice to explain the broad contours of macroeconomic outcomes in an emerging economy with large identifying variance in the policy rule? There are no surprises for students of open-economy macroeconomics; the answers are no, no, and yes.
The use of evidence and economic analysis in policymaking is on the rise, and accounting standard setting and financial regulation are no exception. This article discusses the promise of evidence-based policymaking in accounting and financial markets as well as the challenges and opportunities for research supporting this endeavor. In principle, using sound theory and robust empirical evidence should lead to better policies and regulations. But despite its obvious appeal and substantial promise, evidence-based policymaking is easier demanded than done. It faces many challenges related to the difficulty of providing relevant causal evidence, lack of data, the reliability of published research, and the transmission of research findings. Overcoming these challenges requires substantial infrastructure investments for generating and disseminating relevant research. To illustrate this point, I draw parallels to the rise of evidence-based medicine. The article provides several concrete suggestions for the research process and the aggregation of research findings if scientific evidence is to inform policymaking. I discuss how policymakers can foster and support policy-relevant research, chiefly by providing and generating data. The article also points to potential pitfalls when research becomes increasingly policy-oriented.
Marginal income taxes may have an insurance effect by decreasing the effective fluctuations of after-tax individual income. By compressing the idiosyncratic component o personal income fluctuations, higher marginal taxes should be negatively correlated with the dispersion of consumption across households, a necessary implication of an insurance effect of taxation. Our study empirically examines this negative correlation, exploiting the ample variation of state taxes across US states. We show that taxes are negatively correlated with the consumption dispersion of the within-state distribution of non-durable consumption and that this correlation is robust.
The hypothesis of statistical production of J/psi mesons at hadronization is formulated and checked against experimental data. It explains in the natural way the observed scaling behavior of the J/psi to pion ratio at the CERN SPS energies. Using the multiplicities of J/psi and eta mesons the hadronization temperature T_H = 175 MeV is found, which agrees with the previous estimates of the temperature parameter based on the analysis of the hadron yield systematics.
We develop a methodology to identify and rank “systemically important financial institutions” (SIFIs). Our approach is consistent with that followed by the Financial Stability Board (FSB) but, unlike the latter, it is free of judgment and it is based entirely on publicly available data, thus filling the gap between the official views of the regulator and those that market participants can form with their own information set. We apply the methodology to annual data on three samples of banks (global, EU and euro area) for the years 2007-2012. We examine the evolution of the SIFIs over time and document the shifs in the relative weights of the major geographic areas. We also discuss the implication of the 2013 update of the identification methodology proposed by the FSB.
Persistently high unemployment, tight government budgets and the growing scepticism regarding the effects of active labour market policies (ALMP) are the basis for a growing interest in evaluating these measures. This paper intends to explain the need for evaluation on the micro- and macroeconomic level, introduce the fundamental evaluation problem and solutions to it, give an overview of the newer developments in evaluation literature and finally take a look on empirical estimations of ALMP effects. JEL Classification: C14, C33, H43, J64, J68
Seit dem 1. Januar 2018 erhalten alle aktiven Beamt*innen, Richter*innen, Tarifbeschäftigte und Auszubildende des Landes Hessen eine Freifahrtberechtigung, sodass sie den öffentlichen Personennah- und Regionalverkehr im gesamten Bundesland kostenlos nutzen können. Diese Umstellung stellt den Anlass für die Fallstudie dar, die die Auswirkungen der Einführung eines solchen Tickets am Beispiel der Beschäftigten der Goethe-Universität Frankfurt untersucht. Im Frühjahr 2019 wurde eine quantitative Online-Befragung an der Goethe-Universität durchgeführt (n=1686). Als Grundlage und Vergleichsdatensatz diente eine Studie, die im Jahr 2015 an der Goethe-Universität durchgeführt worden ist.
Ziel der Befragung war es, Informationen über die Verkehrsmittelnutzung sowie die Einstellungen zu unterschiedlichen Mobilitätsangeboten zu erhalten. Der Schwerpunkt der Befragung lag dabei auf der Nutzung des hessischen Landestickets, sodass die Forschungsfrage untersucht wurde, welche mobilitätsbezogenen Verhaltensänderungen das hessische Landesticket hervorruft. Im Vergleich der Befragungen unter den Beschäftigten der Goethe-Universität 2015 und 2019 lässt sich in der Studie von 2019, ein Jahr nach der Einführung des hessischen Landestickets, ein signifikanter Anstieg der regelmäßigen Nutzung des öffentlichen Verkehrs erkennen. Im Hinblick auf eine erhoffte Verkehrswende weg von motorisiertem Individualverkehr hin zu ökologisch freundlicherem, öffentlichem Personennahverkehr lassen sich aus diesem Ergebnis politische Implikationen ableiten.
In dieser Studie werden die Wirkungen von Arbeitsbeschaffungsmaßnahmen (ABM) in Deutschland auf die individuellen Eingliederungswahrscheinlichkeiten der Teilnehmer in reguläre Beschäftigung evaluiert. Für die Untersuchung wird ein umfangreicher und informativer Datensatz aus den Datenquellen der Bundesagentur für Arbeit (BA) verwendet, der es ermöglicht, die Wirkungen der Programme differenziert nach individuellen Unterschieden der Teilnehmer und mit Berücksichtigung der heterogenen Arbeitsmarktstruktur zu untersuchen. Der Datensatz enthält Informationen zu allen Teilnehmern in ABM, die ihre Maßnahmen im Februar 2000 begonnen haben, und zu einer Kontrollgruppe von Nichtteilnehmern, die im Januar 2000 arbeitslos waren und im Februar 2000 nicht in die Programme eingetreten sind. Mit Hilfe der Informationen der Beschäftigtenstatistik ist es hierbei erstmals möglich, den Abgang in reguläre Beschäftigung auf Grundlage administrativer Daten zu untersuchen. Der vorliegende Verbleibszeitraum reicht bis Dezember 2002. Unter Verwendung von Matching-Methoden auf dem Ansatz potenzieller Ergebnisse werden die Effekte von ABM mit regionaler Unterscheidung und für besondere Problem- und Zielgruppen des Arbeitsmarktes geschätzt. Die Ergebnisse zeigen zwar deutliche Unterschiede in den Effekten für Subgruppen, insgesamt weisen die empirischen Befunde jedoch darauf hin, dass das Ziel der Eingliederung in reguläre ungeförderte Beschäftigung durch ABM weitgehend nicht realisiert werden konnte. JEL: C40 , C13 , J64 , H43 , J68
We present an analysis of VaR forecasts and P&L-series of all 13 German banks that used internal models for regulatory purposes in the year 2001. To this end, we introduce the notion of well-behaved forecast systems. Furthermore, we provide a series of statistical tools to perform our analyses. The results shed light on the forecast quality of VaR models of the individual banks, the regulator's portfolio as a whole, and the main ingredients of the computation of the regulatory capital required by the Basel rules.
Innovations are a key factor to ensure the competitiveness of establishments as well as to enhance the growth and wealth of nations. But more than any other economic activity, decisions about innovations are plagued by failures of the market mechanism. As a response, public instruments have been implemented to stimulate private innovation activities. The effectiveness of these measures, however, is ambiguous and calls for an empirical evaluation. In this paper we make use of the IAB Establishment Panel and apply various microeconometric methods to estimate the effect of public measures on innovation activities of German establishments. We find that neglecting sample selection due to observable as well as to unobservable characteristics leads to an overestimation of the treatment effect and that there are considerable differences with regard to size class and betweenWest and East German establishments.
We develop a novel empirical approach to identify the effectiveness of policies against a pandemic. The essence of our approach is the insight that epidemic dynamics are best tracked over stages, rather than over time. We use a normalization procedure that makes the pre-policy paths of the epidemic identical across regions. The procedure uncovers regional variation in the stage of the epidemic at the time of policy implementation. This variation delivers clean identification of the policy effect based on the epidemic path of a leading region that serves as a counterfactual for other regions. We apply our method to evaluate the effectiveness of the nationwide stay-home policy enacted in Spain against the Covid-19 pandemic. We find that the policy saved 15.9% of lives relative to the number of deaths that would have occurred had it not been for the policy intervention. Its effectiveness evolves with the epidemic and is larger when implemented at earlier stages.
This paper evaluates the effects of Public Sponsored Training in East Germany in the context of reiterated treatments. Selection bias based on observed characteristics is corrected for by applying kernel matching based on the propensity score. We control for further selection and the presence of Ashenfelter's Dip before the program with conditional difference-in-differences estimators. Training as a first treatment shows insignificant effects on the transition rates. The effect of program sequences and the incremental effect of a second program on the reemployment probability are insignificant. However, the incremental effect on the probability to remain employed is slightly positive. JEL - Klassifikation: H43 , C23 , J6 , J64 , C14
This paper investigates the accuracy of forecasts from four DSGE models for inflation, output growth and the federal funds rate using a real-time dataset synchronized with the Fed’s Greenbook projections. Conditioning the model forecasts on the Greenbook nowcasts leads to forecasts that are as accurate as the Greenbook projections for output growth and the federal funds rate. Only for inflation the model forecasts are dominated by the Greenbook projections. A comparison with forecasts from Bayesian VARs shows that the economic structure of the DSGE models which is useful for the interpretation of forecasts does not lower the accuracy of forecasts. Combining forecasts of several DSGE models increases precision in comparison to individual model forecasts. Comparing density forecasts with the actual distribution of observations shows that DSGE models overestimate uncertainty around point forecasts.
This paper investigates the accuracy of point and density forecasts of four DSGE models for inflation, output growth and the federal funds rate. Model parameters are estimated and forecasts are derived successively from historical U.S. data vintages synchronized with the Fed’s Greenbook projections. Point forecasts of some models are of similar accuracy as the forecasts of nonstructural large dataset methods. Despite their common underlying New Keynesian modeling philosophy, forecasts of different DSGE models turn out to be quite distinct. Weighted forecasts are more precise than forecasts from individual models. The accuracy of a simple average of DSGE model forecasts is comparable to Greenbook projections for medium term horizons. Comparing density forecasts of DSGE models with the actual distribution of observations shows that the models overestimate uncertainty around point forecasts.
Under a new Basel capital accord, bank regulators might use quantitative measures when evaluating the eligibility of internal credit rating systems for the internal ratings based approach. Based on data from Deutsche Bundesbank and using a simulation approach, we find that it is possible to identify strongly inferior rating systems out-of time based on statistics that measure either the quality of ranking borrowers from good to bad, or the quality of individual default probability forecasts. Banks do not significantly improve system quality if they use credit scores instead of ratings, or logistic regression default probability estimates instead of historical data. Banks that are not able to discriminate between high- and low-risk borrowers increase their average capital requirements due to the concavity of the capital requirements function.
We compare the cost effectiveness of two pronatalist policies:
(a) child allowances; and
(b) daycare subsidies.
We pay special attention to estimating how intended fertility (fertility before children are born) responds to these policies. We use two evaluation tools:
(i) a dynamic model on fertility, labor supply, outsourced childcare time, parental time, asset accumulation and consumption; and
(ii) randomized vignette-survey policy experiments.
We implement both tools in the United States and Germany, finding consistent evidence that daycare subsidies are more cost effective. Nevertheless, the required public expenditure to increase fertility to the replacement level might be viewed as prohibitively high.
We evaluate the asset pricing implications of a class of models in which risk sharing is imperfect because of the limited enforcement of intertemporal contracts. Lustig (2004) has shown that in such a model the asset pricing kernel can be written as a simple function of the aggregate consumption growth rate and the growth rate of consumption of the set of households that do not face binding enforcement constraints in that state of the world. These unconstrained households have lower consumption growth rates than constrained households, i.e. they are located in the lower tail of the crosssectional consumption growth distribution. We use household consumption data from the U.S. Consumer Expenditure Survey to estimate the pricing kernel implied by the model and to evaluate its performance in pricing aggregate risk. We employ the same data to construct aggregate consumption and to derive the standard complete markets pricing kernel. We find that the limited enforcement pricing kernel generates a market price of risk that is substantially larger than the standard complete markets asset pricing kernel. Klassifizierung: G12, D53, D52, E44
Am 27. und 28. September des vergangenen Jahres hat auf Initiative von Prof. Paul Krüger Andersen, Dänemark,1 und des Verfassers in Aarhus/Dänemark das erste Treffen der Arbeitsgruppe stattgefunden, die sich zum Ziel gesetzt hat, einen „European Model Company Law Act“ (EMCLA) zu entwickeln. Dieses Projekt soll im Folgenden vorgestellt werden. Es zielt weder auf eine zwingende Harmonisierung der nationalen Gesellschaftsrechte noch auf die Schaffung einer weiteren europäischen Gesellschaftsform ab. Ziel ist vielmehr, Modellregeln für eine Kapitalgesellschaft, zunächst die Aktiengesellschaft, zu entwerfen, die von den nationalen Gesetzgebern ganz oder zum Teil übernommen werden können. Damit tritt das Vorhaben als Alternative und Ergänzung neben die vorhandenen Instrumente der Gesellschaftsrechtsangleichung in der Europäischen Union. Darauf ist im Folgenden zunächst einzugehen (II.). Ein weiterer Abschnitt weist auf die US-amerikanischen Erfahrungen mit solchen einheitlichen „Modellgesetzen“ im Bereich des Gesellschaftsrechts hin (III.). Der letzte Teil spricht dann ausgewählte Einzelprobleme an, die sich bei der Entwicklung eines EMCLA ergeben, stellt die Arbeitsgruppe vor und erläutert ihren vorläufigen Arbeitsplan (IV.).
Asset-backed securitisation (ABS) is an asset funding technique that involves the issuance of structured claims on the cash flow performance of a designated pool of underlying receivables. Efficient risk management and asset allocation in this growing segment of fixed income markets requires both investors and issuers to thoroughly understand the longitudinal properties of spread prices. We present a multi-factor GARCH process in order to model the heteroskedasticity of secondary market spreads for valuation and forecasting purposes. In particular, accounting for the variance of errors is instrumental in deriving more accurate estimators of time-varying forecast confidence intervals. On the basis of CDO, MBS and Pfandbrief transactions as the most important asset classes of off-balance sheet and on-balance sheet securitisation in Europe we find that expected spread changes for these asset classes tends to be level stationary with model estimates indicating asymmetric mean reversion. Furthermore, spread volatility (conditional variance) is found to follow an asymmetric stochastic process contingent on the value of past residuals. This ABS spread behaviour implies negative investor sentiment during cyclical downturns, which is likely to escape stationary approximation the longer this market situation lasts.
The SVB case is a wake-up call for Europe’s regulators as it demonstrates the destructive power of a bank-run: it undermines the role of loss absorbing capital, elbowing governments to bailout affected banks. Many types of bank management weaknesses, like excessive duration risk, may raise concerns of bank losses – but to serve as a run-trigger, there needs to be a large enough group of bank depositors that fails to be fully covered by a deposit insurance scheme. Latent run-risk is the root cause of inefficient liquidations, and we argue that a run on SVB assets could have been avoided altogether by a more thoughtful deposit insurance scheme, sharply distinguishing between loss absorbing capital (equity plus bail-in debt) and other liabilities which are deemed not to be bail-inable, namely demand deposits. These evidence-based insights have direct implications for Europe’s banking regulation, suggesting a minimum and a maximum for a banks’ loss absorption capacity.
This chapter discusses whether and how 'new quantitative trade models' (NQTMs) can be fruitfully applied to quantify the welfare effects of trade liberalization, thus shedding light on the trade-related effects of further European integration. On the one hand, it argues that NQTMs have indeed the potential of being used to supplement traditional 'computable general equilibrium' (CGE) analysis thanks to their tight connection between theory and data, appealing micro-theoretical foundations, and enhanced attention to the estimation of structural parameters. On the other hand, further work is still needed in order to fully exploit such potential.
This paper will sketch out some of the developments in European company law as seen from the current moment, which might be referred to as post- 2003 Action Plan, and from my purely personal viewpoint. I will thus restrict myself to presenting the current and expected legislative projects of the EU, with particular focus on the plans and activities of the Commission, and for the moment bracket out both a number of important and interesting decisions of the European Court of Justice and the debates among European legal scholars.
Einer einheitlichen europäischen Börsenaufsicht ist auf der jetzigen Entwicklungsstufe der Märkte, des Börsenrechts und des EGV eine klare Absage zu erteilen. Es gilt vielmehr, die dargestellten Probleme des europäischen Kapitalmarkt- und Börsenrechts auf Basis der Mitgliedstaaten bzw. der EU abzustellen und so an der Schaffung eines integrierten Kapitalmarktes mitzuwirken. Das Recht muß sich immer nach den tatsächlichen Begebenheiten richten und kann dieses im Regelfall daher nur zeitverzögert erfassen. Die Entwicklung der europäischen Börsen und geregelten Märkte ist aber nicht abzusehen. Ob nun den Computerbörsen allein die Zukunft gehört, ob Präsenzbörsen eine Daseinsberechtigung haben werden, oder nach welchem System der Börsenhandel organisiert werden soll, muß sich nach den zukünftigen Bedürfnissen des Marktes richten. Das Aufsichtsrecht hat dabei die Aufgabe, auf möglichst wettbewerbsneutrale Weise einen anleger- und funktionsschützenden Rahmen zu stellen. Der flexible Rahmen der europarechtlichen Vorgaben ermöglicht dies den Mitgliedstaaten. Börsenkooperationen, denen im Börsenhandel die Zukunft gehört, beginnen gerade erst ihren Handel zu organisieren. Die folgenden Jahre werden daher zeigen, welche Anforderungen sich für die nationalen Aufsichtsbehörden und die europarechtlichen Vorgaben stellen.
Eurobonds zur Bewältigung der europäischen Krise? : Wegweisung zu einer modernen Entwicklungsunion
(2011)
Die aktuelle Debatte um den Umgang mit der Verschuldung Griechenlands und anderer EWU Staaten berührt die Grundlagen europäischer Wirtschaftspolitik. Die nächsten Schritte sind wohl abzuwägen, um über eine unmittelbare Kriseneindämmung hinaus eine langfristige Stabilisierung der wirtschaftlichen und politischen Strukturen in der Eurozone zu erreichen.
Eine funktionsfähige Wirtschafts- und Währungsunion hat ihren Preis. Sie ist aber auch von großem Nutzen, gerade für Deutschland und die wettbewerbsstarken Regionen, die insbesondere vom einheitlichen Binnenmarkt und der monetären Stabilität profitieren. Das rechtfertigt zugleich
eine Unterstützung ökonomisch schwächerer Mitglieder der Union durch die stärkeren. Historisch waren Währungsunionen ohne einen derartigen minimalen fiskalischen Ausgleich nicht dauerhaft. Deshalb sind, wenn man die Währungsunion aufrechterhalten will, zwei Extrempositionen - keine Transfers, um keinen Preis ebenso wie deren Gegenteil: jedwedes Defizit wird bedingungslos finanziert - nicht zielführend. Ein kompletter Haftungsausschluss (no bail-out) ist nicht glaubwürdig, solange unabweisbare Schuldenschnitte von insolventen Staaten oder Regionen (wegen Überschuldung) nicht möglich sind, weil sie innerhalb eines stark integrierten Bankenmarktes potentiell unkontrollierbare Rückwirkungen auslösen. Andererseits liefe die unkonditionierte, dauerhafte Finanzierung regionaler Ungleichgewichte auf Transfervolumina hinaus, die eine Überforderung der Transfergeber darstellten. Sie führte vor allem zu einer Perpetuierung der Probleme, weil Anreize zur letztlich unabdingbaren Anpassung fehlten. Damit bleiben zur Schaffung der Voraussetzungen einer funktionsfähigen Währungsunion nur Optionen, die zwischen den Polen liegen.
The paper uses fiscal reaction functions for a panel of euro-area countries to investigate whether euro membership has reduced the responsiveness of countries to shocks in the level of inherited debt compared to the period prior to succession to the euro. While we find some evidence for such a loss in prudence, the results are not robust to changes in the specification, such as an exclusion of Greece from the panel. This suggests that the current debt problems may result to a large extent from preexisting debt levels prior to entry or from a larger need for fiscal prudence in a common currency, while an adverse change in the fiscal reaction functions for most countries does not apply.
Euro crash risk
(2015)
Euro area shadow banking activities in a low-interest-rate environment: a flow-of-funds perspective
(2016)
Very low policy rates as well as the substantial redesign of rules and supervisory institutions have changed background conditions for the Euro Area’s financial intermediary sector substantially. Both policy initiatives have been targeted at improving societal welfare. And their potential side effects (or costs) have been discussed intensively, in academic as well as policy circles. Very low policy rates (and correspondingly low market rates) are likely to whet investors’ risk taking incentives. Concurrently, the tightened regulatory framework, in particular for banks, increases the comparative attractiveness of the less regulated, so-called shadow banking sector. Employing flow-of-funds data for the Euro Area’s non-bank banking sector we take stock of recent developments in this part of the financial sector. In addition, we examine to which extent low interest rates have had an impact on investment behavior. Our results reveal a declining role of banks (and, simultaneously, an increase in non-bank banking). Overall intermediation activity, hence, has remained roughly at the same level. Moreover, our findings also suggest that non-bank banks have tended to take positions in riskier assets (particularly in equities). In line with this observation, balance-sheet based risk measures indicate a rise in sector-specific risks in the non-bank banking sector (when narrowly defined).
The global financial crisis (as well as the European sovereign debt crisis) has led to a substantial redesign of rules and institutions – aiming in particular at underwriting financial stability. At the same time, the crisis generated a renewed interest in properly appraising systemic financial vulnerabilities. Employing most recent data and applying a variety of largely only recently developed methods we provide an assessment of indicators of financial stability within the Euro Area. Taking a “functional” approach, we analyze comprehensively all financial intermediary activities, regardless of the institutional roof – banks or non-bank (shadow) banks – under which they are conducted. Our results reveal a declining role of banks (and a commensurate increase in non-bank banking). These structural shifts (between institutions) are coincident with regulatory and supervisory reforms (implemented or firmly anticipated) as well as a non-standard monetary policy environment. They might, unintendedly, actually imply a rise in systemic risk. Overall, however, our analyses suggest that financial imbalances have been reduced over the course of recent years. Hence, the financial intermediation sector has become more resilient. Nonetheless, existing (equity) buffers would probably not suffice to face substantial volatility shocks.
In this study prepared for the ECON Committee of the European Parliament, Gellings, Jungbluth and Langenbucher present a graphic overview on core legislation in the area of economic and financial services in Europe. The mapping overview can serve as background for further deliberations. The study covers legislation in force, proposals and other relevant provisions in fourteen policy areas, i.e. banking, securities markets and investment firms, market infrastructure, insurance and occupational pensions, payment services, consumer protection in financial services, the European System of Financial Supervision, European Monetary Union, Euro bills and Coins and statistics, competition, taxation, commerce and company law, accounting and auditing.
This study provides a graphic overview on core legislation in the area of economic and financial services. The presentation essentially covers the areas within the responsibility of the Economic and Monetary Affairs Committee (ECON); hence it starts with core ECON areas but also displays neighbouring areas of other Committees' competences which are closely connected to and impacting on ECON's work. It shows legislation in force, proposals and other relevant provisions on banking, securities markets and investment firms, market infrastructure, insurance and occupational pensions, payment services, consumer protection in financial services, the European System of Financial Supervision, European Monetary Union, euro bills and coins and statistics, competition, taxation, commerce and company law, accounting and auditing. Moreover, it notes selected provisions that might become relevant in the upcoming Article 50 TEU negotiations.
EU financial integration : is there a 'Core Europe'? ; evidence from a cluster-based approach
(2005)
Numerous recent studies, e.g. EU Commission (2004a), Baele et al. (2004), Adam et al.(2002), and the research pooled in ECB-CFS (2005), Gaspar, Hartmann, and Sleijpen(2003), have documented progress in EU financial integration from a micro-level view.This paper contributes to this research by identifying groups of financially integratedcountries from a holistic, macro-level view. It calculates cross-sectional dispersions, andinnovates by applying an inter-temporal cluster analysis to eight euro area countries for the period 1995-2002. The indicators employed represent the money, government bond and credit markets. Our results show that euro countries were divided into two stable groups of financially more closely integrated countries in the pre-EMU period. Back then, geographic proximity and country size might have played a role. This situation has changed remarkably with the euro's introduction. EMU has led to a shake-up both in the number and composition of groups. The evidence puts a question mark behin d using Germany as a benchmark in the post-EMU period. The ¯ndings suggest as well that ¯nancial integration takes place in waves. Stable periods and periods of intense transition alternate. Based on the notion of 'maximum similarity', the results suggest that there exist 'maximum similarity barriers'. It takes extraordinary events, such as EMU, to push the degree of ¯nancial integration beyond these barriers. The research encourages policymakers to move forward courageously in the post-FSAP era, and provides comfort that the substantial di®erences between the current and potentially new euro states can be overcome. The analysis could be extended to the new EU member countries, to the global level, and to additional indicators.
This working paper suggests to analyse agencification as a double process of institutional and policy centralisation. To that end, it develops a categorisation of agencies that incorporates these two dimensions. More specifically, it is argued that mixed outcomes where the levels of institutional and policy centralisation diverge can be expected to be the rule rather than the exception, in line with the hybrid nature of EU agencies as inbetweeners. Moreover, the fiduciary setting hits important legal constraints given the limits to delegation in the EU context. Against this backdrop a process whereby institutional centralisation develops incrementally and remains limited, yet is accompanied by a process of substantial policy centralisation, appears as the most promising path for EU agencification. A fiduciary setting, where a strong agency enjoys a high degree of independence and operates in a centralised policy space, by contrast, should be the exception. The comparative study of the process of agencification in the energy and banking sector is insightful in the light of these expectations. The incremental nature of institutional change in energy exemplifies the usual path of agencification, which is conducive to a weak agency operating in a relatively centralised policy space. Agencification in banking, by contrast, has led to a rather unusual outcome where the strong agency model combines with a fragmented policy context.
Etymologie und Wortgeschichte bezeichnen deutlich voneinander unterschiedene Aufgabenstellungen der Linguistik. Etymologie beschreibt die erste Zuordnung eines Inhalts zu einer hierfür neugeschaffenen Lautkette. Sie hat Lexikon, Wortbildung und Motivation als Faktoren einer solchen Zuordnung darzustellen und gehört damit zur synchronen Beschreibung der Sprache. Wortgeschichte ist eine Aufgabe der historischen Sprachwissenschaft: sie registriert und deutet alles, was sich mit einer einmal geschehenen Form-Inhalt-Zuordnung im Laufe ihrer Verwendung durch die Sprecher ereignet.
Causality is a widely-used concept in theoretical and empirical economics. The recent financial economics literature has used Granger causality to detect the presence of contemporaneous links between financial institutions and, in turn, to obtain a network structure. Subsequent studies combined the estimated networks with traditional pricing or risk measurement models to improve their fit to empirical data. In this paper, we provide two contributions: we show how to use a linear factor model as a device for estimating a combination of several networks that monitor the links across variables from different viewpoints; and we demonstrate that Granger causality should be combined with quantile-based causality when the focus is on risk propagation. The empirical evidence supports the latter claim.
The authors propose a new method to forecast macroeconomic variables that combines two existing approaches to mixed-frequency data in DSGE models. The first existing approach estimates the DSGE model in a quarterly frequency and uses higher frequency auxiliary data only for forecasting. The second method transforms a quarterly state space into a monthly frequency. Their algorithm combines the advantages of these two existing approaches.They compare the new method with the existing methods using simulated data and real-world data. With simulated data, the new method outperforms all other methods, including forecasts from the standard quarterly model. With real world data, incorporating auxiliary variables as in their method substantially decreases forecasting errors for recessions, but casting the model in a monthly frequency delivers better forecasts in normal times.
We propose a new estimator for the spot covariance matrix of a multi-dimensional continuous semi-martingale log asset price process which is subject to noise and non-synchronous observations. The estimator is constructed based on a local average of block-wise parametric spectral covariance estimates. The latter originate from a local method of moments (LMM) which recently has been introduced by Bibinger et al. (2014). We extend the LMM estimator to allow for autocorrelated noise and propose a method to adaptively infer the autocorrelations from the data. We prove the consistency and asymptotic normality of the proposed spot covariance estimator. Based on extensive simulations we provide empirical guidance on the optimal implementation of the estimator and apply it to high-frequency data of a cross-section of NASDAQ blue chip stocks. Employing the estimator to estimate spot covariances, correlations and betas in normal but also extreme-event periods yields novel insights into intraday covariance and correlation dynamics. We show that intraday (co-)variations (i) follow underlying periodicity patterns, (ii) reveal substantial intraday variability associated with (co-)variation risk, (iii) are strongly serially correlated, and (iv) can increase strongly and nearly instantaneously if new information arrives.
In this study, we develop a technique for estimating a firm’s expected cost of equity capital derived from analyst consensus forecasts and stock prices. Building on the work of Gebhardt/Lee/-Swaminathan (2001) and Easton/Taylor/Shroff/Sougiannis (2002), our approach allows daily estimation, using only publicly available information at that date. We then estimate the expected cost of equity capital at the market, industry and individual firm level using historical German data from 1989-2002 and examine firm characteristics which are systematically related to these estimates. Finally, we demonstrate the applicability of the concept in a contemporary case study for DaimlerChrysler and the European automobile industry.
On July 4, 2013 the ECB Governing Council provided more specific forward guidance than in the past by stating that it expects ECB interest rates to remain at present or lower levels for an extended period of time. As explained by ECB President Mario Draghi this expectation is based on the Council’s medium-term outlook for inflation conditional on economic activity and money and credit. Draghi also stressed that there is no precise deadline for this extended period of time, but that a reasonable period can be estimated by extracting a reaction function. In this note, we use such a reaction function, namely the interest rate rule from Orphanides and Wieland (2013) that matches past ECB interest rate decisions quite well, to project the rate path consistent with inflation and growth forecasts from the survey of professional forecasters published by the ECB on August 8, 2013. This evaluation suggests an increase in ECB interest rates by May 2014 at the latest. We also use the Eurosystem staff projection from June 6, 2013 for comparison. While it would imply a longer period of low rates, it does not match past ECB decisions as well as the reaction function with SPF forecasts.
We estimate a semiparametric single-risk discrete-time duration model to assess the effect of vocational training on the duration of unemployment spells. The data basis used in this study is the German Socio-Economic-Panel (GSOEP) for West Germany for the period from 1986 to 1994. To take into account a possible selection bias actual participation in vocational training is instrumented using estimates of a randomeffects probit model for the participation in qualification measures. Our main results show that training does have a significant short term effect of reducing unemployment duration but that this effect does not persist in the long run. JEL classifications: C41, J20, J64
We examine whether the uncertainty related to environmental, social, and governance (ESG) regulation developments is reflected in asset prices. We proxy the sensitivity of firms to ESG regulation uncertainty by the disparity across the components of their ESG ratings. Firms with high ESG disparity have a higher option-implied cost of protection against downside tail risk. The impact of the misalignment across the different dimensions of the ESG score is distinct from that of ESG score level itself. Aggregate downside risk bears a negative price for firms with low ESG disparity.
Escapist policy rules
(2003)
We study a simple, microfounded macroeconomic system in which the monetary authority employs a Taylor-type policy rule. We analyze situations in which the self-confirming equilibrium is unique and learnable according to Bullard and Mitra (2002). We explore the prospects for the use of 'large deviation' theory in this context, as employed by Sargent (1999) and Cho, Williams, and Sargent (2002). We show that our system can sometimes depart from the self-confirming equilibrium towards a non-equilibrium outcome characterized by persistently low nominal interest rates and persistently low inflation. Thus we generate events that have some of the properties of "liquidity traps" observed in the data, even though the policymaker remains committed to a Taylor-type policy rule which otherwise has desirable stabilization properties.
In this statement the European Shadow Financial Regulatory Committee (ESFRC) is advocating a conditional relief of Greek’s government debt based on Greece meeting certain targets for structural economic reforms in areas such as its labor market and pensions sector.The authors argue that the position of the European institutions that debt relief for Greece cannot be part of an agreement is based on the illusion that Greece will be able to service its sovereign debt and reduce its debt overhang after implementing a set of fiscal and structural reforms. However, the Greek economy would need to grow at an unrealistig level to achieve debt sustainability soley on the basis of reforms.The authors therefore view a substantial debt relief as inevitable and argue that three questions must be resolved urgently, in order to structure debt relief adequately: First, which groups must accept losses associated with debt relief. Second, how much debt relief should be offered. Third, under what conditions should relief be offered.
The euro crisis was fueled by the diabolic loop between sovereign risk and bank risk, coupled with cross-border flight-to-safety capital flows. European Safe Bonds (ESBies), a union-wide safe asset without joint liability, would help to resolve these problems. We make three contributions. First, numerical simulations show that ESBies would be at least as safe as German bunds and approximately double the supply of euro safe assets when protected by a 30%-thick junior tranche. Second, a model shows how, when and why the two features of ESBies — diversification and seniority — can weaken the diabolic loop and its diffusion across countries. Third, we propose a step-by-step guide on how to create ESBies, starting with limited issuance by public or private-sector entities.
Es begann in Lesmona : auf den Spuren einer Bremer Liebesgeschichte ; [Homepage Lesmona-Projekt]
(1993)
Im Herbst 1951 erschien in Hamburg ein Buch, dessen Inhalt in mehrerer Hinsicht überraschend war. "Sommer in Lesmona" hieß es, Untertitel "Mädchenbriefe", doch Briefe aus einem italienischen Badeort enthielt es nicht. Die Briefe stammten aus Bremen und aus der Zeit schon vor der Jahrhundertwende - 'Lesmona' war eine Villa bei Vegesack.
Überarbeitete Version des Arbeitspapiers "The dynamics of labour market participation, unemployment and non-participation in Great Britain, Sweden and Germany" / Wolfgang Strengmann-Kuhn. [Johann-Wolfgang-Goethe-Universität Frankfurt am Main, Fachbereich Wirtschaftswissenschaften, Institut für Volkswirtschaftslehre]
Ein besonderes Kennzeichen des Frankfurter Arbeitsmarktes besteht in der hohen Teilhabe von Frauen an sozialversicherungspflichtiger Beschäftigung. Diese Teilhabe ist jedoch keine gleichwertige im Vergleich zu Männern, da Frauen deutlich öfter als Männer in Teilzeit 3 beschäftigt
sind und damit häufig geringere berufliche Entwicklungs‐ und Karriereoptionen haben. Dies zeigt sich auch daran, dass Frauen bei gleichem Arbeitszeitumfang im Schnitt deutlich niedrigere Bruttoarbeitsentgelte erhalten als Männer. Ein wesentlicher Grund dafür ist, dass die Mehrheit der Frauen in den klassischen „Frauenbranchen“ und „‐berufen“ mit sozialen, pädagogischen oder pflegerischen Tätigkeitsbereichen beschäftigt ist. Dort erreichen Frauen nur unterdurchschnittliche Entgelte. In technischen Branchen mit überdurchschnittlichen Einkommen stagnieren die Frauenanteile seit langer Zeit auf niedrigem Niveau oder es findet ein Beschäftigungsabbau statt, wie beispielsweise im Finanz‐ und Versicherungsgewerbe, das sich ebenfalls durch überdurchschnittliche Einkommen auszeichnet.
Ausländische Frauen sind zwar immer noch in geringeren Anteilen als deutsche Frauen in sozialversicherungspflichtige Beschäftigung eingebunden, jedoch wächst ihr Anteil stetig. Die Beschäftigungszunahme findet vor allem in den sogenannten Frauenberufen wie Pflegerin, Erzieherin und Lehrerin statt. Jedoch steigt der Anteil der ausländischen Frauen ebenfalls in Berufen wie Ärztin oder Apothekerin. Der Zuwachs ist bei ausländischen Frauen deutlich schneller als bei Frankfurterinnen mit deutschem Pass. Diese Dienstleistungsberufe im Gesundheits‐ und Sozialwesen sowie der Erziehung scheinen auch für ausländische Frauen die zentralen Zugänge zur sozialversicherungspflichtigen Beschäftigung in Frankfurt am Main zu sein. Darüber hinaus befindet sich ein beträchtlicher Anteil ausländischer Frauen in geringfügig entlohnter Beschäftigung in den gleichen Branchen. Hauptgrund für diese Beschäftigungsverhältnisse sind fehlende formale
Berufsabschlüsse. Allerdings verfügen die Ausländerinnen oft über im Ausland erworbene Berufsabschlüsse, diese sind jedoch in Deutschland (noch) nicht anerkannt.
Der guten Beschäftigungslage vieler Frankfurter Einwohnerinnen steht ein großes Segment an Frauen gegenüber, die arbeitslos sind. Dabei ist anzumerken, dass das Arbeitslosigkeitsrisiko für Frauen in Frankfurt am Main geringer ist als das für Männer. Dies trifft insbesondere für Frauen mit deutschem
Pass zu. Ausländische Frauen sind im Vergleich zu deutschen Frauen jedoch überdurchschnittlich oft arbeitslos und viel häufiger als deutsche Frauen auch im Rechtskreis SGB II 13 verortet. Sie gelten damit als eher arbeitsmarktfern und sind mit einem hohen Risiko von Langzeitarbeitslosigkeit
konfrontiert. Gründe für diefehlenden Zugänge zum Arbeitsmarkt sind bei Frauen keine oder unzureichende (in Deutschland nicht anerkannte) formale berufliche Qualifikationen sowie Probleme bei der Vereinbarkeit von Beschäftigungszeiten und Kinderbetreuung.
Zur Verbesserung der Teilhabe insbesondere von Frauen am Frankfurter Arbeitsmarkt sind Aktivitäten in drei Handlungsbereichen notwendig.
(1) Inner‐ und außerbetriebliche Karriereentwicklung über passfähige eratung, flexible Arbeitszeitmodelle und –bedingungen, einfache Anerkennung von im Ausland erworbenen
Abschlüssen sowie passfähige Betreuungsarrangements für Kinder und zu pflegende Angehörige.
(2) Anerkennung und Erwerb formaler Berufsabschlüsse über passfähige Informationen, ausreichende Qualifizierungsangebote und flexible Kinderbetreuung.
(3) Orientierung in Berufen und Arbeitsmarkt für Mädchen und junge Frauen in Schulen, Hochschulen und über Praktika sowie für ausländische Frauen über Schulen, Kindergärten, Meldebehörden und Arbeitsvermittlung.
Die Handlungsbereiche und Aktivitäten verweisen auf viele Strukturen, Projekte und Ansätze, die es bereits in Frankfurt am Main gibt. Die Ergebnisse der Studie können nun genutzt werden, um zu sondieren, ob diese Strukturen zur Verbesserung der Teilhabe bereits gut ausgerichtet sind, ob noch Nachjustierung notwendig ist oder ob gar Lücken bestehen, die es noch zu füllen gilt.
Untersuchungsgegenstand ist der empirische Gehalt der ökonomischen Theorie eines Hedgings auf Unternehmensebene. In den USA wurde die Hedging-Theorie in einer Reihe von empirischen Studien aufgegriffen. Die Befunde sind zumeist konsistent mit dem Erklärungsansatz von Froot/Scharfstein/Stein (1993), wonach eine Verringerung der Cashflow-Volatilität – unter der Annahme steigender Außenfinanzierungskosten – zu einer Reduzierung von Unterinvestitionskosten führt. Bei deutschen Unternehmen besitzt dieser Ansatz bemerkenswerterweise jedoch nur einen geringen Erklärungsgehalt. Die Ergebnisunterschiede können auf unterschiedliche Kapitalmarktverhältnisse zurückgeführt werden: Die unterstellten steigenden Kosten der Außenfinanzierung besitzen für deutsche Unternehmen aufgrund der Dominanz des Bezugsrechtsverfahrens sowie der Rolle der Hausbank als Mechanismus zur Überwindung von Informationsproblemen eine vergleichsweise geringere Bedeutung. Die Managerinteressen erweisen sich bei deutschen Unternehmen als eine wesentliche Hedging-Determinante. Zwischen der Höhe des gebundenen Managervermögens und der Hedging-Wahrscheinlichkeit besteht entsprechend der Hedging-Theorie ein signifikanter positiver Zusammenhang. Entgegen den amerikanischen Befunden kann jedoch eine disziplinierende Wirkung von Großaktionären auf die Hedging-Entscheidung nicht beobachtet werden. Zur Berücksichtigung der spezifischen deutschen Kapitalmarktverhältnisse wird der Einfluss von Bankenbeteiligungen und Familienunternehmen auf die Hedging-Entscheidung untersucht. Ein Bankeneinfluss auf die Derivateeinsatz-Entscheidung kann jedoch nicht festgestellt werden. Entgegen Diversifikations- und Kapitalmarktüberlegungen besteht bei Familienunternehmen interessanterweise eine signifikant geringere Hedging-Wahrscheinlichkeit.
Erkennung kritischer Zustände von Patienten mit der Diagnose "Septischer Schock" mit einem RBF-Netz
(2000)
Es wurde gezeigt, dass der Arzt mit dem wachsenden RBF-Netz durch die Ausgabe von verlässlichen Warnungen unterstützt werden kann. Wie in der Clusteranalyse erläutert, leiden die Ergebnisse jedoch unter den wenigen Patienten und unter der ungenauen zeitlichen Erfassung der Daten. Da jeder Patient sehr individuelle Zustände annimmt, ist ein größeres Patientenkollektiv notwendig, um eine umfassende Wissensbasis zu lernen. Eine medizinische Nachbearbeitung der Wissensbasis durch die Analyse der Fälle ließe eine weitere Verbesserung des Ergebnisses erwarten. Somit könnten unbekannte Zusammenhänge durch das Lernen aus Beispielen und medizinisches Fachwissen kombiniert werden. Abstraktere Merkmale, die weniger abhängig von individuellen Zuständen sind, könnten eine Klassifikation noch weiter verbessern. Ein Ansatzpunkt ist z.B. die Abweichung der Messwerte vom gleitenden Mittelwert. Dieses Maß ist unempfindlicher gegenüber den individuellen Arbeitspunkten der Patienten und bildet auch die Basis von relativen Abhängigkeiten zwischen zwei Variablen, die in einem weiteren Schritt ebenfalls als Merkmal herangezogen wurden. Obwohl die Verwendung der relativen Abhängigkeiten zwischen zwei Variablen als Merkmal nicht deutlichere oder häufigere Warnungen hervorbringen konnte, weist doch die Clusteranalyse auf eine bessere Verteilung der Patienten hin. Einige Cluster sind besser für die Vorhersage geeignet, als dieses bei einer Clusterung auf Basis der Zustände erreicht werden kann. Unterstützt wird dieses Ergebnis auch durch den größeren Unterschied der Sicherheiten von falschen und richtigen Klassifikationen. Neben den bisher untersuchten Merkmalen scheinen auch die Variablen interessant zu sein, bei denen festgestellt wurde, dass sie sich trotz Medikamentengabe und adäquater Behandlung schwer stabilisieren lassen. Durch den behandelnden Arzt werden diese Werte üblicherweise in einem gewissen Bereich gehalten. Falls sich das Paar Medikament/physiologischer Parameter nicht mehr in einem sinnvollen Verhältnis befindet, kann dieses ein wichtiger Indikator sein. Nach dem Aufbau der grundlegenden Funktionalität der hier untersuchten Methoden ist die Suche nach geeigneten Merkmalen als Eingabe für ein neuronales Netz ein wesentlicher Bestandteil folgender Arbeiten. Abgesehen von dem generell anspruchsvollen Vorhaben aus Klinikdaten deutliche Hinweise für die Mortalität septischer-Schock-Patienten zu erhalten, liegen die wesentlichen Probleme in dem Umfang und der Messhäufigkeit der Frankfurter Vorstudie begründet, so dass eine Anwendung von Klassifikationsverfahren auf das umfassendere Patientenkollektiv der MEDAN Multicenter-Studie klarere Ergebnisse erwarten lässt. Eine weitere, für medizinische Anwendungen interessante, Analysemöglichkeit ist die Regelgenerierung, die zur Zeit in einem anderen Teilprojekt in der MEDAN-Arbeitsgruppe bearbeitet wird. Hier können im Fall metrischer Daten zusätzliche Hinweise für die Leistung eines reinen Klassifikationsverfahrens gewonnen werden mit dem Vorteil einer expliziten Regelausgabe. Zum anderen werden in diesem Teilprojekt auch Verfahren zur Regelgenerierung eingesetzt, die ordinale und nominale Variablen wie Diagnosen, Operationen, Therapien und Medikamentenangaben (binär, ohne genaue Dosis) auswerten können. Diese werden in den Multicenter-Daten vorhanden sein. Durch Kopplung der Regelgeneratoren für metrische Daten auf der einen Seite und für diskrete Variablen auf der anderen Seite, besteht durchaus die Hoffnung bessere Ergebnisse zu erzielen. Da der Regelgenerator für metrische Daten auf dem RBF-DDA (Abk. für: Dynamic Decay Adjustment)-Netz [BERTHOLD und DIAMOND, 1995] beruht, bietet es sich innerhalb des MEDAN-Projekts an, einen (bislang nicht durchgeführten) Vergleich mit dem hier verwendeten Netztyp durchzuführen. Der Vergleich ist allerdings nur von prinzipiellem Interesse und kann auf den hier betrachteten Daten kein grundsätzlich besseres Ergebnis liefern als die bislang durchgeführten Analysen; er kann aber zu einer umfangreichen Bewertung der Ergebnisse beitragen.
Angesichts des kürzlich von der Bundesregierung verabschiedeten Konjunkturpakets, stellen sich die Autoren des Policy Letters die Frage, ob und inwieweit die angekündigte Mehrwertsteuersenkung sowie der Kinderbonus zur substantiellen Ankurbelung des Binnenkonsums führt. Aus den für das Haushaltskrisenbarometer erhobenen Daten zu Einkommensänderungen sowie Einkommens- und Kündigungserwartungen, können die Ökonomen keine zu erwartende Schwächung der Binnennachfrage ableiten. Der überwiegende Teil der deutschen Wohnbevölkerung scheint kurzfristig nicht davon auszugehen, finanzielle Einbußen aufgrund der Pandemie zu erleiden. Die Erwartungen hinsichtlich der künftigen Einkommensentwicklung haben sich gar über die letzten vier Umfragewellen graduell verbessert. Ferner kann dargelegt werden, dass weder die Konsum- noch die Sparneigung durch die Corona-Krise zum gegenwärtigen Zeitpunkt langfristig stark beeinflusst wird. So geben derzeit lediglich 10 Prozent der Befragten an, größere Anschaffungen angesichts der Pandemie vollständig gestrichen zu haben. Anfang April 2020 lag dieser Wert noch bei 16 Prozent. Die Befragten berichteten in 71 Prozent der Fälle ihre Konsumpläne und in 78 Prozent der Fälle ihre Sparverhalten nicht geändert zu haben. Im Lichte dieser Ergebnisse lassen sich Maßnahmen, die auf eine unspezifische Stimulierung der Binnennachfrage abzielen, nicht substantiell begründen und rechtfertigen.
"Ich möchte in diesem Vortrag Beziehungen zwischen Gutenbergs Theorie der Unternehmung, die in seiner Habilitationsschrift angelegt und in den "Grundlagen der Betriebswirtschaftslehre" entfaltet ist, und aktuellen Entwicklungen in der Theorie der Unternehmung herstellen. Obwohl der Anlaß für diesen Vortrag das Thema hinreichend rechtfertigt, stellt sich die Frage, ob mein Vorhaben ein wissenschaftlich sinnvolles Unterfangen darstellt: Kann Gutenbergs Theorie der Unternehmung noch aktuell sein?"
"Earn-outs" sind Unternehmens- oder Anteilskaufverträge, in denen ein Teil der Kaufpreiszahlung abhängig gemacht wird von den Ergebnissen, die während einer im Vertrag festgelegten Bemessungsperiode nach dem "closing" erzielt werden. Diese Gestaltung ist in den U.S.A. entwickelt worden, findet aber auch in Deutschland Verwendung. Mit der Beteiligung des Verkäufers an den (vom Vertragsschluß her gesehen) künftigen Ergebnissen unterscheidet sich diese "Beteiligungslösung" von einer "Versicherungslösung", in der der Verkäufer dem Käufer gegen Zahlung eines Kaufpreisaufschlages bestimmte Ergebnisse garantiert. In der Praxis sind earn-outs sowohl in der Form anzutreffen, daß der Käufer selbst während der Bemessungsperiode das Unternehmen führt, als auch in der Form, daß der Verkäufer während dieser Periode weiterhin im Unternehmen, in der Regel als Geschäftsführer, tätig ist. Beide Gestaltungen bieten - je verschiedene - Anreize zu strategischem, den Vertragspartner schädigendem Verhalten und erfordern besonders wohldurchdachte, eingehende Regelungen im Kaufvertrag sowie in der Regel einen erheblichen Abwicklungsaufwand. Die damit verbundenen Risiken und Kosten lassen ein earn-out nur in Ausnahmefällen als ein geeignetes Gestaltungsinstrument erscheinen.
Ergativity in Samoan
(1985)
Most typological and language specific studies on so- called ergative languages are concerned with case marking patterns, particularly split ergativity, with the organization of syntactic relations as defined by syntactic operations such as coreferential deletion across coordinate conjunctions, Equi-NP-deletion and relativization , and with the notion of subject, but usually neglect the notion of valency, though the inherent relational properties of the verb , i. e. valency, play a fundamental role in the syntactic organization of sentences in ergative as well as in other languages . The following investigation of ergativity in Samoan aims to integrate the notion of valency into the description of semantic and syntactic relations and to outline the characteristic features of Samoan verbal clauses as far as they seem to be relevant to recent and still ongoing discussions on linguistic typology and syntactic theory. The main points of the definition of valency […] are: Valency is the property of the verb which determines the obligatory and optional number of its participants, their morphosyntactic form, their semantic class membership (e.g. ± animate, ± human) , and their semantic role (e.g. agent , patient , recipient). All semantic properties and morphosyntactic properties of participants not inherently given by the verb and therefore not predictable from the verb, are not a matter of valency. Valency is not a homogenous property of the verb, but consists of several exponents which show varying degress of relevance in different languages or different verb classes within a single language.
Erasmus, christlicher Humanismus und Spiritualität in Spanien und Neu-Spanien (16. Jahrhundert)
(2020)
Schriften des Erasmus von Rotterdam (1466/69–1536) entfalteten während des 16. Jahrhunderts eine große Wirkung in Spanien. Auf Grundlage der klassischen wie der jüngeren Historiographie widmet sich der Aufsatz diesem religions- und kulturgeschichtlichen Phänomen – mit Seitenblicken auf Luther – in vier Teilen: Nach einer Skizze zu Leben und Werk des christlichen Humanisten behandelt der zweite Teil den Erasmianismus in Spanien von seiner Erfolgsgeschichte in den 1520er Jahren (etwa bei Hof, an den Universitäten und in Übersetzungen) bis zur Verfolgung seiner Anhänger seit den 1530er Jahren durch die Inquisition. Drittens werden neuere Forschungstendenzen diskutiert, die das klassische, von Marcel Bataillon geprägte Bild korrigieren und weiterentwickeln, auch im Hinblick auf das ambivalente Verhältnis von Scholastik und Humanismus. Der letzte Teil widmet sich dem Einfluss des Erasmus in Neuspanien (Mexiko) am Beispiel von (Erz-) Bischöfen und Mönchen sowie von frühkolonialen Fallstudien.
We develop a proof method to show that in a (deterministic) lambda calculus with letrec and equipped with contextual equivalence the call-by-name and the call-by-need evaluation are equivalent, and also that the unrestricted copy-operation is correct. Given a let-binding x = t, the copy-operation replaces an occurrence of the variable x by the expression t, regardless of the form of t. This gives an answer to unresolved problems in several papers, it adds a strong method to the tool set for reasoning about contextual equivalence in higher-order calculi with letrec, and it enables a class of transformations that can be used as optimizations. The method can be used in different kind of lambda calculi with cyclic sharing. Probably it can also be used in non-deterministic lambda calculi if the variable x is “deterministic”, i.e., has no interference with non-deterministic executions. The main technical idea is to use a restricted variant of the infinitary lambda-calculus, whose objects are the expressions that are unrolled w.r.t. let, to define the infinite developments as a reduction calculus on the infinite trees and showing a standardization theorem.
We develop a proof method to show that in a (deterministic) lambda calculus with letrec and equipped with contextual equivalence the call-by-name and the call-by-need evaluation are equivalent, and also that the unrestricted copy-operation is correct. Given a let-binding x = t, the copy-operation replaces an occurrence of the variable x by the expression t, regardless of the form of t. This gives an answer to unresolved problems in several papers, it adds a strong method to the tool set for reasoning about contextual equivalence in higher-order calculi with letrec, and it enables a class of transformations that can be used as optimizations. The method can be used in different kind of lambda calculi with cyclic sharing. Probably it can also be used in non-deterministic lambda calculi if the variable x is "deterministic", i.e., has no interference with non-deterministic executions. The main technical idea is to use a restricted variant of the infinitary lambda-calculus, whose objects are the expressions that are unrolled w.r.t. let, to define the infinite developments as a reduction calculus on the infinite trees and showing a standardization theorem.
Wider participation in stockholding is often presumed to reduce wealth inequality. We measure and decompose changes in US wealth inequality between 1989 and 2001, a period of considerable spread of equity culture. Inequality in equity wealth is found to be important for net wealth inequality, despite equity's limited share. Our findings show that reduced wealth inequality is not a necessary outcome of the spread of equity culture. We estimate contributions of stockholder characteristics to levels and inequality in equity holdings, and we distinguish changes in configuration of the stockholder pool from changes in the influence of given characteristics. Our estimates imply that both the 1989 and the 2001 stockholder pools would have produced higher equity holdings in 1998 than were actually observed for 1998 stockholders. This arises from differences both in optimal holdings and in financial attitudes and practices, suggesting a dilution effect of the boom followed by a cleansing effect of the downturn. Cumulative gains and losses in stockholding are shown to be significantly influenced by length of household investment horizon and portfolio breadth but, controlling for those, use of professional advice is either insignificant or counterproductive. JEL Classification: E21, G11
We analyze the implications of the structure of a network for asset prices in a general equilibrium model. Networks are represented via self- and mutually exciting jump processes, and the representative agent has Epstein-Zin preferences. Our approach provides a exible and tractable unifying foundation for asset pricing in networks. The model endogenously generates results in accordance with, e.g., the robust-yetfragile feature of financial networks shown in Acemoglu, Ozdaglar, and Tahbaz-Salehi (2014) and the positive centrality premium documented in Ahern (2013). We also show that models with simpler preference assumptions cannot generate all these findings simultaneously.
Equal size, equal role? : interest rate interdependence between the Euro area and the United States
(2003)
This paper investigates whether the degree and the nature of economic and monetary policy interdependence between the United States and the euro area have changed with the advent of EMU. Using real-time data, it addresses this issue from the perspective of financial markets by analysing the effects of monetary policy announcements and macroeconomic news on daily interest rates in the United States and the euro area. First, the paper finds that the interdependence of money markets has increased strongly around EMU. Although spillover effects from the United States to the euro area remain stronger than in the opposite direction, we present evidence that US markets have started reacting also to euro area developments since the onset of EMU. Second, beyond these general linkages, the paper finds that certain macroeconomic news about the US economy have a large and significant effect on euro area money markets, and that these effects have become stronger in recent years. Finally, we show that US macroeconomic news have become good leading indicators for economic developments in the euro area. This indicates that the higher money market interdependence between the United States and the euro area is at least partly explained by the increased real integration of the two economies in recent years.
Anfang 1996 hat die Kommission der Europäischen Gemeinschaften den Vorschlag für eine Dreizehnte Richtlinie auf dem Gebiet des Gesellschaftsrechts über Übernahmeangebote vorgelegt. Der Richtlinienentwurf strebt an, daß in allen Mitgliedstaaten im Fall eines öffentlichen Übernahmeangebots für die Anleger ein gleichwertiger Schutz erreicht wird. Um die Beachtung der Übernahmeregeln zu gewährleisten, sieht Art. 4 des Richtlinienentwurfs vor, daß die Mitgliedstaaten eine Einrichtung oder Stelle benennen, die den Angebotsvorgang überwacht und erforderlichenfalls eingreift. Dabei kann es sich um eine Behörde, oder, wie im Fall des britischen Takeover-Panel, um eine im Wege der Selbstregulierung geschaffene private Stelle handeln. In jedem Fall müssen die Mitgliedstaaten sicherstellen, daß diese Behörde oder Einrichtung über alle Befugnisse verfügt, die für die Erfüllung ihrer Aufgaben notwendig sind. In der Bundesrepublik Deutschland sind öffentliche Übernahmeangebote gesetzlich nicht geregelt. Der freiwillige Übernahmekodex, der im Herbst 1995 in Kraft getreten ist, wird von den betroffenen Marktteilnehmern weithin nicht akzeptiert: Von den 678 börsenotierten Unternehmen haben ihn bisher nur 259 anerkannt. Von den 30 DAX-Gesellschaften haben sieben die Selbstverpflichtung nicht unterschrieben. Bei den MDAX-Gesellschaften ist es sogar die Mehrheit, die den Übernahmekodex nicht anerkennt. Eine Durchsetzung der Regeln des Kodex im Sinne des Richtlinienentwurfs der EU ist damit nicht gewährleistet. Ohnedies gilt der Kodex nicht gegenüber ausländischen Unternehmen oder Personen, die ihn nicht unterzeichnet haben. Da der Übernahmekommission keine hoheitlichen Befugnisse zukommen, vermag sie die Beachtung der Übernahmeregeln nicht durchzusetzen. Es kommt hinzu, daß auch der Inhalt des Übernahmekodex hinter dem gebotenen Anlegerschutzstandard teilweise deutlich zurückbleibt. Auf eine gesetzliche Rahmenregelung wird Deutschland daher jedenfalls dann nicht länger verzichten können, wenn die EU-Richtlinie verabschiedet wird. Dies sollte aber nicht abgewartet werden. Zum einen erscheint eine dem Anlegerschutz verpflichtete, internationalen Kapitalmarktstandards entsprechende Regelung bereits jetzt im Interesse der weiteren Förderung des Finanzplatzes Deutschland als wünschenswert, da öffentliche, freundliche und vielleicht auch feindliche, Übernahmeangebote in Zukunft aller Voraussicht nach zunehmen werden. Zum anderen würde eine EU-Regelung sich erübrigen, wenn die Einzelstaaten sich entschließen könnten, vergleichbare Anlegerschutzstandards zu entwickeln. Der hier vorgelegte Entwurf knüpft an einen älteren - weitgehend in den Gesetzesvorschlag BT-Drucks. 13/367 übernommenen - Vorschlag an, entwickelt diesen Vorschlag aber in zentralen Punkten weiter. In Anlehnung an das vom Übernahmekodex entwickelte Vorbild sieht auch der hier vorgelegte Vorschlag eine aus unabhängigen Vertretern der betroffenen Verkehrskreise gebildete Übernahmekommission vor, der allerdings in gewissem Umfang notwendige hoheitliche Befugnisse übertragen werden sollen. Auch im sonstigen Inhalt lehnt sich der Vorschlag an den Übernahmekodex dort an, wo dieser befolgenswerte Neuerungen enthält. Aber auch die Kritik an den nicht zu übersehenden inhaltlichen Mängeln des Kodex war zu berücksichtigen, ebenso wie praktische Erfahrungen, die im Übernahmeversuch Krupp/Thyssen gemacht werden konnten. Im übrigen läßt der Entwurf der wünschenswerten Selbstregulierung den gebotenen Freiraum, da die Übernahmekommission sowohl durch ihre Einzelentscheidungen wie durch die Formulierung genereller Empfehlungen die Entwicklung öffentlicher Unternehmensübernahmen zu beeinflussen und lenken vermag. Es wäre wünschenswert, wenn der Finanzplatz Deutschland möglichst bald über einen "Übernahmekodex" verfügte, dessen Regeln durchsetzbar wären, und der seinem Inhalt nach internationalen Anlegerschutzstandards genügte. Der hier vorgelegte Vorschlag versteht sich als Diskussionsbeitrag dazu.
Die Diskussion der letzten Jahre um Managervergütungen, insbesondere seit der Mannesmann-Übernahme, hat Defizite in der lex lata hierzu ausgemacht. Dies und die weitgehende Nichtbefolgung der Empfehlungen des Deutschen Corporate Governance-Kodex zur Transparenz der Vorstandsvergütungen durch die große Mehrzahl der börsennotierten Gesellschaften erfordern eine Reaktion des Gesetzgebers. Eine gesetzliche Regelung erübrigt sich auch dann nicht, wenn sich künftig eine Mehrheit der börsennotierten Gesellschaften den Empfehlungen des Kodex anschließen sollte. Die Gründe hierfür im einzelnen und die Zielrichtung des Entwurfs ergeben sich aus der beigefügten Entwurfsbegründung. Der Kodex soll nicht entbehrlich gemacht, sondern durch einen gesetzlichen Mindeststandard unterstützt und ergänzt werden. Zusammengefaßt sieht der folgende Gesetzesvorschlag eine Veröffentlichung aller Vorstandsbezüge in börsennotierten Gesellschaften im Anhang zum Jahres- und Konzernabschluß vor. Dabei sollen als Mindeststandard die Angaben für das höchstbezahlte Vorstandsmitglied individualisiert, unter Namensnennung, erfolgen müssen. Die Angaben sind vom Abschlußprüfer zu prüfen. Ferner hat der Aufsichtsrat in seinem Bericht an die Hauptversammlung zur Angemessenheit der Vorstandsbezüge und zur Vergütungspolitik der Gesellschaft Stellung zu nehmen; die Aktionäre als die materiell Betroffenen können in der Hauptversammlung hierzu Fragen stellen und durch den Entlastungsbeschluß ihre Billigung oder Mißbilligung zum Ausdruck bringen. Der Gesetzesvorschlag setzt auf Transparenz und lehnt die Einführung weiterer materieller Kriterien zur Bemessung oder Begrenzung von Vorstandsvergütungen jenseits des § 87 AktG wie Deckelung der Vergütung durch absolute Höchstbeträge oder Bindung an Arbeitnehmervergütungen o.ä. ab. Insgesamt schließt sich der Entwurf Vorbildern entwickelter Kapitalmarktrechte, insbesondere der britischen Lösung an, die gleichfalls auf zwingende detaillierte Offenlegungs-, Prüfungs- und Rechenschaftspflichten setzt und deren Einführung und Befolgung nicht der freiwilligen Selbstregulierung überläßt.