Working Paper
Refine
Year of publication
Document Type
- Working Paper (1484) (remove)
Is part of the Bibliography
- no (1484)
Keywords
- Deutschland (90)
- monetary policy (33)
- Corporate Governance (31)
- Schätzung (30)
- corporate governance (19)
- household finance (17)
- Bank (16)
- Banking Union (16)
- Börsenkurs (15)
- ECB (15)
Institute
- Wirtschaftswissenschaften (1484) (remove)
Über Scheinriesen: Was TARGET-Salden tatsächlich bedeuten : eine finanzökonomische Überprüfung
(2018)
Der TARGET-Saldo der Bundesbank beläuft sich gegenwärtig auf knapp 1 Billion Euro. Kritikern zufolge birgt dieser Umstand hohe Lasten und Risiken für den deutschen Steuerzahler und zeigt, dass Deutschland zu einem „Selbstbedienungsladen“ im Eurosystem geworden sei. Vor diesem Hintergrund erörtert das Papier im Detail, wie TARGET-Salden überhaupt entstehen und was sie finanzökonomisch bedeuten. Die wirtschaftspolitische Analyse kommt zu dem Schluss, dass - anders als von den Kritikern behauptet- unter den Bedingungen einer Währungsunion im Normalbetrieb - TARGET-Salden lediglich Verrechnungssalden ohne weitere Implikationen sind, die aber nützliche Informationen über ökonomisch tieferliegende, regionale Verschiebungen geben können. Unter dem Extremszenario eines Zerfalls der Währungsunion können TARGET-Salden zwar als offene Positionen interpretiert werden, deren spätere Erfüllung würde aber ähnlich dem Brexit von komplizierten politischen Verhandlungen abhängen, sodass über die Werthaltigkeit allenfalls spekuliert werden kann. Sollte man das Extremszenario für bedeutend halten, und politisches Handeln fordern, erscheinen zwei Lösungen sinnvoll. Beide Vorschläge führen zu einer institutionellen Stärkung der Eurozone: i) die Einführung einer Tilgungspraxis, wie sie im US-amerikanischen Fedwire-System angewandt wird. Dabei handelt es sich um eine rein fiktive Tilgung in Form einer Umbuchung auf einem gemeinsamen (Offenmarkt-)Konto bei der EZB; ii) die Bündelung aller monetären Aktivitäten bei der EZB, sodass eine regionale Abgrenzung von Zahlungsvorgängen entfällt (und damit die TARGET-Salden verschwinden), weil alle Banken in direkter Beziehung zu ein und derselben Zentralbank stehen und der Zahlungsverkehr direkt zwischen den beteiligten Banken stattfindet.
Wir verwenden eine neue, auf der Burr-Verteilung basierende Spezifikation aus der Familie der Autoregressive Conditional Duration (ACD) Modelle zur ökonometrischen Analyse der Transaktionsintensitäten während der Börseneinführung (IPO) der Deutsche Telekom Aktie. In diesem Fallbeispiel wird die Leistungsfähigkeit des neu entwickelten Burr-ACD-Modells mit den Standardmodellen von Engle und Russell verglichen, die im Burr-ACD Modell als Spezialfälle enthalten sind. Wir diskutieren außerdem alternative Möglichkeiten, Intra- Tagessaisonalitäten der Handelsintensität in ACD Modellen zu berücksichtigen.
Zur wissenschaftlichen Evaluation der aktiven Arbeitsmarktpolitik in Deutschland : ein Überblick
(2000)
Dieser Beitrag gibt einen Überblick der neueren wissenschaftlichen Literatur zur Evaluation der Aktiven Arbeitsmarktpolitik (AAMP) in Deutschland. Das Grundproblem mikroökonomischer Evaluation besteht darin, den Vergleichsmaßstab bei Nichtteilnahme zu schätzen, sei es auf Basis einer vergleichbaren Kontrollgruppe von Nichtteilnehmern oder auf Basis der Situation vor Teilnahme. Entscheidend ist hierbei, den potentiellen Selektionsproblemen Rechnung zu tragen. Evaluationsstudien auf der Makroebene müssen zusätzlich auch die indirekten Effkete der AAMP auf den gesamten Arbeitsmarkt berücksichtigen und der möglichen Endogenität der AAMP Rechnung tragen. Die meisten Evaluationsstudien fur Deutschland zeigen keine signifikant positiven Beschäftigungseffekte der AAMP, sind jedoch mit großer statistischer Unsicherheit behaftet. Wir führen letzteres im wesentlichen darauf zurück, daß wegen zu geringen Datenumfangs meist äußerst heterogene Maßnahmen gepoolt werden und daß über Teilnehmer und Nichtteilnehmer zu wenige Hintergrundinformationen verfügbar sind. Aufgrund dieser Datenrestriktionen verbietet sich daher aus Sicht der Autoren ein vorschnelles Verdikt über die ökonomischen Wirkungen der AAMP, obwohl mögliche positive Effekte nicht sehr stark sein können, da sie sonst vermutlich trotz unterschiedlicher Methoden und unzureichender Daten empirisch hätten identifiziert werden können.
Gegen den Landeshaushalt 2022 des Freistaats Thüringen bestehen nach Einschätzung von Helmut Siekmann erhebliche verfassungsrechtliche Bedenken. In einem Gutachten kommt Siekmann zu dem Schluss, dass sich die festgestellten globalen Minderausgaben im Vergleich zum gesamten Haushaltsvolumen nicht rechtfertigen lassen. Der verfassungsrechtlich gebotene Haushaltsausgleich sei nur dadurch erzielt worden, dass die eigentlich gebotenen Einzelkürzungen nicht vom Parlament entschieden, sondern der Exekutive überlassen worden seien. Durch Globale Minderausgaben soll der Ausgleich von Einnahmen und Ausgaben erreicht werden, ohne dafür erforderliche und politisch oft schwer durchsetzbare Kürzungen bei Einzeltiteln vornehmen zu müssen.
In Thüringen fehlen der Minderheitskoalition aus Linke, SPD und Grünen im Parlament vier Stimmen für eine eigene Mehrheit. Sie muss damit bei allen Entscheidungen eine Unterstützung der oppositionellen CDU aushandeln. Siekmann weist in seinem Gutachten darauf hin, dass die Veranschlagung von globalen Minderausgaben gleich welcher Art in keinem Fall die Exekutive ermächtigt, bestehende Verpflichtungen nicht zu erfüllen.
Zur Reform der Einlagensicherung: Elemente einer anreizkompatiblen Europäischen Rückversicherung
(2020)
Bankeinlagen bis 100.000 Euro sind de jure überall im Euroraum gleichermaßen vor Verlusten geschützt. De facto hängt der Wert dieser gesetzlichen Haftungszusage unter anderem von der Ausstattung des nationalen Sicherungsfonds und der relativen Größe des Bankensektors in einer Volkswirtschaft ab. Um die Homogenität des Einlagenschutzes zu gewährleisten und die Bankenunion zu vollenden, bedarf es einer einheitlichen europäischen Einlagensicherung. Die bestehende implizite Risikoteilung im Euroraum ist ordnungspolitisch nicht wünschenswert. Ferner kann eine explizite und glaubwürdige Zweitsicherung Fehlanreize zur Übernahme exzessiver Risiken verhindern, bevor es zum Schadensfall kommt. Daher plädiert dieser Beitrag für ein zweistufiges, streng subsidiär organisiertes Rückversicherungsmodell: Nationale Erstversicherungen würden einen festgeschriebenen Teil, die europäische Rückversicherung nachrangig den Rest der Deckungssumme besichern. Die Rückversicherung gewährt diese Liquiditätshilfen in Form von Kassenkrediten. Weil die Haftung auf nationaler Ebene verbleibt, werden Risiken geteilt aber nicht vergemeinschaftet. Marktgerechte Prämien müssen nicht nur das individuelle Risikogewicht einer Bank sondern auch länderspezifische Risikofaktoren berücksichtigen. Zuletzt braucht der Rückversicherer umfangreiche Aufsichtsrechte, um die Zahlungsfähigkeit der Erstversicherer mit Hinblick auf die nationalen Haftungspflichten jederzeit sicherzustellen.
Vorgestellt wird eine empirische Studie, welche den Zusammenhang zwischen Rendite und Risiko für ein Sample deutscher Versicherungsaktien im Zeitraum 1975-1998 untersucht. Als Methode wurde ein Multifaktorenmodell mit makroökonomischen Faktoren verwendet. Je nach Untersuchungszeitraum beläuft sich der Anteil der erklärten Varianz auf 9,29% bis 13,62%. Es konnte eine signifikanter negativer Einfluß zwischen der Veränderung des allgemeinen Zinsniveaus und den Risikoprämien von Versicherungsaktien identifiziert werden. Weiterhin ist Wechselkurses der DM zum US-Dollar signifikant.
Die Verteilungssituation in Deutschland ist durch ein zunehmendes Maß an Ungleichheit gekennzeichnet. Das Wohlstandsgefälle zwischen West- und Ostdeutschland - 1993 lag das durchschnittliche Nettoäquivalenzeinkommen in den neuen Ländern nach Kaufkraftbereinigung um ca. ein Viertel unter dem Westniveau - birgt sozialen Sprengstoff. Hinzu kommt eine Verschärfung des Verteilungsproblems auch innerhalb der alten Bundesländer. So ist der Anteil der Personen (in Haushalten mit deutscher Bezugsperson) mit weniger als der Hälfte des im Westen erreichten durchschnittlichen Nettoäquivalenzeinkommens von 1988 bis 1993 um 1,7 Prozentpunkte auf 10,5% gestiegen. Die Dynamik in der Verteilungsentwicklung hat sich gegenüber dem vorangegangenen Fünfjahreszeitraum (1983 bis 1988) verstärkt. Angesichts einer weiter gestiegenen Arbeitslosigkeit, Einschränkungen bei den Lohnersatzleistungen und Arbeitsförderungsmaßnahmen sowie ausbleibender Anpassungen von Wohngeld und Sozialhilfe an die Preisentwicklung muß davon ausgegangen werden, daß sich die Verteilungssituation für einen weiten Bevölkerungskreis seit 1993 noch zugespitzt hat. Dies sollte bei allen Überlegungen zu steuer- und sozialpolitischen Reformen berücksichtigt werden.
Inhalt:
Prof. Dr. Dr. h.c. Helmut Siekmann: Stellungnahme für den Haushalts- und Finanzausschuss des Landtags Nordrhein-Westfalen zum Entwurf eines Gesetzes zur Offenlegung der Bezüge von Sparkassenführungskräften im Internet (Drucksache 16/4165) vom 10.02.2014
Gesetzentwurf der Fraktion der Piraten Gesetz zur Offenlegung der Bezüge von Sparkassenführungskräften im Internet vom 08.10.2013
Die Stellungnahme befasst sich mit einem wichtigen Aspekt der Offenlegung der Bezüge von Entscheidungsträgern im Bankensektor. Komplementär zu der Diskussion um die Veröffentlichung der Vergütung von Vorstandsmitgliedern börsennotierter Unternehmen ist auch auf Landeseben versucht worden, die Transparenz der Vergütung von Führungskräften kommunaler oder landeseigener Unternehmen zu erhöhen. Namentlich sind die Träger der Sparkassen durch den neuen § 19 Abs. 6 des Sparkassengesetzes von Nordrhein-Westfalen verpflichtet worden, darauf „hinzuwirken“, dass die „gewährten Bezüge jedes einzelnen Mitglieds des Vorstands, des Verwaltungsrates und ähnlicher Gremien unter Namensnennung“ veröffentlich werden. Diese Vorschrift ist jedoch weitgehend wirkungslos geblieben; nicht zuletzt weil das OLG Köln in einer einstweiligen Verfügung die Vorschrift mangels Gesetzgebungskompetenz des Landes als nichtig behandelt hat. In dieser Situation ist am 8. August 2013 der Vorschlag eines Gesetzes „zur Offenlegung der Bezüge von Sparkassenführungskräften im Internet“ durch die Fraktion der Piraten im Landtag Nordrhein-Westfalen eingebracht worden. Der Entwurf ist Gegenstand der Stellungnahme, die Helmut Siekmann für den Haushalts- und Finanzausschuss des Landtags Nordrhein-Westfalen erstellt hat. Sie stellt maßgebend darauf ab, dass die Sparkassen als Anstalten des öffentlichen Rechts einen öffentlichen Auftrag zu erfüllen haben und den Grundsätzen des Verwaltungsorganisationsrechts unterliegen. Als Teil der (leistenden) Verwaltung müssen sie Transparenz- und Kontrollansprüchen der Bürger und ihren Repräsentanten in den Parlamenten genügen.
Der vorliegende Beitrag beschäftigt sich mit Problemen der Messung individueller Wohlfahrt und ihrer Verteilung. Dabei wird versucht, eine Brücke zwischen ökonomischen und soziologischen Ansätzen zu schlagen. In einern ersten Teil werden Probleme der Nutzenmessung diskutiert. Für die Nutzenmessung gibt es weder einen natürlichen Nullpunkt noch eine natürliche Maßeinheit, so daß es deren Bestimmung durch Konventionen bedarf. Selbst die dabei einzubeziehende Palette objektiver und subjektiver Wohlfahrtskomponenten ist nicht vorgegeben. Ausgehend von dem soziologischen Ansatz, sowohl "welfare" als auch "happiness" zu berücksichtigen, wird ein differenziertes Schema wohlfahrtsrelevanter Bedürfnisse erarbeitet, deren Messung teilweise "objektiv unter Annahmen" - dies betrifft alle Besitzbedürfnisse -, überwiegend aber "subjektiv durch Einschätzung" möglich ist (Zugehörigkeitsbedürfnisse, Bedürfnisse nach Selbstverwirklichung, gesellschaftsbezogene Bedürfnisse). Die Bedingtheit empirischer Wohlfahrtsanalysen wird offensichtlich, da die unvermeidlichen normativen Hypothesen einer wissenschaftlichen Beweisführung nicht zugänglich sind. Dies gilt auch, wenn man sich auf die in Geldeinheiten direkt bewertbaren Bedürfnisbefriedigungsmittel beschränkt; denn die daraus resultierende Wohlfahrt hängt von den individuellen Nutzenfunktionen ab. Hinzu kommen Probleme bei der Zusammenfassung von Einkommens-, Vermögens- und Absicherungsindikatoren zu einem individuellen Gesamtwohlfahrtsmaß, um einem eindimensionale Wohlfahrtsverteilung unter allen Gesellschaftsmitgliedern ermitteln zu können. Schließlich bedarf es auch bei der Zurechnung der in einern Haushalt vorhandenen Bedürfnisbefriedigungsmittel auf die einzelnen Haushaltsmitglieder normativer Setzungen, die sich in verschiedenen Äquivalenzskaien niederschlagen. In einem zweiten Teil werden - nach der grundsätzlichen Erörterung von Schwierigkeiten bei der Operationalisierung und Messung von Nutzen - einige Ungleichheitsmaße dargestellt und hinsichtlich ihrer normativen Implikationen diskutiert. Alle Verteilungsindikatoren basieren auf der Philosophie des individualistischen Utilitarismus und gehen von Gleichverteilung als Referenzpunkt aus. Die Frage nach dem Einfluß der Wohlfahrt anderer Gesellschaftsmitglieder auf den individuellen Nutzen bleibt also ebenso ausgeklammert wie die nach einem gerechten Maß an Ungleichheit als Vergleichspunkt zur gegebenen Ungleichheit. Abschließend wird die Entwicklung einiger Verteilungsindikatoren in der Bundesrepublik Deutschland von 1962/63 bis 1988 dargestellt. Dabei zeigt sich eine weitgehende Stabilität der Verteilung der Nettoäquivalenzeinkommen, die allerdings nicht mit der Verteilung individueller Wohlfahrt gleichzusetzen ist.
Wie können nun die vielfältigen Ergebnisse zur Einkommens- und Vermögensverteilung im Hinblick auf die Frage, ob es eine soziale Polarisierungstendenz gibt, zusammengefaßt werden? Angesichts des unklaren Begriffs der Polarisierung und der begrenzten Aussagekraft des Datenmaterials ist dies schwierig, zumal die empirische Analyse nicht nur Fragen beantwortet, sondern auch neue Fragen aufgeworfen hat und die vorliegenden Daten nicht sehr zeitnah sind. Trotz aller Einschränkungen lassen sich aber vielfältige Anzeichen einer Auseinanderentwicklung der Lebensverhältnisse einzelner Bevölkerungsgruppen feststellen. Diese äußern sich weniger in zusammenfassenden Verteilungsmaßen wie beispielsweise dem Gini-Koeffizienten als vielmehr in disaggregierten Betrachtungsweisen. So hat in Westdeutschland zwischen 1978 und 1993 sowohl der Bevölkerungsanteil, der in relativer Einkommensarmut lebt, als auch der Anteil der Reichen zugenommen. Dies könnte man als Polarisierungstendenz bezeichnen, wenn man Polarisierung allgemein als Prozeß der Herausbildung bzw. Vergrößerung von zwei weit auseinanderliegenden Einkommensgruppen versteht.32 Von der zunehmenden relativen Verarmung sind hauptsächlich Arbeitslosenhaushalte sowie Familien mit Kindern, insbesondere Alleinerziehende, betroffen, steigende gruppenspezifische Reichtumsquoten sind vorwiegend bei Selbständigen-, Angestellten- und Beamtenhaushalten sowie bei Paaren ohne Kinder zu beobachten. Die Gruppen der Alleinstehenden sind sehr heterogen, da sich hier sowohl überdurchschnittliche Armuts- als auch - mit Ausnahme der alleinstehenden älteren Frauen - überdurchschnittliche Reichtumsquoten zeigen; die Armutsquoten der jüngeren Alleinstehenden, insbesondere der Frauen, sind im Beobachtungszeitraum aber drastisch gestiegen, die Reichtumsquoten bei allen Alleinstehenden tendenziell gesunken. Neben diesen Tendenzen beinhaltet das nach wie vor starke West-Ost-Gefälle im Lebensstandard ein nicht zu unterschätzendes gesellschaftliches Spannungs- und Spaltungspotential. Die große Ungleichheit in der Einkommensverteilung wird von der Vermögensverteilung bei weitem übertroffen. Wenn man sich auf das Nettogrund- und Nettogeldvermögen (ausschließlich Zeitwerte der Kapitalversicherungsguthaben) beschränkt, verfügten 1988 die obersten 10% der Haushalte über fast die Hälfte des Gesamtvermögens, während die untere Hälfte der Haushalte weniger als 4% des Gesamtvermögens besaß. Diese krassen Gegensätze zeigen sich, obwohl die reichsten Haushalte in der Datenbasis nicht erfaßt sind. Für die Entwicklung der Konzentration der Vermögen zeigt sich im Zeitablauf keine eindeutige Tendenz. Die Ergebnisse für einzelne Jahre sind wegen unterschiedlicher Begriffsabgrenzungen nicht unmittelbar vergleichbar, die Erfassung des Vermögens ist generell unvollständig. In der Literatur wird eher von einer zunehmenden denn von einer abnehmenden Konzentration ausgegangen. Die bisher vorliegenden empirischen Verteilungsergebnisse decken allenfalls den Zeitraum bis 1993 ab. Seither hat sich die gesamtwirtschaftliche Situation aber deutlich verschlechtert. Die andauernden Arbeitsmarktprobleme und Kürzungen im Sozialleistungsbereich einerseits sowie "explodierende" Aktienkurse andererseits bergen zunehmende Gefahren einer nachhaltigen Spaltung der Gesellschaft. Es ist zu befürchten, daß unstetige Erwerbsverläufe mit der Folge unzureichender Sozialversicherungsansprüche künftig noch häufiger vorkommen werden und daß die Ungleichheit der Arbeitnehmereinkommen - auch durch die beobachtbare Zunahme untertariflicher Bezahlungen - steigen wird mit der Folge einer weiteren Verarmung insbesondere von Familien mit Kindern. Hinzu kommt, daß die von längerer Arbeitslosigkeit betroffenen Haushalte ihre Vermögensbestände aufzehren müssen oder sich gar verschulden, so daß ein Wiederaufstieg deutlich erschwert wird und auch die Vermögensverteilung noch ungleichmäßiger werden dürfte. Der Verteilungskonflikt wird sich darüber hinaus durch die in Gegenwart und Zukunft zu erwartenden Vererbungsvorgänge verschärfen. Hiervon profitieren nicht alle Haushalte gleichermaßen. Aufgrund sinkender Kinderzahlen ist mit einer Kumulierung von Vermögenswerten zu rechnen.33 Die in einigen politischen Kreisen befürwortete stärkere Einbeziehung der privaten Vermögensbestände zur Risikovorsorge, insbesondere für das Alter, ist angesichts der starken Vermögenskonzentration für den größten Teil der Bevölkerung wohl kaum eine realistische Alternative.
Trotz der von der EZB eingeleiteten Zinswende in der zweiten Jahreshälfte 2022 als späte Reaktion auf die deutlich unterschätzte Persistenz hoher Inflationsraten im Euroraum sind die Realzinsen sowohl in der Ex-post-Betrachtung als auch in der Ex-ante-Betrachtung keineswegs als restriktiv einzuschätzen. Die Banken haben allerdings recht rasch strengere Vergaberichtlinien beschlossen, und die Nachfrage im Wohnungsbau und bei den Hypothekarkrediten ist stark eingebrochen.
Die Autoren thematisieren die Bedeutung von Zahlungsstromeffekten bei Annuitätenkrediten und analysiert hier vor allem den sogenannten Front-Loading-Effekt. Danach führen höhere Nominalzinsen selbst bei vollständig antizipierten Inflationsraten und unveränderten Realzinsen zu starken finanziellen Zusatzbelastungen in den ersten Phasen der typischerweise langen Kreditlaufzeit. Derartige Liquiditätseffekte können die Zahlungsfähigkeit bzw. die Zahlungsbereitschaft der privaten Investoren empfindlich verringern. Dies gilt vor allem bei Darlehen in Form der Prozentannuität, da hier zusätzlich ein Laufzeitenverkürzungseffekt auftritt. Solche Darlehen sind in Deutschland recht populär.
Mit Blick auf die Zukunft sehen die Autoren auch eine reale Gefahr für den Bestand an Wohnungsbaukrediten, wenn es zu einer Refinanzierung des großen Bestands an billigen Wohnungsbaukrediten kommt, ein Risiko, das auch Auswirkungen auf die makroökonomische und finanzielle Stabilität hat.
Der Bestimmung risikoadäquater Diskontierungssätze kommt bei der Unternehmensbedeutung eine zentrale Bedeutung zu. Wird zu deren Bestimmung in der praktischen Anwendung das CAPM verwendet, gilt es dabei, risikolose Zinssätze und Risikoprämien zu bestimmen, für die erwartete Renditen des Marktportfeuilles und Beta-Faktoren als Maßgrößen für das systematische Risiko benötigt werden. Passend zu den zu bewertenden erwarteten Überschussgrößen sollten auch die zur Diskontierung verwendeten Renditeforderungen die im Bewertungszeitpunkt erwarteten künftigen Renditen vergleichbarer Anlagen widerspiegeln. Die weitaus meisten Beiträge zur Operationalisierung des CAPM leiten die Renditeforderungen jedoch aus historischen Kapitalmarktrenditen ab. Wir zeigen in diesem Beitrag auf, wie erwartete künftige Renditen aus beobachtbaren Größen, vor allen den Zinsstrukturkurven und den beobachtbaren Analystenprognosen, zukunftsorientiert abgeleitet werden können. Damit wird eine konzeptionell schlüssigere Bewertung der im Bewertungszeitpunkt erwarteten künftigen Überschüsse mit den zeitgleich erwarteten künftigen Renditen ermöglicht.
Für Zwecke des privaten Konsums werden ständig Gegenwarts- und Zukunftsgüter bewertet und gehandelt. Ein zuverlässiges und umfassendes Maß für die allgemeine Kaufkraft des Geldes und deren Veränderung sollte diesem Grundsachverhalt Rechnung tragen. Im Unterschied zu konventionellen statistischen Verbraucherpreisindizes ist ein ökonomischer Lebenskostenindex intertemporal angelegt, da er die effektiven Konsumgüterpreise (Effektivpreise) über den Planungshorizont der privaten Haushalte bündelt. Ein Preisstabilitätsstandard, der diesen Zusammenhang ausblendet, ist tendenziell verzerrt und leistet einer asymmetrischen Geldpolitik Vorschub.
Effektivpreise sind Gegenwartspreise für künftigen Konsum, sie berücksichtigen Güterpreise und Zinsen bzw. Vermögenspreisänderungen, sind konsumtheoretisch und wohlfahrtsökonomisch fundiert und bilden die zentralen Bausteine für die Modellklasse der ökonomischen Lebenskostenindizes. Nutzentheoretisch gesehen sind Effektivpreise bewerteter Grenznutzen der letzten konsumierten Gütereinheit, und die daraus abgeleiteten Effektiven Inflationsraten sind intertemporale Grenzraten der Substitution.
Die Autoren entwickeln einen intertemporalen Lebenskostenindex auf der Grundlage des Konzepts der Effektivpreise und stellen empirische Zeitreihen und kohortenspezifische Szenarioanalysen für Deutschland vor.
Der vorliegende Beitrag zeigt auf, dass die zunehmende Komplexität der Aufgaben von Zentralbanken zu einer strukturellen Überforderung führen kann. Aufgrund der funktionellen Komplexität einer makroprudenziellen Prozesspolitik auf der Ziel- und Instrumentenebene sollte eher nach einer Reduktion als nach einer Ausweitung des makroprudenziellen Werkzeugkastens Ausschau gehalten werden. Weiterhin steht die sich derzeit teilweise noch vergrößernde institutionelle Komplexität der makroprudenziellen Politik ihrer funktionellen Komplexität um nichts nach. Bei entsprechenden Vorkehrungen können die bereits eingetretenen und die potenziellen Überforderungen jedoch zumindest teilweise in verkraftbare Herausforderungen überführt werden. Der Aufsatz schließt mit Empfehlungen für entsprechende Maßnahmen.
We test two hypotheses, based on sexual selection theory, about gender differences in costly social interactions. Differential selectivity states that women invest less than men in interactions with new individuals. Differential opportunism states that women’s investment in social interactions is less responsive to information about the interaction’s payoffs. The hypotheses imply that women’s social networks are more stable and path dependent and composed of a greater proportion of strong relative to weak links. During their introductory week, we let new university students play an experimental trust game, first with one anonymous partner, then with the same and a new partner. Consistent with our hypotheses, we find that women invest less than men in new partners and that their investments are only half as responsive to information about the likely returns to the investment. Moreover, subsequent formation of students’ real social networks is consistent with the experimental results: being randomly assigned to the same introductory group has a much larger positive effect on women’s likelihood of reporting a subsequent friendship.
This paper investigates whether exchanging the Social Security delayed retirement credit, currently paid as an increase in lifetime annuity benefits, for a lump sum would induce later claiming and additional work. We show that people would voluntarily claim about half a year later if the lump sum were paid for claiming any time after the Early Retirement Age, and about two-thirds of a year later if the lump sum were paid only for those claiming after their Full Retirement Age. Overall, people will work one-third to one-half of the additional months, compared to the status quo. Those who would currently claim at the youngest ages are likely to be most responsive to the offer of a lump sum benefit.
Zum ersten Mal wurde in Deutschland eine groß angelegte wissenschaftliche Studie zur Machbarkeit und zum Nutzen einer säulenübergreifenden Renteninformationsplattform durchgeführt, unter realen Bedingungen und mit mehreren tausend Teilnehmern. Die beiden zentralen Ergebnisse sind, dass ein elektronisches Rentencockpit auch in Deutschland technisch machbar ist und beträchtlichen individuellen Zusatznutzen für die Bürgerinnen und Bürger stiften würde. Die Langfristanalysen der Pilotstudie zeigen, dass selbst die einmalige Schaffung von Rententransparenz für viele Teilnehmer Anlass genug ist, ihren Rentenplan zu überdenken und sich aktiv mit ihrer Altersvorsorge auseinanderzusetzen und ihr Verhalten zu ändern. Teilnehmer mit Zugang zu einem elektronischen Rentencockpit fühlen sich nach der Studie deutlich besser informiert und neigen dazu ihr Sparverhalten stärker anzupassen als Personen ohne Zugang. Die außerordentlich hohe Bereitschaft zur Teilnahme und die Antworten in den Online-Befragungen sind zudem Beleg für den großen Bedarf an systemgestützter, individueller Rententransparenz. Soll ein Rentencockpit Verbreitung in Deutschland finden, scheint eine automatisierte, elektronische Bereitstellung von Vertragsdaten von Seiten der Rententräger jedoch unabdingbar, da die eigenständige Suche und teilmanuelle Bereitstellung von Standmitteilungen für die meisten Studienteilnehmer ein großes Hindernis darstellt.
In den 1980er und den frühen 1990er Jahren waren japanische Banken die weltweit größten Finanzinstitute und galten als Inbegriff „globaler“ Banken. Der Crash der japanischen Wertpapier- und Immobilienmärkte Anfang der 1990er Jahre und die nachfolgende Rezession waren Anlass zu tiefgreifenden Reformen im japanischen Finanzsystem. Die japanischen Banken waren gezwungen, ihre internationalen Strategien zu reformulieren. Als Konsequenz zogen sie sich aus vielen Märkten zurück und strukturierten ihre internationalen Netzwerke um. Vor dem Hintergrund theoretischer Überlegungen zu der Bedeutung von „Globalität“ und einer empirischen Untersuchung der Entwicklung der Auslandsstellennetze japanischer Banken in den 1980er und 1990er Jahren stellt der vorliegende Beitrag die Globalität japanischer Banken in Frage.
This policy letter provides evidence for the crucial importance of the initial regulatory treatment for the further development of financial innovations by exploring the emergence and initial legal framing of off-balance-sheet leasing in Germany. Due to a missing legal framework, lease contracts occurred as an innovative social practice of off-balance-sheet financing. However, this lacking legal framing impeded the development of this financial innovation as it also created legal uncertainties. This was about to change after the initial legal framing of leasing in the 1970’s which eliminated those legal uncertainties and off-balance-sheet leasing entered into a stunning period of growth while laying the foundation of a regulatory resiliency against efforts that seek to abandon the off-balance-sheet treatment of leases. As the initial legal framing is crucial for the further development of a financial innovation, we propose the French approach for the initial vindication of new financial products in which the principles-based rules are aligned with the capabilities of regulators to intervene, even when a financial innovation complies with the letter of the law. In this way, regulators could regulate the frontier of financial innovations and weed out those which are entirely or mainly driven by regulatory arbitrage considerations while maintaining the beneficial elements of those products.
The bail-in tool as implemented in the European bank resolution framework suffers from severe shortcomings. To some extent, the regulatory framework can remedy the impediments to the desirable incentive effect of private sector involvement (PSI) that emanate from a lack of predictability of outcomes, if it compels banks to issue a sufficiently sized minimum of high-quality, easy to bail-in (subordinated) liabilities. Yet, even the limited improvements any prescription of bail-in capital can offer for PSI’s operational effectiveness seem compromised in important respects.
The main problem, echoing the general concerns voiced against the European bail-in regime, is that the specifications for minimum requirements for own funds and eligible liabilities (MREL) are also highly detailed and discretionary and thus alleviate the predicament of investors in bail-in debt, at best, only insufficiently. Quite importantly, given the character of typical MREL instruments as non-runnable long-term debt, even if investors are able to gauge the relevant risk of PSI in a bank’s failure correctly at the time of purchase, subsequent adjustment of MREL-prescriptions by competent or resolution authorities potentially change the risk profile of the pertinent instruments. Therefore, original pricing decisions may prove inadequate and so may market discipline that follows from them.
The pending European legislation aims at an implementation of the already complex specifications of the Financial Stability Board (FSB) for Total Loss Absorbing Capacity (TLAC) by very detailed and case specific amendments to both the regulatory capital and the resolution regime with an exorbitant emphasis on proportionality and technical fine-tuning. What gets lost in this approach, however, is the key policy objective of enhanced market discipline through predictable PSI: it is hardly conceivable that the pricing of MREL-instruments reflects an accurate risk-assessment of investors because of the many discretionary choices a multitude of agencies are supposed to make and revisit in the administration of the new regime. To prove this conclusion, this chapter looks in more detail at the regulatory objectives of the BRRD’s prescriptions for MREL and their implementation in the prospectively amended European supervisory and resolution framework.
The bail-in tool as implemented in the European bank resolution framework suffers from severe shortcomings. To some extent, the regulatory framework can remedy the impediments to the desirable incentive effect of private sector involvement (PSI) that emanate from a lack of predictability of outcomes, if it compels banks to issue a sufficiently sized minimum of high-quality, easy to bail-in (subordinated) liabilities. Yet, even the limited improvements any prescription of bail-in capital can offer for PSI’s operational effectiveness seem compromised in important respects.
The main problem, echoing the general concerns voiced against the European bail-in regime, is that the specifications for minimum requirements for own funds and eligible liabilities (MREL) are also highly detailed and discretionary and thus alleviate the predicament of investors in bail-in debt, at best, only insufficiently. Quite importantly, given the character of typical MREL instruments as non-runnable long-term debt, even if investors are able to gauge the relevant risk of PSI in a bank’s failure correctly at the time of purchase, subsequent adjustment of MREL-prescriptions by competent or resolution authorities potentially change the risk profile of the pertinent instruments. Therefore, original pricing decisions may prove inadequate and so may market discipline that follows from them.
The pending European legislation aims at an implementation of the already complex specifications of the Financial Stability Board (FSB) for Total Loss Absorbing Capacity (TLAC) by very detailed and case specific amendments to both the regulatory capital and the resolution regime with an exorbitant emphasis on proportionality and technical fine-tuning. What gets lost in this approach, however, is the key policy objective of enhanced market discipline through predictable PSI: it is hardly conceivable that the pricing of MREL-instruments reflects an accurate risk-assessment of investors because of the many discretionary choices a multitude of agencies are supposed to make and revisit in the administration of the new regime. To prove this conclusion, this chapter looks in more detail at the regulatory objectives of the BRRD’s prescriptions for MREL and their implementation in the prospectively amended European supervisory and resolution framework.
From 1963 through 2015, idiosyncratic risk (IR) is high when market risk (MR) is high. We show that the positive relation between IR and MR is highly stable through time and is robust across exchanges, firm size, liquidity, and market-to-book groupings. Though stock liquidity affects the strength of the relation, the relation is strong for the most liquid stocks. The relation has roots in fundamentals as higher market risk predicts greater idiosyncratic earnings volatility and as firm characteristics related to the ability of firms to adjust to higher uncertainty help explain the strength of the relation. Consistent with the view that growth options provide a hedge against macroeconomic uncertainty, we find evidence that the relation is weaker for firms with more growth options.
Identifying the cause of discrimination is crucial to design effective policies and to understand discrimination dynamics. Building on traditional models, this paper introduces a new explanation for discrimination: discrimination based on motivated reasoning. By systematically acquiring and processing information, individuals form motivated beliefs and consequentially discriminate based on these beliefs. Through a series of experiments, I show the existence of discrimination based on motivated reasoning and demonstrate important differences to statistical discrimination and taste-based discrimination. Finally, I demonstrate how this form of discrimination can be alleviated by limiting individuals’ scope to interpret information.
We provide a comprehensive analysis of the determinants of trading in the sovereign credit default swaps (CDS) market, using weekly data for single-name sovereign CDS from October 2008 to September 2015. We describe the anatomy of the sovereign CDS market, derive a law of motion for gross positions and their components, and identify the key factors that drive the cross-sectional and time-series properties of trading volume and net notional amounts outstanding. While a single principal component accounts for 54 percent of the variation in sovereign CDS spreads, the largest common factor explains only 7 percent of the variation in sovereign CDS net notional amounts outstanding. Moreover, unlike for CDS spreads, common global factors explain very little of the variation in sovereign CDS trading and net notional amounts outstanding, suggesting that it is driven primarily by idiosyncratic country risk. We analyze several local and regional channels that may explain the trading in sovereign CDS: (a) country-specific credit risk shocks, including changes in a country's credit rating and related outlook changes, (b) the announcement and issuance of domestic and international debt, (c) macroeconomic sentiment derived from conventional and unconventional monetary policy, macro-economic news and shocks, and (d) regulatory channels, such as changes in bank capital adequacy requirements. All our findings suggest that sovereign CDS are more likely used for hedging than for speculative purposes.
This Policy Letter presents two event studies based on the pre-war data that foreshadows the remarkable way in which Russian economy was able to withstand the pressure from unprecedented package of international sanctions. First, it shows that a sudden stop of one of the two domestic producers of zinc in 2018 did not lead to a slowdown in the steel industry, which heavily relied on this input. Second, it demonstrates that a huge increase in cost of fuel called mazut in 2020 had virtually no impact on firms that used it, even in the regions where it was hard to substitute it for alternative fuels. This Policy Letter argues that such stability in production can be explained by the fact that Russian economy is heavily oriented toward commodities. It is much easier to replace a commodity supplier than a supplier of manufacturing goods, and many commodity producers operate at high profit margins that allow them to continue to operate even after big increases in their costs. Thus, sanctions had a much smaller impact on Russia than they would have on an economy with larger manufacturing sector, where inputs are less substitutable and profit margins are smaller.
A large empirical literature has shown that user fees signicantly deter public service utilization in developing #countries. While most of these results reflect partial equilibrium analysis, we find that the nationwide abolition of public school fees in Kenya in 2003 led to no increase in net public enrollment rates, but rather a dramatic shift toward private schooling. Results suggest this divergence between partial- and general-equilibrium effects is partially explained by social interactions: the entry of poorer pupils into free education contributed to the exit of their more affluent peers.
Why bank money creation?
(2022)
We provide a rationale for bank money creation in our current monetary system by investigating its merits over a system with banks as intermediaries of loanable funds. The latter system could result when CBDCs are introduced. In the loanable funds system, households limit banks’ leverage ratios when providing deposits to make sure they have enough “skin in the game” to opt for loan monitoring. When there is unobservable heterogeneity among banks with regard to their (opportunity) costs from monitoring, aggregate lending to bank-dependent firms is inefficiently low. A monetary system with bank money creation alleviates this problem, as banks can initiate lending by creating bank deposits without relying on household funding. With a suitable regulatory leverage constraint, the gains from higher lending by banks with a high repayment pledgeability outweigh losses from banks which are less diligent in monitoring. Bank-risk assessments, combined with appropriate risk-sensitive capital requirements, can reduce or even eliminate such losses.
In the euro area, monetary policy is conducted by a single central bank for 20 member countries. However, countries are heterogeneous in their economic development, including their inflation rates. This paper combines a New Keynesian model and a neural network to assess whether the European Central Bank (ECB) conducted monetary policy between 2002 and 2022 according to the weighted average of the inflation rates within the European Monetary Union (EMU) or reacted more strongly to the inflation rate developments of certain EMU countries.
The New Keynesian model first generates data which is used to train and evaluate several machine learning algorithms. They authors find that a neural network performs best out-of-sample. They use this algorithm to generally classify historical EMU data, and to determine the exact weight on the inflation rate of EMU members in each quarter of the past two decades. Their findings suggest disproportional emphasis of the ECB on the inflation rates of EMU members that exhibited high inflation rate volatility for the vast majority of the time frame considered (80%), with a median inflation weight of 67% on these countries. They show that these results stem from a tendency of the ECB to react more strongly to countries whose inflation rates exhibit greater deviations from their long-term trend.
We show strong overall and heterogeneous economic incidence effects, as well as distortionary effects, of only shifting statutory incidence (i.e., the agent on which taxes are levied), without any tax rate change. For identification, we exploit a tax change and administrative data from the credit market: (i) a policy change in 2018 in Spain shifting an existing mortgage tax from being levied on borrowers to being levied on banks; (ii) some areas, for historical reasons, were exempt from paying this tax (or have different tax rates); and (iii) an exhaustive matched credit register. We find the following robust results: First, after the policy change, the average mortgage rate increases consistently with a strong – but not complete – tax pass-through. Second, there is a large heterogeneity in such pass-through: larger for borrowers with lower income, a smaller number of lending relationships, not working for the lender, or facing less banks in their zip-code, thereby suggesting a bargaining power mechanism at work. Third, despite no variation in the tax rate, and consistent with the non-full tax pass-through, the tax shift increases banks’ risk-taking. More affected banks reduce costly mortgage insurance in case of loan default (especially so if banks have weaker ex-ante balance sheets) and expand into non-affected but (much) ex-ante riskier consumer lending, experiencing even higher ex-post defaults within consumer loans.
Who should hold bail-inable debt and how can regulators police holding restrictions effectively?
(2023)
This paper analyses the demand-side prerequisites for the efficient application of the bail-in tool in bank resolution, scrutinises whether the European bank crisis management and deposit insurance (CMDI) framework is apt to establish them, and proposes amendments to remedy identified shortcomings.
The first applications of the new European CMDI framework, particularly in Italy, have shown that a bail-in of debt holders is especially problematic if they are households or other types of retail investors. Such debt holders may be unable to bear losses, and the social implications of bailing them in may create incentives for decision makers to refrain from involving them in bank resolution. In turn, however, if investors can expect resolution authorities (RAs) to behave inconsistently over time and bail-out bank capital and debt holders despite earlier vows to involve them in bank rescues, the pricing and monitoring incentives that the crisis management framework seeks to invigorate would vanish. As a result, market discipline would be suboptimal and moral hazard would persist. Therefore, the policy objectives of the CMDI framework will only be achieved if critical bail-in capital is not held by retail investors without sufficient loss-bearing capacity. Currently, neither the CMDI framework nor capital market regulation suffice to assure that this precondition is met. Therefore, some amendments are necessary. In particular, debt instruments that are most likely to absorb losses in resolution should have a high minimum denomination and banks should not be allowed to self-place such securities.
We consider an additively time-separable life-cycle model for the family of power period utility functions u such that u0(c) = c−θ for resistance to inter-temporal substitution of θ > 0. The utility maximization problem over life-time consumption is dynamically inconsistent for almost all specifications of effective discount factors. Pollak (1968) shows that the savings behavior of a sophisticated agent and her naive counterpart is always identical for a logarithmic utility function (i.e., for θ = 1). As an extension of Pollak’s result we show that the sophisticated agent saves a greater (smaller) fraction of her wealth in every period than her naive counterpart whenever θ > 1 (θ < 1) irrespective of the specification of discount factors. We further show that this finding extends to an environment with risky returns and dynamically inconsistent Epstein-Zin-Weil preferences.
We present novel evidence on the value of cross-border political access. We analyze data on meetings of US multinational enterprises (MNEs) with European Commission (EC) policymakers. Meetings with Commissioners are associated with positive abnormal equity returns. We study channels of value creation through political access in the areas of regulation and taxation. US enterprises with EC meetings are more likely to receive favorable outcomes in their European merger decisions and have lower effective tax rates on foreign income than their peers without meetings. Our results suggest that access to foreign policymakers is of substantial value for MNEs.
Who knows what when? : The information content of pre-IPO market prices : [Version March/June 2002]
(2002)
To resolve the IPO underpricing puzzle it is essential to analyze who knows what when during the issuing process. In Germany, broker-dealers make a market in IPOs during the subscription period. We examine these pre-issue prices and find that they are highly informative. They are closer to the first price subsequently established on the exchange than both the midpoint of the bookbuilding range and the offer price. The pre-issue prices explain a large part of the underpricing left unexplained by other variables. The results imply that information asymmetries are much lower than the observed variance of underpricing suggests.
To resolve the IPO underpricing puzzle it is essential to analyze who knows what when during the issuing process. In Germany, broker-dealers make a market in IPOs during the subscription period. We examine these pre-issue prices and find that they are highly informative. They are closer to the first price subsequently established on the exchange than both the midpoint of the bookbuilding range and the offer price. The pre-issue prices explain a large part of the underpricing left unexplained by other variables. The results imply that information asymmetries are much lower than the observed variance of underpricing suggests.
Homestead exemptions to personal bankruptcy allow households to retain their home equity up to a limit determined at the state level. Households that may experience bankruptcy thus have an incentive to bias their portfolios towards home equity. Using US household data for the period 1996 to 2006, we find that household demand for real estate is relatively high if the marginal investment in home equity is covered by the exemption. The home equity bias is more pronounced for younger households that face more financial uncertainty and therefore have a higher ex ante probability of bankruptcy.
Who gains from inter-corporate credit? To answer this question we measure the impact of the announcements of inter-corporate loans in China on the stock prices of the firms involved. We find that the average abnormal return for the issuers of inter-corporate loans is significantly negative, whereas it is positive for the receivers. Issuing firms may be perceived by investors to have run out of worthwhile projects to finance, while receiving firms are being certified as creditworthy. Subsequent firm performance and investment confirms these valuations as overall accurate.
Manipulative communications touting stocks are common in capital markets around the world. Although the price distortions created by so-called “pump-and-dump” schemes are well known, little is known about the investors in these frauds. By examining 421 “pump-and-dump” schemes between 2002 and 2015 and a proprietary set of trading records for over 110,000 individual investors from a major German bank, we provide evidence on the participation rate, magnitude of the investments, losses, and the characteristics of the individuals who invest in such schemes. Our evidence suggests that participation is quite common and involves sizable losses, with nearly 6% of active investors participating in at least one “pump-and-dump” and an average loss of nearly 30%. Moreover, we identify several distinct types of investors, some of which should not be viewed as falling prey to these frauds. We also show that portfolio composition and past trading behavior can better explain participation in touted stocks than demographics. Our analysis offers insights into the challenges associated with designing effective investor protection against market manipulation.
This paper compares the shareholder-value-maximizing capital structure and pricing policy of insurance groups against that of stand-alone insurers. Groups can utilise intra-group risk diversification by means of capital and risk transfer instruments. We show that using these instruments enables the group to offer insurance with less default risk and at lower premiums than is optimal for standalone insurers. We also take into account that shareholders of groups could find it more difficult to prevent inefficient overinvestment or cross-subsidisation, which we model by higher dead-weight costs of carrying capital. The tradeoff between risk diversification on the one hand and higher dead-weight costs on the other can result in group building being beneficial for shareholders but detrimental for policyholders.
This paper investigates the determinants of value and growth investing in a large administrative panel of Swedish residents over the 1999-2007 period. We document strong relationships between a household’s portfolio tilt and the household’s financial and demographic characteristics. Value investors have higher financial and real estate wealth, lower leverage, lower income risk, lower human capital, and are more likely to be female than the average growth investor. Households actively migrate to value stocks over the life-cycle and, at higher frequencies, dynamically offset the passive variations in the value tilt induced by market movements. We verify that these results are not driven by cohort effects, financial sophistication, biases toward popular or professionally close stocks, or unobserved heterogeneity in preferences. We relate these household-level results to some of the leading explanations of the value premium.
Cryptocurrencies have received growing attention from individuals, the media, and regulators. However, little is known about the investors whom these financial instruments attract. Using administrative data, we describe the investment behavior of individuals who invest in cryptocurrencies with structured retail products. We find that cryptocurrency investors are active traders, prone to investment biases, and hold risky portfolios. In line with attention effects and anticipatory utility, we find that the average cryptocurrency investor substantially increases log-in and trading activity after his or her first cryptocurrency purchase. Our results document which investors are more likely to adopt new financial products and help inform regulators about investors' vulnerability to cryptocurrency investments.
This paper compares the dynamics of the financial integration process as described by different empirical approaches. To this end, a wide range of measures accounting for several dimensions of integration is employed. In addition, we evaluate the performance of each measure by relying on an established international finance result, i.e., increasing financial integration leads to declining international portfolio diversification benefits. Using monthly equity market data for three different country groups (i.e., developed markets, emerging markets, developed plus emerging markets) and a dynamic indicator of international portfolio diversification benefits, we find that (i) all measures give rise to a very similar long-run integration pattern; (ii) the standard correlation explains variations in diversification benefits as well or better than more sophisticated measures. These Findings are robust to a battery of robustness checks.
This paper studies a household’s optimal demand for a reverse mortgage. These contracts allow homeowners to tap their home equity to finance consumption needs. In stylized frameworks, we show that the decision to enter a reverse mortgage is mainly driven by the dierential between the aggregate appreciation of the house price and principal limiting factor on the one hand and the funding costs of a household on the other hand. We also study a rich life-cycle model that can explain the low demand for reverse mortgages as observed in US data. In this model, we analyze the optimal response of a household that is confronted with a health shock or financial disaster. If an agent suers from an unexpected health shock, she reduces the risky portfolio share and is more likely to enter a reverse mortgage. On the other hand, if there is a large drop in the stock market, she keeps the risky portfolio share almost constant by buying additional shares of stock. Besides, the probability to take out a reverse mortgage is hardly aected.
In this study, we investigate the wealth decumulation decision from the perspective of a retiree who is averse to the prospect of fully annuitizing her accumulated savings. We field a large online survey of hypothetical product choices for phased drawdown offerings and annuities. While the demand for annuities remains low in our sample, we find significant demand for phased withdrawal products with equity-based asset allocations and flexible payout structures. Consistent with the product choice, the most important self-reported considerations for the wealth decumulation decision are low default risk in the products they purchase, the size of the withdrawal rates, and flexibility in the timing of their withdrawal. As determinants of the decision of how much wealth individuals are willing to draw down, we identify consumers’ attitudes towards future economic conditions, the extent to which they are protected against longevity risk, and their desire to leave bequests. Policy implications are discussed.
We consider the continuous-time portfolio optimization problem of an investor with constant relative risk aversion who maximizes expected utility of terminal wealth. The risky asset follows a jump-diffusion model with a diffusion state variable. We propose an approximation method that replaces the jumps by a diffusion and solve the resulting problem analytically. Furthermore, we provide explicit bounds on the true optimal strategy and the relative wealth equivalent loss that do not rely on results from the true model. We apply our method to a calibrated affine model and fine that relative wealth equivalent losses are below 1.16% if the jump size is stochastic and below 1% if the jump size is constant and γ ≥ 5. We perform robustness checks for various levels of risk-aversion, expected jump size, and jump intensity.
We consider the continuous-time portfolio optimization problem of an investor with constant relative risk aversion who maximizes expected utility of terminal wealth. The risky asset follows a jump-diffusion model with a diffusion state variable. We propose an approximation method that replaces the jumps by a diffusion and solve the resulting problem analytically. Furthermore, we provide explicit bounds on the true optimal strategy and the relative wealth equivalent loss that do not rely on quantities known only in the true model. We apply our method to a calibrated affine model. Our findings are threefold: Jumps matter more, i.e. our approximation is less accurate, if (i) the expected jump size or (ii) the jump intensity is large. Fixing the average impact of jumps, we find that (iii) rare, but severe jumps matter more than frequent, but small jumps.
This paper deals with the superhedging of derivatives and with the corresponding price bounds. A static superhedge results in trivial and fully nonparametric price bounds, which can be tightened if there exists a cheaper superhedge in the class of dynamic trading strategies. We focus on European path-independent claims and show under which conditions such an improvement is possible. For a stochastic volatility model with unbounded volatility, we show that a static superhedge is always optimal, and that, additionally, there may be infinitely many dynamic superhedges with the same initial capital. The trivial price bounds are thus the tightest ones. In a model with stochastic jumps or non-negative stochastic interest rates either a static or a dynamic superhedge is optimal. Finally, in a model with unbounded short rates, only a static superhedge is possible.
This in-depth analysis proposes ways to retract from supervisory COVID-19 support measures without perils for financial stability. It simulates the likely impact of the corona crisis on euro area banks’ capital and predicts a significant capital shortfall. We recommend to end accounting practices that conceal loan losses and sustain capital relief measures. Our in-depth analysis also proposes how to address the impending capital shortfall in resolution/liquidation and a supranational recapitalisation.
The ECB’s Outright Monetary Transactions (OMT) program, launched in summer 2012, indirectly recapitalized periphery country banks through its positive impact on the value of sovereign bonds. However, the regained stability of the European banking sector has not fully transferred into economic growth. We show that zombie lending behavior of banks that still remained undercapitalized after the OMT announcement is an important reason for this development. As a result, there was no positive impact on real economic activity like employment or investment. Instead, firms mainly used the newly acquired funds to build up cash reserves. Finally, we document that creditworthy firms in industries with a high prevalence of zombie firms suffered significantly from the credit misallocation, which slowed down the economic recovery.
Whatever it takes to understand a central banker : embedding their words using neural networks
(2023)
Dictionary approaches are at the forefront of current techniques for quantifying central bank communication. In this paper, the author propose a novel language model that is able to capture subtleties of messages such as one of the most famous sentences in central bank communications when ECB President Mario Draghi stated that "within [its] mandate, the ECB is ready to do whatever it takes to preserve the euro".
The authors utilize a text corpus that is unparalleled in size and diversity in the central bank communication literature, as well as introduce a novel approach to text quantication from computational linguistics. This allows them to provide high-quality central bank-specific textual representations and demonstrate their applicability by developing an index that tracks deviations in the Fed's communication towards inflation targeting. Their findings indicate that these deviations in communication significantly impact monetary policy actions, substantially reducing the reaction towards inflation deviation in the US.
Stocks are exposed to the risk of sudden downward jumps. Additionally, a crash in one stock (or index) can increase the risk of crashes in other stocks (or indices). Our paper explicitly takes this contagion risk into account and studies its impact on the portfolio decision of a CRRA investor both in complete and in incomplete market settings. We find that the investor significantly adjusts his portfolio when contagion is more likely to occur. Capturing the time dimension of contagion, i.e. the time span between jumps in two stocks or stock indices, is thus of first-order importance when analyzing portfolio decisions. Investors ignoring contagion completely or accounting for contagion while ignoring its time dimension suffer large and economically significant utility losses. These losses are larger in complete than in incomplete markets, and the investor might be better off if he does not trade derivatives. Furthermore, we emphasize that the risk of contagion has a crucial impact on investors' security demands, since it reduces their ability to diversify their portfolios.
Facebook’s proposal to create a global digital currency, Libra, has generated a wide discussion about its potential benefits and drawbacks. This note contributes to this discussion and, first, characterizes similarities and dissimilarities of Libra’s building blocks with existing institutions. Second, the note discusses open questions about Libra which arise from this characterization and, third, potential future developments and their policy implications. A central issue is that Libra raises considerable questions about its role in and impact on the international monetary and financial system that should be addressed before policymakers and regulators give Libra the green light.
What happened in Cyprus
(2013)
This policy letter sheds light on the economic and political backround in Cyprus and provides an analyses of the factors which lead to an intensification of the crisis there. It discusses the severe consequences of the errors made in the recent establishment of an adjustment program for Cyprus by the Europroup for European economic management as a whole.
We show that banks that are facing relatively high locally non-diversifiable risks in their home region expand more across states than banks that do not face such risks following branching deregulation in the 1990s and 2000s. These banks with high locally non-diversifiable risks also benefit relatively more from deregulation in terms of higher bank stability. Further, these banks expand more into counties where risks are relatively high and positively correlated with risks in their home region, suggesting that they do not only diversify but also build on their expertise in local risks when they expand into new regions.
On 23 July 2014, the U.S. Securities and Exchange Commission (SEC) passed the “Money Market Reform: Amendments to Form PF ,” designed to prevent investor runs on money market mutual funds such as those experienced in institutional prime funds following the bankruptcy of Lehman Brothers. The present article evaluates the reform choices in the U.S. and draws conclusions for the proposed EU regulation of money market funds.
Research results confirm the existence of various forms of international tax planning by multinational firms. Prominent examples for firms employing tax avoidance strategies are Amazon, Google and Starbucks. Increasing availability of administrative data for Europe has enabled researchers to study behavioural responses of European multinationals to taxation. The present paper summarizes what we can learn from these recent studies in general and about German multinationals in particular.
What constitutes a financial system in general and the German financial system in particular?
(2003)
This paper is one of the two introductory chapters of the book "The German Financial System". It first discusses two issues that have a general bearing on the entire book, and then provides a broad overview of the German financial system. The first general issue is that of clarifying what we mean by the key term "financial system" and, based on this definition, of showing why the financial system of a country is important and what it might be important for. Obviously, a definition of its subject matter and an explanation of its importance are required at the outset of any book. As we will explain in Section II, we use the term "financial system" in a broad sense which sets it clearly apart from the narrower concept of the "financial sector". The second general issue is that of how financial systems are described and analysed. Obviously, the definition of the object of analysis and the method by which the object is to be analysed are closely related to one another. The remainder of the paper provides a general overview of the German financial system. In addition, it is intended to provide a first indication of how the elements of the German financial system are related to each other, and thus to support our claim from Section II that there is indeed some merit in emphasising the systemic features of financial systems in general and of the German financial system in particular. The chapter concludes by briefly comparing the general characteristics of the German financial system with those of the financial systems of other advanced industrial countries, and taking a brief look at recent developments which might undermine the "systemic" character of the German financial system.
The paper discusses the policy implications of the Wirecard scandal. The study finds that all lines of defense against corporate fraud, including internal control systems, external audits, the oversight bodies for financial reporting and auditing and the market supervisor, contributed to the scandal and are in need of reform. To ensure market integrity and investor protection in the future, the authors make eight suggestions for the market and institutional oversight architecture in Germany and in Europe.
In this paper we argue that the own findings of the SSM THEMATIC REVIEW ON PROFITABILITY AND BUSINESS MODEL and the academic literature on bank profitability do not provide support for the business model approach of supervisory guidance. We discuss in the paper several reasons why the regulator should stay away from intervening in management practices. We conclude that by taking the role of a coach instead of a referee, the supervisor generates a hazard for financial stability.
This in-depth analysis provides evidence on differences in the practice of supervising large banks in the UK and in the euro area. It identifies the diverging institutional architecture (partially supranationalised vs. national oversight) as a pivotal determinant for a higher effectiveness of supervisory decision making in the UK. The ECB is likely to take a more stringent stance in prudential supervision than UK authorities. The setting of risk weights and the design of macroprudential stress test scenarios document this hypothesis. This document was provided by the Economic Governance Support Unit at the request of the ECON Committee.
This document was requested by the European Parliament's Committee on Economic and Monetary Affairs. It was originally published on the European Parliament’s webpage: www.europarl.europa.eu/RegData/etudes/IDAN/2021/689443/IPOL_IDA(2021)689443_EN.pdf
Seit der Einführung des Deutschen Corporate Governance Kodex (Kodex) im Jahr 2002 sind deutsche börsennotierte Unternehmen zur Abgabe der Entsprechenserklärung gemäß § 161 AktG verpflichtet (Comply-or-Explain-Prinzip). Auf der Basis dieser Information soll durch den Druck des Kapitalmarkts die Einhaltung des Kodex überwacht und gegebenenfalls sanktioniert werden. Dabei wird regelmäßig postuliert, dass bei überdurchschnittlicher Befolgung bzw. Nichtbefolgung der Kodex-Empfehlungen eine Belohnung durch Kurszuschläge bzw. eine Sanktionierung durch Kursabschläge erfolgt. Die Ergebnisse einer Ereignisstudie zeigen, dass die Abgabe der Entsprechenserklärung keine erhebliche Kursbeeinflussung auslöst und die für das Enforcement des Kodex angenommene (und erforderliche) Selbstregulierung durch den Kapitalmarkt nicht stattfindet. Es wird daher kritisch hinterfragt, ob der für den Kodex gewählte und grundsätzlich zu begrüßende flexible Regulierungsansatz im System des zwingenden deutschen Gesellschaftsrechts einen geeigneten Enforcement-Mechanismus darstellt. This paper studies the short-run announcement effects of compliance with the German Corporate Governance Code (‘the Code’) on firm value. Event study results suggest that firm value is unaffected by the announcement, although such market reactions to the first time disclosure of the declaration of conformity were widely assumed by the private and public promoters of the Code. This result from acceptance of the German Code add evidence to the hypothesis that regulatory corporate governance initiatives that rely on mandatory disclosure without monitoring and enforcement are ineffective in civil law countries.
Um eine grüne Transformation der Volkswirtschaft zu erreichen, werden Finanzmärkte und die mit ihnen verbundenen Banken eine wichtige Rolle einnehmen müssen. Aber allein vermögen Banken und Kapitalmärkte wenig, wenn sie nicht im Kontext einer klugen, politischen Rahmensetzung und einer transparenten Erfassung der verursachten Schäden auf Unternehmensebene gesehen werden. Diese drei Pfeiler stellen bildlich den tragenden Unterbau für eine Brücke hin zu einer klimaneutralen Wirt-schaftsverfassung dar. Ihr Zusammenwirken ist eine Voraussetzung dafür, dass die Finanzwirtschaft die benötigten Finanzmittel für die grüne Transformation bereitstellen kann.
Über die Wirkung der Förderung der beruflichen Weiterbildung in Ostdeutschland sind in den letzten Jahren zahlreiche empirische Studien durchgeführt worden, die auf den methodischen Fortschritten der Evaluationsforschung aufbauen. Dieser Beitrag stellt die empirische Evidenz im Kontext der institutionellen Regelungen und der methodischen Probleme einer angemessenen mikro- oder makroökonomischen Evaluation dar. Insbesondere behandeln wir die im ostdeutschen Kontext wichtigen Probleme der Mehrfachteilnahmen und der Reduktion der Beschäftigungsquoten für die Teilnehmer kurz vor einer Weiterbildung ("Ashenfelters Tal"), die bislang in empirischen Analysen kaum Berücksichtigung finden. Die durchgeführten mikroökonomischen Evaluationsstudien basieren auf Umfragedaten mit kleinen Teilnehmerzahlen. Die erzielten Evaluationsergebnisse ergeben ein ernüchterndes Bild der Wirkung geförderter Weiterbildung: Es zeigen sich eher negative als positive Maßnahmeneffekte auf die Beschäftigung. Aufgrund der schwachen Datenbasis und verbleibender methodischer Probleme erlaubt die bisherige Evidenz jedoch noch keine wirtschaftspolitischen Schlussfolgerungen. Stattdessen sollten die eher negativen Ergebnisse von der politischen Seite zum Anlass genommen werden, die Voraussetzungen für eine angemessene und kontinuierliche Evaluation der aktiven Arbeitsmarktpolitik zu schaffen.
We use data from the 2009 Internet Survey of the Health and Retirement Study to examine the consumption impact of wealth shocks and unemployment during the Great Recession in the US. We find that many households experienced large capital losses in housing and in their financial portfolios, and that a non-trivial fraction of respondents have lost their job. As a consequence of these shocks, many households reduced substantially their expenditures. We estimate that the marginal propensities to consume with respect to housing and financial wealth are 1 and 3.3 percentage points, respectively. In addition, those who became unemployed reduced spending by 10 percent. We also distinguish the effect of perceived transitory and permanent wealth shocks, splitting the sample between households who think that the stock market is likely to recover in a year’s time, and those who do not. In line with the predictions of standard models of intertemporal choice, we find that the latter group adjusted much more than the former its spending in response to financial wealth shocks.
The authors present evidence of a new propagation mechanism for wealth inequality, based on differential responses, by education, to greater inequality at the start of economic life. The paper is motivated by a novel positive cross-country relationship between wealth inequality and perceptions of opportunity and fairness, which holds only for the more educated. Using unique administrative micro data and a quasi-field experiment of exogenous allocation of households, the authors find that exposure to a greater top 10% wealth share at the start of economic life in the country leads only the more educated placed in locations with above-median wealth mobility to attain higher wealth levels and position in the cohort-specific wealth distribution later on. Underlying this effect is greater participation in risky financial and real assets and in self-employment, with no evidence for a labor income, unemployment risk, or human capital investment channel. This differential response is robust to controlling for initial exposure to fixed or other time-varying local features, including income inequality, and consistent with self-fulfilling responses of the more educated to perceived opportunities, without evidence of imitation or learning from those at the top.
Der vorliegende Beitrag führt eine detaillierte empirische Untersuchung über die Rolle der amtlichen Kursmakler an der Frankfurter Wertpapierbörse durch. Der verwendete Datensatz erlaubt eine Analyse des Einflusses der Maklertätigkeit auf Liquidität und Volatilität sowie eine Beurteilung der Profitabilität der Eigengeschäfte.
Die Beteiligung der Makler am Präsenzhandel ist erheblich. Ihre Eigengeschäfte machen über 20% des Handelsvolumens zu gerechneten Kursen und über 40% des Handelsvolumens im variablen Handel aus. Für letzteren wird zudem dokumentiert, daß die Tätigkeit der Makler zu einer deutlichen Reduktion der Geld-Brief-Spannen beiträgt. Die letztendlich gezahlte effektive Spanne beträgt im Durchschnitt weniger als ein Drittel der Spanne, die sich aus dem Orderbuch ergibt.
Für den Handel zu gerechneten Kursen wird gezeigt, daß die Preisfeststellung durch die Makler zu einer Verringerung der Volatilität führt. Eine Beurteilung des Einflusses der Makler auf die Volatilität im fortlaufenden Handel scheitert daran, daß das hierfür teilweise verwendete Maß, die Stabilisierungsrate, nach unserer Einschätzung keine aussagekräftigen Resultate liefert.
Die Makler erzielten während unseres Untersuchungszeitraums im Durchschnitt keinen Gewinn aus ihren Eigengeschäften. Eine Zerlegung der Gewinne in zwei Komponenten zeigt, daß positive Spannengewinne im Aggregat nicht für entstehende Positionierungsverluste kompensieren können.
Insgesamt zeigt unsere Untersuchung, daß die Kursmakler an den deutschen Wertpapierbörsen einen Beitrag zur Sicherung der Marktqualität leisten. Die Konsequenzen dieser Resultate für die Organisation des Aktienhandels in Deutschland werden diskutiert.
„Bedeutende Finanzplätze“ oder Finanzzentren sind eng abgegrenzte Orte mit einer beträchtlichen Konzentration wichtiger professioneller Aktivitäten aus dem Finanzdienstleistungsbereich und der entsprechenden Institutionen. Allerdings: „Finance is a footloose industry“: Die Finanzbranche kann abwandern, ein Finanzzentrum kann sich verlagern, möglicherweise auch einfach auflösen. Die Möglichkeit der Auflösung und der Abwanderung stellt eine Bedrohung dar, die in der Zeit der Globalisierung und der rasanten Fortschritte der Transport- und der Informations- und Kommunikationstechnik ausgeprägter sein dürfte, als sie je war. Frankfurt ist zweifellos ein „bedeutender Finanzplatz“, und manchen gilt er auch als bedroht. Allein deshalb ist unser Thema wichtig; und auch wenn die Einschätzungen von Bedeutung und Bedrohtheit keineswegs neu sind, ist es doch aktuell. Der Aspekt der Bedrohtheit prägt, wie wir die Frage im Titel verstehen und diskutieren möchten. Was ist ein „bedeutender Finanzplatz“? Selbst wenn man das Attribut „bedeutend“ erst einmal beiseite lässt, ist die Frage keineswegs trivial. Sie zielt ja nicht nur auf eine Begriffsklärung, eine Sprachregelung ab. Hinter dem Begriff steht oft auch eine Vorstellung vom „Wesen“ dessen, was ein Begriff bezeichnet. Also: Was macht einen Finanzplatz aus? Und weiter: Warum gibt es überhaupt Finanzplätze als beträchtliche Konzentrationen von bestimmten wichtigen Aktivitäten und Institutionen? Welche Kräfte führen - oder zumindest führten - zu der räumlichen Konzentration der Aktivitäten und Institutionen, wie wirken diese Kräfte, und wie ändern sie sich gegebenenfalls? Diesen Fragen ist dieser Beitrag im Wesentlichen gewidmet, und sie prägen seinen Aufbau. Im Abschnitt II wird diskutiert, was ein „bedeutender Finanzplatz“ ist oder woran man ihn erkennt und „was er braucht“. Im Abschnitt III gehen wir zuerst auf die Frage nach der in letzter Zeit unter dem Stichwort „the end of geography“ heftig diskutierten Vorstellung einer Auflösung oder Virtualisierung der Finanzplätze ein – nicht weil dies die wichtigere Bedrohung wäre, sondern weil es die grundlegendere Frage darstellt. Dann diskutieren wir den Wettbewerb von Finanzplätzen in Europa. Den Abschluss bilden Überlegungen zu den Perspektiven des Finanzplatzes Frankfurt und der möglichen Förderung seiner Entwicklung.
Von Februar bis Juni 2015 hat die Europäische Zentralbank (EZB) die Notfall-Liquiditätshilfen (emergency liquidity assistance, ELA) für griechische Banken von 50 auf etwa 90 Milliarden Euro ausgeweitet. Dies hat zu einer Diskussion unter Wissenschaftlern, Politikern und Praktikern geführt, ob diese Liquiditätshilfen rechtmäßig sind. Es wurde der Vorwurf erhoben, die EZB trage bewusst zu einer Konkursverschleppung der bereits insolventen griechischen Banken bei.
Wir nehmen diesen Vorwurf zum Anlass, die Grundsätze des ELA-Programms genauer zu betrachten und die Frage zu diskutieren, ob das Programm in der aktuellen Situation rechtmäßig war. Zunächst beschreiben wir hierfür aus finanzwirtschaftlicher Perspektive die komplexe Beziehung zwischen der Europäischen Union, der EZB und den griechischen Banken. Dabei gehen wir insbesondere auf die wirtschaftspolitischen Grundsätze einer Währungsunion mit einer unvollständigen Fiskalunion (oder Haushaltskonsolidierung) ein. Vor diesem Hintergrund analysieren wir dann die Entscheidung der EZB, weiterhin Liquiditätshilfen an griechische Banken bereitzustellen. Wir kommen zu dem Ergebnis, dass das Vorgehen der EZB nicht als Konkursverschleppung zu bezeichnen ist.
The right to ask questions and voice their opinions at annual general meetings (AGMs) represents one of the few avenues for shareholders to communicate directly and publicly with the firm’s management. Examining AGM transcripts of U.S. companies between 2007 and 2021, we find that shareholders actively express their concerns about environmental, social and governance (ESG) issues in accordance with their specific relationship with the company. Further, they are also demonstrably more vocal about ESG issues at AGMs of firms with poor sustainability performance. What is more, we show that this soft engagement translates into a more negative tone which, in turn, results in lower approval rates for management proposals. Shareholders' soft engagement at AGMs is hence an effective way to "walk the talk".
Vom Kinderzuschlag zum Kindergeldzuschlag : ein Reformvorschlag zur Bekämpfung von Kinderarmut
(2007)
Ausgehend von einer kritischen Analyse des im Zuge der Hartz IV-Reform 2005 eingeführten Kinderzuschlags wird in der vorliegenden Studie ein Reformkonzept zur Bekämpfung von Kinderarmut entwickelt und eine quantitative Abschätzung der unmittelbaren Reformwirkungen vorgenommen. Bei der Gestaltung des Reformvorschlags wurde an Grundprinzipien des allgemeinen Familienleistungsausgleichs angeknüpft. Dieser sollte unabhängig von der jeweiligen Armutsursache das Existenzminimum des Kindes nicht nur von der Steuer freistellen, sondern im Bedarfsfall durch positive Transfers – mit einem Kindergeldzuschlag – gewährleisten. Dies erfordert a) die Aufstockung des Kindergeldes durch einen Zuschlag auf die Höhe des sächlichen Existenzminimums, also um maximal 150 Euro auf 304 Euro – bei Alleinerziehenden wegen besonderer Mehrbedarfe für das erste Kind um maximal 250 Euro auf 404 Euro; b) den Verzicht auf eine zeitliche Befristung des Kindergeldzuschlags; c) die Berücksichtigung des Familieneinkommen nach Abzug eines Freibetrages in Höhe des pauschalisierten Existenzminimums der Eltern bzw. des Elternteils (1.238 Euro bzw. 860 Euro); d) eine mäßige (mit Besteuerungsgrundsätzen vereinbare) Anrechnung des zu berücksichtigenden Einkommens – wir schlagen eine Transferentzugsrate von 50% vor; e) den Verzicht auf eine Berücksichtigung des Vermögens. Wesentliche Unterschiede des Reformkonzepts gegenüber dem derzeitigen Kinderzuschlag liegen in der Ersetzung der „spitzen“ Berechnung des elterlichen Existenzminimums durch eine Pauschale und in dem Verzicht zum Einen auf eine explizite Höchsteinkommensgrenze – aus der Transferentzugsrate ergibt sich freilich eine implizite Höchsteinkommensgrenze – und zum Anderen auf eine Mindesteinkommensgrenze. Es bleibt den Eltern also unbenommen, den Kindergeldzuschlag in Anspruch zu nehmen, selbst wenn ihre Einkommensverhältnisse und individuellen Wohnkosten auf einen höheren ALG II-Anspruch schließen lassen, den sie aber nicht wahrnehmen – sei es aus Stigmatisierungsangst, aus Unwissenheit, weil sie den Verweis auf kleine Ersparnisse befürchten oder sich von dem bürokratischen Aufwand abschrecken lassen. Aus vorliegenden Schätzungen geht hervor, dass aus den genannten Grün den das Ausmaß verdeckter Armut groß ist. Dem könnte durch einen vergleichsweise unbürokratischen Kindergeldzuschlag entgegengewirkt werden, insbesondere wenn der Leistungsträger, also die Familienkasse, verpflichtet wird, bei sehr geringem Einkommen des Antragstellers diesen auf möglicherweise bestehende höhere ALG II-Ansprüche hinzuweisen. Zur Abschätzung der unmittelbaren Reformwirkungen wurde ein Mikrosimulationsmodell entwickelt und mit den Daten des Sozio-ökonomischen Panels 2006 in mehreren Varianten gerechnet. Auf der Basis einer bereinigten Stichprobe ergeben sich – je nach Reformvariante – 3 Mio. bis 3,6 Mio. potenziell begünstigte Kinder, was etwa einem Sechstel bzw. einem Fünftel aller Kinder, für die Kindergeld bezogen wird, entspricht. Unter den Kindern von Alleinerziehenden würde die Empfängerquote mit gut einem Drittel weit überdurchschnittlich ausfallen. Die fiskalischen Bruttokosten des Reformmodells würden sich auf 3,7 Mrd. bzw. 4,5 Mrd. Euro jährlich (11% bzw. 13% der derzeitigen Kindergeldausgaben) belaufen; sie würden durch einige Einsparungen beim nachrangigen Wohngeld, bei ausbildungsbedingten Transfers sowie beim ALG II – sofern einige Anspruchsberechtigte den Bezug des Kindergeldzuschlags vorziehen – etwas vermindert werden. Der durchschnittliche Zahlbetrag pro Bedarfsgemeinschaft mit Anspruch auf Kindergeldzuschlag liegt bei 190 Euro p. M., der Median bei 150 Euro. Mit dem insgesamt begrenzten Mittelaufwand kann eine erhebliche Verminderung relativer Einkommensarmut von Familien erreicht werden. Die derzeit bei etwa 18% liegende Armutsquote von Kindern, für die Kindergeld bezogen wird, würde nach Einführung des Kindergeldzuschlags um etwa vier Prozentpunkte zurückgehen, die aller Mitglieder in den Familien von 16% um drei Prozentpunkte. Mit etwa zwei Dritteln lebt der größte Teil der potenziellen Anspruchsberechtigten in erwerbstätigen Familien, und die relative stärkste Verminderung der Armutsquote ergibt sich bei Familien mit Vollzeiterwerbstätigkeit. Die mit dem Kindergeldzuschlag zu bewirkende Verminderung von Kinderarmut würde wegen der hohen Erwerbsquote von Familien also mit einem Abbau von Armut trotz Arbeit einhergehen. Besonders große Reformwirkungen zeigen sich bei den Alleinerziehenden, für welche die Simulation eine Reduzierung der derzeit bei 40% liegenden Armutsquote um etwa acht Prozentpunkte ergibt. Dennoch verbliebe die Armutsquote auch nach Einführung des Kindergeldzuschlags auf einem bedrückend hohen Niveau. Dies ist ganz überwiegend auf die große Zahl der Alleinerziehenden mit Bezug von ALG II und Sozialgeld bzw. Sozialhilfe zurückzuführen, die annahmegemäß nach der Reform im Grundsicherungsbezug verbleiben, den vorrangigen Kindergeldzuschlag also nicht in Anspruch nehmen. Bei den Paarfamilien zeigt sich – relativ gesehen – ein ähnlicher Effekt des Kindergeldzuschlags wie bei den Alleinerziehenden; die Armutsquote von derzeit 12,5% würde um ein Fünftel auf 10% zurückgehen. Dabei fällt die Reformwirkung umso größer aus, je mehr Kinder in der Familie leben. Bei den trotz Einführung des Kindergeldzuschlags unter der relativen Armutsgrenze verbleibenden Paarfamilien handelt es sich zu einem geringeren Teil als bei den Alleinerziehenden um Empfänger von nachrangigen allgemeinen Grundsicherungsleistungen und zu einem größeren Teil um Fälle, bei denen auch das um den Kindergeldzuschlag erhöhte Einkommen die Armutsgrenze nicht erreicht. Ihre Situation würde sich dennoch durch die Reform erheblich verbessern, da die relative Armutslücke im Durchschnitt von 21% auf 14% zurückgehen würde; dies entspricht einer Einkommenserhöhung von durchschnittlich 267 Euro. Abschließend bleibt darauf hinzuweisen, dass der hier vorgestellte Reformvorschlag lediglich als erster Schritt zu einer allgemeinen Grundsicherung für Kinder zu verstehen ist. Er wurde unter dem Aspekt einer schnellen Umsetzbarkeit entwickelt, sollte aber weiter reichende Überlegungen nicht verdrängen. Diese haben nicht nur das sächliche Existenzminimum des Kindes, sondern darüber hinaus den verfassungsgerichtlich festgestellten Betreuungs- und Erziehungs- oder Ausbildungsbedarf (BEA) in den Blick zu nehmen. Er wird im Rahmen der Einkommensbesteuerung durch einen Freibetrag berücksichtigt (§ 32 Abs. 6 EStG), ist in die Bemessung des hier vorgestellten Kindergeldzuschlags aber nicht eingegangen. Eine systematische Weiterentwicklung des Familienleistungsausgleichs im Steuerrecht würde die Einführung eines einheitlichen (Brutto-) Kindergeldes zur Abdeckung von sächlichem Existenzminimum und BEA erfordern, das entsprechend der Leistungsfähigkeit der Eltern, also nach dem allgemeinen Einkommensteuertarif, zu versteuern wäre (Lenze 2007).
Discretionary disclosure theory suggests that firms' incentives to provide proprietary versus nonproprietary information differ markedly. To test this conjecture, the paper investigates the incentives of German firms to voluntarily disclose business segment reports and cash flow statements in their annual financial reports. While the former is likely to reveal proprietary information to competitors, the latter is less proprietary in nature. Using these proxies for proprietary and non-proprietary disclosures, respectively, I find that the determinants or at least their relative magnitudes differ in a way consistent with the proprietary cost hypothesis. That is, cash flow statement disclosures appear to be governed primarily by capital-market considerations, whereas segment disclosures are more strongly associated with proxies for product-market and proprietary-cost considerations.
We show that time-varying volatility of volatility is a significant risk factor which affects the cross-section and the time-series of index and VIX option returns, beyond volatility risk itself. Volatility and volatility-of-volatility measures, identified model-free from the option price data as the VIX and VVIX indices, respectively, are only weakly related to each other. Delta-hedged index and VIX option returns are negative on average, and are more negative for strategies which are more exposed to volatility and volatility-of-volatility risks. Volatility and volatility of volatility significantly and negatively predict future delta-hedged option payoffs. The evidence is consistent with a no-arbitrage model featuring time-varying market volatility and volatility-of-volatility factors, both of which have negative market price of risk.
We define a sentiment indicator that exploits two contrasting views of return predictability, and study its properties. The indicator, which is based on option prices, valuation ratios and interest rates, was unusually high during the late 1990s, reflecting dividend growth expectations that in our view were unreasonably optimistic. We interpret it as helping to reveal irrational beliefs about fundamentals. We show that our measure is a leading indicator of detrended volume, and of various other measures associated with financial fragility. We also make two methodological contributions. First, we derive a new valuation-ratio decomposition that is related to the Campbell and Shiller (1988) loglinearization, but which resembles the traditional Gordon growth model more closely and has certain other advantages for our purposes. Second, we introduce a volatility index that provides a lower bound on the market's expected log return.
We extend the classical ”martingale-plus-noise” model for high-frequency prices by an error correction mechanism originating from prevailing mispricing. The speed of price reversal is a natural measure for informational efficiency. The strength of the price reversal relative to the signal-to-noise ratio determines the signs of the return serial correlation and the bias in standard realized variance estimates. We derive the model’s properties and locally estimate it based on mid-quote returns of the NASDAQ 100 constituents. There is evidence of mildly persistent local regimes of positive and negative serial correlation, arising from lagged feedback effects and sluggish price adjustments. The model performance is decidedly superior to existing stylized microstructure models. Finally, we document intraday periodicities in the speed of price reversion and noise-to-signal ratios.
The implications of delegating fiscal decision making power to sub-national governments has become an area of significant interest over the past two decades, in the expectation that these reforms will lead to better and more efficient provision of public goods and services. The move towards decentralization has, however, not been homogeneously implemented on the revenue and expenditure side: decentralization has materialized more substantially on the latter than on the former, creating "vertical fiscal imbalances". These imbalances measure the extent to which sub-national governments’ expenditures are financed through their own revenues. This mismatch between own revenues and expenditures may have negative consequences for public finances performance, for example by softening the budget constraint of sub-national governments. Using a large sample of countries covering a long time period from the IMF’s Government Finance Statistics Yearbook, this paper is the first to examine the effects of vertical fiscal imbalances on fiscal performance through the accumulation of government debt. Our findings suggest that vertical fiscal imbalances are indeed relevant in explaining government debt accumulation, and call for a degree of caution when promoting fiscal decentralization.
Differenzierte Verdienststrukturen, wie zum Beispiel qualifikatorische Verdienstunterschiede, tragen der Heterogenität am Arbeitsmarkt und somit auch einer notwendigen Flexibilität der Löhne Rechnung. Trotz dieser bedeutenden Rolle der Lohnstruktur für den Arbeitsmarkt gibt es relativ wenig detaillierte empirische Evidenz zu deren Ausgestaltung und Dynamik für Westdeutschland. In dieser Arbeit werden auf Basis der Gehalts- und Lohnstrukturerhebungen für die Jahre 1990 und 1995 sowohl die Lohndispersion innerhalb bestimmter Erwerbsgruppen („Within-Dispersion“) als auch zwischen diesen Gruppen („Between-Dispersion“) untersucht. Im Fokus der Analysen steht dabei der Vergleich zwischen den Erwerbsgruppen der vollzeitbeschäftigten Männer, der vollzeitbeschäftigten Frauen und der teilzeitbeschäftigten Frauen nach den Qualifikationsniveaus: ohne Berufsabschluss, mit Berufsabschluss und mit Hochschulabschluss. Dichteschätzungen des Bruttotageslohns zeigen, dass vollzeiterwerbstätige Männer über die gesamte Verteilung den höchsten Verdienst aufweisen. Weiterhin deuten die Dichteschätzungen darauf hin, dass die geschlechtsspezifischen Lohndifferentiale mit zunehmendem Verdienst steigen. Der selbe Sachverhalt findet sich auch für die qualifikatorischen Verdienstunterschiede. Mit steigendem Qualifikationsniveau steigt sowohl der Lohn als auch die Dispersion. Besonders ausgeprägt ist die qualifikatorische Dispersion für Männer. Eine Analyse der Lohndifferentiale sowohl innerhalb der Erwerbsgruppen als auch zwischen Männern und Frauen weist darauf hin, dass in der Gruppe der teilzeiterwerbstätigen Frauen die größte Lohndispersion vorzufinden ist und dass diese im Zeitablauf zugenommen hat. Ferner sind die Lohndifferentiale im unteren Bereich der Verteilung kleiner als im oberen. Die weitere Disaggregation nach dem Qualifikationsniveau reduziert die Within-Dispersion, wobei die Lohnunterschiede innerhalb der Erwerbsgruppen mit steigendem Qualifikationsniveau tendenziell zunehmen. Schließlich nimmt die Within-Dispersion für vollzeitbeschäftigte Hochschulabsolventinnen im Zeitablauf zu, während sie für die Teilzeitbeschäftigten sinkt. Betrachtet man die Qualifikations- und die Verteilungsdimension, zeigt sich, dass in beiden Jahren lediglich für vollzeiterwerbstätige Frauen ohne Berufsabschluss bzw. mit Hochschulabschluss das geschlechtsspezifische Differential über die Verteilung hinweg steigt. Für alle anderen Gruppen geht es über die Verteilung hinweg zurück. Die Lohndifferentiale zwischen Männern und Frauen haben im Zeitablauf abgenommen. Das mittlere Reallohnwachstum zwischen 1990 und 1995 ist für teilzeiterwerbstätige Frauen mit 6,8% am höchsten und für vollzeiterwerbstätige Männer mit 0,7% am geringsten. Die Reduktion der geschlechtsspezifischen Unterschiede im Zeitablauf ist unter Berücksichtigung des Qualifikationsniveaus noch ausgeprägter. Dies gilt vor allem für teilzeiterwerbstätige Frauen ohne Berufsabschluss und mit Hochschulabschluss. Für teilzeiterwerbstätige Frauen und für vollzeiterwerbstätige Männer findet sich im Zeitablauf eine zunehmende Lohnspreizung, während für vollzeiterwerbstätige Frauen die Verteilung konstant bleibt. Eine Zunahme der Lohnspreizung ist dabei insbesondere bei Hochschulabsolventen festzustellen, sowohl für vollzeiterwerbstätige Männer wie Frauen. Im Unterschied dazu hat für diese Erwerbsgruppen die Lohndispersion bei den Mittelqualifizierten in den 90er Jahren abgenommen.
Versicherungsunternehmen haben bei der Auswahl ihrer Vermögensanlagen die gesetzlichen Restriktionen des Versicherungsaufsichtsgesetzes einzuhalten. Neben einer strukturierten Darstellung der zahlreichen Regulierungstatbestände werden aus Sicht der Finanzierungstheorie sowie den empirischen Verhältnissen an den Kapitalmärkten die im VAG enthaltenen Rahmenbedingungen einer kritischen Bewertung unterzogen.
Unter Berücksichtigung der implementationsanalytischen und kausalen Analysen für die Einführungsphase der Vermittlungsgutscheine kommen die Autoren zu dem Schluss, dass die Erprobungsphase dieses arbeitsmarktpolitischen Instruments fortgesetzt werden sollte. Aus der Implementationsanalyse zeigt sich, dass der Verbreitungsgrad des Instruments auch nach 27 Monaten Erprobungsphase sehr gering ist. Die kausalen Analysen beziehen sich aufgrund begrenzter Datenverfügbarkeit lediglich auf zwei Ausgabemonate ein Jahr nach Einführung des Instruments (Mai und Juni 2003) und zeigen geringe positive Beschäftigungseffekte auf der Mikro-Ebene. Ob dadurch die Kosten der Vermittlungsgutscheine gerechtfertigt sind, lässt sich derzeit noch nicht abschließend beurteilen. Anzeichen für Mitnahmeeffekte und/oder Missbrauch existieren. Auch haben erfolgreiche Vermittlungen durch Gutscheine die Beschäftigungschancen in anderen Gruppen geschmälert. Deshalb werden verschiedene Vorschläge für eine kosteneffizientere Ausgestaltung der Vermittlungsgutscheine dargestellt und diskutiert. Insbesondere wird auf die Vorschläge des Bundeskabinetts vom 01.09.2004 eingegangen.
Die vorliegende Analyse untersucht die Beschäftigungseffekte von Vermittlungsgutscheinen und Personal-Service-Agenturen mit Hilfe einer makroökonometrischen Evaluation. Neben einer mikroökonometrischen Evaluation, welche die Wirkungen auf individueller Ebene untersucht, kann eine makroökonometrische Analyse Aussagen über die gesamtwirtschaftlichen Effekte der Maßnahmen machen. Die strukturellen Multiplikatorwirkungen im makroökonomischen Kreislaufzusammenhang werden jedoch nicht berücksichtigt. Das ökonometrische Modell zur Analyse der beiden Maßnahmen basiert auf einer Matching-Funktion, die den Suchprozess von Firmen und von Arbeitern nach einem Beschäftigungsverhältnis abbildet. Die empirischen Analysen werden getrennt für Ost- und Westdeutschland sowie für die Strategietypen der Bundesagentur für Arbeit durchgeführt. Sie zeigen, dass die Ausgabe von Vermittlungsgutscheinen nur in „großstädtisch geprägten Bezirken vorwiegend in Westdeutschland mit hoher Arbeitslosigkeit“ (Strategietyp II) einen signifikant positiven Effekt auf den Suchprozess hat. Für die Personal-Service-Agenturen zeigen sich signifikant positive Effekte für Ost- als auch für Westdeutschland. Allerdings fehlt für eine abschließende Bewertung der Ergebnisse für die Personal- Service-Agenturen aufgrund der relativ geringen Teilnehmerzahl noch ein Vergleich mit mikroökonometrischen Analysen.
In den letzten Jahren wurden verschiedene Modelle entwickelt, um das Ausfallrisiko von Banken unter Berücksichtigung von Portfolioeffekten zu quantifizieren. Bisher hat sich kein Ansatz als allgemein akzeptierter Standard durchsetzen können. Da die Modelle grundlegende konzeptionelle Unterschiede aufweisen und unterschiedliche empirische Inputdaten verwenden, hat die Auswahl eines Kreditrisikomodells unter Umständen einen erheblichen Einfluß auf die Kreditportfoliosteuerung der Bank. In diesem Beitrag soll deshalb geklärt werden, ob die Modelle systematisch abweichende Value-at-Risk-Werte berechnen und worin die Ursachen für auftretende Abweichungen liegen. Zunächst wird gezeigt, daß die bestehenden Kreditrisikomodelle in zwei grundlegende Klassen eingeteilt werden können: Assetwert-basierte Modelle und auf Ausfallraten basierende Modelle. Am Beispiel eines Musterportfolios von Krediten an deutsche Baufirmen werden zwei Vertreter der Modellklassen (CreditMetrics und CreditRisk+) verglichen und der Effekt der unterschiedlichen empirischen Inputparameter auf die Risikoergebnisse abgeschätzt. Die Analyse zeigt erhebliche Unterschiede zwischen den Modellen. Eine Analyse der Abweichungsursachen ergibt allerdings, daß der Grund für die großen Value-at-Risk-Unterschiede in erster Linie in den unterschiedlichen empirischen Inputdaten liegt, welche zu unterschiedlichen impliziten Korrelationsannahmen führen. Es wird gezeigt, wie die Modellparameter gewählt werden müssen, um identische Korrelationen zu erzeugen. Bei konsistenten Korrelationsannahmen stimmen die Ergebnisse beider Modelle weitgehend überein. Keywords: Credit Risk Models, credit risk correlation
Das Working Paper bietet die zusammenfassende Stellungnahme von Prof. Volker Wieland zum Ankaufprogramm der Europäischen Zentralbank für Anleihen des öffentlichen Sektors (Public Sector Purchase Programme, PSPP) am Bundesverfassungsgericht am 30.07.2019. Dabei liegt der Schwerpunkt auf der Frage der Einordnung des PSPP als monetäre, geldpolitische Maßnahme und der Verhältnismäßigkeit des Programms und seiner Umsetzung. Ebenfalls wird kurz auf die weiteren Fragen zur Umsetzung, insbesondere Ankündigung, Begrenzung und Abstand zum Primärmarkt für Staatsanleihen eingegangen.
Ziel dieser Präsentation (anlässlich des Seminars „Die Auswirkungen von Asset Securitisation auf die Stabilität des Finanzmarktes“ Österreichische Nationalbank (ÖNB), Wien 1. Oktober 2003) ist es, eine Verbindung zwischen Verbriefung und Finanzmarkstabilität unter Berücksichtigung veränderter Finanzintermediation herzustellen. In der folgenden Abhandlung soll nun zunächst auf die Natur der Verbriefung per se eingegangen werden, um sodann anhand theoretischer Überlegungen und empirischer Beobachtungen mögliche Quelle systemischen Risikos in der Kreditverbriefung aufzuzeigen. In diesem Fall handelt es sich um die Informationsasymmetrien und die durch Handelbarkeit von Kreditrisiko bestimmte Transaktionsstruktur („security design“), die bei regulatorischer Nichtberücksichtigung eine destabilisierende Wirkung nicht nur im Bereich der Verbriefung, sondern auch hinsichtlich der gegenseitigen Zahlungsverpflichtungen von Finanzintermediären begründen könnte.
Venture capital-backed firms, unavoidable value-destroying trade sales, and fair value protections
(2020)
This paper investigates the implications of the fair value protections contemplated by the standard corporate contract (i.e., the standard contract form for which corporate law provides) for the entrepreneur–venture capitalist relationship, focusing, in particular, on unavoidable value-destroying trade sales. First, it demonstrates that the typical entrepreneur–venture capitalist contract does institutionalize the venture capitalist’s liquidity needs, allowing, under some circumstances, for counterintuitive instances of contractually-compliant value destruction. Unavoidable value-destroying
trade sales are the most tangible example. Next, it argues that fair value protections can prevent the entrepreneur and venture capitalist from allocating the value that these transactions generate as they would want. Then, it shows that the reality of venture capital-backed firms calls for a process of adaptation of the standard corporate contract that has one major step in the deactivation or re-shaping of fair value protections. Finally, it argues that a standard corporate contract aiming to promote social welfare through venture capital should feature flexible fair value protections
This paper addresses the need for transparent sustainability disclosure in the European Auto Asset-Backed Securities (ABS) market, a crucial element in achieving the EU's climate goals. It proposes the use of existing vehicle identifiers, the Type Approval Number (TAN) and the Type-Variant-Version Code (TVV), to integrate loan-level data with sustainability-related vehicle information from ancillary sources. While acknowledging certain challenges, the combined use of TAN and TVV is the optimal solution to allow all stakeholders to comprehensively assess the environmental characteristics of securitised exposure pools in terms of data protection, matching accuracy, and cost-effectiveness.
Im Rahmen des Value Based Managements sollen alle Manahmen der Unternehmensfhrung auf die Steigerung des intrinsischen Marktwertes des Eigenkapitals ausgerichtet werden. Hauptanwendungsbereiche des Value Based Managements sind die Planung, Performancemessung, Managemententlohnung sowie die Bereichssteuerung. Eine konsequente shareholder-orientierte Steuerung beinhaltet eine adquate Ermittlung von Wertbeitrgen in den einzelnen Anwendungsbereichen. Hierzu dienen insbesondere absolute Wertbeitragskennzahlen in Form von Residualgewinnen. Residualgewinne sind dadurch gekennzeichnet, dass der Gewinn um eine auf das Gesamtkapital bezogene Capital bzw. Interest Charge reduziert wird. Der magebliche Gewinn sowie das Gesamtkapital ergeben sich, indem die handelsrechtlichen Gren durch mehr oder minder weitreichende Modifikationen angepasst werden. Die Berechnung der Interest Charge erfolgt entweder auf Basis eines risikoangepassten Zinssatzes oder auf Basis eines risikofreien Zinssatzes. In der Praxis finden sich zahlreiche unterschiedliche Residualgewinnkonzepte, die sich insbesondere durch die jeweils charakteristischen Modifikationen und durch den verwendeten Zinssatz zur Berechnung der Kapitalkosten unterscheiden.1) Herkmmliche Konzepte zeichnen sich dadurch aus, dass die Interest Charge auf Basis eines risikoangepassten Zinssatzes berechnet wird. Das in Velthuis (2003c) theoretisch entworfene und von der KPMG in der Praxis umgesetzte Konzept Earnings less Riskfree Interest Charge, ERIC , ist hingegen dadurch charakterisiert, dass zur Berechnung der Interest Charge ein risikofreier Zinssatz verwendet wird. Ferner werden Modifikationen nur insofern vorgenommen, als dass eine vollstndige Bercksichtigung aller Erfolgskomponenten gewhrleistet wird. Glaubt man den Vertretern herkmmlicher Konzepte, basieren diese Konzepte auf einer hinreichenden theoretischen Fundierung. Diesem Anspruch gengen solche Konzepte tatschlich jedoch nicht, sie zeichnen sich gerade durch eine mangelnde theoretische Fundierung aus.2) In Velthuis (2003c) wird verdeutlicht, dass die in der Praxis verbreitete Vorgehensweise gerade zum Ausweis von Wertbeitrgen fhrt, die inkonsistent mit der Zielsetzung der Shareholder sind. In allen Anwendungsbereichen des VBM zeigt sich nmlich aus theoretischer Sicht die Problematik der VerIm Rahmen des Value Based Managements sollen alle Maßnahmen der Unternehmensführung auf die Steigerung des intrinsischen Marktwertes des Eigenkapitals ausgerichtet werden. Hauptanwendungsbereiche des Value Based Managements sind die Planung, Performancemessung, Managemententlohnung sowie die Bereichssteuerung. Eine konsequente shareholder-orientierte Steuerung beinhaltet eine adäquate Ermittlung von Wertbeiträgen in den einzelnen Anwendungsbereichen. Hierzu dienen insbesondere absolute Wertbeitragskennzahlen in Form von Residualgewinnen. Residualgewinne sind dadurch gekennzeichnet, dass der Gewinn um eine auf das Gesamtkapital bezogene Capital bzw. Interest Charge reduziert wird. Der maßgebliche Gewinn sowie das Gesamtkapital ergeben sich, indem die handelsrechtlichen Größen durch mehr oder minder weitreichende Modifikationen angepasst werden. Die Berechnung der Interest Charge erfolgt entweder auf Basis eines risikoangepassten Zinssatzes oder auf Basis eines risikofreien Zinssatzes. In der Praxis finden sich zahlreiche unterschiedliche Residualgewinnkonzepte, die sich insbesondere durch die jeweils charakteristischen Modifikationen und durch den verwendeten Zinssatz zur Berechnung der Kapitalkosten unterscheiden.1) Herkömmliche Konzepte zeichnen sich dadurch aus, dass die Interest Charge auf Basis eines risikoangepassten Zinssatzes berechnet wird. Das in Velthuis (2003c) theoretisch entworfene und von der KPMG in der Praxis umgesetzte Konzept Earnings less Riskfree Interest Charge, ERIC Ò , ist hingegen dadurch charakterisiert, dass zur Berechnung der Interest Charge ein risikofreier Zinssatz verwendet wird. Ferner werden Modifikationen nur insofern vorgenommen, als dass eine vollständige Berücksichtigung aller Erfolgskomponenten gewährleistet wird. Glaubt man den Vertretern herkömmlicher Konzepte, basieren diese Konzepte auf einer hinreichenden theoretischen Fundierung. Diesem Anspruch genügen solche Konzepte tatsächlich jedoch nicht, sie zeichnen sich gerade durch eine mangelnde theoretische Fundierung aus.2) In Velthuis (2003c) wird verdeutlicht, dass die in der Praxis verbreitete Vorgehensweise gerade zum Ausweis von Wertbeiträgen führt, die inkonsistent mit der Zielsetzung der Shareholder sind. In allen Anwendungsbereichen des VBM zeigt sich nämlich aus theoretischer Sicht die Problematik der Verwendung eines risikoangepassten Zinssatzes zur Berechnung von Kapitalkosten: Schon die Verwendung eines risikoangepassten Kapitalkostensatzes im Rahmen der Planung kann problematisch sein. Die Verwendung risikoangepasster Kapitalkosten als Benchmark bei der Performancemessung ist sogar ganz abzulehnen, und bei der Managemententlohnung ist die Verrechnung von risikoangepassten Kapitalkosten zwingend mit Fehlanreizen verbunden. Aber auch praxisübliche Modifikationen erweisen sich als problematisch, da Erfolgskomponenten nicht bzw. nicht vollständig berücksichtigt werden. Im Gegensatz zu herkömmlichen Konzepten weist das VBM-Konzept ERIC eine tatsächliche theoretische Fundierung auf. In Velthuis (2003c) werden grundlegende theoretische und praktische Anforderungen für die einzelnen Anwendungsbereiche herausgearbeitet und es wird gezeigt, dass ein integriertes VBM-Konzept auf Basis des Residualgewinns ERIC diese Anforderungen stets erfüllt. Ziel dieses Aufsatzes ist es, die Grundkonzeption von ERIC theoretisch weiter zu entwickeln. Während in Velthuis (2003c) stets von einer sehr einfachen Idealwelt ausgegangen wird, soll hier zum einen verdeutlicht werden, wie ein erfolgreiches Value Based Management auf Basis von ERIC in komplexeren und realitätsnäheren Situationen erfolgen kann. Zum anderen gilt es, zusätzliche praktische Problembereiche zu erkennen und Lösungsmöglichkeiten aufzuzeigen. Der Aufsatz ist wie folgt aufgebaut: Zunächst wird gezeigt, wie der Residualgewinn ERIC zu berechnen ist, und es wird ein Überblick über die Anwendungsbereiche gegeben. Anschließend wird die grundlegende Entscheidungssituation für die späteren Darstellungen erörtert und es werden fundamentale Prinzipien des Value Based Managements und ihre Bedeutung für die einzelnen Anwendungsbereichen erläutert. Sodann wird für die einzelnen Bereichen des Value Based Managements, der Planung, Performancemessung, Managemententlohnung und der Bereichssteuerung gezeigt, wie ERIC anzuwenden ist, damit eine tatsächliche Shareholder-Orientierung gewährleistet wird. Die Darstellungen erfolgen dabei jeweils zunächst vor dem Hintergrund einer Idealwelt. In einem zweiten Schritt wird die Entscheidungssituation jeweils modifiziert, um der Realität ein Stück näher zu kommen.
When parties present divergent econometric evidence, the court may view such evidence as contradictory and thus ignore it completely, without conducting closer analysis. We develop a simple method for distinguishing between actual and merely apparent contradiction based on the statistical concept of the “severity” of the furnished evidence. Again using “severity”, we also propose a method for reconciling divergent findings in instances of mere seeming contradiction. Our chosen application is that of damage estimation in follow-on cases.
This paper compares the accuracy of credit ratings of Moody s and Standard&Poors. Based on 11,428 issuer ratings and 350 defaults in several datasets from 1999 to 2003 a slight advantage for the rating system of Moody s is detected. Compared to former research the robustness of the results is increased by using nonparametric bootstrap approaches. Furthermore, robustness checks are made to control for the impact of Watchlist entries, staleness of ratings and the effect of unsolicited ratings on the results.
Using a nonlinear Bayesian likelihood approach that fully accounts for the zero lower bound on nominal interest rates, the authors analyze US post-crisis business cycle dynamics and provide reference parameter estimates. They find that neither the inclusion of financial frictions nor that of household heterogeneity improve the empirical fit of the standard model, or its ability to provide a joint explanation for the post-2007 dynamics. Associated financial shocks mis-predict an increase in consumption. The common practice of omitting the ZLB period in the estimation severely distorts the analysis of the more recent economic dynamics.
In this study, we unpack the ESG ratings of four prominent agencies in Europe and find that (i) each single E, S, G pillar explains the overall ESG score differently,(ii) there is a low co-movement between the three E, S, G pillars and (iii) there are specific ESG Key Performance Indicators (KPIs) that are driving these ratings more than others. We argue that such discrepancies might mislead firms about their actual ESG status, potentially leading to cherry-picking areas for improvement, thus raising questions about the accuracy and effectiveness of ESG evaluations in both explaining sustainability and driving capital toward sustainable companies.
This paper analyzes the relationship between monetary policy and financial stability in the Banking Union. There is no uniform global model regarding the relationship between monetary policy-making on the one hand, and prudential supervision on the other. Before the crisis, EU Member States followed different approaches, some of them uniting monetary and supervisory functions in one institution, others assigning them to different, neatly separated institutions. The financial crisis has underlined that monetary policy and prudential supervision deeply affect each other, especially in case of systemic events. Even in normal times, monetary and supervisory decisions might conflict with each other. After the crisis, some jurisdictions have moved towards a more holistic approach under which monetary policy takes supervisory considerations into account, while supervisory decisions pay due regard to monetary policy.
The Banking Union puts prudential supervision in the hands of the European Central Bank (ECB), the institution responsible for monetary policy. Nevertheless, at its establishment there was the political understanding that the ECB should follow a policy of meticulous separation in the discharge of its different functions. This raises the question whether the ECB may pursue a holistic approach to monetary policy and supervisory decision-making, respectively. On the basis of a purposive reading of the monetary policy mandate and the SSM Regulation, the paper answers this question in the affirmative. Effective monetary policy (or supervision) requires financial stability (or smooth monetary policy transmission). Moreover, without a holistic approach, the SSM Regulation is more likely to provoke the adoption of mutually defeating decisions by the Governing Board. The reputation of the ECB would suffer considerably under such a situation – in a field where reputation is of paramount importance for effective policy.
As any meticulous separation between monetary and supervisory functions turns out to be infeasible, the paper explores the reasons. Parting from Katharina Pistor’s legal theory of finance, which puts the emphasis on exogenous factors to explain the (non)enforcement of legal rules, the paper suggests a legal instability theorem which focuses on endogenous reasons, such as law’s indeterminacy, contextuality, and responsiveness to democratic deliberation. This raises the question whether the holistic approach would be democratically legitimate under the current framework of the ESCB. The idea of technocratic legitimacy that exempts the ECB from representative structures is effectively called into question by the legal instability theorem. This does not imply that the independence of the ECB should be given up, as there are no viable alternatives to protect monetary policy against the time inconsistency problem. Rather, any solution might benefit from recognizing the ECB in its mixed technocratic and political shape as a centerpiece of European integration and improving.
Using granular supervisory data from Germany, we investigate the impact of unconventional monetary policies via central banks’ purchase of corporate bonds. While this policy results in a loosening of credit market conditions as intended by policy makers, we document two unintended side effects. First, banks that are more exposed to borrowers benefiting from the bond purchases now lend more to high-risk firms with no access to bond markets. Since more loan write-offs arise from these firms and banks are not compensated for this risk by higher interest rates, we document a drop in bank profitability. Second, the policy impacts the allocation of loans among industries. Affected banks reallocate loans from investment grade firms active on bond markets to mainly real estate firms without investment grade rating. Overall, our findings suggest that central banks’ quantitative easing via the corporate bond markets has the potential to contribute to both banking sector instability and real estate bubbles.
We investigate how unconventional monetary policy, via central banks’ purchases of corporate bonds, unfolds in credit-saturated markets. While this policy results in a loosening of credit market conditions as intended by policymakers, we report two unintended side effects. First, the policy impacts the allocation of credit among industries. Affected banks reallocate loans from investment-grade firms active on bond markets almost entirely to real estate asset managers. Other industries do not obtain more loans, particularly real estate developers and construction firms. We document an increase in real estate prices due to this policy, which fuels real estate overvaluation. Second, more loan write-offs arise from lending to these firms, and banks are not compensated for this risk by higher interest rates. We document a drop in bank profitability and, at the same time, a higher reliance on real estate collateral. Our findings suggest that central banks’ quantitative easing has substantial adverse effects in credit-saturated economies.
We investigate the impact of uneven transparency regulation across countries and industries on the location of economic activity. Using two distinct sources of regulatory variation—the varying extent of financial-reporting requirements and the staggered introduction of electronic business registers in Europe—, we consistently document that direct exposure to transparency regulation is negatively associated with the focal industry’s economic activity in terms of inputs (e.g., employment) and outputs (e.g., production). By contrast, we find that indirect exposure to supplier and customer industries’ transparency regulation is positively associated with the focal industry’s economic activity. Our evidence suggests uneven transparency regulation can reallocate economic activity from regulated toward unregulated countries and industries, distorting the location of economic activity.
Abstract: It is commonplace in the debate on Germany's labor market problems to argue that high unemployment and low wage dispersion are related. This paper analyses the relationship between unemployment and residual wage dispersion for individuals with comparable attributes. In the conventional neoclassical point of view, wages are determined by the marginal product of the workers. Accordingly, increases in union minimum wages result in a decline of residual wage dispersion and higher unemployment. A competing view regards wage dispersion as the outcome of search frictions and the associated monopsony power of the firms. Accordingly, an increase in search frictions causes both higher unemployment and higher wage dispersion. The empirical analysis attempts to discriminate between the two hypotheses for West Germany analyzing the relationship between wage dispersion and both the level of unemployment as well as the transition rates between different labor market states. The findings are not completely consistent with either theory. However, as predicted by search theory, one robust result is that unemployment by cells is not negatively correlated with the within cell wage dispersion.
This paper analyzes empirically the distribution of unemployment durations in West- Germany before and after the changes during the mid 1980s in the maximum entitlement periods for unemployment benefits for elderly unemployed. The analysis is based on the comprehensive IAB employment subsample containing register panel data for about 500.000 individuals in West Germany. We analyze two proxies for unemployment since the data do not precisely measure unemployment in an economic sense. We provide a theoretical analysis of the link between the durations of nonemployment and of unemployment between jobs. Our empirical analysis finds significant changes in the distributions of nonemployment durations for older unemployed individuals. At the same time, the distribution of unemployment durations between jobs did not change in response to the reforms. Our findings are consistent with an interpretation that many firms and workers used the more bene cial laws as a part of early retirement packages but those workers who were still looking for a job did not reduce their search effort in response to the extension of the maximum entitlement periods. This interpretation is consistent with our theoretical model under plausible assumptions. JEL: C24, J64, J65
Since the 1970s, the overarching view in the literature has been that a Phillips curve relationship did not exist in Ireland prior to the 1979 exchange rate break with Sterling. It was argued that, as a small open economy, prices were determined externally. To test this relationship, we study the determination of inflation between 1926 and 2012, a longer sample period than any previously used. We find that the difference between unemployment and the NAIRU is a significant determinant of inflation both in the full sample and in the subsamples spanning the periods before and after the Sterling parity link.
Understanding the shift from micro to macro-prudential thinking: a discursive network analysis
(2016)
While some economists argued for macro-prudential regulation pre-crisis, the macro-prudential approach and its emphasis on endogenously created systemic risk have only gained prominence post-crisis. Employing discourse and network analysis on samples of the most cited scholarly works on banking regulation as well as on systemic risk (60 sources each) from 1985 to 2014, we analyze the shift from micro to macro-prudential thinking in the shift to the post crisis period. Our analysis demonstrates that the predominance of formalism, particularly, partial equilibrium analysis along with the exclusion of historical and practitioners’ styles of reasoning from banking regulatory studies impeded economists from engaging seriously with the endogenous sources of systemic risk prior to the crisis. Post-crisis, these topics became important in this discourse, but the epistemological failures of banking regulatory studies pre-crisis were not sufficiently recognized. Recent attempts to conceptualize and price systemic risk as a negative externality point to the persistence of formalism and equilibrium thinking, with its attending dangers of incremental innovation due to epistemological barriers constrains theoretical progress, by excluding observed phenomena, which cannot yet be accommodated in mathematical models.
This paper examines the advantages and drawbacks of alternative methods of estimating oil supply and oil demand elasticities and of incorporating this information into structural VAR models. I not only summarize the state of the literature, but also draw attention to a number of econometric problems that have been overlooked in this literature. Once these problems are recognized, seemingly conflicting conclusions in the recent literature can be resolved. My analysis reaffirms the conclusion that the one-month oil supply elasticity is close to zero, which implies that oil demand shocks are the dominant driver of the real price of oil. The focus of this paper is not only on correcting some misunderstandings in the recent literature, but on the substantive and methodological insights generated by this exchange, which are of broader interest to applied researchers.