Working Paper
Refine
Year of publication
Document Type
- Working Paper (3370) (remove)
Language
- English (2336)
- German (1014)
- Spanish (8)
- French (7)
- Multiple languages (2)
Keywords
- Deutschland (223)
- USA (64)
- Corporate Governance (53)
- Geldpolitik (53)
- Schätzung (52)
- Europäische Union (51)
- monetary policy (47)
- Bank (41)
- Sprachtypologie (34)
- Monetary Policy (29)
Institute
- Wirtschaftswissenschaften (1483)
- Center for Financial Studies (CFS) (1456)
- Sustainable Architecture for Finance in Europe (SAFE) (791)
- House of Finance (HoF) (655)
- Rechtswissenschaft (400)
- Institute for Monetary and Financial Stability (IMFS) (210)
- Informatik (119)
- Exzellenzcluster Die Herausbildung normativer Ordnungen (75)
- Gesellschaftswissenschaften (75)
- Geographie (62)
Aus mehreren Datenquellen wurde ein neuer globaler Niederschlagsdatensatz für die Zeit 1951-2000 generiert, der unter der Bedingung einer Mindestverfügbarkeit von 90 % genau 9.343 Stationen umfasst. Die betreffenden Zeitreihen wurden einer umfassenden Qualitätskontrolle unterzogen, was zu äußerst zahlreichen Korrekturen führte, einschließlich Tests auf Ausreißer und Homogenität sowie Homogenisierung. Daraus entstand ein Gitterpunktdatensatz in 0,5° x 0,5°- Auflösung, was für die Landgebiete (ausgenommen Grönland und Antarktis) rund 71.000 Gitterpunkte ergibt, und über INTERNET frei verfügbar bereitgestellt. Davon ausgehend und unter Nutzung weiterer vorliegender Datensätze, insbesondere der Temperatur, wurden zunächst einige grundlegende Untersuchungen zur globalen und regionalen Klima- und Niederschlagsvariabilität durchgeführt. Diese Arbeiten umfassten Analysen der Veränderungen des global gemittelten Niederschlages und potentieller Einflussgrößen, die Neuberechnung der globalen Klimaklassifikation nach Köppen, Untersuchungen zur raumzeitlichen Struktur von Niederschlagsänderungen global sowie speziell in Afrika und schließlich Analysen der raumzeitlichen Beziehungen zwischen großräumiger atmosphärischer Zirkulation und Niederschlag im nordatlantisch-europäischen Bereich. Für weitergehende statistische Analysen wurde eine neue Methode der vollständigen Zeitreihenmodellierung entwickelt, um die die in diesen Reihen enthaltenen signifikanten Variationskomponenten durch Regressionstechniken zu erfassen und in ihrem raumzeitlichen Verhalten darzustellen. Dabei lag ein Schwerpunkt dieser Arbeiten auf der Extremwertanalyse, die es nun gestattet, unabhängig vom Verteilungstyp für beliebige Schwellenwerte den zeitlichen Verlauf der Unter- sowie Überschreitungswahrscheinlichkeit anzugeben und somit zu erkennen, inwieweit das Klima extremer geworden ist. Dabei zeigte sich je nach Region die Gumbel- oder die Weibull-Verteilung als geeignet. Regionale Schwerpunkte waren dabei u.a. Deutschland bzw. Europa, auch hinsichtlich der Erstellung neuer Klimatrendkarten nach der üblichen linearen Methode (der kleinsten Quadrate) sowie der innovativen. Weiterhin wurden nach der innovativen Methode Klimamodelldaten des Hamburger Max-Planck-Instituts für Meteorologie (IPCC Szenario A2) hinsichtlich des Niederschlag-Extremverhaltens in Europa untersucht. Schließlich erfolgte eine Abschätzung der Wiederkehrzeiten täglicher Extremniederschläge in Deutschland und deren Unsicherheit.
Die vorliegende Arbeit wurde im Rahmen des Forschungsprojekts „Integrierte Analyse von mobilen, organischen Fremdstoffen in Fließgewässern“ (INTAFERE) am Institut für Physische Geographie an der Goethe-Universität Frankfurt erstellt. In INTAFERE wurde das Gefährdungspotenzial von mobilen, organischen Fremdstoffen (MOF) für aquatische Ökosysteme und die natürlichen Wasserressourcen in integrierter und partizipativer Art und Weise untersucht. MOF sind chemische Substanzen, die in Alltagsprodukten enthalten sind und durch unterschiedliche Eintragsfade in unbekannten Mengen in Oberflächengewässer eingetragen werden. Problematisch sind aus Umweltgesichtspunkten ihre Eigenschaften: sie besitzen im Wasser eine hohe Mobilität und sind schwer abbaubar. Dies führt zu einer Persistenz über lange Zeiträume. Für einige dieser Substanzen wurde zudem gezeigt, dass sie in sehr geringen Konzentrationen biologisch aktiv sind und für aquatische Ökosysteme eine Gefahr darstellen. In INTAFERE wurden drei zentrale Ziele verfolgt: Charakterisierung des Problemfeldes MOF, Erzeugung von praxisrelevantem Wissen für das Management von MOF und Entwicklung einer Softwareanwendung, die gesellschaftliche Aushandlungsprozesse durch eine transparente Darstellung der Wirkungszusammenhänge im Problemfeld unterstützt. Um einen Beitrag für die Erfüllung der Ziele zu leisten, war es die Aufgabe der Verfasserin, eine Akteursanalyse und -modellierung durchzuführen sowie Zukunftsszenarien im Bereich der MOF zu entwickeln. Dafür existierte keine adäquate Methodik, daher verfolgt die Dissertation zum einen die Entwicklung einer Methodik und zum anderen deren Anwendung im Kontext des Projektes INTAFERE. Da im Forschungsprozess die Durchführung von Analysen, die wissenschaftliche und gesellschaftliche Sichtweise der Problematik sowie die Erarbeitung von praktischen Lösungen im Mittelpunkt standen, wurde eine transdisziplinäre Herangehensweise gewählt. Ziel war es, eine Methodik zu entwerfen, die sowohl eine Entwicklung von Szenarien als auch eine Modellierung von Handlungsentscheidungen umfasst. Eine Modellierung und Visualisierung von Handlungsentscheidungen ist notwendig, um Strategien für ein Umweltproblem für verschiedene Szenarien zu ermitteln, und damit einen Lernprozess der Stakeholder zu initiieren. Dies wurde mit der transdisziplinären Methode „Akteursbasierte Modellierung“ umgesetzt. Hierbei wurden insbesondere Aspekte der Problemwahrnehmung von Akteuren und deren Darstellung, der partizipativen Szenarienentwicklung sowie der semi-quantitativen Modellierung von Handlungsentscheidungen berücksichtigt. Die Verfasserin hat mit der semi-quantitativen akteursbasierten Modellierung eine Methode erarbeitet und getestet, die bisher unverbundene Komponenten (wie die Software Dynamic Actor Network Analysis (DANA) und die Szenarienentwicklung) zusammenführt. Um Handlungsentscheidungen unter verschiedenen Szenarien zu modellieren hat die Autorin eine sequentielle Modellierung entwickelt, die mit der Software DANA durchgeführt werden kann. Die dafür notwendige Weiterentwicklung von DANA wurde von Dr. Pieter Bots (TU Delft) umgesetzt. Die akteursbasierte Modellierung läuft in drei methodischen Schritten ab: 1. Modellierung von Akteurs-Sichtweisen in Form von Wahrnehmungsgraphen und deren Analyse, aufbauend auf Ergebnissen von qualitativen, leitfaden-gestützten Expertengesprächen (= Akteursmodellierung), 2. partizipative Szenarienentwicklung mit den Akteuren und 3. Zusammenführung der Ergebnisse der Akteursmodellierung und der Szenarienentwicklung und darauf aufbauend eine sequentielle Modellierung von Handlungsentscheidungen und deren Auswirkungen auf Schlüsselfaktoren. Im Zuge der Anwendung auf das Problemfeld der MOF wurde für folgende Akteure jeweils ein Wahrnehmungsgraph modelliert: Obere Wasserbehörde, Umweltbundesamt, Umwelt- und Verbraucherschutzorganisationen, Wasserversorger sowie für die Hersteller von verschiedenen MOF, weiterhin für die European Flame Retardants Association und die Weiterverarbeitende Industrie. Das Ergebnis der Szenarienentwicklung waren vier Szenarien: ein Gesundheitsszenario, unter der Annahme von hohen lokalen Umweltstandards durch nachhaltigkeitsorientierte KonsumentInnen, ein Umweltszenario, in dem eine starke Regulierung und nachhaltigkeitsorientierter Konsum Hand in Hand gehen, ein Globalisierungsszenario, in dem Wirtschaftsmacht und preisbewusste KonsumentInnen statt staatliche Regulierung vorherrschen und ein Technikszenario, unter der Annahme, dass Kläranlagen, bedingt durch eine starke Regulierung, aufgerüstet werden. Bei der Modellierung von Handlungsentscheidungen wurden die Wahrnehmungsgraphen und die vier Szenarien miteinander verknüpft. Pro Substanz wurde ein Modell entwickelt, welches die wichtigsten Systemkomponenten in einer angemessenen Komplexität umfasst und die von den Akteuren gemeinsam getragene Einschätzung der Wirkungsbeziehungen darstellt. Insgesamt wurden 16 Modelle entwickelt. Basierend auf den simulierten Akteurshandlungen wurden relativen Veränderungen der Schlüsselfaktoren Produktion, Import und Leistungsfähigkeit der Kläranlagen für die vier genannten Szenarien berechnet. In Zusammenarbeit mit Pieter Bots konnten algorithmische Beiträge zur Analyse- und Modellierungssoftware DANA getestet und verbessert werden. Da keine vollständige und zugleich leicht verständliche Einführung zu DANA vorlag, wurde für Nutzer im Rahmen dieser Dissertation eine Anleitung verfasst, die die Modellierung von Wahrnehmungsgraphen und deren Analyse sowie alle Schritte der akteursbasierten Modellierung mit DANA erläutert.
In this study, we introduce a novel entity matching (EM) framework. It com-bines state-of-the-art EM approaches based on Artificial Neural Networks (ANN) with a new similarity encoding derived from matching techniques that are preva-lent in finance and economics. Our framework is on-par or outperforms alternative end-to-end frameworks in standard benchmark cases. Because similarity encod-ing is constructed using (edit) distances instead of semantic similarities, it avoids out-of-vocabulary problems when matching dirty data. We highlight this property by applying an EM application to dirty financial firm-level data extracted from historical archives.
Eine wesentliche Voraussetzung für die Entschlüsselung herrschender Justizverständnisse ist die Auseinandersetzung mit den Rollen, die die beteiligten Akteure in einem Rechtssystem einnehmen sowie die Untersuchung der rechtlichen und institutionellen Bedingungen unter denen diese Akteure handeln. Der vorliegende Beitrag beschäftigt sich zunächst mit der Macht- und Aufgabenverteilung zwischen Richtern und Parteien. Dabei wird deutlich, dass die Rollenallokation nicht einheitlich ist, sondern in Abhängigkeit von unterschiedlichen verfahrensrechtlichen und institutionellen Voraussetzungen variiert. In Verfahren vor einer Jury wird die richterliche Autorität durch eine maximal ausgeprägte Parteiautonomie stark eingeschränkt. Als Rechthonoratioren (im Weberschen Sinne) agieren Richter dagegen immer dann, wenn Sie ohne Geschworene Recht sprechen. Dies geschieht insbesondere in den einzelstaatlichen Obergerichten und den Bundesberufungsgereichten, aber auch in Verfahren erster Instanz, in denen „claims in equity“ zu entscheiden sind. Der Beitrag beschäftigt sich abschließend mit dem Einfluss, den die Besonderheiten der amerikanischen Juristenausbildung auf das amerikanische Justizverständnis ausüben: Sie prägen und reproduzieren eine der Rollen und Selbstbilder unter amerikanischen Juristen, sowohl in der Anwaltschaft als auch auf Seiten der Richter.
Ensuring financial stability : financial structure and the impact of monetary policy on asset prices
(2008)
This paper studies the responses of residential property and equity prices, inflation and economic activity to monetary policy shocks in 17 countries, using data spanning 1986-2006. We estimate VARs for individual economies and panel VARs in which we distinguish between groups of countries on the basis of the characteristics of their financial systems. The results suggest that using monetary policy to offset asset price movements in order to guard against financial instability may have large effects on economic activity. Furthermore, while financial structure influences the impact of policy on asset prices, its importance appears limited. Keywords: asset prices, monetary policy, panel VAR. JEL Number: C23, E52
The author proposes a Differential-Independence Mixture Ensemble (DIME) sampler for the Bayesian estimation of macroeconomic models.It allows sampling from particularly challenging, high-dimensional black-box posterior distributions which may also be computationally expensive to evaluate. DIME is a “Swiss Army knife”, combining the advantages of a broad class of gradient-free global multi-start optimizers with the properties of a Monte Carlo Markov chain (MCMC). This includes fast burn-in and convergence absent any prior numerical optimization or initial guesses, good performance for multimodal distributions, a large number of chains (the “ensemble”) running in parallel, an endogenous proposal density generated from the state of the full ensemble, which respects the bounds of the prior distribution. The author shows that the number of parallel chains scales well with the number of necessary ensemble iterations.
DIME is used to estimate the medium-scale heterogeneous agent New Keynesian (“HANK”) model with liquid and illiquid assets, thereby for the first time allowing to also include the households’ preference parameters. The results mildly point towards a less accentuated role of household heterogeneity for the empirical macroeconomic dynamics.
We study the interplay of capital and liquidity regulation in a general equilibrium setting by focusing on future funding risks. The model consists of a banking sector with long-term illiquid investment opportunities that need to be financed by shortterm debt and by issuing equity. Reliance on refinancing long-term investment in the middle of the life-time is risky, since the next generation of potential short-term debt holders may not be willing to provide funding when the return prospects on the long-term investment turn out to be bad. For moderate return risk, equilibria with and without bank default coexist, and bank default is a self-fulfilling prophecy. Capital and liquidity regulation can prevent bank default and may implement the first-best. Yet the former is more powerful in ruling out undesirable equilibria and thus dominates liquidity regulation. Adding liquidity regulation to optimal capital regulation is redundant.
Despite a number of helpful changes, including the adoption of an inflation target, the Fed’s monetary policy strategy proved insufficiently resilient in recent years. While the Fed eased policy appropriately during the pandemic, it fell behind the curve during the post-pandemic recovery. During 2021, the Fed kept easing policy while the inflation outlook was deteriorating and the economy was growing considerably faster than the economy’s natural growth rate—the sum of the Fed’s 2% inflation goal and the growth rate of potential output.
The resilience of the Fed’s monetary policy strategy could be enhanced, and such errors be avoided with guidance from a simple natural growth targeting rule that prescribes that the federal funds rate during each quarter be raised (cut) when projected nominal income growth exceeds (falls short) of the economy’s natural growth rate. An illustration with real-time data and forecasts since the early 1990s shows that Fed policy has not persistently deviated from this simple rule with the notable exception of the period coinciding with the Fed’s post-pandemic policy error.
Gradient capital allocation, also known as Euler allocation, is a technique used to redistribute diversified capital requirements among different segments of a portfolio. The method is commonly employed to identify dominant risks, assessing the risk-adjusted profitability of segments, and installing limit systems. However, capital allocation can be misleading in all these applications because it only accounts for the current portfolio composition and ignores how diversification effects may change with a portfolio restructuring. This paper proposes enhancing the gradient capital allocation by adding “orthogonal convexity scenarios” (OCS). OCS identify risk concentrations that potentially drive portfolio risk and become relevant after restructuring. OCS have strong ties with principal component analysis (PCA), but they are a more general concept and compatible with common empirical patterns of risk drivers being fat-tailed and increasingly dependent in market downturns. We illustrate possible applications of OCS in terms of risk communication and risk limits.