Refine
Year of publication
- 2010 (84) (remove)
Document Type
- Working Paper (84) (remove)
Has Fulltext
- yes (84)
Is part of the Bibliography
- no (84) (remove)
Keywords
- Film (4)
- Formale Semantik (4)
- Argumentationstheorie (3)
- Finanzkrise (3)
- Internetsprache (3)
- Logik (3)
- Normative Ordnungen (3)
- Verifikation (3)
- Asset Allocation (2)
- Außenpolitik (2)
Institute
- Center for Financial Studies (CFS) (29)
- Exzellenzcluster Die Herausbildung normativer Ordnungen (12)
- Institute for Law and Finance (ILF) (11)
- Informatik (6)
- Institute for Monetary and Financial Stability (IMFS) (6)
- Extern (4)
- Wirtschaftswissenschaften (4)
- Gesellschaftswissenschaften (3)
- Institut für sozial-ökologische Forschung (ISOE) (2)
- Medizin (2)
We assess, through VAR evidence, the effects of monetary policy on banks’ risk exposure and find the presence of a risk-taking channel. A model combining fragile banks prone to risk mis-incentives and credit constrained firms, whose collateral fluctuations generate a balance sheet channel, is used to rationalize the evidence. A monetary expansion increases bank leverage. With two consequences: on the one side this exacerbates risk exposure; on the other, the risk spiral depresses output, therefore dampening the conventional amplification effect of the financial accelerator.
Measuring confidence and uncertainty during the financial crisis : evidence from the CFS survey
(2010)
The CFS survey covers individual situations of banks and other companies of the financial sector during the financial crisis. This provides a rare possibility to analyze appraisals, expectations and forecast errors of the core sector of the recent turmoil. Following standard ways of aggregating individual survey data, we first present and introduce the CFS survey by comparing CFS indicators of confidence and predicted confidence to ifo and ZEW indicators. The major contribution is the analysis of several indicators of uncertainty. In addition to well established concepts, we introduce innovative measures based on the skewness of forecast errors and on the share of ‘no response’ replies. Results show that uncertainty indicators fit quite well with pattern of real and financial time series of the time period 2007 to 2010. Business Sentiment , Financial Crisis , Survey Indicator , Uncertainty
Die vorliegende Arbeit wurde im Rahmen des Forschungsprojekts „Integrierte Analyse von mobilen, organischen Fremdstoffen in Fließgewässern“ (INTAFERE) am Institut für Physische Geographie an der Goethe-Universität Frankfurt erstellt. In INTAFERE wurde das Gefährdungspotenzial von mobilen, organischen Fremdstoffen (MOF) für aquatische Ökosysteme und die natürlichen Wasserressourcen in integrierter und partizipativer Art und Weise untersucht. MOF sind chemische Substanzen, die in Alltagsprodukten enthalten sind und durch unterschiedliche Eintragsfade in unbekannten Mengen in Oberflächengewässer eingetragen werden. Problematisch sind aus Umweltgesichtspunkten ihre Eigenschaften: sie besitzen im Wasser eine hohe Mobilität und sind schwer abbaubar. Dies führt zu einer Persistenz über lange Zeiträume. Für einige dieser Substanzen wurde zudem gezeigt, dass sie in sehr geringen Konzentrationen biologisch aktiv sind und für aquatische Ökosysteme eine Gefahr darstellen. In INTAFERE wurden drei zentrale Ziele verfolgt: Charakterisierung des Problemfeldes MOF, Erzeugung von praxisrelevantem Wissen für das Management von MOF und Entwicklung einer Softwareanwendung, die gesellschaftliche Aushandlungsprozesse durch eine transparente Darstellung der Wirkungszusammenhänge im Problemfeld unterstützt. Um einen Beitrag für die Erfüllung der Ziele zu leisten, war es die Aufgabe der Verfasserin, eine Akteursanalyse und -modellierung durchzuführen sowie Zukunftsszenarien im Bereich der MOF zu entwickeln. Dafür existierte keine adäquate Methodik, daher verfolgt die Dissertation zum einen die Entwicklung einer Methodik und zum anderen deren Anwendung im Kontext des Projektes INTAFERE. Da im Forschungsprozess die Durchführung von Analysen, die wissenschaftliche und gesellschaftliche Sichtweise der Problematik sowie die Erarbeitung von praktischen Lösungen im Mittelpunkt standen, wurde eine transdisziplinäre Herangehensweise gewählt. Ziel war es, eine Methodik zu entwerfen, die sowohl eine Entwicklung von Szenarien als auch eine Modellierung von Handlungsentscheidungen umfasst. Eine Modellierung und Visualisierung von Handlungsentscheidungen ist notwendig, um Strategien für ein Umweltproblem für verschiedene Szenarien zu ermitteln, und damit einen Lernprozess der Stakeholder zu initiieren. Dies wurde mit der transdisziplinären Methode „Akteursbasierte Modellierung“ umgesetzt. Hierbei wurden insbesondere Aspekte der Problemwahrnehmung von Akteuren und deren Darstellung, der partizipativen Szenarienentwicklung sowie der semi-quantitativen Modellierung von Handlungsentscheidungen berücksichtigt. Die Verfasserin hat mit der semi-quantitativen akteursbasierten Modellierung eine Methode erarbeitet und getestet, die bisher unverbundene Komponenten (wie die Software Dynamic Actor Network Analysis (DANA) und die Szenarienentwicklung) zusammenführt. Um Handlungsentscheidungen unter verschiedenen Szenarien zu modellieren hat die Autorin eine sequentielle Modellierung entwickelt, die mit der Software DANA durchgeführt werden kann. Die dafür notwendige Weiterentwicklung von DANA wurde von Dr. Pieter Bots (TU Delft) umgesetzt. Die akteursbasierte Modellierung läuft in drei methodischen Schritten ab: 1. Modellierung von Akteurs-Sichtweisen in Form von Wahrnehmungsgraphen und deren Analyse, aufbauend auf Ergebnissen von qualitativen, leitfaden-gestützten Expertengesprächen (= Akteursmodellierung), 2. partizipative Szenarienentwicklung mit den Akteuren und 3. Zusammenführung der Ergebnisse der Akteursmodellierung und der Szenarienentwicklung und darauf aufbauend eine sequentielle Modellierung von Handlungsentscheidungen und deren Auswirkungen auf Schlüsselfaktoren. Im Zuge der Anwendung auf das Problemfeld der MOF wurde für folgende Akteure jeweils ein Wahrnehmungsgraph modelliert: Obere Wasserbehörde, Umweltbundesamt, Umwelt- und Verbraucherschutzorganisationen, Wasserversorger sowie für die Hersteller von verschiedenen MOF, weiterhin für die European Flame Retardants Association und die Weiterverarbeitende Industrie. Das Ergebnis der Szenarienentwicklung waren vier Szenarien: ein Gesundheitsszenario, unter der Annahme von hohen lokalen Umweltstandards durch nachhaltigkeitsorientierte KonsumentInnen, ein Umweltszenario, in dem eine starke Regulierung und nachhaltigkeitsorientierter Konsum Hand in Hand gehen, ein Globalisierungsszenario, in dem Wirtschaftsmacht und preisbewusste KonsumentInnen statt staatliche Regulierung vorherrschen und ein Technikszenario, unter der Annahme, dass Kläranlagen, bedingt durch eine starke Regulierung, aufgerüstet werden. Bei der Modellierung von Handlungsentscheidungen wurden die Wahrnehmungsgraphen und die vier Szenarien miteinander verknüpft. Pro Substanz wurde ein Modell entwickelt, welches die wichtigsten Systemkomponenten in einer angemessenen Komplexität umfasst und die von den Akteuren gemeinsam getragene Einschätzung der Wirkungsbeziehungen darstellt. Insgesamt wurden 16 Modelle entwickelt. Basierend auf den simulierten Akteurshandlungen wurden relativen Veränderungen der Schlüsselfaktoren Produktion, Import und Leistungsfähigkeit der Kläranlagen für die vier genannten Szenarien berechnet. In Zusammenarbeit mit Pieter Bots konnten algorithmische Beiträge zur Analyse- und Modellierungssoftware DANA getestet und verbessert werden. Da keine vollständige und zugleich leicht verständliche Einführung zu DANA vorlag, wurde für Nutzer im Rahmen dieser Dissertation eine Anleitung verfasst, die die Modellierung von Wahrnehmungsgraphen und deren Analyse sowie alle Schritte der akteursbasierten Modellierung mit DANA erläutert.
This paper proposes the Shannon entropy as an appropriate one-dimensional measure of behavioural trading patterns in financial markets. The concept is applied to the illustrative example of algorithmic vs. non-algorithmic trading and empirical data from Deutsche Börse's electronic cash equity trading system, Xetra. The results reveal pronounced differences between algorithmic and non-algorithmic traders. In particular, trading patterns of algorithmic traders exhibit a medium degree of regularity while non-algorithmic trading tends towards either very regular or very irregular trading patterns. JEL Classification: C40, D0, G14, G15, G20
Capturing the zero: a new class of zero-augmented distributions and multiplicative error processes
(2010)
We propose a novel approach to model serially dependent positive-valued variables which realize a non-trivial proportion of zero outcomes. This is a typical phenomenon in financial time series observed on high frequencies, such as cumulated trading volumes or the time between potentially simultaneously occurring market events. We introduce a flexible pointmass mixture distribution and develop a semiparametric specification test explicitly tailored for such distributions. Moreover, we propose a new type of multiplicative error model (MEM) based on a zero-augmented distribution, which incorporates an autoregressive binary choice component and thus captures the (potentially different) dynamics of both zero occurrences and of strictly positive realizations. Applying the proposed model to high-frequency cumulated trading volumes of liquid NYSE stocks, we show that the model captures both the dynamic and distribution properties of the data very well and is able to correctly predict future distributions. Keywords: High-frequency Data , Point-mass Mixture , Multiplicative Error Model , Excess Zeros , Semiparametric Specification Test , Market Microstructure JEL Classification: C22, C25, C14, C16, C51
This paper provides theory as well as empirical results for pre-averaging estimators of the daily quadratic variation of asset prices. We derive jump robust inference for pre-averaging estimators, corresponding feasible central limit theorems and an explicit test on serial dependence in microstructure noise. Using transaction data of different stocks traded at the NYSE, we analyze the estimators’ sensitivity to the choice of the pre-averaging bandwidth and suggest an optimal interval length. Moreover, we investigate the dependence of pre-averaging based inference on the sampling scheme, the sampling frequency, microstructure noise properties as well as the occurrence of jumps. As a result of a detailed empirical study we provide guidance for optimal implementation of pre-averaging estimators and discuss potential pitfalls in practice. Quadratic Variation , MarketMicrostructure Noise , Pre-averaging , Sampling Schemes , Jumps
We study the impact of the arrival of macroeconomic news on the informational and noise-driven components in high-frequency quote processes and their conditional variances. Bid and ask returns are decomposed into a common ("efficient return") factor and two market-side-specific components capturing market microstructure effects. The corresponding variance components reflect information-driven and noise-induced volatilities. We find that all volatility components reveal distinct dynamics and are positively influenced by news. The proportion of noise-induced variances is highest before announcements and significantly declines thereafter. Moreover, news-affected responses in all volatility components are influenced by order flow imbalances. JEL Classification: C32, G14, E44
This paper shows the equivalence of applicative similarity and contextual approximation, and hence also of bisimilarity and contextual equivalence, in the deterministic call-by-need lambda calculus with letrec. Bisimilarity simplifies equivalence proofs in the calculus and opens a way for more convenient correctness proofs for program transformations. Although this property may be a natural one to expect, to the best of our knowledge, this paper is the first one providing a proof. The proof technique is to transfer the contextual approximation into Abramsky's lazy lambda calculus by a fully abstract and surjective translation. This also shows that the natural embedding of Abramsky's lazy lambda calculus into the call-by-need lambda calculus with letrec is an isomorphism between the respective term-models.We show that the equivalence property proven in this paper transfers to a call-by-need letrec calculus developed by Ariola and Felleisen.
A logical framework consisting of a polymorphic call-by-value functional language and a first-order logic on the values is presented, which is a reconstruction of the logic of the verification system VeriFun. The reconstruction uses contextual semantics to define the logical value of equations. It equates undefinedness and non-termination, which is a standard semantical approach. The main results of this paper are: Meta-theorems about the globality of several classes of theorems in the logic, and proofs of global correctness of transformations and deduction rules. The deduction rules of VeriFun are globally correct if rules depending on termination are appropriately formulated. The reconstruction also gives hints on generalizations of the VeriFun framework: reasoning on nonterminating expressions and functions, mutual recursive functions and abstractions in the data values, and formulas with arbitrary quantifier prefix could be allowed.