Refine
Year of publication
- 2010 (84) (remove)
Document Type
- Working Paper (84) (remove)
Has Fulltext
- yes (84)
Is part of the Bibliography
- no (84) (remove)
Keywords
- Film (4)
- Formale Semantik (4)
- Argumentationstheorie (3)
- Finanzkrise (3)
- Internetsprache (3)
- Logik (3)
- Normative Ordnungen (3)
- Verifikation (3)
- Asset Allocation (2)
- Außenpolitik (2)
Institute
- Center for Financial Studies (CFS) (29)
- Exzellenzcluster Die Herausbildung normativer Ordnungen (12)
- Institute for Law and Finance (ILF) (11)
- Informatik (6)
- Institute for Monetary and Financial Stability (IMFS) (6)
- Extern (4)
- Wirtschaftswissenschaften (4)
- Gesellschaftswissenschaften (3)
- Institut für sozial-ökologische Forschung (ISOE) (2)
- Medizin (2)
We assess, through VAR evidence, the effects of monetary policy on banks’ risk exposure and find the presence of a risk-taking channel. A model combining fragile banks prone to risk mis-incentives and credit constrained firms, whose collateral fluctuations generate a balance sheet channel, is used to rationalize the evidence. A monetary expansion increases bank leverage. With two consequences: on the one side this exacerbates risk exposure; on the other, the risk spiral depresses output, therefore dampening the conventional amplification effect of the financial accelerator.
Measuring confidence and uncertainty during the financial crisis : evidence from the CFS survey
(2010)
The CFS survey covers individual situations of banks and other companies of the financial sector during the financial crisis. This provides a rare possibility to analyze appraisals, expectations and forecast errors of the core sector of the recent turmoil. Following standard ways of aggregating individual survey data, we first present and introduce the CFS survey by comparing CFS indicators of confidence and predicted confidence to ifo and ZEW indicators. The major contribution is the analysis of several indicators of uncertainty. In addition to well established concepts, we introduce innovative measures based on the skewness of forecast errors and on the share of ‘no response’ replies. Results show that uncertainty indicators fit quite well with pattern of real and financial time series of the time period 2007 to 2010. Business Sentiment , Financial Crisis , Survey Indicator , Uncertainty
Die vorliegende Arbeit wurde im Rahmen des Forschungsprojekts „Integrierte Analyse von mobilen, organischen Fremdstoffen in Fließgewässern“ (INTAFERE) am Institut für Physische Geographie an der Goethe-Universität Frankfurt erstellt. In INTAFERE wurde das Gefährdungspotenzial von mobilen, organischen Fremdstoffen (MOF) für aquatische Ökosysteme und die natürlichen Wasserressourcen in integrierter und partizipativer Art und Weise untersucht. MOF sind chemische Substanzen, die in Alltagsprodukten enthalten sind und durch unterschiedliche Eintragsfade in unbekannten Mengen in Oberflächengewässer eingetragen werden. Problematisch sind aus Umweltgesichtspunkten ihre Eigenschaften: sie besitzen im Wasser eine hohe Mobilität und sind schwer abbaubar. Dies führt zu einer Persistenz über lange Zeiträume. Für einige dieser Substanzen wurde zudem gezeigt, dass sie in sehr geringen Konzentrationen biologisch aktiv sind und für aquatische Ökosysteme eine Gefahr darstellen. In INTAFERE wurden drei zentrale Ziele verfolgt: Charakterisierung des Problemfeldes MOF, Erzeugung von praxisrelevantem Wissen für das Management von MOF und Entwicklung einer Softwareanwendung, die gesellschaftliche Aushandlungsprozesse durch eine transparente Darstellung der Wirkungszusammenhänge im Problemfeld unterstützt. Um einen Beitrag für die Erfüllung der Ziele zu leisten, war es die Aufgabe der Verfasserin, eine Akteursanalyse und -modellierung durchzuführen sowie Zukunftsszenarien im Bereich der MOF zu entwickeln. Dafür existierte keine adäquate Methodik, daher verfolgt die Dissertation zum einen die Entwicklung einer Methodik und zum anderen deren Anwendung im Kontext des Projektes INTAFERE. Da im Forschungsprozess die Durchführung von Analysen, die wissenschaftliche und gesellschaftliche Sichtweise der Problematik sowie die Erarbeitung von praktischen Lösungen im Mittelpunkt standen, wurde eine transdisziplinäre Herangehensweise gewählt. Ziel war es, eine Methodik zu entwerfen, die sowohl eine Entwicklung von Szenarien als auch eine Modellierung von Handlungsentscheidungen umfasst. Eine Modellierung und Visualisierung von Handlungsentscheidungen ist notwendig, um Strategien für ein Umweltproblem für verschiedene Szenarien zu ermitteln, und damit einen Lernprozess der Stakeholder zu initiieren. Dies wurde mit der transdisziplinären Methode „Akteursbasierte Modellierung“ umgesetzt. Hierbei wurden insbesondere Aspekte der Problemwahrnehmung von Akteuren und deren Darstellung, der partizipativen Szenarienentwicklung sowie der semi-quantitativen Modellierung von Handlungsentscheidungen berücksichtigt. Die Verfasserin hat mit der semi-quantitativen akteursbasierten Modellierung eine Methode erarbeitet und getestet, die bisher unverbundene Komponenten (wie die Software Dynamic Actor Network Analysis (DANA) und die Szenarienentwicklung) zusammenführt. Um Handlungsentscheidungen unter verschiedenen Szenarien zu modellieren hat die Autorin eine sequentielle Modellierung entwickelt, die mit der Software DANA durchgeführt werden kann. Die dafür notwendige Weiterentwicklung von DANA wurde von Dr. Pieter Bots (TU Delft) umgesetzt. Die akteursbasierte Modellierung läuft in drei methodischen Schritten ab: 1. Modellierung von Akteurs-Sichtweisen in Form von Wahrnehmungsgraphen und deren Analyse, aufbauend auf Ergebnissen von qualitativen, leitfaden-gestützten Expertengesprächen (= Akteursmodellierung), 2. partizipative Szenarienentwicklung mit den Akteuren und 3. Zusammenführung der Ergebnisse der Akteursmodellierung und der Szenarienentwicklung und darauf aufbauend eine sequentielle Modellierung von Handlungsentscheidungen und deren Auswirkungen auf Schlüsselfaktoren. Im Zuge der Anwendung auf das Problemfeld der MOF wurde für folgende Akteure jeweils ein Wahrnehmungsgraph modelliert: Obere Wasserbehörde, Umweltbundesamt, Umwelt- und Verbraucherschutzorganisationen, Wasserversorger sowie für die Hersteller von verschiedenen MOF, weiterhin für die European Flame Retardants Association und die Weiterverarbeitende Industrie. Das Ergebnis der Szenarienentwicklung waren vier Szenarien: ein Gesundheitsszenario, unter der Annahme von hohen lokalen Umweltstandards durch nachhaltigkeitsorientierte KonsumentInnen, ein Umweltszenario, in dem eine starke Regulierung und nachhaltigkeitsorientierter Konsum Hand in Hand gehen, ein Globalisierungsszenario, in dem Wirtschaftsmacht und preisbewusste KonsumentInnen statt staatliche Regulierung vorherrschen und ein Technikszenario, unter der Annahme, dass Kläranlagen, bedingt durch eine starke Regulierung, aufgerüstet werden. Bei der Modellierung von Handlungsentscheidungen wurden die Wahrnehmungsgraphen und die vier Szenarien miteinander verknüpft. Pro Substanz wurde ein Modell entwickelt, welches die wichtigsten Systemkomponenten in einer angemessenen Komplexität umfasst und die von den Akteuren gemeinsam getragene Einschätzung der Wirkungsbeziehungen darstellt. Insgesamt wurden 16 Modelle entwickelt. Basierend auf den simulierten Akteurshandlungen wurden relativen Veränderungen der Schlüsselfaktoren Produktion, Import und Leistungsfähigkeit der Kläranlagen für die vier genannten Szenarien berechnet. In Zusammenarbeit mit Pieter Bots konnten algorithmische Beiträge zur Analyse- und Modellierungssoftware DANA getestet und verbessert werden. Da keine vollständige und zugleich leicht verständliche Einführung zu DANA vorlag, wurde für Nutzer im Rahmen dieser Dissertation eine Anleitung verfasst, die die Modellierung von Wahrnehmungsgraphen und deren Analyse sowie alle Schritte der akteursbasierten Modellierung mit DANA erläutert.
This paper proposes the Shannon entropy as an appropriate one-dimensional measure of behavioural trading patterns in financial markets. The concept is applied to the illustrative example of algorithmic vs. non-algorithmic trading and empirical data from Deutsche Börse's electronic cash equity trading system, Xetra. The results reveal pronounced differences between algorithmic and non-algorithmic traders. In particular, trading patterns of algorithmic traders exhibit a medium degree of regularity while non-algorithmic trading tends towards either very regular or very irregular trading patterns. JEL Classification: C40, D0, G14, G15, G20
Capturing the zero: a new class of zero-augmented distributions and multiplicative error processes
(2010)
We propose a novel approach to model serially dependent positive-valued variables which realize a non-trivial proportion of zero outcomes. This is a typical phenomenon in financial time series observed on high frequencies, such as cumulated trading volumes or the time between potentially simultaneously occurring market events. We introduce a flexible pointmass mixture distribution and develop a semiparametric specification test explicitly tailored for such distributions. Moreover, we propose a new type of multiplicative error model (MEM) based on a zero-augmented distribution, which incorporates an autoregressive binary choice component and thus captures the (potentially different) dynamics of both zero occurrences and of strictly positive realizations. Applying the proposed model to high-frequency cumulated trading volumes of liquid NYSE stocks, we show that the model captures both the dynamic and distribution properties of the data very well and is able to correctly predict future distributions. Keywords: High-frequency Data , Point-mass Mixture , Multiplicative Error Model , Excess Zeros , Semiparametric Specification Test , Market Microstructure JEL Classification: C22, C25, C14, C16, C51
This paper provides theory as well as empirical results for pre-averaging estimators of the daily quadratic variation of asset prices. We derive jump robust inference for pre-averaging estimators, corresponding feasible central limit theorems and an explicit test on serial dependence in microstructure noise. Using transaction data of different stocks traded at the NYSE, we analyze the estimators’ sensitivity to the choice of the pre-averaging bandwidth and suggest an optimal interval length. Moreover, we investigate the dependence of pre-averaging based inference on the sampling scheme, the sampling frequency, microstructure noise properties as well as the occurrence of jumps. As a result of a detailed empirical study we provide guidance for optimal implementation of pre-averaging estimators and discuss potential pitfalls in practice. Quadratic Variation , MarketMicrostructure Noise , Pre-averaging , Sampling Schemes , Jumps
We study the impact of the arrival of macroeconomic news on the informational and noise-driven components in high-frequency quote processes and their conditional variances. Bid and ask returns are decomposed into a common ("efficient return") factor and two market-side-specific components capturing market microstructure effects. The corresponding variance components reflect information-driven and noise-induced volatilities. We find that all volatility components reveal distinct dynamics and are positively influenced by news. The proportion of noise-induced variances is highest before announcements and significantly declines thereafter. Moreover, news-affected responses in all volatility components are influenced by order flow imbalances. JEL Classification: C32, G14, E44
This paper shows the equivalence of applicative similarity and contextual approximation, and hence also of bisimilarity and contextual equivalence, in the deterministic call-by-need lambda calculus with letrec. Bisimilarity simplifies equivalence proofs in the calculus and opens a way for more convenient correctness proofs for program transformations. Although this property may be a natural one to expect, to the best of our knowledge, this paper is the first one providing a proof. The proof technique is to transfer the contextual approximation into Abramsky's lazy lambda calculus by a fully abstract and surjective translation. This also shows that the natural embedding of Abramsky's lazy lambda calculus into the call-by-need lambda calculus with letrec is an isomorphism between the respective term-models.We show that the equivalence property proven in this paper transfers to a call-by-need letrec calculus developed by Ariola and Felleisen.
A logical framework consisting of a polymorphic call-by-value functional language and a first-order logic on the values is presented, which is a reconstruction of the logic of the verification system VeriFun. The reconstruction uses contextual semantics to define the logical value of equations. It equates undefinedness and non-termination, which is a standard semantical approach. The main results of this paper are: Meta-theorems about the globality of several classes of theorems in the logic, and proofs of global correctness of transformations and deduction rules. The deduction rules of VeriFun are globally correct if rules depending on termination are appropriately formulated. The reconstruction also gives hints on generalizations of the VeriFun framework: reasoning on nonterminating expressions and functions, mutual recursive functions and abstractions in the data values, and formulas with arbitrary quantifier prefix could be allowed.
Towards correctness of program transformations through unification and critical pair computation
(2010)
Correctness of program transformations in extended lambda-calculi with a contextual semantics is usually based on reasoning about the operational semantics which is a rewrite semantics. A successful approach is the combination of a context lemma with the computation of overlaps between program transformations and the reduction rules, which results in so-called complete sets of diagrams. The method is similar to the computation of critical pairs for the completion of term rewriting systems. We explore cases where the computation of these overlaps can be done in a first order way by variants of critical pair computation that use unification algorithms. As a case study of an application we describe a finitary and decidable unification algorithm for the combination of the equational theory of left-commutativity modelling multi-sets, context variables and many-sorted unification. Sets of equations are restricted to be almost linear, i.e. every variable and context variable occurs at most once, where we allow one exception: variables of a sort without ground terms may occur several times. Every context variable must have an argument-sort in the free part of the signature. We also extend the unification algorithm by the treatment of binding-chains in let- and letrec-environments and by context-classes. This results in a unification algorithm that can be applied to all overlaps of normal-order reductions and transformations in an extended lambda calculus with letrec that we use as a case study.
The interactive verification system VeriFun is based on a polymorphic call-by-value functional language and on a first-order logic with initial model semantics w.r.t. constructors. It is designed to perform automatic induction proofs and can also deal with partial functions. This paper provides a reconstruction of the corresponding logic and semantics using the standard treatment of undefinedness which adapts and improves the VeriFun-logic by allowing reasoning on nonterminating expressions and functions. Equality of expressions is defined as contextual equivalence based on observing termination in all closing contexts. The reconstruction shows that several restrictions of the VeriFun framework can easily be removed, by natural generalizations: mutual recursive functions, abstractions in the data values, and formulas with arbitrary quantifier prefix can be formulated. The main results of this paper are: an extended set of deduction rules usable in VeriFun under the adapted semantics is proved to be correct, i.e. they respect the observational equivalence in all extensions of a program. We also show that certain classes of theorems are conservative under extensions, like universally quantified equations. Also other special classes of theorems are analyzed for conservativity.
The interactive verification system VeriFun is based on a polymorphic call-by-value functional language and on a first-order logic with initial model semantics w.r.t. constructors. This paper provides a reconstruction of the corresponding logic when partial functions are permitted. Typing is polymorphic for the definition of functions but monomorphic for terms in formulas. Equality of terms is defined as contextual equivalence based on observing termination in all contexts. The reconstruction also allows several generalizations of the functional language like mutual recursive functions and abstractions in the data values. The main results are: Correctness of several program transformations for all extensions of a program, which have a potential usage in a deduction system. We also proved that universally quantified equations are conservative, i.e. if a universally quantified equation is valid w.r.t. a program P, then it remains valid if the program is extended by new functions and/or new data types.
The well-known proof of termination of reduction in simply typed calculi is adapted to a monomorphically typed lambda-calculus with case and constructors and recursive data types. The proof differs at several places from the standard proof. Perhaps it is useful and can be extended also to more complex calculi.
Dieses Arbeitspapier geht aus einem Hauptseminar zur Argumentationstheorie hervor, das [von Leila Behrens] im Wintersemester 2008/09 am Institut für Linguistik der Universität zu Köln gehalten [wurde]. In den beiden Arbeiten in diesem Band (Badtke et al. und Benning et al.) stellen die Studierenden dieses Hauptseminars die Ergebnisse vor, die sie (in zwei parallelen Projektgruppen mit unterschiedlichen Diskussionsgegenständen) bei der empirischen Analyse von Argumentationen in einem Internet-Forum gewonnen haben. Der Gegenstand der Diskussion betraf bei der einen Gruppe (Badtke et al.) die Unabhängigkeit des Kosovo, bei der anderen Gruppe (Benning et al.) die Einführung eines generellen Rauchverbots in europäischen Hauptstädten.
Das Diskussionspapier versucht Dimensionen und Ausmaße von Ökonomisierungs- und Kommerzialisierungsprozessen in OECD-Gesundheitssystemen explorativ zu erörtern. Hierzu wird zunächst die Hypothese entwickelt, dass sich in den (meisten) OECD-Staaten eine hegemoniale gesundheitspolitische Strategie herausbildet, die als wettbewerbsbasierte Kostendämpfungspolitik bezeichnet wird. In der Folge werden die (mutmaßlichen) Auswirkungen von Ökonomisierungs- und Kommerzialisierungsprozessen diskutiert. Erstens wird beschrieben, wie die Monetarisierung der Arzt-Patienten-Beziehung zu einer Privatisierung des Gesundheitssystems führt. Zweitens wird die sich transformierende Arzt-Patienten-Beziehung als Dialektik von Demokratisierungs- und Ökonomisierungsprozessen dargestellt. Drittens beschäftigt sich der Beitrag mit Entwicklung einer neuen Gesundheitskultur, die die gesundheitliche Eigenverantwortung des Einzelnen betont, zugleich jedoch neuen Ausgrenzungs- und Stigmatisierungsprozessen den Weg zu ebnen droht. Abschließend wird ein in groben Zügen ein Forschungsprogramm umschrieben, welches Ökonomisierungs- und Kommerzialisierungsprozesse auf diesen drei Forschungsfeldern analytisch und bewertend unter die Lupe zu nehmen versucht.
Mit umfassenden rechtlichen Regelungen zur Zulassung und Anwendung von chemischen Pflanzenschutzmitteln wurde in Deutschland schon früh versucht, diesen Risiken zu begegnen. Nicht zuletzt in den aktuellen Debatten um Pestizidrückstände in Obst und Gemüse wurde aber auch immer wieder deutlich, dass sich der Zielkonflikt zwischen Anwendungsinteressen und Schutzanforderungen rechtlich nicht vollständig lösen lässt. Im Zentrum des vom Bundesministerium für Bildung und Forschung geförderten, transdisziplinären Projekts start2 stand daher die Frage: Wie können ergänzend zu rechtlichen Maßnahmen bei der Zulassung Risiken als Folge der bestimmungsgemäßen Anwendung von Pflanzenschutzmitteln weiter und nachhaltig vermindert werden?
Die vorliegende Handreichung gibt konkrete Antworten auf diese Frage. Im Zentrum steht dabei der Ansatz, Risikominderung mehr als bisher in gemeinsamer Verantwortung aller beteiligten gesellschaftlichen Akteure zu betreiben. Damit dies gelingt, muss den einzelnen Akteuren nicht nur aufgezeigt werden, welche Möglichkeiten sie haben, durch ihr Handeln einen wirksamen Beitrag zu dieser Aufgabe zu leisten. Die Handlungsmöglichkeiten der verschiedenen Akteure sollten sich überdies zu einer wirksamen Gesamtstrategie verbinden lassen. start2 hat zu diesem Zweck drei Handlungsfelder untersucht, deren Zuschnitt sich am Lebenszyklus eines Pflanzenschutzmittels ausrichtet: „Entwicklung von Pflanzenschutzmittelwirkstoffen“, "Landwirtschaftliche Pflanzenschutzpraxis“ und „Gewässer und Trinkwasserschutz“.
Die Handreichung richtet sich an Entscheidungsträgerinnen und Entscheidungsträger in Betrieben, Organisationen, Verwaltung und Politik (siehe auch den Lesehinweis auf der folgenden Seite). Sie gibt Informationen und konkrete Empfehlungen, wo neue Handlungsmöglichkeiten ansetzen und wo in der Praxis bereits umgesetzte Maßnahmen weiterentwickelt werden können. In einzelnen Fällen sind die vorgeschlagenen Handlungsmöglichkeiten zur Risikominderung auf den besseren Umgang mit besonders gefährlichen Stoffen zugeschnitten. Im Fokus des Projekts standen dabei Pflanzenschutzmittel, die möglicherweise Gesundheitsschäden auslösen können, indem sie auf das Hormonsystem wirken...
Auf der großen Konferenz der SGIR (Standing Group on International Relations) vom 9.-11. September 2010 in Stockholm, Schweden, organisierten wir eine eigene Sektion zum Thema Sicherheitskultur im Wandel. In sieben panels wurden viele Aspekte dieses Oberthemas diskutiert und erläutert, wie im ausführlichen Konferenzbericht nachzulesen ist
All of the papers in the volume except one (Kaji) take up some aspect of relative clause construction in some Bantu language. Kaji’s paper aims to account for how Tooro (J12; western Uganda) lost phonological tone through a comparative study of the tone systems of other western Uganda Bantu languages. The other papers examine a range of ways of forming relative clauses, often including non-restrictive relatives and clefts, in a wide range of languages representing a variety of prosodic systems.
In den Jahren 2006-2007 wurde die epiphytische Flechtenflora im Nordbezirk Moskaus erneut untersucht, um sie mit den Ergebnissen aus den Untersuchungen der Jahre 1988-1991 zu vergleichen. Statt 18 konnten nun 55 Flechtenarten nachgewiesen werden. Als Hauptursache für diese Zunahme wird die erhöhte Eutrophierung der Standorte angenommen.