Refine
Year of publication
Document Type
- Working Paper (10)
- Part of a Book (6)
- Article (3)
- Doctoral Thesis (1)
Has Fulltext
- yes (20)
Is part of the Bibliography
- no (20)
Keywords
- Prognose (20) (remove)
Institute
- Center for Financial Studies (CFS) (9)
- Wirtschaftswissenschaften (2)
- Biowissenschaften (1)
- Informatik (1)
- Medizin (1)
This paper considers a sticky price model with a cash-in-advance constraint where agents forecast inflation rates with the help of econometric models. Agents use least squares learning to estimate two competing models of which one is consistent with rational expectations once learning is complete. When past performance governs the choice of forecast model, agents may prefer to use the inconsistent forecast model, which generates an equilibrium where forecasts are inefficient. While average output and inflation result the same as under rational expectations, higher moments differ substantially: output and inflation show persistence, inflation responds sluggishly to nominal disturbances, and the dynamic correlations of output and inflation match U.S. data surprisingly well.
Modeling short-term interest rates as following regime-switching processes has become increasingly popular. Theoretically, regime-switching models are able to capture rational expectations of infrequently occurring discrete events. Technically, they allow for potential time-varying stationarity. After discussing both aspects with reference to the recent literature, this paper provides estimations of various univariate regime-switching specifications for the German three-month money market rate and bivariate specifications additionally including the term spread. However, the main contribution is a multi-step out-of-sample forecasting competition. It turns out that forecasts are improved substantially when allowing for state-dependence. Particularly, the informational content of the term spread for future short rate changes can be exploited optimally within a multivariate regime-switching framework.
This study uses Markov-switching models to evaluate the informational content of the term structure as a predictor of recessions in eight OECD countries. The empirical results suggest that for all countries the term spread is sensibly modelled as a two-state regime-switching process. Moreover, our simple univariate model turns out to be a filter that transforms accurately term spread changes into turning point predictions. The term structure is confirmed to be a reliable recession indicator. However, the results of probit estimations show that the markov-switching filter does not significantly improve the forecasting ability of the spread.
Volatility forecasting
(2005)
Volatility has been one of the most active and successful areas of research in time series econometrics and economic forecasting in recent decades. This chapter provides a selective survey of the most important theoretical developments and empirical insights to emerge from this burgeoning literature, with a distinct focus on forecasting applications. Volatility is inherently latent, and Section 1 begins with a brief intuitive account of various key volatility concepts. Section 2 then discusses a series of different economic situations in which volatility plays a crucial role, ranging from the use of volatility forecasts in portfolio allocation to density forecasting in risk management. Sections 3, 4 and 5 present a variety of alternative procedures for univariate volatility modeling and forecasting based on the GARCH, stochastic volatility and realized volatility paradigms, respectively. Section 6 extends the discussion to the multivariate problem of forecasting conditional covariances and correlations, and Section 7 discusses volatility forecast evaluation methods in both univariate and multivariate cases. Section 8 concludes briefly. JEL Klassifikation: C10, C53, G1.
A rapidly growing literature has documented important improvements in volatility measurement and forecasting performance through the use of realized volatilities constructed from high-frequency returns coupled with relatively simple reduced-form time series modeling procedures. Building on recent theoretical results from Barndorff-Nielsen and Shephard (2003c,d) for related bi-power variation measures involving the sum of high-frequency absolute returns, the present paper provides a practical framework for non-parametrically measuring the jump component in realized volatility measurements. Exploiting these ideas for a decade of high-frequency five-minute returns for the DM/$ exchange rate, the S&P500 market index, and the 30-year U.S. Treasury bond yield, we find the jump component of the price process to be distinctly less persistent than the continuous sample path component. Explicitly including the jump measure as an additional explanatory variable in an easy-to-implement reduced form model for realized volatility results in highly significant jump coefficient estimates at the daily, weekly and quarterly forecast horizons. As such, our results hold promise for improved financial asset allocation, risk management, and derivatives pricing, by separate modeling, forecasting and pricing of the continuous and jump components of total return variability.
Kriminalität und deren Bekämpfung unterliegen seit jeher permanenten Veränderungen. Durch den gesellschaftlichen Wandel und die damit einhergehende Weiterentwicklung von technischen Möglichkeiten werden fortlaufend neue Modi Operandi ermöglicht, auf welche die Polizei mit teilweise ebenfalls neuen kriminalistischen Mitteln reagiert. Entwicklungen in der Kriminalität und der Kriminalistik können somit als sich gegenseitig beeinflussende Prozesse angesehen werden. Allerdings findet dieser Wandel nicht kontinuierlich statt, sondern tritt in Schüben auf, die in der Regel auf besonders kriminalitätsrelevante Ereignisse zurückzuführen sind. In diesem Zusammenhang verändert sich die Polizei, sowohl in ihrer Organisation als auch in ihren Analysen zur Entwicklung der Kriminalität und in ihren Methoden zu deren Bekämpfung, teilweise grundlegend.
In einem ersten, konzeptionellen Teil wird anhand von ausgewählten Kriminalitätsformen und den damit verbundenen Ermittlungspraktiken ein Überblick der gegenseitigen Beeinflussung von Kriminalität und Kriminalistik gegeben. Darauf aufbauend wird im zweiten Teil der aktuelle Stand dieses 'Evolutionsprozesses' anhand der Implementierung von Predictive-Policing-Systemen in die Polizeiarbeit diskutiert. Denn darin zeigt sich nahezu idealtypisch die gegenseitige Beeinflussung von Kriminalität und Kriminalistik wie auch der digitale Wandel und die damit verbundenen Gefahren. Polizeiarbeit scheint sich im Ergebnis dieser Veränderungsprozesse von einer ursprünglich eher auf den Einzelfall bezogenen, subjektiven Sichtweise auf Kriminalität und deren Verfolgung (zum Beispiel durch kriminalistische Taktik und List in der Vernehmung) auf eine nunmehr eher allgemeine, abstraktere Betrachtung zu verschieben ('Abstract Police').
Ökologie
(2016)
Ist heute die Rede von ökologischem Bewusstsein, Umweltverschmutzung oder Energiequellen, so ist immer auch zugleich die Rede von der Zukunft: In Frage steht, wie ein zukünftiges Leben unter den von Menschen geschaffenen Bedingungen aussehen könnte – Stichworte sind Klimawandel, Wassermangel, Erschöpfung der Energie-Ressourcen sowie die daraus folgenden Konsequenzen: Kriege um die Territorien, in denen ein Überleben noch möglich ist. Stets werfen solchen Szenarien die Frage auf, mit welchen Mitteln und Umstellungen diese düstere Zukunft vermieden werden könnte, verhandelt werden solchermaßen eine Energieversorgung durch alternative Energiequellen, die Ausrichtung der Wirtschaft auf Nachhaltigkeit, aber auch die Frage, ob die Demokratie überhaupt in der Lage ist, angesichts der akuten und globalen Probleme rechtzeitig zu agieren.
In this study, we develop a technique for estimating a firm’s expected cost of equity capital derived from analyst consensus forecasts and stock prices. Building on the work of Gebhardt/Lee/-Swaminathan (2001) and Easton/Taylor/Shroff/Sougiannis (2002), our approach allows daily estimation, using only publicly available information at that date. We then estimate the expected cost of equity capital at the market, industry and individual firm level using historical German data from 1989-2002 and examine firm characteristics which are systematically related to these estimates. Finally, we demonstrate the applicability of the concept in a contemporary case study for DaimlerChrysler and the European automobile industry.
Im Folgenden werden zunächst die verschiedenen Weisen erforscht, in denen Prophetie und Prognose sich mit der Zukunft und mit der entsprechenden Unsicherheit auseinandersetzen, um sie dann auf die Formen der Beobachtung erster bzw. zweiter Ordnung zurückzuführen. Die Divination realisiert, wie dann gezeigt wird, eine Beobachtung erster Ordnung, die ein doppeltes Verhältnis zu den Objekten artikuliert, indem sie eine tiefere Ebene unterhalb der Oberfläche der Dinge liest. So produziert sie eine unendlich bedeutsame Welt, die mit bestimmten Techniken entziffert werden muss. Die divinatorische Technik geht vom Bewusstsein ihrer Grenzen und der Möglichkeit von Fehlern aus, was aber gerade dazu führt, dass Prophezeiungen unabhängig vom faktischen Verlauf der Dinge immer bestätigt werden können. Demgegenüber lokalisiert die Prognose die Unsicherheit innerhalb der Welt, die sie von außen beobachtet – in einer Beobachtung zweiter Ordnung – und mit Planung und Wissen zu kontrollieren versucht. Das Ergebnis (charakteristisch für die heutige Informationsgesellschaft) ist die Unfähigkeit, der Zirkularität der Vorhersage und ihren Folgen für die zu antizipierende Welt angemessen Rechnung zu tragen; so werden Vorhersagen produziert, die dazu tendieren, sich selbst zu sabotieren, wie abschließend dargestellt wird. Die Argumentation zielt darauf, die Verbindungen zwischen Prognose und Prophetie zu berücksichtigen. Die Erkenntnis des Umstandes, dass eine einmal formulierte Prognose als Prophetie wirkt, könnte zur besseren Kontrolle des Nicht-Wissens führen – und somit zur genaueren Reflexion darüber, wie wirksam oder wirkungslos unsere Vorbereitungen für die Zukunft sind.
Simulationsmodelle
(2016)
Mit der Entwicklung elektronischer Computer in den 1940er Jahren und höheren Programmiersprachen in den 1950er Jahren hält ein neuer Modelltyp Einzug in die Wissenschaften: Simulationsmodelle. Bekannteste Vertreter sind wohl Klima- und Wettermodelle, die mittlerweile Teil der Alltagskultur geworden sind. Kaum eine Natur- oder Technikwissenschaft kommt heute noch ohne Simulationsmodelle aus und neben der traditionellen Einteilung in Theorie und Empirie fügt sich die Simulation als 'dritte Methode' im Rahmen von 'Computational Departments' in die Wissenschaftslandschaft ein. Dabei ist der Begriff des Simulierens durchaus nicht eindeutig definiert. In einem weiten Sinne kann er im wissenschaftlichen Kontext für jegliche Form des Nachahmens und Imitierens verwendet werden: ein Crashtest im Labor simuliert einen Autounfall, ein Schiffsmodell im Strömungskanal bildet maßstabsgerecht ein Containerschiff nach und ein Ball-Stick-Model imitiert ein Molekül. Dennoch hat sich im wissenschaftlichen Kontext der Begriff des Simulierens auf die Computersimulation zentriert und in unterschiedliche Subkategorien ausdifferenziert:
– deterministische Simulationen basierend auf Differentialgleichungen
– stochastische Simulationen basierend auf stochastischen Differentialgleichungen oder
Zufallsläufeerzeugungsmethoden wie der Monte-Carlo-Simulation
– ereignisbasierte Simulationen, in denen bestimmte Ereignisse andere Ereignisse auslösen
– sogenannte 'Soft Computing'-Methoden wie Agentenbasierte Simulationen, Genetische
Programmierung, Evolutionäre Algorithmen oder Neuronale Netze.
Im vorliegenden Zusammenhang soll der Begriff des Simulierens jedoch einzig auf deterministische Simulationen bezogen werden. Diese Simulationsart ist nicht nur die weitest verbreitete in den Natur- oder Technikwissenschaften, sie ist auch die älteste und damit klassische Form der Simulation.