Refine
Year of publication
Document Type
- Working Paper (10)
- Part of a Book (4)
- Article (3)
- Doctoral Thesis (1)
Has Fulltext
- yes (18)
Is part of the Bibliography
- no (18)
Keywords
- Prognose (18) (remove)
Institute
- Center for Financial Studies (CFS) (9)
- Wirtschaftswissenschaften (2)
- Biowissenschaften (1)
- Informatik (1)
- Medizin (1)
Ökologie
(2016)
Ist heute die Rede von ökologischem Bewusstsein, Umweltverschmutzung oder Energiequellen, so ist immer auch zugleich die Rede von der Zukunft: In Frage steht, wie ein zukünftiges Leben unter den von Menschen geschaffenen Bedingungen aussehen könnte – Stichworte sind Klimawandel, Wassermangel, Erschöpfung der Energie-Ressourcen sowie die daraus folgenden Konsequenzen: Kriege um die Territorien, in denen ein Überleben noch möglich ist. Stets werfen solchen Szenarien die Frage auf, mit welchen Mitteln und Umstellungen diese düstere Zukunft vermieden werden könnte, verhandelt werden solchermaßen eine Energieversorgung durch alternative Energiequellen, die Ausrichtung der Wirtschaft auf Nachhaltigkeit, aber auch die Frage, ob die Demokratie überhaupt in der Lage ist, angesichts der akuten und globalen Probleme rechtzeitig zu agieren.
Volatility forecasting
(2005)
Volatility has been one of the most active and successful areas of research in time series econometrics and economic forecasting in recent decades. This chapter provides a selective survey of the most important theoretical developments and empirical insights to emerge from this burgeoning literature, with a distinct focus on forecasting applications. Volatility is inherently latent, and Section 1 begins with a brief intuitive account of various key volatility concepts. Section 2 then discusses a series of different economic situations in which volatility plays a crucial role, ranging from the use of volatility forecasts in portfolio allocation to density forecasting in risk management. Sections 3, 4 and 5 present a variety of alternative procedures for univariate volatility modeling and forecasting based on the GARCH, stochastic volatility and realized volatility paradigms, respectively. Section 6 extends the discussion to the multivariate problem of forecasting conditional covariances and correlations, and Section 7 discusses volatility forecast evaluation methods in both univariate and multivariate cases. Section 8 concludes briefly. JEL Klassifikation: C10, C53, G1.
A rapidly growing literature has documented important improvements in volatility measurement and forecasting performance through the use of realized volatilities constructed from high-frequency returns coupled with relatively simple reduced-form time series modeling procedures. Building on recent theoretical results from Barndorff-Nielsen and Shephard (2003c,d) for related bi-power variation measures involving the sum of high-frequency absolute returns, the present paper provides a practical framework for non-parametrically measuring the jump component in realized volatility measurements. Exploiting these ideas for a decade of high-frequency five-minute returns for the DM/$ exchange rate, the S&P500 market index, and the 30-year U.S. Treasury bond yield, we find the jump component of the price process to be distinctly less persistent than the continuous sample path component. Explicitly including the jump measure as an additional explanatory variable in an easy-to-implement reduced form model for realized volatility results in highly significant jump coefficient estimates at the daily, weekly and quarterly forecast horizons. As such, our results hold promise for improved financial asset allocation, risk management, and derivatives pricing, by separate modeling, forecasting and pricing of the continuous and jump components of total return variability.
Simulationsmodelle
(2016)
Mit der Entwicklung elektronischer Computer in den 1940er Jahren und höheren Programmiersprachen in den 1950er Jahren hält ein neuer Modelltyp Einzug in die Wissenschaften: Simulationsmodelle. Bekannteste Vertreter sind wohl Klima- und Wettermodelle, die mittlerweile Teil der Alltagskultur geworden sind. Kaum eine Natur- oder Technikwissenschaft kommt heute noch ohne Simulationsmodelle aus und neben der traditionellen Einteilung in Theorie und Empirie fügt sich die Simulation als 'dritte Methode' im Rahmen von 'Computational Departments' in die Wissenschaftslandschaft ein. Dabei ist der Begriff des Simulierens durchaus nicht eindeutig definiert. In einem weiten Sinne kann er im wissenschaftlichen Kontext für jegliche Form des Nachahmens und Imitierens verwendet werden: ein Crashtest im Labor simuliert einen Autounfall, ein Schiffsmodell im Strömungskanal bildet maßstabsgerecht ein Containerschiff nach und ein Ball-Stick-Model imitiert ein Molekül. Dennoch hat sich im wissenschaftlichen Kontext der Begriff des Simulierens auf die Computersimulation zentriert und in unterschiedliche Subkategorien ausdifferenziert:
– deterministische Simulationen basierend auf Differentialgleichungen
– stochastische Simulationen basierend auf stochastischen Differentialgleichungen oder
Zufallsläufeerzeugungsmethoden wie der Monte-Carlo-Simulation
– ereignisbasierte Simulationen, in denen bestimmte Ereignisse andere Ereignisse auslösen
– sogenannte 'Soft Computing'-Methoden wie Agentenbasierte Simulationen, Genetische
Programmierung, Evolutionäre Algorithmen oder Neuronale Netze.
Im vorliegenden Zusammenhang soll der Begriff des Simulierens jedoch einzig auf deterministische Simulationen bezogen werden. Diese Simulationsart ist nicht nur die weitest verbreitete in den Natur- oder Technikwissenschaften, sie ist auch die älteste und damit klassische Form der Simulation.
Psychiatrie
(2016)
In der Psychiatrie hat die Prognose über den Verlauf und den Ausgang von Erkrankungen eine Schlüsselstellung inne. Sie verknüpft die Erkenntnis, welche Ursachen eine Erkrankung besitzt, und die Frage, welche Therapie geboten ist, mit einem Wissen, wie die Krankheit verlaufen und ausgehen wird. Jedoch stehen einer Vorhersage der Zukunft zahlreiche Hindernisse entgegen, die einerseits in der Kontingenz des Lebens selbst, der Individualität der Patienten oder auch der Ungewissheit, ob und wie Therapien anschlagen, liegen. Jedoch ist in der Psychiatrie eine Prognose schwierig, weil vielfach unklar ist, was eine Krankheit überhaupt ist, welche Ursachen sie besitzt und wie sie von anderen Krankheiten zu unterscheiden ist. Dennoch entsteht im 19. Jahrhundert ein unmittelbarerer Nexus von Diagnose und Prognose, der den epistemologischen Kern der Psychiatrie definiert. Im 20. Jahrhundert wird der Nexus von Diagnostik und Prognostik auf neue Weise gefasst. Die Psychiatrie wird zu einer Zukunftswissenschaft, die nicht mehr nur vorhersagt, wie eine Krankheit, Erkrankung oder Störung verlaufen und ausgehen wird. Vielmehr schafft sie ein neuartiges Verständnis dafür, was psychische Gesundheit sei und nimmt insbesondere das Verhältnis von manifester, akuter Erkrankung und zukünftiger, wahrscheinlicher Erkrankung in den Blick.
This study uses Markov-switching models to evaluate the informational content of the term structure as a predictor of recessions in eight OECD countries. The empirical results suggest that for all countries the term spread is sensibly modelled as a two-state regime-switching process. Moreover, our simple univariate model turns out to be a filter that transforms accurately term spread changes into turning point predictions. The term structure is confirmed to be a reliable recession indicator. However, the results of probit estimations show that the markov-switching filter does not significantly improve the forecasting ability of the spread.
This paper employs a multi-country large scale Overlapping Generations model with uninsurable labor productivity and mortality risk to quantify the impact of the demographic transition towards an older population in industrialized countries on world-wide rates of return, international capital flows and the distribution of wealth and welfare in the OECD. We find that for the U.S. as an open economy, rates of return are predicted to decline by 86 basis points between 2005 and 2080 and wages increase by about 4.1%. If the U.S. were a closed economy, rates of return would decline and wages increase by less. This is due to the fact that other regions in the OECD will age even more rapidly; therefore the U.S. is “importing” the more severe demographic transition from the rest of the OECD in the form of larger factor price changes. In terms of welfare, our model suggests that young agents with little assets and currently low labor productivity gain, up to 1% in consumption, from higher wages associated with population aging. Older, asset-rich households tend to lose, because of the predicted decline in real returns to capital. Klassifizierung: E17, E25, D33, C68
This paper considers a sticky price model with a cash-in-advance constraint where agents forecast inflation rates with the help of econometric models. Agents use least squares learning to estimate two competing models of which one is consistent with rational expectations once learning is complete. When past performance governs the choice of forecast model, agents may prefer to use the inconsistent forecast model, which generates an equilibrium where forecasts are inefficient. While average output and inflation result the same as under rational expectations, higher moments differ substantially: output and inflation show persistence, inflation responds sluggishly to nominal disturbances, and the dynamic correlations of output and inflation match U.S. data surprisingly well.
Konjektur
(2016)
Zu Beginn seines Buches 'Die Kunst der Vorausschau' umreißt Bertrand de Jouvenel nicht nur sein Projekt der "Futuribles", das er als Alternative zu Ossip K. Flechtheims "Futurologie" in Anschlag bringt, sondern reflektiert auch das Vokabular seiner Untersuchung – insbesondere den Begriff der Vermutung, der in der französischen Ausgabe titelgebenden Charakter hat: 'L’Art de la Conjecture' heißt Jouvenels 1964 erschienenes Buch im Original – und spielt damit explizit auf Jacob Bernoullis 1713 erschienene 'Ars Conjectandi' an. Stand coniectura im mittelalterlichen und frühneuzeitlichen Denken als Chiffre vorläufiger menschlicher Mutmaßung im Gegensatz zu überzeitlichem göttlichem Wissen, so findet mit Bernoulli eine radikale Mathematisierung der "Konjekturalphilosophie" statt: Die 'Conjectura' ist als "wahrscheinliche Meynung, so aus gewissen Umständen entstehet und herrühret", nunmehr das Ergebnis einer komplexen Berechnung von Wahrscheinlichkeiten, die, losgelöst von empirischen Raum-Zeit- Verhältnissen, als kontingentes Spiel möglicher Ereignisse in möglichen Welten kalkuliert werden. Damit nimmt die Konjektur – wörtlich: das 'Zusammenwerfen' – einen epistemischen Zwischenraum im Spannungsverhältnis von Spekulation und Kalkulation ein, der ihre epistemologische Stellung bis heute bestimmt: Die 'Ars Conjecturandi' wird zur Grundlage von statistischen Theorien, "for assessing the probability of hypotheses in the light of data". Das heißt zugleich: Der Charakter der Konjektur wird nicht mehr allein durch die spekulative Annahme möglicher Ereignisse konfiguriert, sondern durch komplexe Kalkulationen, denen die Aufgabe zufällt, die mögliche Welt der Mutmaßung mit der wirklichen Welt zu verzahnen – vermittelt über eine "Zwischentätigkeit", nämlich das "Bauen von Modellen", die gleichsam ein Repertoire von präsumtiven Vorannahmen bereitstellen. Der Wechsel von einer Erkenntnistheorie, die ihre Wahrheiten im Rekurs auf eine göttlich gesicherte Weltordnung ermittelt, hin zu einer Erkenntnistheorie, die bloß vorläufige Wahrheiten in Relation zu selbst gebauten Modellen finden kann, impliziert einen Wechsel im "konjekturalen Paradigma". Aus einem mantischen Divinationskonzept, das anhand von signalhaften 'Vorzeichen' den göttlichen Willen zu erraten sucht, wird ein profanes Konzept des Aufstellens von Hypothesen, das sich bei der Deutung symptomatischer Anzeichen an den kalkulierbaren Prinzipien der Wahrscheinlichkeit und der Glaubwürdigkeit orientiert – und zwar sowohl im Rahmen von Diagnosen als auch im Rahmen von Prognosen.