Refine
Year of publication
Document Type
- Working Paper (10)
- Part of a Book (4)
- Article (3)
- Doctoral Thesis (1)
Has Fulltext
- yes (18)
Is part of the Bibliography
- no (18)
Keywords
- Prognose (18) (remove)
Institute
- Center for Financial Studies (CFS) (9)
- Wirtschaftswissenschaften (2)
- Biowissenschaften (1)
- Informatik (1)
- Medizin (1)
Ökologie
(2016)
Ist heute die Rede von ökologischem Bewusstsein, Umweltverschmutzung oder Energiequellen, so ist immer auch zugleich die Rede von der Zukunft: In Frage steht, wie ein zukünftiges Leben unter den von Menschen geschaffenen Bedingungen aussehen könnte – Stichworte sind Klimawandel, Wassermangel, Erschöpfung der Energie-Ressourcen sowie die daraus folgenden Konsequenzen: Kriege um die Territorien, in denen ein Überleben noch möglich ist. Stets werfen solchen Szenarien die Frage auf, mit welchen Mitteln und Umstellungen diese düstere Zukunft vermieden werden könnte, verhandelt werden solchermaßen eine Energieversorgung durch alternative Energiequellen, die Ausrichtung der Wirtschaft auf Nachhaltigkeit, aber auch die Frage, ob die Demokratie überhaupt in der Lage ist, angesichts der akuten und globalen Probleme rechtzeitig zu agieren.
Psychiatrie
(2016)
In der Psychiatrie hat die Prognose über den Verlauf und den Ausgang von Erkrankungen eine Schlüsselstellung inne. Sie verknüpft die Erkenntnis, welche Ursachen eine Erkrankung besitzt, und die Frage, welche Therapie geboten ist, mit einem Wissen, wie die Krankheit verlaufen und ausgehen wird. Jedoch stehen einer Vorhersage der Zukunft zahlreiche Hindernisse entgegen, die einerseits in der Kontingenz des Lebens selbst, der Individualität der Patienten oder auch der Ungewissheit, ob und wie Therapien anschlagen, liegen. Jedoch ist in der Psychiatrie eine Prognose schwierig, weil vielfach unklar ist, was eine Krankheit überhaupt ist, welche Ursachen sie besitzt und wie sie von anderen Krankheiten zu unterscheiden ist. Dennoch entsteht im 19. Jahrhundert ein unmittelbarerer Nexus von Diagnose und Prognose, der den epistemologischen Kern der Psychiatrie definiert. Im 20. Jahrhundert wird der Nexus von Diagnostik und Prognostik auf neue Weise gefasst. Die Psychiatrie wird zu einer Zukunftswissenschaft, die nicht mehr nur vorhersagt, wie eine Krankheit, Erkrankung oder Störung verlaufen und ausgehen wird. Vielmehr schafft sie ein neuartiges Verständnis dafür, was psychische Gesundheit sei und nimmt insbesondere das Verhältnis von manifester, akuter Erkrankung und zukünftiger, wahrscheinlicher Erkrankung in den Blick.
Konjektur
(2016)
Zu Beginn seines Buches 'Die Kunst der Vorausschau' umreißt Bertrand de Jouvenel nicht nur sein Projekt der "Futuribles", das er als Alternative zu Ossip K. Flechtheims "Futurologie" in Anschlag bringt, sondern reflektiert auch das Vokabular seiner Untersuchung – insbesondere den Begriff der Vermutung, der in der französischen Ausgabe titelgebenden Charakter hat: 'L’Art de la Conjecture' heißt Jouvenels 1964 erschienenes Buch im Original – und spielt damit explizit auf Jacob Bernoullis 1713 erschienene 'Ars Conjectandi' an. Stand coniectura im mittelalterlichen und frühneuzeitlichen Denken als Chiffre vorläufiger menschlicher Mutmaßung im Gegensatz zu überzeitlichem göttlichem Wissen, so findet mit Bernoulli eine radikale Mathematisierung der "Konjekturalphilosophie" statt: Die 'Conjectura' ist als "wahrscheinliche Meynung, so aus gewissen Umständen entstehet und herrühret", nunmehr das Ergebnis einer komplexen Berechnung von Wahrscheinlichkeiten, die, losgelöst von empirischen Raum-Zeit- Verhältnissen, als kontingentes Spiel möglicher Ereignisse in möglichen Welten kalkuliert werden. Damit nimmt die Konjektur – wörtlich: das 'Zusammenwerfen' – einen epistemischen Zwischenraum im Spannungsverhältnis von Spekulation und Kalkulation ein, der ihre epistemologische Stellung bis heute bestimmt: Die 'Ars Conjecturandi' wird zur Grundlage von statistischen Theorien, "for assessing the probability of hypotheses in the light of data". Das heißt zugleich: Der Charakter der Konjektur wird nicht mehr allein durch die spekulative Annahme möglicher Ereignisse konfiguriert, sondern durch komplexe Kalkulationen, denen die Aufgabe zufällt, die mögliche Welt der Mutmaßung mit der wirklichen Welt zu verzahnen – vermittelt über eine "Zwischentätigkeit", nämlich das "Bauen von Modellen", die gleichsam ein Repertoire von präsumtiven Vorannahmen bereitstellen. Der Wechsel von einer Erkenntnistheorie, die ihre Wahrheiten im Rekurs auf eine göttlich gesicherte Weltordnung ermittelt, hin zu einer Erkenntnistheorie, die bloß vorläufige Wahrheiten in Relation zu selbst gebauten Modellen finden kann, impliziert einen Wechsel im "konjekturalen Paradigma". Aus einem mantischen Divinationskonzept, das anhand von signalhaften 'Vorzeichen' den göttlichen Willen zu erraten sucht, wird ein profanes Konzept des Aufstellens von Hypothesen, das sich bei der Deutung symptomatischer Anzeichen an den kalkulierbaren Prinzipien der Wahrscheinlichkeit und der Glaubwürdigkeit orientiert – und zwar sowohl im Rahmen von Diagnosen als auch im Rahmen von Prognosen.
Simulationsmodelle
(2016)
Mit der Entwicklung elektronischer Computer in den 1940er Jahren und höheren Programmiersprachen in den 1950er Jahren hält ein neuer Modelltyp Einzug in die Wissenschaften: Simulationsmodelle. Bekannteste Vertreter sind wohl Klima- und Wettermodelle, die mittlerweile Teil der Alltagskultur geworden sind. Kaum eine Natur- oder Technikwissenschaft kommt heute noch ohne Simulationsmodelle aus und neben der traditionellen Einteilung in Theorie und Empirie fügt sich die Simulation als 'dritte Methode' im Rahmen von 'Computational Departments' in die Wissenschaftslandschaft ein. Dabei ist der Begriff des Simulierens durchaus nicht eindeutig definiert. In einem weiten Sinne kann er im wissenschaftlichen Kontext für jegliche Form des Nachahmens und Imitierens verwendet werden: ein Crashtest im Labor simuliert einen Autounfall, ein Schiffsmodell im Strömungskanal bildet maßstabsgerecht ein Containerschiff nach und ein Ball-Stick-Model imitiert ein Molekül. Dennoch hat sich im wissenschaftlichen Kontext der Begriff des Simulierens auf die Computersimulation zentriert und in unterschiedliche Subkategorien ausdifferenziert:
– deterministische Simulationen basierend auf Differentialgleichungen
– stochastische Simulationen basierend auf stochastischen Differentialgleichungen oder
Zufallsläufeerzeugungsmethoden wie der Monte-Carlo-Simulation
– ereignisbasierte Simulationen, in denen bestimmte Ereignisse andere Ereignisse auslösen
– sogenannte 'Soft Computing'-Methoden wie Agentenbasierte Simulationen, Genetische
Programmierung, Evolutionäre Algorithmen oder Neuronale Netze.
Im vorliegenden Zusammenhang soll der Begriff des Simulierens jedoch einzig auf deterministische Simulationen bezogen werden. Diese Simulationsart ist nicht nur die weitest verbreitete in den Natur- oder Technikwissenschaften, sie ist auch die älteste und damit klassische Form der Simulation.
Im Folgenden werden zunächst die verschiedenen Weisen erforscht, in denen Prophetie und Prognose sich mit der Zukunft und mit der entsprechenden Unsicherheit auseinandersetzen, um sie dann auf die Formen der Beobachtung erster bzw. zweiter Ordnung zurückzuführen. Die Divination realisiert, wie dann gezeigt wird, eine Beobachtung erster Ordnung, die ein doppeltes Verhältnis zu den Objekten artikuliert, indem sie eine tiefere Ebene unterhalb der Oberfläche der Dinge liest. So produziert sie eine unendlich bedeutsame Welt, die mit bestimmten Techniken entziffert werden muss. Die divinatorische Technik geht vom Bewusstsein ihrer Grenzen und der Möglichkeit von Fehlern aus, was aber gerade dazu führt, dass Prophezeiungen unabhängig vom faktischen Verlauf der Dinge immer bestätigt werden können. Demgegenüber lokalisiert die Prognose die Unsicherheit innerhalb der Welt, die sie von außen beobachtet – in einer Beobachtung zweiter Ordnung – und mit Planung und Wissen zu kontrollieren versucht. Das Ergebnis (charakteristisch für die heutige Informationsgesellschaft) ist die Unfähigkeit, der Zirkularität der Vorhersage und ihren Folgen für die zu antizipierende Welt angemessen Rechnung zu tragen; so werden Vorhersagen produziert, die dazu tendieren, sich selbst zu sabotieren, wie abschließend dargestellt wird. Die Argumentation zielt darauf, die Verbindungen zwischen Prognose und Prophetie zu berücksichtigen. Die Erkenntnis des Umstandes, dass eine einmal formulierte Prognose als Prophetie wirkt, könnte zur besseren Kontrolle des Nicht-Wissens führen – und somit zur genaueren Reflexion darüber, wie wirksam oder wirkungslos unsere Vorbereitungen für die Zukunft sind.
Im Zeitraum 1. 11. 1993 bis 30. 3. 1997 wurden 1149 allgemeinchirurgische Intensivpatienten prospektiv erfaßt, von denen 114 die Kriterien des septischen Schocks erfüllten. Die Letalität der Patienten mit einem septischen Schock betrug 47,3%. Nach Training eines neuronalen Netzes mit 91 (von insgesamt n = 114) Patienten ergab die Testung bei den verbleibenden 23 Patienten bei der Berücksichtigung von Parameterveränderungen vom 1. auf den 2. Tag des septischen Schocks folgendes Ergebnis: Alle 10 verstorbenen Patienten wurden korrekt als nicht überlebend vorhergesagt, von den 13 Überlebenden wurden 12 korrekt als überlebend vorhergesagt (Sensitivität 100%; Spezifität 92,3%).
Kenntnisse über die dreidimensionale Struktur therapeutisch relevanter Zielproteine bieten wertvolle Informationen für den rationalen Wirkstoffentwurf. Die stetig wachsende Zahl aufgeklärter Kristallstrukturen von Proteinen ermöglicht eine qualitative und quantitative rechnergestützte Untersuchung von spezifischen Protein-Liganden Wechselwirkungen. Im Rahmen dieser Arbeit wurden neue Algorithmen für die Identifikation und den Ähnlichkeitsvergleich von Proteinbindetaschen und ihren Eigenschaften entwickelt und in dem Programm PocketomePicker zusammengefasst. Die Software gliedert sich in die Routinen PocketPicker, PocketShapelets und PocketGraph. Ferner wurde in dieser Arbeit die Methode ReverseLIQUID reimplementiert und im Rahmen einer Kooperation für das strukturbasierte Virtuelle Screening angewendet. Die genannten Methoden und ihre wissenschaftliche Anwendungen sollte hier zusammengefasst werden: Die Methode PocketPicker ermöglicht die Vorhersage potentieller Bindetaschen auf Proteinoberflächen. Diese Technik implementiert einen geometrischen Ansatz auf Basis „künstlicher Gitter“ zur Identifikation zusammenhängender vergrabener Bereiche der Proteinoberfläche als Orte möglicher Ligandenbindestellen. Die Methode erreicht eine korrekte Vorhersage der tatsächlichen Bindetasche für 73 % der Einträge eines repräsentativen Datensatzes von Proteinstrukturen. Für 90 % der Proteinstrukturen wird die tatsächlich Ligandenbindestelle unter den drei wahrscheinlichsten vorhergesagten Taschen gefunden. PocketPicker übertrifft die Vorhersagequalität anderer etablierter Algorithmen und ermöglicht Taschenidentifikationen auf apo-Strukturen ohne signifikante Einbußen des Vorhersageerfolges. Andere Verfahren weisen deutlich eingeschränkte Ergebnisse bei der Anwendung auf apo-Strukturen auf. PocketPicker erlaubt den alignmentfreien Ähnlichkeitsvergleich von Bindetaschenfor-men durch die Kodierung berechneter Bindevolumen als Korrelationsdeskriptoren. Dieser Ansatz wurde erfolgreich für Funktionsvorhersage von Bindetaschen aus Homologiemodellen von APOBEC3C und Glutamat Dehydrogenase des Malariaerregers Plasmodium falciparum angewendet. Diese beiden Projekte wurden in Zusammenarbeit mit Kollaborationspartnern durchgeführt. Zudem wurden PocketPicker Korrelationsdeskriptoren erfolgreich für die automatisierte Konformationsanalyse der enzymatischen Tasche von Aldose Reduktase angewendet. Für detaillierte Analysen der Form und der physikochemischen Eigenschaften von Proteinbindetaschen wurde in dieser Arbeit die Methode PocketShapelets entwickelt. Diese Technik ermöglicht strukturelle Alignments von extrahierten Bindevolumen durch Zerlegungen der Oberfläche von Proteinbindetaschen. Die Überlagerung gelingt durch die Identifikation strukturell ähnlicher Oberflächenkurvaturen zweier Taschen. PocketShapelets wurde erfolgreich zur Analyse funktioneller Ähnlichkeit von Bindetaschen verwendet, die auf Betrachtungen physikochemischer Eigenschaften basiert. Zur Analyse der topologischen Vielfalt von Bindetaschengeometrien wurde in dieser Arbeit die Methode PocketGraph entwickelt. Dieser Ansatz nutzt das Konzept des sog. „Wachsenden Neuronalen Gases“ aus dem Bereich des maschinellen Lernens für eine automatische Extraktion des strukturellen Aufbaus von Bindetaschen. Ferner ermöglicht diese Methode die Zerlegung einer Bindestelle in ihre Subtaschen. Die von PocketPicker charakterisierten Taschenvolumen bilden die Grundlage für die Methode ReverseLIQUID. Dieses Programm wurde in dieser Arbeit weiterentwickelt und im Rahmen einer Kooperation zur Identifikation eines Inhibitors der Serinprotease HtrA des Erregers Helicobacter pylori verwendet. Mit ReverseLIQUID konnte ein strukturbasiertes Pharmakophormodell für das Virtuelle Screening erstellt werden. Dieser Ansatz ermöglichte die Identifikation einer Substanz mit niedrig mikromolarer Affinität gegenüber der Zielstruktur.
Monetary policy analysts often rely on rules-of-thumb, such as the Taylor rule, to describe historical monetary policy decisions and to compare current policy to historical norms. Analysis along these lines also permits evaluation of episodes where policy may have deviated from a simple rule and examination of the reasons behind such deviations. One interesting question is whether such rules-of-thumb should draw on policymakers "forecasts of key variables such as inflation and unemployment or on observed outcomes. Importantly, deviations of the policy from the prescriptions of a Taylor rule that relies on outcomes may be due to systematic responses to information captured in policymakers" own projections. We investigate this proposition in the context of FOMC policy decisions over the past 20 years using publicly available FOMC projections from the biannual monetary policy reports to the Congress (Humphrey-Hawkins reports). Our results indicate that FOMC decisions can indeed be predominantly explained in terms of the FOMC´s own projections rather than observed outcomes. Thus, a forecast-based rule-of-thumb better characterizes FOMC decision-making. We also confirm that many of the apparent deviations of the federal funds rate from an outcome-based Taylor-style rule may be considered systematic responses to information contained in FOMC projections.
A resampling method based on the bootstrap and a bias-correction step is developed for improving the Value-at-Risk (VaR) forecasting ability of the normal-GARCH model. Compared to the use of more sophisticated GARCH models, the new method is fast, easy to implement, numerically reliable, and, except for having to choose a window length L for the bias-correction step, fully data driven. The results for several different financial asset returns over a long out-of-sample forecasting period, as well as use of simulated data, strongly support use of the new method, and the performance is not sensitive to the choice of L. Klassifizierung: C22, C53, C63, G12
This paper employs a multi-country large scale Overlapping Generations model with uninsurable labor productivity and mortality risk to quantify the impact of the demographic transition towards an older population in industrialized countries on world-wide rates of return, international capital flows and the distribution of wealth and welfare in the OECD. We find that for the U.S. as an open economy, rates of return are predicted to decline by 86 basis points between 2005 and 2080 and wages increase by about 4.1%. If the U.S. were a closed economy, rates of return would decline and wages increase by less. This is due to the fact that other regions in the OECD will age even more rapidly; therefore the U.S. is “importing” the more severe demographic transition from the rest of the OECD in the form of larger factor price changes. In terms of welfare, our model suggests that young agents with little assets and currently low labor productivity gain, up to 1% in consumption, from higher wages associated with population aging. Older, asset-rich households tend to lose, because of the predicted decline in real returns to capital. Klassifizierung: E17, E25, D33, C68
In this study, we develop a technique for estimating a firm’s expected cost of equity capital derived from analyst consensus forecasts and stock prices. Building on the work of Gebhardt/Lee/-Swaminathan (2001) and Easton/Taylor/Shroff/Sougiannis (2002), our approach allows daily estimation, using only publicly available information at that date. We then estimate the expected cost of equity capital at the market, industry and individual firm level using historical German data from 1989-2002 and examine firm characteristics which are systematically related to these estimates. Finally, we demonstrate the applicability of the concept in a contemporary case study for DaimlerChrysler and the European automobile industry.
Volatility forecasting
(2005)
Volatility has been one of the most active and successful areas of research in time series econometrics and economic forecasting in recent decades. This chapter provides a selective survey of the most important theoretical developments and empirical insights to emerge from this burgeoning literature, with a distinct focus on forecasting applications. Volatility is inherently latent, and Section 1 begins with a brief intuitive account of various key volatility concepts. Section 2 then discusses a series of different economic situations in which volatility plays a crucial role, ranging from the use of volatility forecasts in portfolio allocation to density forecasting in risk management. Sections 3, 4 and 5 present a variety of alternative procedures for univariate volatility modeling and forecasting based on the GARCH, stochastic volatility and realized volatility paradigms, respectively. Section 6 extends the discussion to the multivariate problem of forecasting conditional covariances and correlations, and Section 7 discusses volatility forecast evaluation methods in both univariate and multivariate cases. Section 8 concludes briefly. JEL Klassifikation: C10, C53, G1.
A rapidly growing literature has documented important improvements in volatility measurement and forecasting performance through the use of realized volatilities constructed from high-frequency returns coupled with relatively simple reduced-form time series modeling procedures. Building on recent theoretical results from Barndorff-Nielsen and Shephard (2003c,d) for related bi-power variation measures involving the sum of high-frequency absolute returns, the present paper provides a practical framework for non-parametrically measuring the jump component in realized volatility measurements. Exploiting these ideas for a decade of high-frequency five-minute returns for the DM/$ exchange rate, the S&P500 market index, and the 30-year U.S. Treasury bond yield, we find the jump component of the price process to be distinctly less persistent than the continuous sample path component. Explicitly including the jump measure as an additional explanatory variable in an easy-to-implement reduced form model for realized volatility results in highly significant jump coefficient estimates at the daily, weekly and quarterly forecast horizons. As such, our results hold promise for improved financial asset allocation, risk management, and derivatives pricing, by separate modeling, forecasting and pricing of the continuous and jump components of total return variability.
We present an analysis of VaR forecasts and P&L-series of all 13 German banks that used internal models for regulatory purposes in the year 2001. To this end, we introduce the notion of well-behaved forecast systems. Furthermore, we provide a series of statistical tools to perform our analyses. The results shed light on the forecast quality of VaR models of the individual banks, the regulator's portfolio as a whole, and the main ingredients of the computation of the regulatory capital required by the Basel rules.
This paper considers a sticky price model with a cash-in-advance constraint where agents forecast inflation rates with the help of econometric models. Agents use least squares learning to estimate two competing models of which one is consistent with rational expectations once learning is complete. When past performance governs the choice of forecast model, agents may prefer to use the inconsistent forecast model, which generates an equilibrium where forecasts are inefficient. While average output and inflation result the same as under rational expectations, higher moments differ substantially: output and inflation show persistence, inflation responds sluggishly to nominal disturbances, and the dynamic correlations of output and inflation match U.S. data surprisingly well.
This study uses Markov-switching models to evaluate the informational content of the term structure as a predictor of recessions in eight OECD countries. The empirical results suggest that for all countries the term spread is sensibly modelled as a two-state regime-switching process. Moreover, our simple univariate model turns out to be a filter that transforms accurately term spread changes into turning point predictions. The term structure is confirmed to be a reliable recession indicator. However, the results of probit estimations show that the markov-switching filter does not significantly improve the forecasting ability of the spread.
Modeling short-term interest rates as following regime-switching processes has become increasingly popular. Theoretically, regime-switching models are able to capture rational expectations of infrequently occurring discrete events. Technically, they allow for potential time-varying stationarity. After discussing both aspects with reference to the recent literature, this paper provides estimations of various univariate regime-switching specifications for the German three-month money market rate and bivariate specifications additionally including the term spread. However, the main contribution is a multi-step out-of-sample forecasting competition. It turns out that forecasts are improved substantially when allowing for state-dependence. Particularly, the informational content of the term spread for future short rate changes can be exploited optimally within a multivariate regime-switching framework.