Refine
Year of publication
Document Type
- Working Paper (10)
- Part of a Book (4)
- Article (3)
- Doctoral Thesis (1)
Has Fulltext
- yes (18) (remove)
Is part of the Bibliography
- no (18) (remove)
Keywords
- Prognose (18) (remove)
Institute
- Center for Financial Studies (CFS) (9)
- Wirtschaftswissenschaften (2)
- Biowissenschaften (1)
- Informatik (1)
- Medizin (1)
Simulationsmodelle
(2016)
Mit der Entwicklung elektronischer Computer in den 1940er Jahren und höheren Programmiersprachen in den 1950er Jahren hält ein neuer Modelltyp Einzug in die Wissenschaften: Simulationsmodelle. Bekannteste Vertreter sind wohl Klima- und Wettermodelle, die mittlerweile Teil der Alltagskultur geworden sind. Kaum eine Natur- oder Technikwissenschaft kommt heute noch ohne Simulationsmodelle aus und neben der traditionellen Einteilung in Theorie und Empirie fügt sich die Simulation als 'dritte Methode' im Rahmen von 'Computational Departments' in die Wissenschaftslandschaft ein. Dabei ist der Begriff des Simulierens durchaus nicht eindeutig definiert. In einem weiten Sinne kann er im wissenschaftlichen Kontext für jegliche Form des Nachahmens und Imitierens verwendet werden: ein Crashtest im Labor simuliert einen Autounfall, ein Schiffsmodell im Strömungskanal bildet maßstabsgerecht ein Containerschiff nach und ein Ball-Stick-Model imitiert ein Molekül. Dennoch hat sich im wissenschaftlichen Kontext der Begriff des Simulierens auf die Computersimulation zentriert und in unterschiedliche Subkategorien ausdifferenziert:
– deterministische Simulationen basierend auf Differentialgleichungen
– stochastische Simulationen basierend auf stochastischen Differentialgleichungen oder
Zufallsläufeerzeugungsmethoden wie der Monte-Carlo-Simulation
– ereignisbasierte Simulationen, in denen bestimmte Ereignisse andere Ereignisse auslösen
– sogenannte 'Soft Computing'-Methoden wie Agentenbasierte Simulationen, Genetische
Programmierung, Evolutionäre Algorithmen oder Neuronale Netze.
Im vorliegenden Zusammenhang soll der Begriff des Simulierens jedoch einzig auf deterministische Simulationen bezogen werden. Diese Simulationsart ist nicht nur die weitest verbreitete in den Natur- oder Technikwissenschaften, sie ist auch die älteste und damit klassische Form der Simulation.
Psychiatrie
(2016)
In der Psychiatrie hat die Prognose über den Verlauf und den Ausgang von Erkrankungen eine Schlüsselstellung inne. Sie verknüpft die Erkenntnis, welche Ursachen eine Erkrankung besitzt, und die Frage, welche Therapie geboten ist, mit einem Wissen, wie die Krankheit verlaufen und ausgehen wird. Jedoch stehen einer Vorhersage der Zukunft zahlreiche Hindernisse entgegen, die einerseits in der Kontingenz des Lebens selbst, der Individualität der Patienten oder auch der Ungewissheit, ob und wie Therapien anschlagen, liegen. Jedoch ist in der Psychiatrie eine Prognose schwierig, weil vielfach unklar ist, was eine Krankheit überhaupt ist, welche Ursachen sie besitzt und wie sie von anderen Krankheiten zu unterscheiden ist. Dennoch entsteht im 19. Jahrhundert ein unmittelbarerer Nexus von Diagnose und Prognose, der den epistemologischen Kern der Psychiatrie definiert. Im 20. Jahrhundert wird der Nexus von Diagnostik und Prognostik auf neue Weise gefasst. Die Psychiatrie wird zu einer Zukunftswissenschaft, die nicht mehr nur vorhersagt, wie eine Krankheit, Erkrankung oder Störung verlaufen und ausgehen wird. Vielmehr schafft sie ein neuartiges Verständnis dafür, was psychische Gesundheit sei und nimmt insbesondere das Verhältnis von manifester, akuter Erkrankung und zukünftiger, wahrscheinlicher Erkrankung in den Blick.
Konjektur
(2016)
Zu Beginn seines Buches 'Die Kunst der Vorausschau' umreißt Bertrand de Jouvenel nicht nur sein Projekt der "Futuribles", das er als Alternative zu Ossip K. Flechtheims "Futurologie" in Anschlag bringt, sondern reflektiert auch das Vokabular seiner Untersuchung – insbesondere den Begriff der Vermutung, der in der französischen Ausgabe titelgebenden Charakter hat: 'L’Art de la Conjecture' heißt Jouvenels 1964 erschienenes Buch im Original – und spielt damit explizit auf Jacob Bernoullis 1713 erschienene 'Ars Conjectandi' an. Stand coniectura im mittelalterlichen und frühneuzeitlichen Denken als Chiffre vorläufiger menschlicher Mutmaßung im Gegensatz zu überzeitlichem göttlichem Wissen, so findet mit Bernoulli eine radikale Mathematisierung der "Konjekturalphilosophie" statt: Die 'Conjectura' ist als "wahrscheinliche Meynung, so aus gewissen Umständen entstehet und herrühret", nunmehr das Ergebnis einer komplexen Berechnung von Wahrscheinlichkeiten, die, losgelöst von empirischen Raum-Zeit- Verhältnissen, als kontingentes Spiel möglicher Ereignisse in möglichen Welten kalkuliert werden. Damit nimmt die Konjektur – wörtlich: das 'Zusammenwerfen' – einen epistemischen Zwischenraum im Spannungsverhältnis von Spekulation und Kalkulation ein, der ihre epistemologische Stellung bis heute bestimmt: Die 'Ars Conjecturandi' wird zur Grundlage von statistischen Theorien, "for assessing the probability of hypotheses in the light of data". Das heißt zugleich: Der Charakter der Konjektur wird nicht mehr allein durch die spekulative Annahme möglicher Ereignisse konfiguriert, sondern durch komplexe Kalkulationen, denen die Aufgabe zufällt, die mögliche Welt der Mutmaßung mit der wirklichen Welt zu verzahnen – vermittelt über eine "Zwischentätigkeit", nämlich das "Bauen von Modellen", die gleichsam ein Repertoire von präsumtiven Vorannahmen bereitstellen. Der Wechsel von einer Erkenntnistheorie, die ihre Wahrheiten im Rekurs auf eine göttlich gesicherte Weltordnung ermittelt, hin zu einer Erkenntnistheorie, die bloß vorläufige Wahrheiten in Relation zu selbst gebauten Modellen finden kann, impliziert einen Wechsel im "konjekturalen Paradigma". Aus einem mantischen Divinationskonzept, das anhand von signalhaften 'Vorzeichen' den göttlichen Willen zu erraten sucht, wird ein profanes Konzept des Aufstellens von Hypothesen, das sich bei der Deutung symptomatischer Anzeichen an den kalkulierbaren Prinzipien der Wahrscheinlichkeit und der Glaubwürdigkeit orientiert – und zwar sowohl im Rahmen von Diagnosen als auch im Rahmen von Prognosen.
Ökologie
(2016)
Ist heute die Rede von ökologischem Bewusstsein, Umweltverschmutzung oder Energiequellen, so ist immer auch zugleich die Rede von der Zukunft: In Frage steht, wie ein zukünftiges Leben unter den von Menschen geschaffenen Bedingungen aussehen könnte – Stichworte sind Klimawandel, Wassermangel, Erschöpfung der Energie-Ressourcen sowie die daraus folgenden Konsequenzen: Kriege um die Territorien, in denen ein Überleben noch möglich ist. Stets werfen solchen Szenarien die Frage auf, mit welchen Mitteln und Umstellungen diese düstere Zukunft vermieden werden könnte, verhandelt werden solchermaßen eine Energieversorgung durch alternative Energiequellen, die Ausrichtung der Wirtschaft auf Nachhaltigkeit, aber auch die Frage, ob die Demokratie überhaupt in der Lage ist, angesichts der akuten und globalen Probleme rechtzeitig zu agieren.
Im Folgenden werden zunächst die verschiedenen Weisen erforscht, in denen Prophetie und Prognose sich mit der Zukunft und mit der entsprechenden Unsicherheit auseinandersetzen, um sie dann auf die Formen der Beobachtung erster bzw. zweiter Ordnung zurückzuführen. Die Divination realisiert, wie dann gezeigt wird, eine Beobachtung erster Ordnung, die ein doppeltes Verhältnis zu den Objekten artikuliert, indem sie eine tiefere Ebene unterhalb der Oberfläche der Dinge liest. So produziert sie eine unendlich bedeutsame Welt, die mit bestimmten Techniken entziffert werden muss. Die divinatorische Technik geht vom Bewusstsein ihrer Grenzen und der Möglichkeit von Fehlern aus, was aber gerade dazu führt, dass Prophezeiungen unabhängig vom faktischen Verlauf der Dinge immer bestätigt werden können. Demgegenüber lokalisiert die Prognose die Unsicherheit innerhalb der Welt, die sie von außen beobachtet – in einer Beobachtung zweiter Ordnung – und mit Planung und Wissen zu kontrollieren versucht. Das Ergebnis (charakteristisch für die heutige Informationsgesellschaft) ist die Unfähigkeit, der Zirkularität der Vorhersage und ihren Folgen für die zu antizipierende Welt angemessen Rechnung zu tragen; so werden Vorhersagen produziert, die dazu tendieren, sich selbst zu sabotieren, wie abschließend dargestellt wird. Die Argumentation zielt darauf, die Verbindungen zwischen Prognose und Prophetie zu berücksichtigen. Die Erkenntnis des Umstandes, dass eine einmal formulierte Prognose als Prophetie wirkt, könnte zur besseren Kontrolle des Nicht-Wissens führen – und somit zur genaueren Reflexion darüber, wie wirksam oder wirkungslos unsere Vorbereitungen für die Zukunft sind.
Kenntnisse über die dreidimensionale Struktur therapeutisch relevanter Zielproteine bieten wertvolle Informationen für den rationalen Wirkstoffentwurf. Die stetig wachsende Zahl aufgeklärter Kristallstrukturen von Proteinen ermöglicht eine qualitative und quantitative rechnergestützte Untersuchung von spezifischen Protein-Liganden Wechselwirkungen. Im Rahmen dieser Arbeit wurden neue Algorithmen für die Identifikation und den Ähnlichkeitsvergleich von Proteinbindetaschen und ihren Eigenschaften entwickelt und in dem Programm PocketomePicker zusammengefasst. Die Software gliedert sich in die Routinen PocketPicker, PocketShapelets und PocketGraph. Ferner wurde in dieser Arbeit die Methode ReverseLIQUID reimplementiert und im Rahmen einer Kooperation für das strukturbasierte Virtuelle Screening angewendet. Die genannten Methoden und ihre wissenschaftliche Anwendungen sollte hier zusammengefasst werden: Die Methode PocketPicker ermöglicht die Vorhersage potentieller Bindetaschen auf Proteinoberflächen. Diese Technik implementiert einen geometrischen Ansatz auf Basis „künstlicher Gitter“ zur Identifikation zusammenhängender vergrabener Bereiche der Proteinoberfläche als Orte möglicher Ligandenbindestellen. Die Methode erreicht eine korrekte Vorhersage der tatsächlichen Bindetasche für 73 % der Einträge eines repräsentativen Datensatzes von Proteinstrukturen. Für 90 % der Proteinstrukturen wird die tatsächlich Ligandenbindestelle unter den drei wahrscheinlichsten vorhergesagten Taschen gefunden. PocketPicker übertrifft die Vorhersagequalität anderer etablierter Algorithmen und ermöglicht Taschenidentifikationen auf apo-Strukturen ohne signifikante Einbußen des Vorhersageerfolges. Andere Verfahren weisen deutlich eingeschränkte Ergebnisse bei der Anwendung auf apo-Strukturen auf. PocketPicker erlaubt den alignmentfreien Ähnlichkeitsvergleich von Bindetaschenfor-men durch die Kodierung berechneter Bindevolumen als Korrelationsdeskriptoren. Dieser Ansatz wurde erfolgreich für Funktionsvorhersage von Bindetaschen aus Homologiemodellen von APOBEC3C und Glutamat Dehydrogenase des Malariaerregers Plasmodium falciparum angewendet. Diese beiden Projekte wurden in Zusammenarbeit mit Kollaborationspartnern durchgeführt. Zudem wurden PocketPicker Korrelationsdeskriptoren erfolgreich für die automatisierte Konformationsanalyse der enzymatischen Tasche von Aldose Reduktase angewendet. Für detaillierte Analysen der Form und der physikochemischen Eigenschaften von Proteinbindetaschen wurde in dieser Arbeit die Methode PocketShapelets entwickelt. Diese Technik ermöglicht strukturelle Alignments von extrahierten Bindevolumen durch Zerlegungen der Oberfläche von Proteinbindetaschen. Die Überlagerung gelingt durch die Identifikation strukturell ähnlicher Oberflächenkurvaturen zweier Taschen. PocketShapelets wurde erfolgreich zur Analyse funktioneller Ähnlichkeit von Bindetaschen verwendet, die auf Betrachtungen physikochemischer Eigenschaften basiert. Zur Analyse der topologischen Vielfalt von Bindetaschengeometrien wurde in dieser Arbeit die Methode PocketGraph entwickelt. Dieser Ansatz nutzt das Konzept des sog. „Wachsenden Neuronalen Gases“ aus dem Bereich des maschinellen Lernens für eine automatische Extraktion des strukturellen Aufbaus von Bindetaschen. Ferner ermöglicht diese Methode die Zerlegung einer Bindestelle in ihre Subtaschen. Die von PocketPicker charakterisierten Taschenvolumen bilden die Grundlage für die Methode ReverseLIQUID. Dieses Programm wurde in dieser Arbeit weiterentwickelt und im Rahmen einer Kooperation zur Identifikation eines Inhibitors der Serinprotease HtrA des Erregers Helicobacter pylori verwendet. Mit ReverseLIQUID konnte ein strukturbasiertes Pharmakophormodell für das Virtuelle Screening erstellt werden. Dieser Ansatz ermöglichte die Identifikation einer Substanz mit niedrig mikromolarer Affinität gegenüber der Zielstruktur.
Monetary policy analysts often rely on rules-of-thumb, such as the Taylor rule, to describe historical monetary policy decisions and to compare current policy to historical norms. Analysis along these lines also permits evaluation of episodes where policy may have deviated from a simple rule and examination of the reasons behind such deviations. One interesting question is whether such rules-of-thumb should draw on policymakers "forecasts of key variables such as inflation and unemployment or on observed outcomes. Importantly, deviations of the policy from the prescriptions of a Taylor rule that relies on outcomes may be due to systematic responses to information captured in policymakers" own projections. We investigate this proposition in the context of FOMC policy decisions over the past 20 years using publicly available FOMC projections from the biannual monetary policy reports to the Congress (Humphrey-Hawkins reports). Our results indicate that FOMC decisions can indeed be predominantly explained in terms of the FOMC´s own projections rather than observed outcomes. Thus, a forecast-based rule-of-thumb better characterizes FOMC decision-making. We also confirm that many of the apparent deviations of the federal funds rate from an outcome-based Taylor-style rule may be considered systematic responses to information contained in FOMC projections.
This paper employs a multi-country large scale Overlapping Generations model with uninsurable labor productivity and mortality risk to quantify the impact of the demographic transition towards an older population in industrialized countries on world-wide rates of return, international capital flows and the distribution of wealth and welfare in the OECD. We find that for the U.S. as an open economy, rates of return are predicted to decline by 86 basis points between 2005 and 2080 and wages increase by about 4.1%. If the U.S. were a closed economy, rates of return would decline and wages increase by less. This is due to the fact that other regions in the OECD will age even more rapidly; therefore the U.S. is “importing” the more severe demographic transition from the rest of the OECD in the form of larger factor price changes. In terms of welfare, our model suggests that young agents with little assets and currently low labor productivity gain, up to 1% in consumption, from higher wages associated with population aging. Older, asset-rich households tend to lose, because of the predicted decline in real returns to capital. Klassifizierung: E17, E25, D33, C68
A resampling method based on the bootstrap and a bias-correction step is developed for improving the Value-at-Risk (VaR) forecasting ability of the normal-GARCH model. Compared to the use of more sophisticated GARCH models, the new method is fast, easy to implement, numerically reliable, and, except for having to choose a window length L for the bias-correction step, fully data driven. The results for several different financial asset returns over a long out-of-sample forecasting period, as well as use of simulated data, strongly support use of the new method, and the performance is not sensitive to the choice of L. Klassifizierung: C22, C53, C63, G12
Volatility forecasting
(2005)
Volatility has been one of the most active and successful areas of research in time series econometrics and economic forecasting in recent decades. This chapter provides a selective survey of the most important theoretical developments and empirical insights to emerge from this burgeoning literature, with a distinct focus on forecasting applications. Volatility is inherently latent, and Section 1 begins with a brief intuitive account of various key volatility concepts. Section 2 then discusses a series of different economic situations in which volatility plays a crucial role, ranging from the use of volatility forecasts in portfolio allocation to density forecasting in risk management. Sections 3, 4 and 5 present a variety of alternative procedures for univariate volatility modeling and forecasting based on the GARCH, stochastic volatility and realized volatility paradigms, respectively. Section 6 extends the discussion to the multivariate problem of forecasting conditional covariances and correlations, and Section 7 discusses volatility forecast evaluation methods in both univariate and multivariate cases. Section 8 concludes briefly. JEL Klassifikation: C10, C53, G1.