Refine
Year of publication
Document Type
- Working Paper (10)
- Part of a Book (4)
- Article (3)
- Doctoral Thesis (1)
Has Fulltext
- yes (18)
Is part of the Bibliography
- no (18)
Keywords
- Prognose (18) (remove)
Institute
- Center for Financial Studies (CFS) (9)
- Wirtschaftswissenschaften (2)
- Biowissenschaften (1)
- Informatik (1)
- Medizin (1)
Konjektur
(2016)
Zu Beginn seines Buches 'Die Kunst der Vorausschau' umreißt Bertrand de Jouvenel nicht nur sein Projekt der "Futuribles", das er als Alternative zu Ossip K. Flechtheims "Futurologie" in Anschlag bringt, sondern reflektiert auch das Vokabular seiner Untersuchung – insbesondere den Begriff der Vermutung, der in der französischen Ausgabe titelgebenden Charakter hat: 'L’Art de la Conjecture' heißt Jouvenels 1964 erschienenes Buch im Original – und spielt damit explizit auf Jacob Bernoullis 1713 erschienene 'Ars Conjectandi' an. Stand coniectura im mittelalterlichen und frühneuzeitlichen Denken als Chiffre vorläufiger menschlicher Mutmaßung im Gegensatz zu überzeitlichem göttlichem Wissen, so findet mit Bernoulli eine radikale Mathematisierung der "Konjekturalphilosophie" statt: Die 'Conjectura' ist als "wahrscheinliche Meynung, so aus gewissen Umständen entstehet und herrühret", nunmehr das Ergebnis einer komplexen Berechnung von Wahrscheinlichkeiten, die, losgelöst von empirischen Raum-Zeit- Verhältnissen, als kontingentes Spiel möglicher Ereignisse in möglichen Welten kalkuliert werden. Damit nimmt die Konjektur – wörtlich: das 'Zusammenwerfen' – einen epistemischen Zwischenraum im Spannungsverhältnis von Spekulation und Kalkulation ein, der ihre epistemologische Stellung bis heute bestimmt: Die 'Ars Conjecturandi' wird zur Grundlage von statistischen Theorien, "for assessing the probability of hypotheses in the light of data". Das heißt zugleich: Der Charakter der Konjektur wird nicht mehr allein durch die spekulative Annahme möglicher Ereignisse konfiguriert, sondern durch komplexe Kalkulationen, denen die Aufgabe zufällt, die mögliche Welt der Mutmaßung mit der wirklichen Welt zu verzahnen – vermittelt über eine "Zwischentätigkeit", nämlich das "Bauen von Modellen", die gleichsam ein Repertoire von präsumtiven Vorannahmen bereitstellen. Der Wechsel von einer Erkenntnistheorie, die ihre Wahrheiten im Rekurs auf eine göttlich gesicherte Weltordnung ermittelt, hin zu einer Erkenntnistheorie, die bloß vorläufige Wahrheiten in Relation zu selbst gebauten Modellen finden kann, impliziert einen Wechsel im "konjekturalen Paradigma". Aus einem mantischen Divinationskonzept, das anhand von signalhaften 'Vorzeichen' den göttlichen Willen zu erraten sucht, wird ein profanes Konzept des Aufstellens von Hypothesen, das sich bei der Deutung symptomatischer Anzeichen an den kalkulierbaren Prinzipien der Wahrscheinlichkeit und der Glaubwürdigkeit orientiert – und zwar sowohl im Rahmen von Diagnosen als auch im Rahmen von Prognosen.
Kenntnisse über die dreidimensionale Struktur therapeutisch relevanter Zielproteine bieten wertvolle Informationen für den rationalen Wirkstoffentwurf. Die stetig wachsende Zahl aufgeklärter Kristallstrukturen von Proteinen ermöglicht eine qualitative und quantitative rechnergestützte Untersuchung von spezifischen Protein-Liganden Wechselwirkungen. Im Rahmen dieser Arbeit wurden neue Algorithmen für die Identifikation und den Ähnlichkeitsvergleich von Proteinbindetaschen und ihren Eigenschaften entwickelt und in dem Programm PocketomePicker zusammengefasst. Die Software gliedert sich in die Routinen PocketPicker, PocketShapelets und PocketGraph. Ferner wurde in dieser Arbeit die Methode ReverseLIQUID reimplementiert und im Rahmen einer Kooperation für das strukturbasierte Virtuelle Screening angewendet. Die genannten Methoden und ihre wissenschaftliche Anwendungen sollte hier zusammengefasst werden: Die Methode PocketPicker ermöglicht die Vorhersage potentieller Bindetaschen auf Proteinoberflächen. Diese Technik implementiert einen geometrischen Ansatz auf Basis „künstlicher Gitter“ zur Identifikation zusammenhängender vergrabener Bereiche der Proteinoberfläche als Orte möglicher Ligandenbindestellen. Die Methode erreicht eine korrekte Vorhersage der tatsächlichen Bindetasche für 73 % der Einträge eines repräsentativen Datensatzes von Proteinstrukturen. Für 90 % der Proteinstrukturen wird die tatsächlich Ligandenbindestelle unter den drei wahrscheinlichsten vorhergesagten Taschen gefunden. PocketPicker übertrifft die Vorhersagequalität anderer etablierter Algorithmen und ermöglicht Taschenidentifikationen auf apo-Strukturen ohne signifikante Einbußen des Vorhersageerfolges. Andere Verfahren weisen deutlich eingeschränkte Ergebnisse bei der Anwendung auf apo-Strukturen auf. PocketPicker erlaubt den alignmentfreien Ähnlichkeitsvergleich von Bindetaschenfor-men durch die Kodierung berechneter Bindevolumen als Korrelationsdeskriptoren. Dieser Ansatz wurde erfolgreich für Funktionsvorhersage von Bindetaschen aus Homologiemodellen von APOBEC3C und Glutamat Dehydrogenase des Malariaerregers Plasmodium falciparum angewendet. Diese beiden Projekte wurden in Zusammenarbeit mit Kollaborationspartnern durchgeführt. Zudem wurden PocketPicker Korrelationsdeskriptoren erfolgreich für die automatisierte Konformationsanalyse der enzymatischen Tasche von Aldose Reduktase angewendet. Für detaillierte Analysen der Form und der physikochemischen Eigenschaften von Proteinbindetaschen wurde in dieser Arbeit die Methode PocketShapelets entwickelt. Diese Technik ermöglicht strukturelle Alignments von extrahierten Bindevolumen durch Zerlegungen der Oberfläche von Proteinbindetaschen. Die Überlagerung gelingt durch die Identifikation strukturell ähnlicher Oberflächenkurvaturen zweier Taschen. PocketShapelets wurde erfolgreich zur Analyse funktioneller Ähnlichkeit von Bindetaschen verwendet, die auf Betrachtungen physikochemischer Eigenschaften basiert. Zur Analyse der topologischen Vielfalt von Bindetaschengeometrien wurde in dieser Arbeit die Methode PocketGraph entwickelt. Dieser Ansatz nutzt das Konzept des sog. „Wachsenden Neuronalen Gases“ aus dem Bereich des maschinellen Lernens für eine automatische Extraktion des strukturellen Aufbaus von Bindetaschen. Ferner ermöglicht diese Methode die Zerlegung einer Bindestelle in ihre Subtaschen. Die von PocketPicker charakterisierten Taschenvolumen bilden die Grundlage für die Methode ReverseLIQUID. Dieses Programm wurde in dieser Arbeit weiterentwickelt und im Rahmen einer Kooperation zur Identifikation eines Inhibitors der Serinprotease HtrA des Erregers Helicobacter pylori verwendet. Mit ReverseLIQUID konnte ein strukturbasiertes Pharmakophormodell für das Virtuelle Screening erstellt werden. Dieser Ansatz ermöglichte die Identifikation einer Substanz mit niedrig mikromolarer Affinität gegenüber der Zielstruktur.
Psychiatrie
(2016)
In der Psychiatrie hat die Prognose über den Verlauf und den Ausgang von Erkrankungen eine Schlüsselstellung inne. Sie verknüpft die Erkenntnis, welche Ursachen eine Erkrankung besitzt, und die Frage, welche Therapie geboten ist, mit einem Wissen, wie die Krankheit verlaufen und ausgehen wird. Jedoch stehen einer Vorhersage der Zukunft zahlreiche Hindernisse entgegen, die einerseits in der Kontingenz des Lebens selbst, der Individualität der Patienten oder auch der Ungewissheit, ob und wie Therapien anschlagen, liegen. Jedoch ist in der Psychiatrie eine Prognose schwierig, weil vielfach unklar ist, was eine Krankheit überhaupt ist, welche Ursachen sie besitzt und wie sie von anderen Krankheiten zu unterscheiden ist. Dennoch entsteht im 19. Jahrhundert ein unmittelbarerer Nexus von Diagnose und Prognose, der den epistemologischen Kern der Psychiatrie definiert. Im 20. Jahrhundert wird der Nexus von Diagnostik und Prognostik auf neue Weise gefasst. Die Psychiatrie wird zu einer Zukunftswissenschaft, die nicht mehr nur vorhersagt, wie eine Krankheit, Erkrankung oder Störung verlaufen und ausgehen wird. Vielmehr schafft sie ein neuartiges Verständnis dafür, was psychische Gesundheit sei und nimmt insbesondere das Verhältnis von manifester, akuter Erkrankung und zukünftiger, wahrscheinlicher Erkrankung in den Blick.
Monetary policy analysts often rely on rules-of-thumb, such as the Taylor rule, to describe historical monetary policy decisions and to compare current policy to historical norms. Analysis along these lines also permits evaluation of episodes where policy may have deviated from a simple rule and examination of the reasons behind such deviations. One interesting question is whether such rules-of-thumb should draw on policymakers "forecasts of key variables such as inflation and unemployment or on observed outcomes. Importantly, deviations of the policy from the prescriptions of a Taylor rule that relies on outcomes may be due to systematic responses to information captured in policymakers" own projections. We investigate this proposition in the context of FOMC policy decisions over the past 20 years using publicly available FOMC projections from the biannual monetary policy reports to the Congress (Humphrey-Hawkins reports). Our results indicate that FOMC decisions can indeed be predominantly explained in terms of the FOMC´s own projections rather than observed outcomes. Thus, a forecast-based rule-of-thumb better characterizes FOMC decision-making. We also confirm that many of the apparent deviations of the federal funds rate from an outcome-based Taylor-style rule may be considered systematic responses to information contained in FOMC projections.
This paper employs a multi-country large scale Overlapping Generations model with uninsurable labor productivity and mortality risk to quantify the impact of the demographic transition towards an older population in industrialized countries on world-wide rates of return, international capital flows and the distribution of wealth and welfare in the OECD. We find that for the U.S. as an open economy, rates of return are predicted to decline by 86 basis points between 2005 and 2080 and wages increase by about 4.1%. If the U.S. were a closed economy, rates of return would decline and wages increase by less. This is due to the fact that other regions in the OECD will age even more rapidly; therefore the U.S. is “importing” the more severe demographic transition from the rest of the OECD in the form of larger factor price changes. In terms of welfare, our model suggests that young agents with little assets and currently low labor productivity gain, up to 1% in consumption, from higher wages associated with population aging. Older, asset-rich households tend to lose, because of the predicted decline in real returns to capital. Klassifizierung: E17, E25, D33, C68
We present an analysis of VaR forecasts and P&L-series of all 13 German banks that used internal models for regulatory purposes in the year 2001. To this end, we introduce the notion of well-behaved forecast systems. Furthermore, we provide a series of statistical tools to perform our analyses. The results shed light on the forecast quality of VaR models of the individual banks, the regulator's portfolio as a whole, and the main ingredients of the computation of the regulatory capital required by the Basel rules.
A resampling method based on the bootstrap and a bias-correction step is developed for improving the Value-at-Risk (VaR) forecasting ability of the normal-GARCH model. Compared to the use of more sophisticated GARCH models, the new method is fast, easy to implement, numerically reliable, and, except for having to choose a window length L for the bias-correction step, fully data driven. The results for several different financial asset returns over a long out-of-sample forecasting period, as well as use of simulated data, strongly support use of the new method, and the performance is not sensitive to the choice of L. Klassifizierung: C22, C53, C63, G12
Im Zeitraum 1. 11. 1993 bis 30. 3. 1997 wurden 1149 allgemeinchirurgische Intensivpatienten prospektiv erfaßt, von denen 114 die Kriterien des septischen Schocks erfüllten. Die Letalität der Patienten mit einem septischen Schock betrug 47,3%. Nach Training eines neuronalen Netzes mit 91 (von insgesamt n = 114) Patienten ergab die Testung bei den verbleibenden 23 Patienten bei der Berücksichtigung von Parameterveränderungen vom 1. auf den 2. Tag des septischen Schocks folgendes Ergebnis: Alle 10 verstorbenen Patienten wurden korrekt als nicht überlebend vorhergesagt, von den 13 Überlebenden wurden 12 korrekt als überlebend vorhergesagt (Sensitivität 100%; Spezifität 92,3%).
Simulationsmodelle
(2016)
Mit der Entwicklung elektronischer Computer in den 1940er Jahren und höheren Programmiersprachen in den 1950er Jahren hält ein neuer Modelltyp Einzug in die Wissenschaften: Simulationsmodelle. Bekannteste Vertreter sind wohl Klima- und Wettermodelle, die mittlerweile Teil der Alltagskultur geworden sind. Kaum eine Natur- oder Technikwissenschaft kommt heute noch ohne Simulationsmodelle aus und neben der traditionellen Einteilung in Theorie und Empirie fügt sich die Simulation als 'dritte Methode' im Rahmen von 'Computational Departments' in die Wissenschaftslandschaft ein. Dabei ist der Begriff des Simulierens durchaus nicht eindeutig definiert. In einem weiten Sinne kann er im wissenschaftlichen Kontext für jegliche Form des Nachahmens und Imitierens verwendet werden: ein Crashtest im Labor simuliert einen Autounfall, ein Schiffsmodell im Strömungskanal bildet maßstabsgerecht ein Containerschiff nach und ein Ball-Stick-Model imitiert ein Molekül. Dennoch hat sich im wissenschaftlichen Kontext der Begriff des Simulierens auf die Computersimulation zentriert und in unterschiedliche Subkategorien ausdifferenziert:
– deterministische Simulationen basierend auf Differentialgleichungen
– stochastische Simulationen basierend auf stochastischen Differentialgleichungen oder
Zufallsläufeerzeugungsmethoden wie der Monte-Carlo-Simulation
– ereignisbasierte Simulationen, in denen bestimmte Ereignisse andere Ereignisse auslösen
– sogenannte 'Soft Computing'-Methoden wie Agentenbasierte Simulationen, Genetische
Programmierung, Evolutionäre Algorithmen oder Neuronale Netze.
Im vorliegenden Zusammenhang soll der Begriff des Simulierens jedoch einzig auf deterministische Simulationen bezogen werden. Diese Simulationsart ist nicht nur die weitest verbreitete in den Natur- oder Technikwissenschaften, sie ist auch die älteste und damit klassische Form der Simulation.