Refine
Year of publication
- 2005 (109) (remove)
Document Type
- Working Paper (109) (remove)
Has Fulltext
- yes (109)
Is part of the Bibliography
- no (109)
Keywords
- Deutschland (10)
- Europäische Union (8)
- Geldpolitik (6)
- Währungsunion (5)
- Aktienmarkt (4)
- Bank (4)
- Kapitalmarkt (4)
- Kreditmarkt (4)
- Kreditrisiko (4)
- Risikomanagement (4)
Institute
- Center for Financial Studies (CFS) (37)
- Wirtschaftswissenschaften (28)
- Rechtswissenschaft (13)
- Geographie (5)
- Informatik (4)
- Geowissenschaften (3)
- Extern (1)
- Institut für sozial-ökologische Forschung (ISOE) (1)
- Medizin (1)
- Universitätsbibliothek (1)
FIFO is the most prominent queueing strategy due to its simplicity and the fact that it only works with local information. Its analysis within the adversarial queueing theory however has shown, that there are networks that are not stable under the FIFO protocol, even at arbitrarily low rate. On the other hand there are networks that are universally stable, i.e., they are stable under every greedy protocol at any rate r < 1. The question as to which networks are stable under the FIFO protocol arises naturally. We offer the first polynomial time algorithm for deciding FIFO stability and simple-path FIFO stability of a directed network, answering an open question posed in [1, 4]. It turns out, that there are networks, that are FIFO stable but not universally stable, hence FIFO is not a worst case protocol in this sense. Our characterization of FIFO stability is constructive and disproves an open characterization in [4].
In dieser Studie wurden stationsbezogene Messdaten der bodennahen Lufttemperatur, des Niederschlages und des Windes in Deutschland und zum Teil auch in Mitteleuropa für den Zeitraum 1901 bzw. 1951 bis 2000 im Hinblick auf Änderungen ihres Extremverhaltens untersucht. Hierfür wurde ein bimethodischer Ansatz gewählt. Die als Methode I bezeichnete "zeitlich gleitende Extremwertanalyse" definiert für den betrachteten (gleitenden) Zeitraum feste Schwellen. An die Zeitreihen der Schwellenüber- bzw. Unterschreitungen wurden sowohl empirische, als auch theoretische Häufigkeitsverteilungen angepasst, aus denen extremwert-theoretische Größen wie Wartezeitverteilung, Wiederkehrzeit und Risiko abgeleitet wurden. Die Methode II der "strukturorientierten Zeitreihenzerlegung" sucht, basierend auf einer zugrundegelegten theoretischen Verteilung, nach zeitabhängigen Parametern der zugehörigen Wahrscheinlichkeitsdichte. Hierdurch lassen sich zeitabhängige Wahrscheinlichkeiten für das Über- bzw. Unterschreiten von Schwellen angeben. Die gleitende Analyse zeigt bei Niederschlagsmonatsdaten in ganz Deutschland für untere Schranken einen Trend zu seltenerem Auftreten von Extremereignissen. Bei oberen Schranken ist hingegen im Osten einen Trend zu seltenerem, im Westen einen Trend zu häufigerem Auftreten von Extremereignissen zu erkennen. Im Osten ergibt sich also insgesamt ein Trend zu weniger extremen Monatsniederschlagssummen, im Westen ein Trend zu höheren onatsniederschlagssummen. Bei den Niederschlagstagesdaten, bei denen nur die Untersuchung oberer Schranken sinnvoll ist, sind die Ergebnistrends denen der Niederschlagsmonatsdaten in ihrer regionalen Verteilung ähnlich. Allerdings sind die Trends hier schrankenabhängig. Insbesondere in Norddeutschland ergibt sich dabei für relativ niedrige Schranken ein Trend zu kleineren Überschreitungshäufigkeiten, für hohe Schranken hingegen ein Trend zu größeren Überschreitungshäufigkeiten. Damit ergibt sich insgesamt ein Trend zu extremeren Tagesniederschlägen. Bei den Temperaturdaten zeigen die Ergebnisse der gleitenden Analyse der Monatsdaten mit wenigen Ausnahmen ein selteneres Unterschreiten unterer Schranken (also: Kälteereignis). Dieses Verhalten ist bei den Temperaturtagesdaten sogar flächendeckend zu beobachten. Für obere Schranken (also: Hitzeereignis) ergibt sich im allgemeinen ein Trend zu häufigerem Auftreten von Extremereignissen. Allerdings ist dieser Trend nicht flächendeckend zu beobachten. Vielmehr gibt es in allen Regionen Deutschlands einzelne Stationen, bei denen ein Trend zu seltenerem Überschreiten oberer Schranken festzustellen ist. Bei der "strukturorientierten Zeitreihenzerlegung" wurden folgende Ergebnisse erzielt: Die Wahrscheinlichkeitsdichten der monatlichen und saisonalen Temperatur-Daten weisen überwiegend positive Trends im Mittelwert auf, die Streuung hat sich hier nur in Ausnahmefällen verändert. Dies führte zu teilweise deutlich gestiegenen Wahrscheinlichkeiten für besonders warme Monats- und saisonale Mittel im 20. Jh. (Ausnahme: Herbst im Datensatz 1951 bis 2000). Entsprechend sanken in diesem Zeitraum verbreitet die Wahrscheinlichkeiten für extrem kalte Monats- und saisonale Mittel. Ebenso stiegen dieWahrscheinlichkeiten für Häufigkeiten von besonders warmen Tagen (über dem 10%-Perzentil) ab 1951 in allen Jahreszeiten, besonders im Winter für die Tagesmaximum-Temperaturen. Dies korrespondiert mit einer beschleunigten Häufigkeits-Abnahme von besonders kalten Tagen in allen Jahreszeiten, besonders in Süddeutschland. Beim Niederschlag dominieren ausgeprägt jahreszeitliche Unterschiede: Im Winter findet sich sowohl ein Trend zu höheren Monats- und saisonalen Summen, als auch eine erhöhte Variabilität, was verbreitet zu einer deutlichen Zunahme von extrem hohen Niederschlagssummen in dieser Jahreszeit führt. Im Sommer hingegen wurde ein Trend zu einer verringerten Variabilität gefunden, wodurch auch extrem hohe monatliche und saisonale Niederschlagssummen in weiten Teilen Mitteleuropas in dieser Jahreszeit seltener geworden sind. Entsprechend haben Tage mit hohen (über dem 10%-Perzentil) und auch extrem hohen (über dem 5%- und 2%-Perzentil) Niederschlagssummen im Sommer verbreitet abgenommen, in den anderen Jahreszeiten (vor allem im Winter und in Westdeutschland) jedoch zugenommen. Beim Wind sind die Ergebnisse recht uneinheitlich, so dass hier eine allgemeine Charakterisierung schwer fällt. Tendenziell nehmen die Häufigkeiten extremer täglicher Windmaxima im Winter zu und im Sommer ab. Dies gilt jedoch nicht für küstennahe Stationen, wo auch im Winter oft negative Trends extremer Tagesmaxima beobachtet wurden - In Süddeutschland hingegen finden sich auch im Sommer positive Trends in den Häufigkeiten extrem starker Tagesmaxima. Jedoch sind die untersuchten Daten (Windmaxima über Beaufort 8 und mittlere monatliche Windgeschwindigkeiten) wahrscheinlich mit großen Messfehlern behaftet und zudem für die hier durchgeführten Analysen nur bedingt geeignet. Es hat sich somit gezeigt, dass das Extremverhalten von Klimaelementen, wie Temperatur und Niederschlag, im 20. Jhr. sehr starken Änderungen unterworfen war. Diese Änderungen im Extremen wiederum sind sehr stark von Änderungen des "mittleren" Zustandes dieser Klimaelemente abhängig, welcher durch statistische Charakteristika wie Mittelwert und Standardabweichung (bzw. allgemeiner Lage und Streuung) beschrieben werden kann.
Für eine möglichst vollständige analytische Beschreibung werden in der statistischen Klimatologie beobachtete Klimazeitreihen als Realisation eines stochastischen Prozesses, das heißt als eine Folge von Zufallsvariablen verstanden. Die Zeitreihe soll im wesentlichen durch eine analytische Funktion der Zeit beschrieben werden können und die Beobachtung nur durch Zufallseinflüsse von dieser Funktion abweichen. Diese analytische Funktion setzt sich aus der Summe zeitlich strukturierter Komponenten zusammen, welche aus klimatologischem Blickwinkel interpretierbar erscheinen. Es werden Funktionen zugelassen, die den Jahresgang, Trends, episodische Komponenten und deren Änderung beschreiben. Die Extremereignisse sind als eine besondere weitere Komponente in die Zeitreihenanalyse aufgenommen und als von Änderungen in den Parametern der Verteilung unabhängige, extreme Werte definiert. Die Zufallseinflüsse sollen zunächst als Realisierungen unabhängiger normalverteilter Zufallsvariablen mit dem Erwartungswert Null und im Zeitablauf konstanter Varianz interpretiert werden können. In diesem Fall beschreibt die analytische Funktion der Zeit, die Summe detektierter strukturierter Komponenten, den zeitlichen Verlauf des Mittels. Ein zu einem bestimmten Zeitpunkt tatsächlich beobachteter Wert kann dann als eine mögliche Realisation einer Zufallsvariablen interpretiert werden, die der Gaußverteilung mit dem Mittelwert µ(t) zur Zeit t und konstanter Varianz genügt. Da die zugrundeliegenden Annahmen, unter Verwendung klimatologisch interpretierbarer Basisfunktionen, in der Analyse von Klimazeitreihen, die nicht die Temperatur betreffen, zumeist nicht erfüllt sind, wird in eine Verallgemeinerung des Konzepts der Zeitreihenzerlegung in einen deterministischen und einen statistischen Anteil eingeführt. Zeitlich strukturierte Änderungen werden nun in verschiedenen Verteilungsparametern frei wählbarer Wahrscheinlichkeitsdichtefunktionen gesucht. Die gängige Beschränkung auf die Schätzung einer zeitlich veränderlichen Lokation wird aufgehoben. Skalenschätzer sowie Schätzer fär den Formparameter spielen ebenso relevante Rollen fär die Beschreibung beobachteter Klimavariabilität. Die Klimazeitreihen werden wieder als Realisation eines Zufallprozesses verstanden, jedoch genügen die Zufallsvariablen nun einer frei wählbaren Wahrscheinlichkeitsdichtefunktion. Die zeitlich strukturierten Änderungen in den Verteilungsparametern werden auf Basis der gesamten Zeitreihe für jeden Zeitpunkt geschätzt. Die aus der Analyse resultierende analytische Beschreibung in Form einer zeitabhängigen Wahrscheinlichkeitsdichtefunktion ermöglicht weiterhin die Schätzung von Über- und Unterschreitungswahrscheinlichkeiten beliebig wählbarer Schwellenwerte für jeden Zeitpunkt des Beobachtungszeitraums. Diese Methode erlaubt insbesondere eine statistische Modellierung monatlicher Niederschlagsreihen durch die Zerlegung in einen deterministischen und einen statistischen Anteil. In dem speziellen Fall von 132 Reihen monatlicher Niederschlagssummen deutscher Stationen 1901-2000 gelingt eine vollständige analytische Beschreibung der Reihen durch ihre Interpretation als Realisation einer Gumbel-verteilten Zufallsvariablen mit variablem Lage- und Streuparameter. Auf Basis der gewonnenen analytischen Beschreibung der Reihen kann beispielsweise im Westen Deutschlands auf Verschiebungen der jährlichen Überschreitungsmaxima des 95%-Perzentils von den Sommer- in die Wintermonate geschlossen werden. Sie werden durch relativ starke Anstiege in der Überschreitungswahrscheinlichkeit (bis 10%) in den Wintermonaten und nur geringe Zunahmen oder aber Abnahmen in den Sommermonaten hervorgerufen. Dies geht mit einer Zunahme der Unterschreitungswahrscheinlichkeit in den Winter- und einer Abnahme in den Sommermonaten einher. Monte-Carlo-Simulationen zeigen, daß jahreszeitlich differenzierte Schätzungen von Änderungen im Erwartungswert, also gebräuchliche Trends, auf Basis der Kleinst-Quadrate-Methode systematischen Bias und hohe Varianz aufweisen. Eine Schätzung der Trends im Mittel auf Basis der statistischen Modellierung ist somit ebenso den Kleinst-Quadrate-Schätzern vorzuziehen. Hinsichtlich der Niederschlagsanalysen stellen jedoch aride Gebiete, mit sehr seltenen Niederschlägen zu bestimmten Jahreszeiten, die Grenze der Methode dar, denn zu diesen Zeitpunkten ist eine vertrauenswürdige Schätzung einer Wahrscheinlichkeitsdichtefunktion nicht möglich. In solchen Fällen ist eine grundsätzlich andere Herangehensweise zur Modellierung der Reihen erforderlich.
Current thinking on African conflicts suffers from misinterpretations oversimplification, lack of focus, lack of conceptual clarity, state-centrism and lack of vision). The paper analyses a variety of the dominant explanations of major international actors and donors, showing how these frequently do not distinguish with sufficient clarity between the ‘root causes’ of a conflict, its aggravating factors and its triggers. Specifically, a correct assessment of conflict prolonging (or sustaining) factors is of vital importance in Africa’s lingering confrontations. Broader approaches (e.g. “structural stability”) offer a better analytical framework than familiar one-dimensional explanations. Moreover, for explaining and dealing with violent conflicts a shift of attention from the nation-state towards the local and sub-regional level is needed.
Natural resources in sub-Saharan Africa suffer from a bad reputation. Oil and diamonds, particularly, have been blamed for a number of Africa’s illnesses such as poverty, corruption, dictatorship and war. This paper outlines the different areas and transmission channels of how this so-called “resource curse” is said to materialize. By assessing empirical evidence on sub-Saharan Africa it concludes that the resource curse theory fails to sufficiently explain why and how several countries have not or only partly been affected by the “curse”. Theoretically, the paper argues that whether or not natural resources are detrimental to a country’s socio-economic and political development depends on a number of contextual variables, divided into country-specific conditions and resource-specific conditions (type, degree/level of abundance and dependence, resource revenue management, involved companies etc.). Methodologically, a future research agenda needs to examine the complex interplay of these contextual variables by adding sophisticated comparative research designs, especially “small and medium N” comparisons, to the tool box which has been widely confined to the juxtaposition of “large N” and country case studies.
The paper considers optimal monetary stabilization policy in a forward-looking model, when the central bank recognizes that private-sector expectations need not be precisely model-consistent, and wishes to choose a policy that will be as good as possible in the case of any beliefs that are close enough to model-consistency. It is found that commitment continues to be important for optimal policy, that the optimal long-run inflation target is unaffected by the degree of potential distortion of beliefs, and that optimal policy is even more history-dependent than if rational expectations are assumed. JEL Classification: E52, E58, E42
We evaluate the importance of the precautionary saving motive by relying on a direct question about precautionary wealth from the 1995 and 1998 waves of the Survey of Consumer Finances. In this survey, a new question has been designed to elicit the amount of desired precautionary wealth. This allows us to assess the amount of precautionary accumulation and to overcome many of the problems of previous works on this topic. We find that a precautionary saving motive exists and affects virtually every type of household. However, precautionary savings account for only 8 percent of total wealth holdings. Even though this motive does not give rise to large amounts of wealth, particularly for young and middle-age households, it is particularly important for two groups: older households and business owners. Overall, we provide strong evidence that we need to take the precautionary saving motive into account when modeling saving behavior. Klassifizierung: D91, E21, C21
Kapitalmarktorientierte Risikosteuerung in Banken : Marktwertsteuerung statt Marktzinsmethode
(2005)
In diesem Beitrag wird das Konzept der Marktzinsmethode als Grundlage der dualen Risikosteuerung von Kredit- und Marktpreisrisiken in Frage gestellt. Die Kreditrisiken einer Bank implizieren bonitätsinduzierte Marktpreisrisiken und bankspezifische Refinanzierungskosten. Während die bonitätsinduzierten Marktpreisrisiken in der dualen Risikosteuerung keine Berücksichtigung finden, werden die bankspezifischen Refinanzierungskosten zwar erkannt, aber bankintern nicht verursachungsgerecht zugeordnet. Das Grundmodell der Marktzinsmethode bietet keine Lösungsansätze zur Behebung dieser Probleme. Demgegenüber lassen sich die Fehlsteuerungsimpulse von vornherein durch eine konsequente Marktbewertung (Mark to Market) aller Finanzinstrumente vermeiden. Als Ausblick werden erste Überlegungen zur Implementierung einer umfassenden Marktwertsteuerung in Banken entwickelt und exemplarisch ein hierfür geeignetes Bewertungsmodell vorgestellt.
In this paper, we propose a model of credit rating agencies using the global games framework to incorporate information and coordination problems. We introduce a refined utility function of a credit rating agency that, additional to reputation maximization, also embeds aspects of competition and feedback effects of the rating on the rated firms. Apart from hinting at explanations for several hypotheses with regard to agencies' optimal rating assessments, our model suggests that the existence of rating agencies may decrease the incidence of multiple equilibria. If investors have discretionary power over the precision of their private information, we can prove that public rating announcements and private information collection are complements rather than substitutes in order to secure uniqueness of equilibrium. In this respect, rating agencies may spark off a virtuous circle that increases the efficiency of the market outcome.
Using unobservable conditional variance as measure, latent-variable approaches, such as GARCH and stochastic-volatility models, have traditionally been dominating the empirical finance literature. In recent years, with the availability of high-frequency financial market data modeling realized volatility has become a new and innovative research direction. By constructing "observable" or realized volatility series from intraday transaction data, the use of standard time series models, such as ARFIMA models, have become a promising strategy for modeling and predicting (daily) volatility. In this paper, we show that the residuals of the commonly used time-series models for realized volatility exhibit non-Gaussianity and volatility clustering. We propose extensions to explicitly account for these properties and assess their relevance when modeling and forecasting realized volatility. In an empirical application for S&P500 index futures we show that allowing for time-varying volatility of realized volatility leads to a substantial improvement of the model's fit as well as predictive performance. Furthermore, the distributional assumption for residuals plays a crucial role in density forecasting. Klassifikation: C22, C51, C52, C53
Static analysis of different non-strict functional programming languages makes use of set constants like Top, Inf, and Bot denoting all expressions, all lists without a last Nil as tail, and all non-terminating programs, respectively. We use a set language that permits union, constructors and recursive definition of set constants with a greatest fixpoint semantics. This paper proves decidability, in particular EXPTIMEcompleteness, of subset relationship of co-inductively defined sets by using algorithms and results from tree automata. This shows decidability of the test for set inclusion, which is required by certain strictness analysis algorithms in lazy functional programming languages.