Refine
Year of publication
Document Type
- Working Paper (3374) (remove)
Language
- English (2338)
- German (1016)
- Spanish (8)
- French (7)
- Multiple languages (2)
Keywords
- Deutschland (223)
- USA (64)
- Corporate Governance (53)
- Geldpolitik (53)
- Schätzung (52)
- Europäische Union (51)
- monetary policy (47)
- Bank (41)
- Sprachtypologie (34)
- Monetary Policy (30)
Institute
- Wirtschaftswissenschaften (1485)
- Center for Financial Studies (CFS) (1458)
- Sustainable Architecture for Finance in Europe (SAFE) (793)
- House of Finance (HoF) (657)
- Rechtswissenschaft (400)
- Institute for Monetary and Financial Stability (IMFS) (210)
- Informatik (119)
- Exzellenzcluster Die Herausbildung normativer Ordnungen (75)
- Gesellschaftswissenschaften (75)
- Geographie (64)
Library Catalog
(2000)
Stocks are exposed to the risk of sudden downward jumps. Additionally, a crash in one stock (or index) can increase the risk of crashes in other stocks (or indices). Our paper explicitly takes this contagion risk into account and studies its impact on the portfolio decision of a CRRA investor both in complete and in incomplete market settings. We find that the investor significantly adjusts his portfolio when contagion is more likely to occur. Capturing the time dimension of contagion, i.e. the time span between jumps in two stocks or stock indices, is thus of first-order importance when analyzing portfolio decisions. Investors ignoring contagion completely or accounting for contagion while ignoring its time dimension suffer large and economically significant utility losses. These losses are larger in complete than in incomplete markets, and the investor might be better off if he does not trade derivatives. Furthermore, we emphasize that the risk of contagion has a crucial impact on investors' security demands, since it reduces their ability to diversify their portfolios.
We provide explicit solutions to life-cycle utility maximization problems simultaneously involving dynamic decisions on investments in stocks and bonds, consumption of perishable goods, and the rental and the ownership of residential real estate. House prices, stock prices, interest rates, and the labor income of the decision-maker follow correlated stochastic processes. The preferences of the individual are of the Epstein-Zin recursive structure and depend on consumption of both perishable goods and housing services. The explicit consumption and investment strategies are simple and intuitive and are thoroughly discussed and illustrated in the paper. For a calibrated version of the model we find, among other things, that the fairly high correlation between labor income and house prices imply much larger life-cycle variations in the desired exposure to house price risks than in the exposure to the stock and bond markets. We demonstrate that the derived closed-form strategies are still very useful if the housing positions are only reset infrequently and if the investor is restricted from borrowing against future income. Our results suggest that markets for REITs or other financial contracts facilitating the hedging of house price risks will lead to non-negligible but moderate improvements of welfare.
This paper relates recursive utility in continuous time to its discrete-time origins and provides a rigorous and intuitive alternative to a heuristic approach presented in [Duffie, Epstein 1992], who formally define recursive utility in continuous time via backward stochastic differential equations (stochastic differential utility). Furthermore, we show that the notion of Gâteaux differentiability of certainty equivalents used in their paper has to be replaced by a different concept. Our approach allows us to address the important issue of normalization of aggregators in non-Brownian settings. We show that normalization is always feasible if the certainty equivalent of the aggregator is of expected utility type. Conversely, we prove that in general L´evy frameworks this is essentially also necessary, i.e. aggregators that are not of expected utility type cannot be normalized in general. Besides, for these settings we clarify the relationship of our approach to stochastic differential utility and, finally, establish dynamic programming results. JEL Classifications: D81, D91, C61
Im Bericht werden vorgestellt die: • Eigenschaften von Mooren und Torfen wie Fossilinhalt, Nähr-/Schadstoffhaushalt und Wasserhaushalt, • moorgeologische Inventur (Moorkataster) des Landes Baden-Württemberg und • Bodenfunktionen von Moor-/Torfstandorten im Sinne des § 2 (2) des Bundesbodenschutzgesetzes (BBodSchG) vom 17. März 1998. Moore/Torfe sind Landschaftselemente, die im Naturhaushalt Funktionen erfüllen und für die Nutzung durch Menschen der Raumplanung unterworfen sein können bzw. sind. Der folgende Text stellt den in die Raumplanung eingebundenen Personen und Organisationen vor: • Die Eigenschaften von Mooren und Torfen, • die Quelle verfügbarer, raumbezogener Daten (Moorkataster), • die an Planungen zu Beteiligenden, • die Quellen zu Informationen zu Moor und Torf, • das Auffinden eventuell notwendiger Gutachter und • grundsätzliche Hinweise zur Bewertung von Mooren/Torfen für Abwägungsprozesse. Der Text wurde veranlasst durch die digitale Übernahme des Moorkatasters in den RIPS-Pool der Landesanstalt für Umweltschutz in Teilen seit 2000 und vollständig ab 2003.
Anschleichen an Übernahmeziele mittels Cash Settled Equity Derivaten : ein Regelungsvorschlag
(2009)
Noch ist das Risikobegrenzungsgesetz, das unter anderem neue Meldepflichten in das Wertpapierhandelsgesetz (WpHG) einführt, nicht vollständig in Kraft getreten. Gleichwohl wird bereits angesichts aktueller Entwicklungen auf dem internationalen und deutschen Übernahmemarkt in Artikeln der Fachpresse und im kapitalmarktrechtlichen Schrifttum die erneute Überarbeitung des wertpapierhandels- und wertpapierübernahmerechtlichen Meldesystems gefordert. Diese Forderung ist berechtigt. Denn im Risikobegrenzungsgesetz, dem zeitlich letzten Versuch des Gesetzgebers, die Transparenz des Wertpapierhandels zu erhöhen, konnte die Chance nicht genutzt werden, das wertpapierhandelsrechtliche Meldesystem an eine neuere Praxis auf den Finanzmärkten anzupassen.
The paper aims at presenting research about Neo-Conservatism, in particular about the origin(s), history of development, ideas, and foreign policy goals. The core argument of the paper is that the discipline of International Relations (IR), in particular the North American Research and the Peace and Conflict Research, should take the Neoconservatives seriously. Three arguments can be made for this: First of all, Neoconservatives such as Robert Kagan, Charles Krauthammer, and Normen Podhoretz are participating in the debates about US foreign policy, and they introduce their ideas (e.g. "democracy promotion", "unipolar moment", and "benevolent empire") into the discourse. The foreign policy of the Reagan administration as well as the foreign policy of George W. Bush was highly influenced by neoconservative ideas. To sum up, Neo-Conservatism is the fourth influential school of US foreign policy beside Isolationism, Liberal Internationalism, and Realism. Secondly, Neoconservatives are proponents of a war-prone-US foreign policy, and advocates of the "war on terror" and the Iraq War. And finally, Neoconservatives are characterized by ideas, in particular the idea of democracy promotion, as the purpose of American politics and historic mission. Along with this, a neoconservative misunderstanding of IR theories becomes apparent. The "Democrat Realist" Krauthammer and the "Wilsonianist" Podhoretz both refer to "Realism", "Liberalism" and Wilson’s doctrine "to make the world safe for democracy" in a way which is not only misleading, but deceptive. Neoconservatives suggest that Realism is a sole power politics-theory without normative bias, and that the scholars of the liberal peace theory as well as Wilson and his successors claim for a policy of democracy promotion by using force and waging war. Against this background, a critical examination with Neoconservatism is presented in the paper. To reveal the neoconservative misunderstanding of IR discipline and its two important school of thoughts, the few similarities but numerous differences between Neo-Conservatism on the one hand and realist and liberal approaches in IR on the other hand are worked out.
Aus mehreren Datenquellen wurde ein neuer globaler Niederschlagsdatensatz für die Zeit 1951-2000 generiert, der unter der Bedingung einer Mindestverfügbarkeit von 90 % genau 9.343 Stationen umfasst. Die betreffenden Zeitreihen wurden einer umfassenden Qualitätskontrolle unterzogen, was zu äußerst zahlreichen Korrekturen führte, einschließlich Tests auf Ausreißer und Homogenität sowie Homogenisierung. Daraus entstand ein Gitterpunktdatensatz in 0,5° x 0,5°- Auflösung, was für die Landgebiete (ausgenommen Grönland und Antarktis) rund 71.000 Gitterpunkte ergibt, und über INTERNET frei verfügbar bereitgestellt. Davon ausgehend und unter Nutzung weiterer vorliegender Datensätze, insbesondere der Temperatur, wurden zunächst einige grundlegende Untersuchungen zur globalen und regionalen Klima- und Niederschlagsvariabilität durchgeführt. Diese Arbeiten umfassten Analysen der Veränderungen des global gemittelten Niederschlages und potentieller Einflussgrößen, die Neuberechnung der globalen Klimaklassifikation nach Köppen, Untersuchungen zur raumzeitlichen Struktur von Niederschlagsänderungen global sowie speziell in Afrika und schließlich Analysen der raumzeitlichen Beziehungen zwischen großräumiger atmosphärischer Zirkulation und Niederschlag im nordatlantisch-europäischen Bereich. Für weitergehende statistische Analysen wurde eine neue Methode der vollständigen Zeitreihenmodellierung entwickelt, um die die in diesen Reihen enthaltenen signifikanten Variationskomponenten durch Regressionstechniken zu erfassen und in ihrem raumzeitlichen Verhalten darzustellen. Dabei lag ein Schwerpunkt dieser Arbeiten auf der Extremwertanalyse, die es nun gestattet, unabhängig vom Verteilungstyp für beliebige Schwellenwerte den zeitlichen Verlauf der Unter- sowie Überschreitungswahrscheinlichkeit anzugeben und somit zu erkennen, inwieweit das Klima extremer geworden ist. Dabei zeigte sich je nach Region die Gumbel- oder die Weibull-Verteilung als geeignet. Regionale Schwerpunkte waren dabei u.a. Deutschland bzw. Europa, auch hinsichtlich der Erstellung neuer Klimatrendkarten nach der üblichen linearen Methode (der kleinsten Quadrate) sowie der innovativen. Weiterhin wurden nach der innovativen Methode Klimamodelldaten des Hamburger Max-Planck-Instituts für Meteorologie (IPCC Szenario A2) hinsichtlich des Niederschlag-Extremverhaltens in Europa untersucht. Schließlich erfolgte eine Abschätzung der Wiederkehrzeiten täglicher Extremniederschläge in Deutschland und deren Unsicherheit.
In Ergänzung zu einem vorangegangenen Projekt (Schönwiese et al., 2005) ist in der vorliegenden Studie eine weitere extremwertstatistische Untersuchung durchgeführt worden. Dazu wurden auf der Basis von täglichen Klimadaten aus Hessen und Umgebung (49°N bis 52°N, 7°O bis 11°O), und zwar der Temperatur von 53 Stationen und des Niederschlages von 84 Stationen, Schwellen extremer Werte definiert, um die Anzahl der Über- bzw. Unterschreitungen dieser Schwellen auf signifikante Trends hin zu untersuchen. Bei der Temperatur findet sich dabei eine systematische Zunahme von Hitzetagen (Maximumtemperatur über 30 °C) im August, wohingegen im Juli fast keine, und im Juni nur vereinzelt signifikante Zunahmen von Hitzetagen gefunden wurden. Hierbei zeigt sich, wie auch bei anderen Temperatur-Schwellen eine Abnahme der Signifikanz mit zunehmender Schwellenhöhe, was durch selteneres Auftreten besonders extremer Ereignisse verursacht wird. Im Winter und Frühjahr hat entsprechend die Anzahl der Frost- bzw. Eistage (Minimum- bzw. Maximumtemperatur unter 0 °C) signifikant abgenommen. Besonders ausgeprägt ist dies für die Frosttage im Frühling der Fall. Beim Niederschlag hat im Sommer, wiederum vor allem im August, die Anzahl von Trockentagen zugenommen. Extrem hohe Niederschlagssummen sind dagegen in dieser Jahreszeit seltener geworden, in den anderen Jahreszeiten jedoch häufiger. Vor allem der März zeichnet sich durch verbreitet hochsignifikante Zunahmen von Tagen mit Starkniederschlägen aus. Die Erhaltungsneigung von besonders warmen bzw. kalten Witterungen hat sich in den meisten Monaten nicht signifikant verändert. Es ist jedoch eine Neigung zu kürzeren relativ einheitlichen Witterungsabschnitten im Februar und März, sowie zu längeren im Oktober und November zu beobachten. Diese Ergebnisse sind jedoch vermutlich nicht sehr robust, da sich bei einer Verkürzung des Zeitfensters der Autokorrelationsfunktion die Signifikanzen teilweise (vor allem im April) deutlich verändern. Bei den Trends der Zahl der Trockenperioden erkennt man im Sommer einen positiven Trend; sie nehmen somit zu. Dies gilt sowohl für die 7-tägigen als auch für die 11-tägigen Trockenperioden. Die übrigen Jahreszeiten zeigen bei den 7-tägigen Trockenperioden nur schwache oder negative Trends. Bei den 11-tägigen Trockenperioden gilt dies nur für das Frühjahr und den Herbst, im Winter sind die Trends im Norden überwiegend positiv, im Süden negativ. Betrachtet man die Länge der längsten Trockenperioden, so nimmt diese im Sommer zu, im Frühjahr und im Gesamtjahr jedoch ab. Im Herbst ist das Bild uneinheitlich; dies kann aber auch daran liegen, dass lange sommerliche Trockenperioden in den Herbst hineinreichen und dann dort gezählt werden. Ein weiterer Aspekt ist die Analyse der Anzahl und Länge bestimmter Witterungsabschnitte (Clusteranalyse), die durch relativ hohe oder tiefe Temperatur bzw. relativ wenig bzw. viel Niederschlag definiert sind. So können beispielsweise Tage mit weniger als 1 mm Niederschlag als Trockencluster bezeichnet werden. Dabei erkennt man im Sommer einen Trend zu mehr Trockenclustern,in Übereinstimmung mit den oben genannten Ergebnissen, in den übrigen Jahreszeiten und im Gesamtjahr jedoch einen Trend zu weniger Trockenclustern. Innerhalb des Sommers ist dieser Trend im August am stärksten, in den übrigen Jahreszeiten im März, Oktober und Dezember. Bei den Clustern von Feuchteereignissen, das heißt Tagen mit relativ viel Niederschlag, ist das Bild umgekehrt. Im Sommer nimmt deren Zahl ab, ansonsten nimmt sie zu. Die stärksten Trends sind dabei wiederum im August (Abnahme) bzw. im März, Oktober und Dezember (jeweils Zunahme) zu erkennen. Alle diese Trends werden im der Regel umso schwächer, je höher die Schranke der Niederschlagsmenge gewählt wird. Bei den Temperaturdaten sind die Trends von Frost- und Eistagen nur im November überwiegend positiv, in allen Wintermonaten (Dezember, Januar und Februar) jedoch fast ausschließlich negativ. Darin spiegelt sich somit der Trend zu höheren Temperaturen wider. Bei den Wärmeclustern ändern sich die Trends mit der Höhe der Schranke. Bei der Schranke von 25°C zeigen der Juli, insbesondere aber der August positive Trends. Bei der 30°C-Schranke bleibt der Augusttrend positiv, der Julitrend wird dagegen negativ. Bei der Schranke von 35°C werden die Augusttrends dann deutlich geringer, während die Julitrends, wenn auch schwächer ausgeprägt, negativ bleiben. Die Trends im Juni sind dagegen insgesamt schwach. Betrachtet man die Signifikanz der Trends, so sind insbesondere die Trends bei hohen Schranken weniger signifikant. Dies gilt für die hohen Niederschlagschranken (20mm, 30mm, 95%-Perzentil, 99%-Perzentil) ebenso wie für die hohen Temperaturschranken (30°C, 35°C). Weiterhin ist die Signifikanz dann niedrig, wenn die Zahl der Cluster im betrachteten Zeitraum klein ist. In Monaten und Jahreszeiten, in denen nur wenige Cluster auftreten, ist der Trend der Zahl der Cluster meist nicht signifikant. Insgesamt zeigen beim Niederschlag die untere Schranke von 1mm sowie die oberen Schranken von 10mm und 90% die signifikantesten Trends. Bei den Temperaturdaten ist das bei den Frosttagen generell, bei den Eistagen im Januar und Februar sowie bei den sommerlichen Clustern mit einer Tagesmaximumtemperatur von über 25°C der Fall (mit zum Teil über 95% bzw. 99% Signifikanz).
Vorwort: Klima ist vor allem deswegen nicht nur von wissenschaftlichem, sondern auch von öffentlichem Interesse, weil es veränderlich ist und weil solche Änderungen gravierende ökologische sowie sozioökonomische Folgen haben können. Im Detail weisen Klimaänderungen allerdings komplizierte zeitliche und räumliche Strukturen auf, deren Erfassung und Interpretation alles andere als einfach ist. Bei den zeitlichen Strukturen stehen mit Recht vor allem relativ langfristige Trends sowie Extremereignisse im Blickpunkt, erstere, weil sie den systematischen Klimawandel zum Ausdruck bringen und letztere wegen ihrer besonders brisanten Auswirkungen. Mit beiden Aspekten hat sich unsere Arbeitsgruppe immer wieder eingehend befasst. Hinsichtlich der Extremereignisse bzw. Extremwertstatistik sei beispielsweise auf die Institutsberichte Nr. 1, 2 und 5 sowie die dort angegebene Literatur hingewiesen. Hier geht es wieder einmal um Klimatrends und dabei ganz besonders um die räumlichen Trendstrukturen. Der relativ langfristige und somit systematische Klimawandel läuft nämlich regional sehr unterschiedlich ab, was am besten in Trendkarten zum Ausdruck kommt. Solche regionalen, zum Teil sehr kleinräumigen Besonderheiten sind insbesondere beim Niederschlag sehr ausgeprägt. Zudem sind die räumlichen Trendstrukturen auch jahreszeitlich/monatlich sehr unterschiedlich. In unserer Arbeitsgruppe hat sich Herr Dr. Jörg Rapp im Rahmen seiner Diplom- und insbesondere Doktorarbeit intensiv mit diesem Problem beschäftigt, was zur Publikation des „Atlas der Niederschlags- und Temperaturtrends in Deutschland 1891-1990“ (Rapp und Schönwiese, 2. Aufl. 1996) sowie des „Climate Trend Atlas of Europe – Based on Observations 1891-1990“ (Schönwiese und Rapp, 1997) geführt hat. Die große Beachtung dieser Arbeiten ließ es schon lange als notwendig erscheinen, eine Aktualisierung vorzunehmen. Dies ist zunächst für den Klima-Trendatlas Deutschland geschehen, der nun für das Zeitintervall 1901-2000 vorliegt (Institutsbericht Nr. 4, 2005). Hier wird nun auch eine entsprechende Aktualisierung für Europa vorgelegt, und zwar auf der Grundlage der Berechnungen, die Reinhard Janoschitz in seiner Diplomarbeit durchgeführt hat. Dabei besteht eine enge Querverbindung zum Projekt VASClimO (Variability Analysis of Surface Climate Observations), das dankenswerterweise vom Bundesministerium für Bildung und Forschung (BMBF) im Rahmen von DEKLIM (Deutsches Klimaforschungsprogramm) gefördert worden ist (siehe Institutsbericht Nr. 6, in den vorab schon einige wenige Europa-Klima-Trendkarten einbezogen worden sind). Mit der Publikation des hier vorliegenden „Klima-Trendatlas Europa 1901-2000“ werden in insgesamt 261 Karten (davon 17 Karten in Farbdarstellung in den Text integriert) wieder umfangreiche Informationen zum Klimawandel in Europa vorgelegt. Sie beruhen vorwiegend auf linearen Trendanalysen hinsichtlich der bodennahen Lufttemperatur und des Niederschlags für die Zeit 1901-2000 sowie für die Subintervalle 1951-2000, 1961-1990 und 1971-2000, jeweils aufgrund der jährlichen, jahreszeitlichen und monatlichen Beobachtungsdaten. Die Signifikanz der Trends ist im (schwarz/weiß wiedergegebenen) Kartenteil durch Rasterung markiert. Da sich die Analyse eng an die oben zitierte Arbeit von Schönwiese und Rapp (1997) anlehnt, wo ausführliche textliche Erläuterungen zu finden sind (ebenso in Rapp, 2000) wurde hier der Textteil sehr knapp gehalten.
In dieser Studie wurden stationsbezogene Messdaten der bodennahen Lufttemperatur, des Niederschlages und des Windes in Deutschland und zum Teil auch in Mitteleuropa für den Zeitraum 1901 bzw. 1951 bis 2000 im Hinblick auf Änderungen ihres Extremverhaltens untersucht. Hierfür wurde ein bimethodischer Ansatz gewählt. Die als Methode I bezeichnete "zeitlich gleitende Extremwertanalyse" definiert für den betrachteten (gleitenden) Zeitraum feste Schwellen. An die Zeitreihen der Schwellenüber- bzw. Unterschreitungen wurden sowohl empirische, als auch theoretische Häufigkeitsverteilungen angepasst, aus denen extremwert-theoretische Größen wie Wartezeitverteilung, Wiederkehrzeit und Risiko abgeleitet wurden. Die Methode II der "strukturorientierten Zeitreihenzerlegung" sucht, basierend auf einer zugrundegelegten theoretischen Verteilung, nach zeitabhängigen Parametern der zugehörigen Wahrscheinlichkeitsdichte. Hierdurch lassen sich zeitabhängige Wahrscheinlichkeiten für das Über- bzw. Unterschreiten von Schwellen angeben. Die gleitende Analyse zeigt bei Niederschlagsmonatsdaten in ganz Deutschland für untere Schranken einen Trend zu seltenerem Auftreten von Extremereignissen. Bei oberen Schranken ist hingegen im Osten einen Trend zu seltenerem, im Westen einen Trend zu häufigerem Auftreten von Extremereignissen zu erkennen. Im Osten ergibt sich also insgesamt ein Trend zu weniger extremen Monatsniederschlagssummen, im Westen ein Trend zu höheren onatsniederschlagssummen. Bei den Niederschlagstagesdaten, bei denen nur die Untersuchung oberer Schranken sinnvoll ist, sind die Ergebnistrends denen der Niederschlagsmonatsdaten in ihrer regionalen Verteilung ähnlich. Allerdings sind die Trends hier schrankenabhängig. Insbesondere in Norddeutschland ergibt sich dabei für relativ niedrige Schranken ein Trend zu kleineren Überschreitungshäufigkeiten, für hohe Schranken hingegen ein Trend zu größeren Überschreitungshäufigkeiten. Damit ergibt sich insgesamt ein Trend zu extremeren Tagesniederschlägen. Bei den Temperaturdaten zeigen die Ergebnisse der gleitenden Analyse der Monatsdaten mit wenigen Ausnahmen ein selteneres Unterschreiten unterer Schranken (also: Kälteereignis). Dieses Verhalten ist bei den Temperaturtagesdaten sogar flächendeckend zu beobachten. Für obere Schranken (also: Hitzeereignis) ergibt sich im allgemeinen ein Trend zu häufigerem Auftreten von Extremereignissen. Allerdings ist dieser Trend nicht flächendeckend zu beobachten. Vielmehr gibt es in allen Regionen Deutschlands einzelne Stationen, bei denen ein Trend zu seltenerem Überschreiten oberer Schranken festzustellen ist. Bei der "strukturorientierten Zeitreihenzerlegung" wurden folgende Ergebnisse erzielt: Die Wahrscheinlichkeitsdichten der monatlichen und saisonalen Temperatur-Daten weisen überwiegend positive Trends im Mittelwert auf, die Streuung hat sich hier nur in Ausnahmefällen verändert. Dies führte zu teilweise deutlich gestiegenen Wahrscheinlichkeiten für besonders warme Monats- und saisonale Mittel im 20. Jh. (Ausnahme: Herbst im Datensatz 1951 bis 2000). Entsprechend sanken in diesem Zeitraum verbreitet die Wahrscheinlichkeiten für extrem kalte Monats- und saisonale Mittel. Ebenso stiegen dieWahrscheinlichkeiten für Häufigkeiten von besonders warmen Tagen (über dem 10%-Perzentil) ab 1951 in allen Jahreszeiten, besonders im Winter für die Tagesmaximum-Temperaturen. Dies korrespondiert mit einer beschleunigten Häufigkeits-Abnahme von besonders kalten Tagen in allen Jahreszeiten, besonders in Süddeutschland. Beim Niederschlag dominieren ausgeprägt jahreszeitliche Unterschiede: Im Winter findet sich sowohl ein Trend zu höheren Monats- und saisonalen Summen, als auch eine erhöhte Variabilität, was verbreitet zu einer deutlichen Zunahme von extrem hohen Niederschlagssummen in dieser Jahreszeit führt. Im Sommer hingegen wurde ein Trend zu einer verringerten Variabilität gefunden, wodurch auch extrem hohe monatliche und saisonale Niederschlagssummen in weiten Teilen Mitteleuropas in dieser Jahreszeit seltener geworden sind. Entsprechend haben Tage mit hohen (über dem 10%-Perzentil) und auch extrem hohen (über dem 5%- und 2%-Perzentil) Niederschlagssummen im Sommer verbreitet abgenommen, in den anderen Jahreszeiten (vor allem im Winter und in Westdeutschland) jedoch zugenommen. Beim Wind sind die Ergebnisse recht uneinheitlich, so dass hier eine allgemeine Charakterisierung schwer fällt. Tendenziell nehmen die Häufigkeiten extremer täglicher Windmaxima im Winter zu und im Sommer ab. Dies gilt jedoch nicht für küstennahe Stationen, wo auch im Winter oft negative Trends extremer Tagesmaxima beobachtet wurden - In Süddeutschland hingegen finden sich auch im Sommer positive Trends in den Häufigkeiten extrem starker Tagesmaxima. Jedoch sind die untersuchten Daten (Windmaxima über Beaufort 8 und mittlere monatliche Windgeschwindigkeiten) wahrscheinlich mit großen Messfehlern behaftet und zudem für die hier durchgeführten Analysen nur bedingt geeignet. Es hat sich somit gezeigt, dass das Extremverhalten von Klimaelementen, wie Temperatur und Niederschlag, im 20. Jhr. sehr starken Änderungen unterworfen war. Diese Änderungen im Extremen wiederum sind sehr stark von Änderungen des "mittleren" Zustandes dieser Klimaelemente abhängig, welcher durch statistische Charakteristika wie Mittelwert und Standardabweichung (bzw. allgemeiner Lage und Streuung) beschrieben werden kann.
Für eine möglichst vollständige analytische Beschreibung werden in der statistischen Klimatologie beobachtete Klimazeitreihen als Realisation eines stochastischen Prozesses, das heißt als eine Folge von Zufallsvariablen verstanden. Die Zeitreihe soll im wesentlichen durch eine analytische Funktion der Zeit beschrieben werden können und die Beobachtung nur durch Zufallseinflüsse von dieser Funktion abweichen. Diese analytische Funktion setzt sich aus der Summe zeitlich strukturierter Komponenten zusammen, welche aus klimatologischem Blickwinkel interpretierbar erscheinen. Es werden Funktionen zugelassen, die den Jahresgang, Trends, episodische Komponenten und deren Änderung beschreiben. Die Extremereignisse sind als eine besondere weitere Komponente in die Zeitreihenanalyse aufgenommen und als von Änderungen in den Parametern der Verteilung unabhängige, extreme Werte definiert. Die Zufallseinflüsse sollen zunächst als Realisierungen unabhängiger normalverteilter Zufallsvariablen mit dem Erwartungswert Null und im Zeitablauf konstanter Varianz interpretiert werden können. In diesem Fall beschreibt die analytische Funktion der Zeit, die Summe detektierter strukturierter Komponenten, den zeitlichen Verlauf des Mittels. Ein zu einem bestimmten Zeitpunkt tatsächlich beobachteter Wert kann dann als eine mögliche Realisation einer Zufallsvariablen interpretiert werden, die der Gaußverteilung mit dem Mittelwert µ(t) zur Zeit t und konstanter Varianz genügt. Da die zugrundeliegenden Annahmen, unter Verwendung klimatologisch interpretierbarer Basisfunktionen, in der Analyse von Klimazeitreihen, die nicht die Temperatur betreffen, zumeist nicht erfüllt sind, wird in eine Verallgemeinerung des Konzepts der Zeitreihenzerlegung in einen deterministischen und einen statistischen Anteil eingeführt. Zeitlich strukturierte Änderungen werden nun in verschiedenen Verteilungsparametern frei wählbarer Wahrscheinlichkeitsdichtefunktionen gesucht. Die gängige Beschränkung auf die Schätzung einer zeitlich veränderlichen Lokation wird aufgehoben. Skalenschätzer sowie Schätzer fär den Formparameter spielen ebenso relevante Rollen fär die Beschreibung beobachteter Klimavariabilität. Die Klimazeitreihen werden wieder als Realisation eines Zufallprozesses verstanden, jedoch genügen die Zufallsvariablen nun einer frei wählbaren Wahrscheinlichkeitsdichtefunktion. Die zeitlich strukturierten Änderungen in den Verteilungsparametern werden auf Basis der gesamten Zeitreihe für jeden Zeitpunkt geschätzt. Die aus der Analyse resultierende analytische Beschreibung in Form einer zeitabhängigen Wahrscheinlichkeitsdichtefunktion ermöglicht weiterhin die Schätzung von Über- und Unterschreitungswahrscheinlichkeiten beliebig wählbarer Schwellenwerte für jeden Zeitpunkt des Beobachtungszeitraums. Diese Methode erlaubt insbesondere eine statistische Modellierung monatlicher Niederschlagsreihen durch die Zerlegung in einen deterministischen und einen statistischen Anteil. In dem speziellen Fall von 132 Reihen monatlicher Niederschlagssummen deutscher Stationen 1901-2000 gelingt eine vollständige analytische Beschreibung der Reihen durch ihre Interpretation als Realisation einer Gumbel-verteilten Zufallsvariablen mit variablem Lage- und Streuparameter. Auf Basis der gewonnenen analytischen Beschreibung der Reihen kann beispielsweise im Westen Deutschlands auf Verschiebungen der jährlichen Überschreitungsmaxima des 95%-Perzentils von den Sommer- in die Wintermonate geschlossen werden. Sie werden durch relativ starke Anstiege in der Überschreitungswahrscheinlichkeit (bis 10%) in den Wintermonaten und nur geringe Zunahmen oder aber Abnahmen in den Sommermonaten hervorgerufen. Dies geht mit einer Zunahme der Unterschreitungswahrscheinlichkeit in den Winter- und einer Abnahme in den Sommermonaten einher. Monte-Carlo-Simulationen zeigen, daß jahreszeitlich differenzierte Schätzungen von Änderungen im Erwartungswert, also gebräuchliche Trends, auf Basis der Kleinst-Quadrate-Methode systematischen Bias und hohe Varianz aufweisen. Eine Schätzung der Trends im Mittel auf Basis der statistischen Modellierung ist somit ebenso den Kleinst-Quadrate-Schätzern vorzuziehen. Hinsichtlich der Niederschlagsanalysen stellen jedoch aride Gebiete, mit sehr seltenen Niederschlägen zu bestimmten Jahreszeiten, die Grenze der Methode dar, denn zu diesen Zeitpunkten ist eine vertrauenswürdige Schätzung einer Wahrscheinlichkeitsdichtefunktion nicht möglich. In solchen Fällen ist eine grundsätzlich andere Herangehensweise zur Modellierung der Reihen erforderlich.
Unsere geschützte Natur
(2003)
Die Bilder der Terroranschläge des 11. September in den Medien erinnerten viele Menschen an Katastrophenfilme aus Hollywood. Michael Staiger geht davon aus, dass die Bildsprache solcher Filme auch unsere Wahrnehmungsweise des realen Terrors beeinflusst. Er stellt eine zunehmende Verflechtung der Ästhetik des Hollywood-Kinos mit der Medienberichterstattung realer Ereignisse fest. "Die Inszenierung von Fernsehnachrichten verweist inzwischen ebenso auf fiktionale Bildwelten, wie sich die Spielfilmästhetik seit Jahren der Machart von Fernsehbildern bedient." Am Beispiel des Thrillers "Ausnahmezustand" (1998) analysiert Michael Staiger die Inszenierung des Terrors in Hollywood-Filmen und zeigt damit eine medienpädagogische Umsetzungsmöglichkeit des Themas auf.
Durch das MoMiG ist der durch das sog. Novemberurteil begründeten restriktiven Rechtsprechung des BGH zur grundsätzlichen Unzulässigkeit von Darlehen aus gebundenem Vermögen an Gesellschafter die Grundlage entzogen worden. In seiner MPS-Entscheidung vom 1. Dezember 2008 hat der BGH daraus die Konsequenzen für §§ 311 ff. AktG gezogen. Entscheidend ist nunmehr, ob der Rückerstattungsanspruch vollwertig ist oder ob ein konkretes Ausfallrisiko besteht. Der Beitrag analysiert die Implikationen der Entscheidung für die Vermögensbindung und das Recht des faktischen Konzerns. Der Schwerpunkt liegt dabei auf der Frage, wie die Kriterien der Vollwertigkeit bzw. des konkreten Ausfallrisikos zu konkretisieren sind.
Yankev Morgenshtern
(2007)
Ayzik-Meyer Dik
(2007)
Shloyme Etinger
(2007)
We investigate, using the 2002 US Health and Retirement Study, the factors influencing individuals’ insecurity and expectations about terrorism, and study the effects these last have on households’ portfolio choices and spending patterns. We find that females, the religiously devout, those equipped with a better memory, the less educated, and those living close to where the events of September 2001 took place worry a lot about their safety. In addition, fear of terrorism discourages households from investing in stocks, mostly through the high levels of insecurity felt by females. Insecurity due to terrorism also makes single men less likely to own a business. Finally, we find evidence of expenditure shifting away from recreational activities that can potentially leave one exposed to a terrorist attack and towards goods that might help one cope with the consequences of terrorism materially (increased use of car and spending on the house) or psychologically (spending on personal care products by females in couples).
We document significant and robust empirical relationships in cross-country panel data between government size or social expenditure on the one hand, and trade and financial development indicators on the other. Across countries, deeper economic integration is associated with more intense government redistribution, but more developed financial markets weaken that relationship. Over time, controlling for country-specific effects, public social expenditure appears to be eroded by globalization trends where financial market development can more easily substitute for it.
The paper provides novel insights on the effect of a firm’s risk management objective on the optimal design of risk transfer instruments. I analyze the interrelation between the structure of the optimal insurance contract and the firm’s objective to minimize the required equity it has to hold to accommodate losses in the presence of multiple risks and moral hazard. In contrast to the case of risk aversion and moral hazard, the optimal insurance contract involves a joint deductible on aggregate losses in the present setting.
This paper analyzes liquidity in an order driven market. We only investigate the best limits in the limit order book, but also take into account the book behind these inside prices. When subsequent prices are close to the best ones and depth at them is substantial, larger orders can be executed without an extensive price impact and without deterring liquidity. We develop and estimate several econometric models, based on depth and prices in the book, as well as on the slopes of the limit order book. The dynamics of different dimensions of liquidity are analyzed: prices, depth at and beyond the best prices, as well as resiliency, i.e. how fast the different liquidity measures recover after a liquidity shock. Our results show a somewhat less favorable image of liquidity than often found in the literature. After a liquidity shock (in the spread or depth or in the book beyond the best limits), several dimension of liquidity deteriorate at the same time. Not only does the inside spread increase, and depth at the best prices decrease, also the difference between subsequent bid and ask prices may become larger and depth provided at them decreases. The impacts are both econometrically and economically significant. Also, our findings point to an interaction between different measures of liquidity, between liquidity at the best prices and beyond in the book, and between ask and bid side of the market.
Previous evidence suggests that less liquid stocks entail higher average returns. Using NYSE data, we present evidence that both the sensitivity of returns to liquidity and liquidity premia have significantly declined over the past four decades to levels that we cannot statistically distinguish from zero. Furthermore, the profitability of trading strategies based on buying illiquid stocks and selling illiquid stocks has declined over the past four decades, rendering such strategies virtually unprofitable. Our results are robust to several conventional liquidity measures related to volume. When using liquidity measure that is not related to volume, we find just weak evidence of a liquidity premium even in the early periods of our sample. The gradual introduction and proliferation of index funds and exchange traded funds is a possible explanation for these results.
This paper addresses and resolves the issue of microstructure noise when measuring the relative importance of home and U.S. market in the price discovery process of Canadian interlisted stocks. In order to avoid large bounds for information shares, previous studies applying the Cholesky decomposition within the Hasbrouck (1995) framework had to rely on high frequency data. However, due to the considerable amount of microstructure noise inherent in return data at very high frequencies, these estimators are distorted. We offer a modified approach that identifies unique information shares based on distributional assumptions and thereby enables us to control for microstructure noise. Our results indicate that the role of the U.S. market in the price discovery process of Canadian interlisted stocks has been underestimated so far. Moreover, we suggest that rather than stock specific factors, market characteristics determine information shares.
Innovative automated execution strategies like Algorithmic Trading gain significant market share on electronic market venues worldwide, although their impact on market outcome has not been investigated in depth yet. In order to assess the impact of such concepts, e.g. effects on the price formation or the volatility of prices, a simulation environment is presented that provides stylized implementations of algorithmic trading behavior and allows for modeling latency. As simulations allow for reproducing exactly the same basic situation, an assessment of the impact of algorithmic trading models can be conducted by comparing different simulation runs including and excluding a trader constituting an algorithmic trading model in its trading behavior. By this means the impact of Algorithmic Trading on different characteristics of market outcome can be assessed. The results indicate that large volumes to execute by the algorithmic trader have an increasing impact on market prices. On the other hand, lower latency appears to lower market volatility.
Macro announcements change the equilibrium riskfree rate. We find that treasury prices reflect part of the impact instantaneously, but intermediaries rely on their customer order flow in the 15 minutes after the announcement to discover the full impact. We show that this customer flow informativeness is strongest at times when analyst forecasts of macro variables are highly dispersed. We study 30 year treasury futures to identify the customer flow. We further show that intermediaries appear to benefit from privately recognizing informed customer flow, as, in the cross-section, their own-account trade profitability correlates with access to customer orders, controlling for volatility, competition, and the announcement surprise. These results suggest that intermediaries learn about equilibrium riskfree rates through customer orders.
We report evidence that the presence of hidden liquidity is associated with greater liquidity in the order books, greater trading volume, and smaller price impact. Limit and market order submission behavior changes when hidden liquidity is present consistent with at least some traders being able to detect hidden liquidity. We estimate a model of liquidity provision that allows us to measure variations in the marginal and total payoffs from liquidity provision in states with and without hidden liquidity. Our estimates of the expected surplus to providers of visible and hidden liquidity are positive and typically of the order of one-half to one basis points per trade. The positive liquidity provider surpluses combined with the increased trading volume when hidden liquidity is present are both consistent with liquidity externalities.
This paper considers a trading game in which sequentially arriving liquidity traders either opt for a market order or for a limit order. One class of traders is considered to have an extended trading horizon, implying their impatience is linked to their trading orientation. More specifically, sellers are considered to have a trading horizon of two periods, whereas buyers only have a single-period trading scope (the extended buyer-horizon case is completely symmetric). Clearly, as the life span of their submitted limit orders is longer, this setting implies sellers are granted a natural advantage in supplying liquidity. This benefit is hampered, however, by the direct competition arising between consecutively arriving sellers. Closed-form characterizations for the order submission strategies are obtained when solving for the equilibrium of this dynamic game. These allow to examine how these forces affect traders´ order placement decisions. Further, the analysis yields insight into the dynamic process of price formation and into the market clearing process of a non-intermediated, order driven market.
Central counterparties (CCPs) have increasingly become a cornerstone of financial markets infrastructure. We present a model where trades are time-critical, liquidity is limited and there is limited enforcement of trades. We show a CCP novating trades implements efficient trading behaviour. It is optimal for the CCP to face default losses to achieve the efficient level of trade. To cover these losses, the CCP optimally uses margin calls, and, as the default problem becomes more severe, also requires default funds and then imposes position limits.
n the last few years, many of the world’s largest financial exchanges have converted from mutual, not-for-profit organizations to publicly-traded, for-profit firms. In most cases, these exchanges have substantial responsibilities with respect to enforcing various regulations that protect investors from dishonest agents. We examine how the incentives to enforce such regulations change as an exchange converts from mutual to for-profit status. In contrast to oft-stated concerns, we find that, in many circumstances, an exchange that maximizes shareholder (rather than member) income has a greater incentive to aggressively enforce these types of regulations.
The execution, clearing, and settlement of financial transactions are all subject to substantial scale and scope economies which make each of these complementary functions a natural monopoly. Integration of trade, execution, and settlement in an exchange improves efficiency by economizing on transactions costs. When scope economies in clearing are more extensive than those in execution, integration is more costly, and efficient organization involves a trade-off of scope economies and transactions costs. A properly organized clearing cooperative can eliminate double marginalization problems and exploit scope economies, but can result in opportunism and underinvestment. Moreover, a clearing cooperative may exercise market power. Vertical integration and tying can foreclose entry, but foreclosure can be efficient because market power rents attract excessive entry. Integration of trading and post-trade services is the modal form of organization in financial markets, which is consistent with the hypothesis that transactional efficiencies explain organizational arrangements in these markets.
Central counterparties
(2008)
Central counterparties (CCPs) have increasingly become a cornerstone of financial markets infrastructure. We present a model where trades are time-critical, liquidity is limited and there is limited enforcement of trades. We show a CCP novating trades implements efficient trading behaviour. It is optimal for the CCP to face default losses to achieve the efficient level of trade. To cover these losses, the CCP optimally uses margin calls, and, as the default problem becomes more severe, also requires default funds and then imposes position limits.
Algorithmic trading has sharply increased over the past decade. Equity market liquidity has improved as well. Are the two trends related? For a recent five-year panel of New York Stock Exchange (NYSE) stocks, we use a normalized measure of electronic message traffic (order submissions, cancellations, and executions) as a proxy for algorithmic trading, and we trace the associations between liquidity and message traffic. Based on within-stock variation, we find that algorithmic trading and liquidity are positively related. To sort out causality, we use the start of autoquoting on the NYSE as an exogenous instrument for algorithmic trading. Previously, specialists were responsible for manually disseminating the inside quote. As stocks were phased in gradually during early 2003, the manual quote was replaced by a new automated quote whenever there was a change to the NYSE limit order book. This market structure change provides quicker feedback to traders and algorithms and results in more message traffic. For large-cap stocks in particular, quoted and effective spreads narrow under autoquote and adverse selection declines, indicating that algorithmic trading does causally improve liquidity.
Opting out of the great inflation: German monetary policy after the break down of Bretton Woods
(2009)
During the turbulent 1970s and 1980s the Bundesbank established an outstanding reputation in the world of central banking. Germany achieved a high degree of domestic stability and provided safe haven for investors in times of turmoil in the international financial system. Eventually the Bundesbank provided the role model for the European Central Bank. Hence, we examine an episode of lasting importance in European monetary history. The purpose of this paper is to highlight how the Bundesbank monetary policy strategy contributed to this success. We analyze the strategy as it was conceived, communicated and refined by the Bundesbank itself. We propose a theoretical framework (following Söderström, 2005) where monetary targeting is interpreted, first and foremost, as a commitment device. In our setting, a monetary target helps anchoring inflation and inflation expectations. We derive an interest rate rule and show empirically that it approximates the way the Bundesbank conducted monetary policy over the period 1975-1998. We compare the Bundesbank´s monetary policy rule with those of the FED and of the Bank of England. We find that the Bundesbank´s policy reaction function was characterized by strong persistence of policy rates as well as a strong response to deviations of inflation from target and to the activity growth gap. In contrast, the response to the level of the output gap was not significant. In our empirical analysis we use real-time data, as available to policy-makers at the time. JEL Classification: E31, E32, E41, E52, E58
We find and describe four futures markets where the bid-ask spread is bid down to the fixed price tick size practically all the time, and which match counterparties using a pro-rata rule. These four markets´ offered depths at the quotes on average exceed mean market order size by two orders of magnitude, and their order cancellation rates (the probability of any given offered lot being cancelled) are significantly over 96 per cent. We develop a simple theoretical model to ex- plain these facts, where strategic complementarities in the choice of limit order size cause traders to risk overtrading by submitting over-sized limit orders, most of which they expect to cancel.
We consider a multi-period rational expectations model in which risk-averse investors differ in their information on past transaction prices (the ticker). Some investors (insiders) observe prices in real-time whereas other investors (outsiders) observe prices with a delay. As prices are informative about the asset payoff, insiders get a strictly larger expected utility than outsiders. Yet, information acquisition by one investor exerts a negative externality on other investors. Thus, investors’ average welfare is maximal when access to price information is rationed. We show that a market for price information can implement the fraction of insiders that maximizes investors’ average welfare. This market features a high price to curb excessive acquisition of ticker information. We also show that informational efficiency is greater when the dissemination of ticker information is broader and more timely.
Das MoMiG hat einerseits die bilanzgestützte aktien- und GmbH-rechtliche Vermögensbindung gelockert, andererseits aber in Gestalt des Verbots von Zahlungen an Aktionäre, die zur Zahlungsunfähigkeit der Gesellschaft führen müssen, einen gesetzlichen Liquiditätsschutz eingeführt. Der Beitrag lotet Voraussetzungen und Grenzen dieses Zahlungsverbots aus. Zusammenfassung Der Liquiditätsschutz durch das Zahlungsverbot nach § 92 Abs. 2 S. 3 AktG ergänzt die auf die Erhaltung des bilanziellen Vermögens gerichtete Vermögensbindung durch § 57 AktG. Anders als die Vermögensbindung gilt das Zahlungsverbot unabhängig davon, ob der Zahlungsempfänger eine gleichwertige Gegenleistung erbringt. Wegen der andersartigen Schutzrichtung des Zahlungsverbots bleibt seine Geltung unberührt durch Lockerungen der Vermögensbindung im Vertragskonzern und im faktischen Konzern. Anders als der weite Wortlaut der Vorschrift nahe legt, gilt das Zahlungsverbot des § 92 Abs. 2 S. 3 AktG nicht für jede Zahlung an einen Gläubiger, der zugleich Aktien der zahlenden AG besitzt. Seine Anwendung setzt vielmehr voraus, dass die Zahlung oder das ihr zugrunde liegende Geschäft gerade auf der Aktionärseigenschaft des Empfängers beruht oder sich dies jedenfalls nicht ausschließen lässt, oder dass die Zahlung auf einen Anspruch erfolgt, der nach § 39 Abs. 1 Nr. 5, Abs. 5 InsO in der Insolvenz der Gesellschaft nur nachrangig zu befriedigen wäre.
We show on an abstract level that contextual equivalence in non-deterministic program calculi defined by may- and must-convergence is maximal in the following sense. Using also all the test predicates generated by the Boolean, forall- and existential closure of may- and must-convergence does not change the contextual equivalence. The situation is different if may- and total must-convergence is used, where an expression totally must-converges if all reductions are finite and terminate with a value: There is an infinite sequence of test-predicates generated by the Boolean, forall- and existential closure of may- and total must-convergence, which also leads to an infinite sequence of different contextual equalities.
Diese Studie analysiert die deutsche UN-Reformpolitik der letzten Jahre. Im Mittelpunkt steht eine kritische Auseinandersetzung mit der politischen Zielsetzung, einen nationalen ständigen Sitz für Deutschland im Sicherheitsrat der Vereinten Nationen zu erlangen. Vor dem Hintergrund prominenter Vorschläge zur Reform des Sicherheitsrats wird zunächst die Genese dieses Anspruchs rekonstruiert. In einem weiteren Schritt werden die Positionen wichtiger Verbündeter und Partner untersucht. Dabei wird deutlich, wie wenig Unterstützung Deutschland selbst von seinen wichtigsten Partnern erfährt und wie sehr diese Unterstützung in den letzten Jahren abgenommen hat. Die anschließende Analyse der wichtigsten Argumente für einen ständigen deutschen Sitz zeigt, dass sie einer kritischen Prüfung nicht Stand halten können. Die Studie schließt mit einem Plädoyer und konkreten Vorschlägen für eine Wiederbelebung einer europäischen Option.
In this paper, we examine the impact of mergers among German savings banks on the extent to which these savings banks engage in small business lending. The ongoing consolidation in the banking industry has sparked concerns about the continuous availability of credit to small businesses which has been further fueled by empirical studies that partly confirm a reduction in small business lending in the aftermath of mergers. However, using a proprietary data set of German savings banks we find strong evidence that in Germany merging savings banks do not significantly change the extent to which they lend to small businesses compared to prior to the merger or compared to the contemporaneous lending by non-merging banks. We investigate the merger related effects on small business lending in Germany from a bank-level perspective. Furthermore, we estimate small business lending and its continuous adjustment process simultaneously using recent General Method of Moments (GMM) techniques for panel data as proposed by Arellano and Bond (1991).
This paper discusses the so-called commercial approach to microfinance under economic and ethical aspects. It first shows how microfinance has developed from a purely welfare-oriented activity to a commercially relevant line of banking business. The background of this stunning success is the – almost universal – adoption of the so-called commercial approach to microfinance in the course of the last decade. As the author argues, this commercial approach is the only sound approach to adopt if one wanted microfinance to have any social and developmental impact, and therefore the wide-spread “moralistic” criticism of the commercial approach, which has again and again been expressed in the 1990s, is ill-placed from an economic and an ethical perspective. However, some recent events in microfinance raise doubts as to whether the commercial approach has not, in a number of cases, gone too far. The evident example for such a development is the Mexican microfinance institution Compartamos, which recently undertook a financially extremely successful IPO. As it seems, some microfinance institutions have by now become so radically commercial that all of those social and development considerations, which have traditionally motivated work in the field of microfinance, seem to have lost their importance. Thus there is a conflict between commercial and developmental aspirations. However, this conflict is not inevitable. The paper concludes by showing that, and how, a microfinance institution can try to combine using the strengths of the capital market and at the same time maintaining its developmental focus and importance.
We examine insurance markets with two types of customers: those who regret suboptimal decisions and those who don.t. In this setting, we characterize the equilibria under hidden information about the type of customers and hidden action. We show that both pooling and separating equilibria can exist. Furthermore, there exist separating equilibria that predict a positive correlation between the amount of insurance coverage and risk type, as in the standard economic models of adverse selection, but there also exist separating equilibria that predict a negative correlation between the amount of insurance coverage and risk type, i.e. advantageous selection. Since optimal choice of regretful customers depends on foregone alternatives, any equilibrium includes a contract which is o¤ered but not purchased.
When a spot market monopolist participates in a derivatives market, she has an incentive to deviate from the spot market monopoly optimum to make her derivatives market position more profitable. When contracts can only be written contingent on the spot price, a risk-averse monopolist chooses to participate in the derivatives market to hedge her risk, and she reduces expected profits by doing so. However, eliminating all risk is impossible. These results are independent of the shape of the demand function, the distribution of demand shocks, the nature of preferences or the set of derivatives contracts.
Since independence from British colonial rule, Uganda has had a turbulent political history characterised by putsches, dictatorship, contested electoral outcomes, civil wars and a military invasion. There were eight changes of government within a period of twenty-four years (from 1962-1986), five of which were violent and unconstitutional. This paper identifies factors that account for these recurrent episodes of political violence and state collapse. While colonialism bequeathed the country a negative legacy including a weak state apparatus, ethnic division, skewed development, elite polarisation and a narrow economic base, post-colonial leaders have on the whole exacerbated rather than reversed these trends. Factors such as ethnic rivalry, political exclusion, militarisation of politics, weak state institutions, and unequal access to opportunities for self-advancement help to account for the recurrent cycles of violence and state failure prior to 1986. External factors have also been important, particularly the country’s politically turbulent neighbourhood, the outcome of political instability and civil conflict in surrounding countries. Neighbourhood turbulence stemming from such factors as civil wars in Congo and Sudan has had spill-over effects in that it has allowed insurgent groups geographical space within which to operate as well as provided opportunities for the acquisition of instruments of war with which to destabilise the country. Critical to these processes have been the porosity of post-colonial borders and the inability by the Ugandan state to exercise effective control over its entire territory. By demonstrating the interplay between internal and external factors in shaping Uganda’s postcolonial experience, the paper makes an important shift away from conventional explanations that have focused disproportionately on internal processes. Lastly, the paper provides pointers to areas of further research such as the economic foundations of conflict that should ultimately strengthen our understanding of factors that combine to make state-making fail or succeed.
This paper is one of the first to analyse political influence on state-owned savings banks in a developed country with an established financial market: Germany. Combining a large dataset with financial and operating figures of all 457 German savings banks from 1994 to 2006 and information on over 1,250 local elections during this period we investigate the change in business behavior around elections. We find strong indications for political inflence: the probability that savings banks close branches, lay-off employees or engage in merger activities is significantly reduced around elections. At the same time they tend to increase their extraordinary spendings, which include support for social and cultural events in the area, on average by over 15%. Finally, we find that savings banks extend significantly more loans to their corporate and private customers in the run-up to an election. In further analyses, we show that the magnitude of political influence depends on bank specific, economical and political circumstances in the city or county: political influence seems to be facilitated by weak political majorities and profitable banks. Banks in economically weak areas seem to be less prone to political influence.
In this paper, we investigate how bank mergers affect bank revenues and present empirical evidence that mergers among banks have a substantial and persistent negative impact on merging banks’ revenues. We refer to merger related negative effects on banks’ revenues as dissynergies and suggest that they are a result of organizational diseconomies, the loss of customers and the temporary distraction of management from day-to-day operations by effecting the merger. For our analyses we draw on a proprietary data set with detailed financials of all 457 regional savings banks in Germany, which have been involved in 212 mergers between 1994 and 2006. We find that the negative impact of a merger on net operating revenues amounts to 3% of pro-forma consolidated banks’ operating profits and persists not only for the year of the merger but for up to four years post-merger. Only thereafter mergers exhibit a significantly superior performance compared to their respective pre-merger performance or the performance of their non-merging peers. The magnitude and persistence of merger related revenue dissynergies highlight their economic relevance. Previous research on post-merger performance mainly focuses on the effects from mergers on banks’ (cost) efficiency and profitability but fails to provide clear and consistent results. We are the first, to our knowledge, to examine the post-merger performance of banks’ net operating revenues and to empirically verify significant negative implications of mergers for banks’ net operating revenues. We propose that our finding of negative merger related effects on banks’ operating revenues is the reason why previous research fails to show merger related gains.
The "quiet life hypothesis (QLH)" posits that banks enjoy the advantages of market power in terms of foregone revenues or cost savings. We suggest a unified approach to measure competition and efficiency simultaneously to test this hypothesis. We estimate bank-specific Lerner indices as measures of competition and test if cost and profit efficiency are negatively related to market power in the case of German savings banks.We find that both market power and average revenues declined among these banks between 1996 and 2006. While we find clear evidence supporting the QLH, estimated effects of the QLH are small from an economical perspective.
Motivated by the recent discussion of the declining importance of deposits as banks´ major source of funding we investigate which factors determine funding costs at local banks. Using a panel data set of more than 800 German local savings and cooperative banks for the period from 1998 to 2004 we show that funding costs are not only driven by the relative share of comparatively cheap deposits of bank´s liabilities but among other factors especially by the size of the bank. In our empirical analysis we find strong and robust evidence that, ceteris paribus, smaller banks exhibit lower funding costs than larger banks suggesting that small banks are able to attract deposits more cheaply than their larger counterparts. We argue that this is the case because smaller banks interact more personally with customers, operate in customers´ geographic proximity and have longer and stronger relationships than larger banks and, hence, are able to charge higher prices for their services. Our finding of a strong influence of bank size on funding costs is also in an in- ternational context of great interest as mergers among small local banks - the key driver of bank growth - are a recent phenomenon not only in European banking that is expected to continue in the future. At the same time, net interest income remains by far the most important source of revenue for most local banks, accounting for approximately 70% of total operating revenues in the case of German local banks. The influence of size on funding costs is of strong economic relevance: our results suggest that an increase in size by 50%, for example, from EUR 500 million in total assets to EUR 750 million (exemplary for M&A transactions among local banks) increases funding costs, ceteris paribus, by approximately 18 basis points which relates to approx. 7% of banks´ average net interest margin.
Der Regierungsentwurf des ARUG : Inhalt und wesentliche Änderungen gegenüber dem Referentenentwurf
(2008)
Der Entwurf eines Gesetzes zur Umsetzung der Aktionärsrechterichtlinie (ARUG) enthält viel mehr als nur die Umsetzung der Richtlinie über die Ausübung bestimmter Rechte von Aktionären in börsennotierten Gesellschaften (sog. Aktionärsrechterichtlinie), die bis 3. August 2009 zu erfolgen hat. Der jetzt vorliegende ARUG-Entwurf widmet sich drei weiteren Regelungskomplexen. In einem zweiten Schwerpunkt sollen für den Bereich der Kapitalaufbringung durch Sacheinlagen Deregulierungsoptionen aus der Änderung der Kapitalrichtlinie genutzt werden. In einem dritten Komplex wendet sich der Entwurf der Deregulierung des Vollmachtsstimmrechts der Banken zu. Hier werden ganz neue Handlungsalternativen eröffnet. Und ein letztes bedeutendes Ziel des Entwurfs ist die Eindämmung missbräuchlicher Aktionärsklagen. Der ARUG-Entwurf ist im Mai 2008 der Öffentlichkeit als Referentenentwurf vorgestellt worden. Die Bundestagswahl 2009 naht und der Entwurf darf nicht der Diskontinuität zum Opfer fallen. Deshalb ist der Regierungsentwurf unter Hochdruck vorbereitet worden. Das Kabinett hat ihn am 5. November verabschiedet. Damit hat das Gesetz eine gute Chance, zum 1. November 2009 in Kraft zu treten. ...
Zur Offenlegung von Abfindungszahlungen und Pensionszusagen an ein ausgeschiedenes Vorstandsmitglied
(2008)
Abfindungszahlungen und Pensionszusagen gehören zu den besonders umstrittenen Bestandteilen der Vorstandsvergütung. Der deutsche Gesetzgeber ist mit dem Gesetz über die Offenlegung von Vorstandsvergütungen (VorstOG) der internationalen Entwicklung gefolgt. Bereits Ziff. 4.2.4 DCGK a.F. hatte die individualisierte Offenlegung der Bezüge aktueller Vorstandsmitglieder empfohlen. In Frankreich wurde bereits 2001 die Pflicht zur Offenlegung von Vorstandsgehältern in den Art. L. 225-102-1 des Code de commerce aufgenommen. Aktuell beschäftigt sich das französische Parlament mit dem Gesetz „Croissance, emploi et pouvoir d’achat: modernisation de l’économie“, das bei Vereinbarungen von Abfindungen einen Hauptversammlungsbeschluss notwendig machen würde. In England sind die Bezüge der „Directors“ in einem Remuneration Report offenzulegen (Sec. 420 CA 2006). Vorreiter auf dem Gebiet der Offenlegungspflicht waren die Vereinigten Staaten, die seit 1992 eine individualisierte Offenlegung vorschreiben. Auch die Europäische Kommission hat sich für die Pflicht zur individualisierten Offenlegung ausgesprochen. Im Mittelpunkt der Diskussion steht insbesondere die Frage der Offenlegung der Abfindungs- und Pensionszusagen. Scheidet ein Vorstandsmitglied vorzeitig aus, hat es grundsätzlich einen Vergütungsanspruch bis zur Beendigung seines Anstellungsvertrags, außer wenn der Aufsichtsrat ihm aus wichtigem Grund gekündigt hat. In der Regel werden aber mit dem Vorstandsmitglied Abfindungsvereinbarungen getroffen. Neben den Abfindungsvereinbarungen spielen auch die Pensions- und Versorgungszusagen in der Praxis eine wichtige Rolle. Mit Blick auf den Wortlaut des § 285 HGB stellt sich, auch zwei Jahre nach Inkrafttreten des VorstOG, immer noch die Frage, ob bei börsennotierten Aktiengesellschaften die Abfindungszahlungen und Pensionszusagen individualisiert oder nur aggregiert offenzulegen sind. Fraglich ist zum einen, wie eine vereinbarte Abfindungszahlung im Lagebericht bei der Angabe der Vorstandsbezüge zu behandeln ist, wenn ein Vorstandsmitglied vorzeitig ausscheidet (III.). Zum anderen stellt sich die Frage, wie Pensionszusagen darzustellen sind (IV.). Bevor auf diese beiden Fragen eingegangen werden kann, soll kurz der gesetzliche Rahmen der Offenlegungspflicht skizziert werden (II.). ...
Inhalt: 1. Gesellschaftsrecht als neues Rechtgebiet für die Rechtsordnungen der GUS: 1 2. Besonderheiten der AG in den Staaten der GUS 4 3. Ausgewählte Probleme des Aktienrechts 6 a. Corporate Governance 6 b. Haftung der Organe 7 c. Aktionärsrechte, vor allem Auskunftsrechte 9 d. Große Geschäfte – krupnie sdelki 10 e. Verträge mit Interessiertheit 12 4. Reform des Aktienrechts 13 a. Entscheidung der interparlamentarischen Versammlung 13 b. Grundlagen des neuen Konzeptes zu einem Modell-Aktiengesetz 14 c. Vorschläge des Konzeptes zu oben erwähnten Problemen 17 Zusammenfassung 19 Zusammenfassung: Allein die kurze Schilderung der Entwicklung des Gesellschaftsrechts in den GUS-Staaten zeigt die Notwendigkeit der Reformen auf diesem Gebiet. Wichtig ist, dass die Länder, die traditionell zur kontinental-europäischen Rechtsfamilie gehören, im Rahmen dieser Familie bleiben. Die kritiklose und bedingungslose Übernahme der Institute der Common-Law-Tradition hat für zahlreiche Irritationen und Verwirrungen gesorgt. Die Korrektur dieser Missentwicklungen kann als große Herausforderung der Reform des Aktienrechts der Staaten der GUS bezeichnet werden.
We study the relation between cognitive abilities and stockholding using the recent Survey of Health, Ageing and Retirement in Europe (SHARE), which has detailed data on wealth and portfolio composition of individuals aged 50+ in 11 European countries and three indicators of cognitive abilities: mathematical, verbal fluency, and recall skills. We find that the propensity to invest in stocks is strongly associated with cognitive abilities, for both direct stock market participation and indirect participation through mutual funds and retirement accounts. Since the decision to invest in less information-intensive assets (such as bonds) is less strongly related to cognitive abilities, we conclude that the association between cognitive abilities and stockholding is driven by information constraints, rather than by features of preferences or psychological traits.
We investigate whether information sharing among banks has affected credit market performance in the transition countries of Eastern Europe and the former Soviet Union, using a large sample of firm-level data. Our estimates show that information sharing is associated with improved availability and lower cost of credit to firms. This correlation is stronger for opaque firms than transparent ones and stronger in countries with weak legal environments than in those with strong legal environments. In cross-sectional estimates, we control for variation in country-level aggregate variables that may affect credit, by examining the differential impact of information sharing across firm types. In panel estimates, we also control for the presence of unobserved heterogeneity at the firm level, as well as for changes in macroeconomic variables and the legal environment.
The single most important policy-induced innovation in the international financial system since the collapse of the Bretton-Woods regime is the institution of the European Monetary Union. This paper provides an account of how the process of financial integration has promoted financial development in the euro area. It starts by defining financial integration and how to measure it, analyzes the barriers that can prevent it and the effects of their removal on financial markets, and assesses whether the euro area has actually become more integrated. It then explores to which extent these changes in financial markets have influenced the performance of the euro-area economy, that is, its growth and investment, as well as its ability to adjust to shocks and to allow risk-sharing. The paper concludes analyzing further steps that are required to consolidate financial integration and enhance the future stability of financial markets.
Various concurrency primitives have been added to sequential programming languages, in order to turn them concurrent. Prominent examples are concurrent buffers for Haskell, channels in Concurrent ML, joins in JoCaml, and handled futures in Alice ML. Even though one might conjecture that all these primitives provide the same expressiveness, proving this equivalence is an open challenge in the area of program semantics. In this paper, we establish a first instance of this conjecture. We show that concurrent buffers can be encoded in the lambda calculus with futures underlying Alice ML. Our correctness proof results from a systematic method, based on observational semantics with respect to may and must convergence.
Wenn man sich Gehirnvorgänge beim Lernen als „Speicherung“ vorstellt, so müßten die Lernprozesse im Anhäufen und Einschaufeln von Wissensportionen bestehen. Schulfach auf Schulfach füllt also Fach auf Fach im Hirn mit möglichst dauerhaften (und bewährten!) Gütern, ruft sie in Testarbeiten noch mal ab und hofft, dass die Güter im-mer dann „gebraucht“ werden, wenn sie dem „Besitzer“ zur Bewältigung seines Lebens dienen können. Das klappte zwar nie so, aber man wunderte sich und machte weiter so. Seit Jahrzehnten wissen Neurologen und Psychologen, dass dieses Bild falsch ist; wir Lehrer könnten es auch wissen, denn in populärwissenschaftlichen Berichten (u.a. in GEO, ZEIT, Spiegel oder Focus) werden die neuen Erkenntnisse seit Jahren verbreitet, und doch bleibt der Schulunterricht davon völlig unberührt.
This paper is concerned with the tagging of spatial expressions in German newspaper articles, assigning a meaning to the expression and classifying the usages of the spatial expression and linking the derived referent to an event description. In our system, we implemented the activation of concepts in a very simple fashion, a concept is activated once (with a cost depending on the item that activated it) and is left activated thereafter. As an example, a city also activates the nodes for the region and the country it is part of, so that cities from one country are chosen over cities from different countries. A test corpus of 12 German newspaper articles was tested regarding several disambiguation strategies. Disambiguation was carried out via a beam search to find an approximately cost-optimal solution for the conflict set of potential grounding candidates for the tagged spatial expression. Test showed that the disambiguation strategies improved accuracy significantly.
Erkennung kritischer Zustände von Patienten mit der Diagnose "Septischer Schock" mit einem RBF-Netz
(2000)
Es wurde gezeigt, dass der Arzt mit dem wachsenden RBF-Netz durch die Ausgabe von verlässlichen Warnungen unterstützt werden kann. Wie in der Clusteranalyse erläutert, leiden die Ergebnisse jedoch unter den wenigen Patienten und unter der ungenauen zeitlichen Erfassung der Daten. Da jeder Patient sehr individuelle Zustände annimmt, ist ein größeres Patientenkollektiv notwendig, um eine umfassende Wissensbasis zu lernen. Eine medizinische Nachbearbeitung der Wissensbasis durch die Analyse der Fälle ließe eine weitere Verbesserung des Ergebnisses erwarten. Somit könnten unbekannte Zusammenhänge durch das Lernen aus Beispielen und medizinisches Fachwissen kombiniert werden. Abstraktere Merkmale, die weniger abhängig von individuellen Zuständen sind, könnten eine Klassifikation noch weiter verbessern. Ein Ansatzpunkt ist z.B. die Abweichung der Messwerte vom gleitenden Mittelwert. Dieses Maß ist unempfindlicher gegenüber den individuellen Arbeitspunkten der Patienten und bildet auch die Basis von relativen Abhängigkeiten zwischen zwei Variablen, die in einem weiteren Schritt ebenfalls als Merkmal herangezogen wurden. Obwohl die Verwendung der relativen Abhängigkeiten zwischen zwei Variablen als Merkmal nicht deutlichere oder häufigere Warnungen hervorbringen konnte, weist doch die Clusteranalyse auf eine bessere Verteilung der Patienten hin. Einige Cluster sind besser für die Vorhersage geeignet, als dieses bei einer Clusterung auf Basis der Zustände erreicht werden kann. Unterstützt wird dieses Ergebnis auch durch den größeren Unterschied der Sicherheiten von falschen und richtigen Klassifikationen. Neben den bisher untersuchten Merkmalen scheinen auch die Variablen interessant zu sein, bei denen festgestellt wurde, dass sie sich trotz Medikamentengabe und adäquater Behandlung schwer stabilisieren lassen. Durch den behandelnden Arzt werden diese Werte üblicherweise in einem gewissen Bereich gehalten. Falls sich das Paar Medikament/physiologischer Parameter nicht mehr in einem sinnvollen Verhältnis befindet, kann dieses ein wichtiger Indikator sein. Nach dem Aufbau der grundlegenden Funktionalität der hier untersuchten Methoden ist die Suche nach geeigneten Merkmalen als Eingabe für ein neuronales Netz ein wesentlicher Bestandteil folgender Arbeiten. Abgesehen von dem generell anspruchsvollen Vorhaben aus Klinikdaten deutliche Hinweise für die Mortalität septischer-Schock-Patienten zu erhalten, liegen die wesentlichen Probleme in dem Umfang und der Messhäufigkeit der Frankfurter Vorstudie begründet, so dass eine Anwendung von Klassifikationsverfahren auf das umfassendere Patientenkollektiv der MEDAN Multicenter-Studie klarere Ergebnisse erwarten lässt. Eine weitere, für medizinische Anwendungen interessante, Analysemöglichkeit ist die Regelgenerierung, die zur Zeit in einem anderen Teilprojekt in der MEDAN-Arbeitsgruppe bearbeitet wird. Hier können im Fall metrischer Daten zusätzliche Hinweise für die Leistung eines reinen Klassifikationsverfahrens gewonnen werden mit dem Vorteil einer expliziten Regelausgabe. Zum anderen werden in diesem Teilprojekt auch Verfahren zur Regelgenerierung eingesetzt, die ordinale und nominale Variablen wie Diagnosen, Operationen, Therapien und Medikamentenangaben (binär, ohne genaue Dosis) auswerten können. Diese werden in den Multicenter-Daten vorhanden sein. Durch Kopplung der Regelgeneratoren für metrische Daten auf der einen Seite und für diskrete Variablen auf der anderen Seite, besteht durchaus die Hoffnung bessere Ergebnisse zu erzielen. Da der Regelgenerator für metrische Daten auf dem RBF-DDA (Abk. für: Dynamic Decay Adjustment)-Netz [BERTHOLD und DIAMOND, 1995] beruht, bietet es sich innerhalb des MEDAN-Projekts an, einen (bislang nicht durchgeführten) Vergleich mit dem hier verwendeten Netztyp durchzuführen. Der Vergleich ist allerdings nur von prinzipiellem Interesse und kann auf den hier betrachteten Daten kein grundsätzlich besseres Ergebnis liefern als die bislang durchgeführten Analysen; er kann aber zu einer umfangreichen Bewertung der Ergebnisse beitragen.
It appears astonishing to me that none of the papers and discussions at this conference on "Financial Flows to Developing Countries" have even touched upon an important category of international financial relationships which involves direct flows and links to the so-called developing countries. Specifically, none of the contributions have dealt with “development finance”, which is a broad term covering various kinds of activities carried out in the framework of development assistance. This is a particularly striking omission, given that until fairly recently the volume of official aid exceeded the volume of private capital flows to the developing and transition economies (IMF, 1998, p. 60). Moreover, it is conceivable that, in terms of both their developmental impact and their contribution to the alleviation of social problems, the flows financed by official aid may be more important than private capital flows. Thus, I felt that, at the very least, my fellow conference participants should be made aware of this gap in the range of topics addressed by the conference, and it was with this goal in mind that I prepared the present paper as a contribution to the concluding session of the conference. The first section of the present paper defines the concept of “development finance” and seeks to show how its content and meaning has changed over time. In the second section, I discusses a broad trend in banking regulation which has recently emerged in many developing and transition countries and which has, in my view, highly problematic implications for the potential to create financially sound and developmentally relevant “microfinance institutions”.
Der bevorstehende Beitritt Sloweniens in die OECD1 (Organisation for Economic Cooperation and Development), die jüngste Bewertung des BTI-Status-Index 2008 (Bertelsmann-Transformation-Index) auf dem 2. Platz, der Ratsvorsitz der EU (Europäische Union) im 1. Halbjahr 2008, die Mitgliedschaft zum Schengen-Raum und die Einführung des Euro, sind nur die jüngsten Meilensteine der erfolgreichen und nachhaltigen Transformation in ein demokratisches System und die Festlegung auf eine marktwirtschaftliche Ordnung. Die Geschichte Sloweniens stand lange Zeit im Schatten der Geschichte Österreichs und Jugoslawiens. Als eine Nation in einem eigenen Staat sieht sich Slowenien seit dem Zerfall Jugoslawiens in einer gänzlich neuen Rolle. Das Erbe der früheren Abhängigkeiten ist einem neuen Selbstbewusstsein gewichen. Die graduelle Transformation Sloweniens während der 1990er Jahre in einen völkerrechtlich unabhängigen Staat, eine politische Demokratie und eine freie Marktwirtschaft erscheint im europäischen Kontext „…only [as] a chapter in the larger tale of the democratic wave that rather unexpectedly swept across Central, Eastern, and Southeastern Europe during the last years of the twentieth century.“ In Reflexion der historischen Ereignisse beurteilt Kornai die Transformation am Ende des letzten Jahrhunderts in Europa „…in spite of serious problems and anomalies …[as] a success story.“ Im Rahmen des Transformationsprozesses konnte sich Slowenien als „politischer und ökonomischer Zwerg“ als unabhängiger Staat in das demokratische Europa und die Europäische Union integrieren und fest verankern. Um Gründe und Faktoren dieses Prozesses zu identifizieren, ist eine Betrachtung der Entwicklungen in den 1980er Jahren, die zur Auflösung des blockfreien sozialistischen Jugoslawiens und zur Selbstständigkeit Sloweniens geführt haben, notwendig. Jede der konstituierenden Teilrepubliken und Regionen Jugoslawiens blickt zurück auf eine eigene historische, religiöse und sprachliche Tradition mit individuellen Erfahrungen und spezifischen Spannungen innerhalb und außerhalb der gemeinsamen Föderation. Sloweniens Weg in die politische, ökonomische und demokratische Unabhängigkeit war ein individueller nationaler Differenzierungs- und Umgestaltungsprozess und Ergebnis vielfältiger mehrdimensionaler Konflikte. Unerwartet und plötzlich war der Bruch und die Herauslösung aus dem Staatenbund Jugoslawiens am 25. Juni 1991 nicht. Die Gründung und der Niedergang eines Staates sind schwierig zu erklärende und komplexe Phänomene. Die Triebkräfte der auflösenden gesellschaftlichen Prozesse im Jugoslawien der 1980er Jahre ausschließlich auf die Nationalitätenfrage zu reduzieren, bewertet Weißenbacher als eine zu enge Fokussierung der Darstellung und Begründung auf die ethnischen Spannungen innerhalb des Vielvölkerstaates. Er argumentiert: „Die Wurzeln der Desintegration des sozialistischen Jugoslawiens in alten ethnischen Feindseligkeiten zu suchen, hieße die ökonomischen, sozialen und politischen Prozesse zu ignorieren….“ Die zunehmenden regionalen Inkompatibilitäten Jugoslawiens in den 1980er Jahren verdeutlichen in Betrachtung des spezifischen Entwicklungspfads der Teilrepublik Slowenien, dass die politisch-gesellschaftlichen, kulturellen und die sozioökonomischen Strukturen letztendlich nicht dauerhaft mit den Strukturen anderer jugoslawischer Teilrepubliken vereinbar waren. Die politische und wirtschaftliche Instabilität Jugoslawiens und der frühzeitige Wandel innerhalb der slowenischen Gesellschaft und der Kommunistischen Partei in den 1980er Jahren führten durch politischen Reformdruck und makroökonomische Ungleichgewichte zum Kollaps des jugoslawischen Staatenbundes. Mencinger betont, dass die tiefe Krise Jugoslawiens letzten Endes ohne einen radikalen Systembruch und Sturkurwandel von politischer und ökonomischer Machtverteilung nicht zu überwinden gewesen wäre. Der vorliegende Beitrag greift die Rahmenbedingungen, Entwicklungen, Konflikte und Ziele auf und zeichnet die wesentlichen politischen und wirtschaftlichen Geschehnisse nach, denen sich die slowenische Bevölkerung und Politik in den Jahren vor der Loslösung gegenübersahen und die zur Gründung des unabhängigen Staates geführt haben.
Der Beitritt zur Europäischen Union (EU) war seit Beginn der Transformation in Osteuropa eines der wichtigsten politischen Ziele der neu gewählten Regierungen. Im Mittelpunkt der öffentlichen Diskussion stand dabei weniger die Frage nach möglichen nationalen Opfern einer schnellen EU-Integration, sondern der Wunsch, die nach dem zweiten Weltkrieg erfolgte Teilung Europas endgültig zu überwinden. Nach über zehn Jahren Transformation und Privatisierung ist jedoch vielerorts Ernüchterung eingekehrt. Die politische Debatte um die EU-Integration der osteuropäischen Beitrittskandidaten wird zunehmend von den Kandidaten selbst kritisch geführt, und die Frage nach den nationalen Lasten eines EU-Beitritts gewinnt an Bedeutung. Je näher der Beitritt der osteuropäischen Staaten zur EU rückt, desto nachdrücklicher wird dort gefragt, ob die Mitgliedschaft in der Union ein Gewinn sein wird. Die Beitrittskandidaten befürchten u.a., dass die eigene Wirtschaft und ganze Berufsgruppen, wie z.B. die Bauern, dem EU-Wettbewerbsdruck nicht standhalten werden können. Auf der anderen Seite bremsen eigennützige Ansprüche der Altmitglieder die Osterweiterung der EU. Noch ist bei anstehenden Abstimmungen in den mittel- und osteuropäischen Ländern (MOEL) über den Beitritt überall eine Mehrheit dafür zu erwarten, doch die Euroskepsis wächst und die Europa-Kritiker gewinnen an politischem Einfluss. Die vorliegende Arbeit soll einen Beitrag zur Versachlichung der EU-Erweiterungsdiskussion leisten und die Zusammenhänge zwischen dem Transformationsprozess der MOEL und deren EU-Integration verdeutlichen. Eine sachliche Diskussion kann nur dann geführt werden, wenn dabei die Besonderheiten, die Gemeinsamkeiten und die Interdependenzen von Transformations- und Integrationsprozess berücksichtigt werden. Wir gehen dazu wie folgt vor. Zunächst beschreiben wir en Transformationsprozess aus ökonomischer Sicht (2.). Neben den wirtschaftlichen und sozialen Folgen der Transformation, soll die historische Pfadabhängigkeit verschiedener Transformationsergebnisse gezeigt und deren Bedeutung für die EU-Integrationsfähigkeit der MOEL diskutiert werden. Im Anschluss daran erläutern wir die Voraussetzungen einer EU-Osterweiterung aus Sicht der Beitrittskandidaten (Beitrittskriterien von Kopenhagen) und aus Sicht der Europäischen Union. Wir zeigen die aus einem Integrationsprozess resultierenden wirtschaftlichen, sozialen und politischen Folgen für Neu- und Altmitglieder auf und stellen den aktuellen Stand der EU-Beitrittsverhandlungen vor (3.). Die Arbeit endet mit der Darstellung alternativer Entwicklungen und einem Fazit (4.).
A data set of annual values of area equipped for irrigation for all 236 countries in the world during the time period 1900 - 2003 was generated. The basis for this data product was information available through various online data bases and from other published materials. The complete time series were then constructed around the reported data applying six statistical methods. The methods are discussed in terms of reliability and data uncertainties. The total area equipped for irrigation in the world in 1900 was 53.2 million hectares. Irrigation was mainly practiced in all the arid regions of the globe and in paddy rice areas of South and East Asia. In some temperate countries in Western Europe irrigation was practiced widely on pastures and meadows. The time series suggest a modest rate of increase of irrigated areas in the first half of the 20th century followed by a more dynamic development in the second half. The turn of the century is characterized by an overall consolidating trend resulting at a total of 285.8 million hectares in 2003. The major contributing countries have changed little throughout the century. This data product is regarded as a preliminary result toward an ongoing effort to develop a detailed data set and map of areas equipped for irrigation in the world over the 20th century using sub-national statistics and historical irrigation maps.
We argue for incorporating the financial economics of market microstructure into the financial econometrics of asset return volatility estimation. In particular, we use market microstructure theory to derive the cross-correlation function between latent returns and market microstructure noise, which feature prominently in the recent volatility literature. The cross-correlation at zero displacement is typically negative, and cross-correlations at nonzero displacements are positive and decay geometrically. If market makers are sufficiently risk averse, however, the cross-correlation pattern is inverted. Our results are useful for assessing the validity of the frequently-assumed independence of latent price and microstructure noise, for explaining observed cross-correlation patterns, for predicting as-yet undiscovered patterns, and for making informed conjectures as to improved volatility estimation methods.
The future of securitization
(2008)
Securitization is a financial innovation that experiences a boom-bust cycle, as many other innovations before. This paper analyzes possible reasons for the breakdown of primary and secondary securitization markets, and argues that misaligned incentives along the value chain are the primary cause of the problems. The illiquidity of asset and interbank markets, in this view, is a market failure derived from ill-designed mechanisms of coordinating financial intermediaries and investors. Thus, illiquidity is closely related to the design of the financial chains. Our policy conclusions emphasize crisis prevention rather than crisis management, and the objective is to restore a “comprehensive incentive alignment”. The toe-hold for strengthening regulation is surprisingly small. First, we emphasize the importance of equity piece retention for the long-term quality of the underlying asset pool. As a consequence, equity piece allocation needs to be publicly known, alleviating market pricing. Second, on a micro level, accountability of managers can be improved by compensation packages aiming at long term incentives, and penalizing policies with destabilizing effects on financial markets. Third, on a macro level, increased transparency relating to effective risk transfer, risk-related management compensation, and credible measurement of rating performance stabilizes the valuation of financial assets and, hence, improves the solvency of financial intermediaries. Fourth, financial intermediaries, whose risk is opaque, may be subjected to higher capital requirements.
Beyond Weltpolitik, self-containment and civilian power : United Germany´s normalizing ambitions
(1999)
The future of NATO has been a hotly debated topic at the center of IR debates ever since the end of the Cold War. It has also been a very complicated one given the discipline´s conceptual and theoretical difficulties in studying change. Most analysts now agree that NATO (and the transatlantic order more broadly) are going through some major changes. Yet while there is consensus that the depth as well as the pace of these changes is more far-reaching than in past decades it is unclear exactly how deep and how far these changes reach. In order to come to grips with these changes most of the chapters in this book are exploring the character as well as the sources of these changes. This chapter approaches the topic by examining how the discipline has dealt with the question of the evolution of the transatlantic order in the past. It argues that IR has not been very well equipped conceptually to deal with the phenomenon in question, ie. large-scale processes of change. In applying a typological framework developed by Paul Pierson the chapter discusses what types of causal accounts have dominated in the IR literature – and what this may tell us about particular strengths, biases and potential blind spots in coming to grips with the evolution of this order. In essence it argues that the structure of the most prominent explanations is often quite similar irrespective of paradigmatic descent. Inspite of major differences – inspite, even, of mutually exclusive predictions – as to the expected path of the order´s evolution realist, liberal and constructivist accounts heavily rely in equal fashion on causal arguments which emphasize large-scale causal processes which are almost always framed in rather statist structural terms even though they essentially entail slow moving causal processes. This temporal dimension of the causal processes presumably shaping the future of the transatlantic order is seldom spelled out in detail, however. Thus, if one examines the debate as a whole one sees a picture of IR scholarship which essentially oscillates between two extremes: the position that NATO (as the core institution of the transatlantic order) was (and is) certain to survive and the position that it was (and is) certain to collapse. What is more, these extremes on a spectrum of possible positions on the transatlantic order´s evolution between breakdown on the one hand and successful adaptation on the other are not hypothetical but mostly real. Thus, the debate does not gravitate towards the center (ie. a position which, for instance, envisages a loser but still cooperative relationship) after the usual give and take of exchanging scholarly arguments. Rather it mostly sticks with either of the two extreme positions. The chapter illustrates the problems associated with this point in some details and discusses potential remedies.
After he had only tightly lost the election in July 2006, Andrés Manuel López Obrador and his Coalición claimed fraud and asserted that unfair conditions during the campaign had diminished his chances to win the presidency. The paper investigates this latter allegation centering on a perceived campaign of hate, unequal access to campaign resources and malicious treatment by the mass media. It further analyzes the mass media’s performance during the conflictual post electoral period until the final decision of the Federal Electoral Tribunal on September 5th, 2006. While the media’s performance during the campaign tells us about their compliance with fair media coverage mechanisms that have been implemented by electoral reforms in the 1990s, the mass media is uncontained by such measures after the election. Thus, their mode of coverage of the postelectoral conflicts allows us to “test” the mass media’s transformation to a more unbiased, social responsible “fourth estate”. Finally the paper scrutinizes whether the claims of fraud and the protests by the leftist movement resulted in lower levels of institutional trust and democratic support. The analysis of the media performance is based on data provided by the Federal Electoral Institute (IFE). Its Media Monitor encompassed more than 150 TV stations, 240 radio stations and 200 press publications. However, there is no comparable data available for the postelectoral period. Interviews with Mexican media experts, which the author has conducted during the postelectoral period, serve as empirical basis for the second part. Data on the public opinions and attitudes of Mexican citizens are taken from the 2007 Latinobarometro, the 2006 Encuesta Nacional and several polls conducted by Grupo Reforma. The results do not support López Obradors notions. Even though a strong party bias is characteristic of the Mexican media system, all findings hint at a continuity of balanced campaign coverage and fair access to mass media publicity. Coverage during the postelectoral period was more polarized, yet both sides remained at least partially open for oppositional views. The claims of fraud, mass protest mobilization and anti-institutional discourse by Lopez Obrador’s leftist movement seem not to have caused significant loss in institutional trust, support of and satisfaction with democracy, even though these levels remain quite low.
The impact of European integration on the German system of pharmaceutical product authorization
(2008)
The European Union has evolved since 1965 into an influential political player in the regulation of pharmaceutical safety standards. The objective of establishing a single European market for pharmaceuticals makes it necessary for member-states to adopt uniform safety standards and marketing authorization procedures. This article investigates the impact of the European integration process on the German marketing authorization system for pharmaceuticals. The analysis shows that the main focal points and objectives of European regulation of pharmaceutical safety have shifted since 1965. The initial phase saw the introduction of uniform European safety standards as a result of which Germany was obliged to undertake “catch-up” modernization. From the mid-1970s, these standards were extended and specified in greater detail. Since the mid-1990s, a process of reorientation has been under way. The formation of the European Agency for the Evaluation of Medicinal Products (EMEA) and the growing importance of the European authorization procedure, combined with intensified global competition on pharmaceutical markets, are exerting indirect pressure for EU member-states to adjust their medicines policies. Consequently, over the past few years Germany has been engaged in a competition-oriented reorganization of its pharmaceutical product authorization system the outcome of which will be to give higher priority to economic interests.
Der Prozess der europäischen Integration wirkt zunehmend auf die Gestaltung der Gesundheitssysteme der Mitgliedstaaten ein. Die von der Kommission und dem EuGH vorangetriebene Anwendung des europäischen Binnenmarkt- und Wettbewerbsrechts auf die Gesundheitspolitik hat zur Folge, dass marktlichen Steuerungsprinzipien ein Primat gegenüber staatlicher und korporatistischer Regulierung eingeräumt wird. Die gesundheitspolitische Gestaltungskompetenz liegt bei den Mitgliedstaaten, diese haben jedoch die „vier Freiheiten“ bzw. das europäische Wettbewerbsrecht zu beachten. Das Prinzip der Solidarität spielt in den europäischen Verträgen dagegen nur eine untergeordnete Rolle. Solidarität erscheint im europäischen Diskurs als ein Wert, der für die Europäische Union einen wichtigen Bezugspunkt darstellt, ohne dass er eine rechtlich verbindliche Form erhalten hat. Im Resultat entscheidet daher die Auslegung des Solidaritätsprinzips durch den Gerichtshof darüber, ob solidarische Elemente in der nationalen Gesundheitspolitik mit dem europäischen Recht vereinbar sind. Dieser Mechanismus beruht nicht auf demokratisch organisierten Meinungs- und Willensbildungsprozessen, sondern ist Gegenstand schwer prognostizierbarer richterlicher Interpretationskunst.
Die Privatisierung von Krankheitskosten durch erhöhte Zuzahlungen, informelle Leistungsverweigerungen in der GKV sowie das Nebeneinander von gesetzlicher und privater Krankenversicherung bei einer wachsenden Kluft zwischen beiden Systemen haben die sozialen und die räumlich-zeitlichen Barrieren zur Inanspruchnahme von Gesundheitsleistungen für sozial schwache Gruppen erhöht. Damit wächst die Gefahr, dass die Krankenversorgungspolitik zu einer eigenständigen Ursache für die Verstärkung und Aufrechterhaltung gesundheitlicher Ungleichheit wird. Gleichzeitig werden die Möglichkeiten der gesetzlichen Krankenversicherung, durch verbesserte Prävention zu einer Verringerung gesundheitlicher Ungleichheit beizutragen, nur unzureichend genutzt. So liegt die Teilnahmequote von Personen mit niedrigem Sozialstatus an zahlreichen Maßnahmen der Krankheitsfrüherkennung, insbesondere bei der Krebsvorsorge, nach wie vor deutlich unter dem Durchschnitt. Mit der Novellierung des § 20 SGB V im Jahr 2000 hat zwar auch die Verminderung der sozialen Ungleichheit von Gesundheitschancen Eingang in das Zielsystem der GKV gefunden. Allerdings geht dieses Ziel nur teilweise in die Präventionspraxis der Krankenkassen ein. Nach wie vor existieren zahlreiche Hürden bei der Implementierung von Maßnahmen der kontextgestützten Verhältnisprävention.
Die politische Steuerung des Krankenhaussektors hat sich in den vergangenen anderthalb Jahrzehnten nachhaltig verändert. Das Gesundheitsstrukturgesetz von 1992 markiert einen gesundheitspolitischen Paradigmenwechsel, mit dem verstärkt wettbewerbliche Steuerungsinstrumente in das Gesundheitswesen eingeführt wurden. Auch im stationären Sektor ersetzen bzw. ergänzen wettbewerbliche Instrumente korporatistische Arrangements. Die Gegenüberstellung der politischen Steuerung des Krankenhaussektors vor 1992 mit der Situation nach der Gesundheitsreform 2007 verdeutlicht, dass auf den Feldern Leistungserbringung, Vergütung und Qualitätssicherung sukzessive ein neues Steuerungsmodell entstanden ist. Dieses zeichnet sich durch eine gewachsene Komplexität, eine Zunahme von Steuerungsaktivitäten und eine Neujustierung des Verhältnisses staatlicher bzw. korporatistischer Steuerung einerseits und wettbewerblicher Steuerung andererseits aus. Dort, wo es um allokative Entscheidungen geht, werden korporatistische Elemente durch wettbewerbliche ersetzt. Auf anderen Regulierungsfelder bleibt der Korporatismus dagegen erhalten. Der Staat als „architect of political order“ (Anderson) hat diese Transformation herbeigeführt, sieht sich allerdings zunehmend mit dem Widerspruch zwischen einer bedarfsorientierten Krankenhausplanung und Investitionsfinanzierung auf Landesebene und einer Leistungsverteilung über den Wettbewerb konfrontiert.
We study the responses of residential property and equity prices, inflation and economic activity to monetary policy shocks in 17 countries, using data spanning 1986-2006, using single-country VARs and panel VARs in which we distinguish between groups of countries depending on their financial systems. The effect of monetary policy on property prices is about three times as large as its impact on GDP. Using monetary policy to guard against financial instability by offsetting asset-price movements thus has sizable effects on economic activity. While the financial structure influences the impact of policy on asset prices, its importance appears limited.
This paper explores the role of trade integration—or openness—for monetary policy transmission in a medium-scale New Keynesian model. Allowing for strategic complementarities in price-setting, we highlight a new dimension of the exchange rate channel by which monetary policy directly impacts domestic inflation. Although the strength of this effect increases with economic openness, it also requires that import prices respond to exchange rate changes. In this case domestic producers find it optimal to adjust their prices to exchange rate changes which alter the domestic currency price of their foreign competitors. We pin down key parameters of the model by matching impulse responses obtained from a vector autoregression on U.S. time series relative to an aggregate of industrialized countries. While we find evidence for strong complementarities, exchange rate pass-through is limited. Openness has therefore little bearing on monetary transmission in the estimated model.
Bayesian learning provides the core concept of processing noisy information. In standard Bayesian frameworks, assessing the price impact of information requires perfect knowledge of news’ precision. In practice, however, precision is rarely dis- closed. Therefore, we extend standard Bayesian learning, suggesting traders infer news’ precision from magnitudes of surprises and from external sources. We show that interactions of the different precision signals may result in highly nonlinear price responses. Empirical tests based on intra-day T-bond futures price reactions to employment releases confirm the model’s predictions and show that the effects are statistically and economically significant.
The popular Nelson-Siegel (1987) yield curve is routinely fit to cross sections of intra-country bond yields, and Diebold and Li (2006) have recently proposed a dynamized version. In this paper we extend Diebold-Li to a global context, modeling a potentially large set of country yield curves in a framework that allows for both global and country-specific factors. In an empirical analysis of term structures of government bond yields for the Germany, Japan, the U.K. and the U.S., we find that global yield factors do indeed exist and are economically important, generally explaining significant fractions of country yield curve dynamics, with interesting differences across countries.
Measuring financial asset return and volatilty spillovers, with application to global equity markets
(2008)
We provide a simple and intuitive measure of interdependence of asset returns and/or volatilities. In particular, we formulate and examine precise and separate measures of return spillovers and volatility spillovers. Our framework facilitates study of both non-crisis and crisis episodes, including trends and bursts in spillovers, and both turn out to be empirically important. In particular, in an analysis of nineteen global equity markets from the early 1990s to the present, we find striking evidence of divergent behavior in the dynamics of return spillovers vs. volatility spillovers: Return spillovers display a gently increasing trend but no bursts, whereas volatility spillovers display no trend but clear bursts.
Research with Keynesian-style models has emphasized the importance of the output gap for policies aimed at controlling inflation while declaring monetary aggregates largely irrelevant. Critics, however, have argued that these models need to be modified to account for observed money growth and inflation trends, and that monetary trends may serve as a useful cross-check for monetary policy. We identify an important source of monetary trends in form of persistent central bank misperceptions regarding potential output. Simulations with historical output gap estimates indicate that such misperceptions may induce persistent errors in monetary policy and sustained trends in money growth and inflation. If interest rate prescriptions derived from Keynesian-style models are augmented with a cross-check against money-based estimates of trend inflation, inflation control is improved substantially.
In meinem Vortrag habe ich mich mit den eher technischen Bestimmungen des Referentenentwurfs des Schuldverschreibungsgesetzes zu den Anforderungen an die Beschlüsse der Gläubigerversammlung und vor allem mit ihrer gerichtlichen Kontrolle zu befassen. Diese technischen Fragen lassen sich freilich nicht ganz von den Fragen trennen, die Gegenstand der Referate zu den Befugnissen der Gläubigerversammlung und zu den Anleihebedingungen sind. Ich werde mir also gewisse Grenzüberschreitungen insbesondere auf die Gebiete der zu diesen Themen speziell vorgesehenen Referate zuschulden kommen lassen und bitte hierfür schon jetzt um Nachsicht. Mit Anmerkungen versehene Fassung eines Vortrags auf dem Seminar des Deutschen Aktieninstituts „Die Novellierung des Schuldverschreibungsrechts“ am 16. 9. 2008. Die Vortragsform ist beibehalten.
Increasingly, individuals are in charge of their own financial security and are confronted with ever more complex financial instruments. However, there is evidence that many individuals are not well-equipped to make sound saving decisions. This paper demonstrates widespread financial illiteracy among the U.S. population, particularly among specific demographic groups. Those with low education, women, African-Americans, and Hispanics display particularly low levels of literacy. Financial literacy impacts financial decision-making. Failure to plan for retirement, lack of participation in the stock market, and poor borrowing behavior can all be linked to ignorance of basic financial concepts. While financial education programs can result in improved saving behavior and financial decision-making, much can be done to improve these programs’ effectiveness.
Traditionally, aggregate liquidity shocks are modelled as exogenous events. Extending our previous work (Cao & Illing, 2007), this paper analyses the adequate policy response to endogenous systemic liquidity risk. We analyse the feedback between lender of last resort policy and incentives of private banks, determining the aggregate amount of liquidity available. We show that imposing minimum liquidity standards for banks ex ante are a crucial requirement for sensible lender of last resort policy. In addition, we analyse the impact of equity requirements and narrow banking, in the sense that banks are required to hold sufficient liquid funds so as to pay out in all contingencies. We show that such a policy is strictly inferior to imposing minimum liquidity standards ex ante combined with lender of last resort policy.
Modern macroeconomics empirically addresses economy-wide incentives behind economic actions by using insights from the way a single representative household would behave. This analytical approach requires that incentives of the poor and the rich are strictly aligned. In empirical analysis a challenging complication is that consumer and income data are typically available at the household level, and individuals living in multimember households have the potential to share goods within the household. The analytical approach of modern macroeconomics would require that intra-household sharing is also strictly aligned across the rich and the poor. Here we have designed a survey method that allows the testing of this stringent property of intra-household sharing and find that it holds: once expenditures for basic needs are subtracted from disposable household income, household-size economies implied by the remainder household incomes are the same for the rich and the poor.