Refine
Year of publication
- 2007 (99) (remove)
Document Type
- Working Paper (99) (remove)
Has Fulltext
- yes (99)
Keywords
- Deutschland (9)
- Geldpolitik (5)
- Haushalt (5)
- insurance (4)
- European Central Bank (3)
- Europäische Zentralbank (3)
- Sparen (3)
- Sticky Prices (3)
- monetary policy (3)
- portfolio choice (3)
Institute
After he had only tightly lost the election in July 2006, Andrés Manuel López Obrador and his Coalición claimed fraud and asserted that unfair conditions during the campaign had diminished his chances to win the presidency. The paper investigates this latter allegation centering on a perceived campaign of hate, unequal access to campaign resources and malicious treatment by the mass media. It further analyzes the mass media’s performance during the conflictual post electoral period until the final decision of the Federal Electoral Tribunal on September 5th, 2006. While the media’s performance during the campaign tells us about their compliance with fair media coverage mechanisms that have been implemented by electoral reforms in the 1990s, the mass media is uncontained by such measures after the election. Thus, their mode of coverage of the postelectoral conflicts allows us to “test” the mass media’s transformation to a more unbiased, social responsible “fourth estate”. Finally the paper scrutinizes whether the claims of fraud and the protests by the leftist movement resulted in lower levels of institutional trust and democratic support. The analysis of the media performance is based on data provided by the Federal Electoral Institute (IFE). Its Media Monitor encompassed more than 150 TV stations, 240 radio stations and 200 press publications. However, there is no comparable data available for the postelectoral period. Interviews with Mexican media experts, which the author has conducted during the postelectoral period, serve as empirical basis for the second part. Data on the public opinions and attitudes of Mexican citizens are taken from the 2007 Latinobarometro, the 2006 Encuesta Nacional and several polls conducted by Grupo Reforma. The results do not support López Obradors notions. Even though a strong party bias is characteristic of the Mexican media system, all findings hint at a continuity of balanced campaign coverage and fair access to mass media publicity. Coverage during the postelectoral period was more polarized, yet both sides remained at least partially open for oppositional views. The claims of fraud, mass protest mobilization and anti-institutional discourse by Lopez Obrador’s leftist movement seem not to have caused significant loss in institutional trust, support of and satisfaction with democracy, even though these levels remain quite low.
Iterative arrays (IAs) are a, parallel computational model with a sequential processing of the input. They are one-dimensional arrays of interacting identical deterministic finite automata. In this note, realtime-lAs with sublinear space bounds are used to accept formal languages. The existence of a proper hierarchy of space complexity classes between logarithmic anel linear space bounds is proved. Furthermore, an optimal spacc lower bound for non-regular language recognition is shown. Key words: Iterative arrays, cellular automata, space bounded computations, decidability questions, formal languages, theory of computation
Die Auswertungen der EVS 2003 zur Höhe und Struktur der Konsumausgaben der Paarhaushalte mit einem Kind im unteren Einkommensbereich erfolgten vorrangig mit dem Ziel, Anhaltspunkte zur Beurteilung des gegenwärtigen Niveaus der mit Arbeitslosengeld II und Sozialgeld gegebenen Grundsicherung von Familien zu erarbeiten. Die Ergebnisse vermitteln einen ersten Eindruck über die insgesamt stark eingeschränkten Teilhabemöglichkeiten von Familien mit Bezug von Grundsicherungsleistungen. ...
Die zielsprachliche Verwendung des Artikels als grammatikalisiertem Mittel der NP-Determination im Deutschen stellt im Zweitspracherwerb besonders für Deutschlernende mit einer artikellosen Muttersprache eine große Schwierigkeit dar. Die vorliegende Arbeit untersucht die NP-Determination auf der Basis eines Spontansprachkorpus, welches Erwerbsdaten einer achtjährigen russischen Deutschlernenden in einer frühen und einer späten Erwerbsphase liefert. Das Ziel der Untersuchung ist, Erkenntnisse über Entwicklungsverlauf, Transferphänomene und insbesondere referenzsemantische und phonologische Determinanten der Artikelwahl zu gewinnen.
Children […] growing up with highly inflected languages such as Modern Greek will frequently hear different grammatical forms of a given lexeme used in different grammatical and semantic-pragmatic contexts. In spite of the fact that the Greek noun is not as highly inflected as the verb, acquisition of nominal inflection of this inflecting-fusional language is quite complex, comprising the three categories of case, number, and gender. As is usual in this type of language, the formation of case-number forms obeys different patterns that apply to largely arbitrary classes of nominal lexemes partially based on gender. Further, frequency of the occurrence of the three gender classes and case-number forms of nouns greatly differs in spoken Greek, regarding both the types and tokens. […] [A] child learning an inflecting-fusional language like Greek must construct different inflectional patterns depending not only on parts of speech but also on subclasses within a given part of speech, such as gender classes of nouns and inflectional classes within or (exceptionally) across genders. It is therefore to be expected that the early development of case and number distinctions will apply to specific nouns and subclasses of nouns rather than the totality of Greek nouns. The two main theoretical approaches of morphological development that will be discussed in the present paper are the usage-based approach and the pre- and protomorphology approach.
Shloyme Etinger
(2007)
Ayzik-Meyer Dik
(2007)
Yankev Morgenshtern
(2007)
Zum Ordnungswert des § 136 InsO „Reform besteht in der Entfernung des Überflüssigen“. Das ist der Wahlspruch des Entwurfes zum MoMiG. Unsere unzeitgemäße GmbH soll eine Neugestalt erhalten, damit sie den aufkommenden Wettbewerb mit ihren europäischen Verwandten aushalte. Die Ära regionaler Sonderwege habe zu enden und das ist ein Verdikt vor allem über das national-eigensinnige Eigenkapitalersatzrecht: Dieses soll, vereinfacht gesagt, in seiner Sanktionsschärfe gemäßigt, in die InsO überführt und von dem unsicheren Krisenbegriff befreit werden. Wer so großräumig denkt, verliert sich über dem scheinbar Kleinen. Niemand fragt nach der Zukunft des § 136 InsO. Es wäre Unrecht zu glauben, hier werde nur die Rückgewähr stiller Einlagen für anfechtbar erklärt und das stehe neben dem Reformthema. Der Beitrag wird zeigen: dass erstens auch § 136 InsO in Wahrheit die heute mit dem Wort „Eigenkapitalersatz“ bezeichnete Ordnungsaufgabe zu lösen sucht und zweitens mit dem neuen Recht scharfe Wertungswidersprüche entstehen; diese sind drittens nur auf einem Weg zu beheben: durch Streichung des § 136 InsO.
The present paper introduces a new dataset, the Rand American Life Panel (ALP), which offers several appealing features for an analysis of financial literacy and retirement planning. It allows us to evaluate financial knowledge during workers’ prime earning years when they are making key financial decisions, and it offers detailed financial literacy and retirement planning questions, permitting a finer assessment of respondents’ financial literacy than heretofore feasible. We can also compare respondents’ self-assessed financial knowledge levels with objective measures of financial literacy, and most valuably, we can investigate prior financial training which permits us to identify key causal links. By every measure, and in every sample we examine, financial literacy proves to be a key determinant of retirement planning. We also find that respondent literacy is higher when they were exposed to economics in school and to company-based financial education programs. JEL Classification: D91
We consider the advantages and disadvantages of stakeholder-oriented firms that are concerned with employees and suppliers as well as shareholders compared to shareholder-oriented firms. Societies with stakeholder-oriented firms have higher prices, lower output, and can have greater firm value than shareholder-oriented societies. In some circumstances, firms may voluntarily choose to be stakeholder-oriented because this increases their value. Consumers that prefer to buy from stakeholder firms can also enforce a stakeholder society. With globalization entry by stakeholder firms is relatively more attractive than entry by shareholder firms for all societies. JEL Classification: D02, D21, G34, L13, L21
Individuals are increasingly put in charge of their financial security after retirement. Moreover, the supply of complex financial products has increased considerably over the years. However, we still have little or no information about whether individuals have the financial knowledge and skills to navigate this new financial environment. To better understand financial literacy and its relation to financial decision-making, we have devised two special modules for the DNB Household Survey. We have designed questions to measure numeracy and basic knowledge related to the working of inflation and interest rates, as well as questions to measure more advanced financial knowledge related to financial market instruments (stocks, bonds, and mutual funds). We evaluate the importance of financial literacy by studying its relation to the stock market: Are more financially knowledgeable individuals more likely to hold stocks? To assess the direction of causality, we make use of questions measuring financial knowledge before investing in the stock market. We find that, while the understanding of basic economic concepts related to inflation and interest rate compounding is far from perfect, it outperforms the limited knowledge of stocks and bonds, the concept of risk diversification, and the working of financial markets. We also find that the measurement of financial literacy is very sensitive to the wording of survey questions. This provides additional evidence for limited financial knowledge. Finally, we report evidence of an independent effect of financial literacy on stock market participation: Those who have low financial literacy are significantly less likely to invest in stocks. JEL Classification: D91, G11, D80
Mit „Aschenbrödel“ bzw. „Aschenputtel“ beginnt das Goethezeitportal die Publikation einer Reihe von Märchen und ihrer Illustrationen. Dabei werden, wie auch in unseren anderen Text-Bild-Serien, Illustrationen der Hoch- wie der Popularkultur berücksichtigt. Beigegeben sind stets der Text des Märchens, in der Regel also die Fassung der Brüder Grimm in ihren „Kinder- und Hausmärchen“, ggf. weitere Bearbeitungen (z.B. von Ludwig Bechstein; Adaptionen im Theater und Film) sowie Hinweise auf Literatur und Weblinks. Die Geschichte vom „Aschenbrödel“ - trotz aller Intrigen der bösen Stiefmutter und ihrer Geschwister wird die gedemütigte Halbwaise vom Königssohn heimgeführt - wurde eines der bekanntesten deutschen Märchen, nicht zuletzt wohl auf Grund seiner positiven moralischen Botschaft. Dem Text sind 19 Illustrationen auf Postkarten beigegeben.
Aus mehreren Datenquellen wurde ein neuer globaler Niederschlagsdatensatz für die Zeit 1951-2000 generiert, der unter der Bedingung einer Mindestverfügbarkeit von 90 % genau 9.343 Stationen umfasst. Die betreffenden Zeitreihen wurden einer umfassenden Qualitätskontrolle unterzogen, was zu äußerst zahlreichen Korrekturen führte, einschließlich Tests auf Ausreißer und Homogenität sowie Homogenisierung. Daraus entstand ein Gitterpunktdatensatz in 0,5° x 0,5°- Auflösung, was für die Landgebiete (ausgenommen Grönland und Antarktis) rund 71.000 Gitterpunkte ergibt, und über INTERNET frei verfügbar bereitgestellt. Davon ausgehend und unter Nutzung weiterer vorliegender Datensätze, insbesondere der Temperatur, wurden zunächst einige grundlegende Untersuchungen zur globalen und regionalen Klima- und Niederschlagsvariabilität durchgeführt. Diese Arbeiten umfassten Analysen der Veränderungen des global gemittelten Niederschlages und potentieller Einflussgrößen, die Neuberechnung der globalen Klimaklassifikation nach Köppen, Untersuchungen zur raumzeitlichen Struktur von Niederschlagsänderungen global sowie speziell in Afrika und schließlich Analysen der raumzeitlichen Beziehungen zwischen großräumiger atmosphärischer Zirkulation und Niederschlag im nordatlantisch-europäischen Bereich. Für weitergehende statistische Analysen wurde eine neue Methode der vollständigen Zeitreihenmodellierung entwickelt, um die die in diesen Reihen enthaltenen signifikanten Variationskomponenten durch Regressionstechniken zu erfassen und in ihrem raumzeitlichen Verhalten darzustellen. Dabei lag ein Schwerpunkt dieser Arbeiten auf der Extremwertanalyse, die es nun gestattet, unabhängig vom Verteilungstyp für beliebige Schwellenwerte den zeitlichen Verlauf der Unter- sowie Überschreitungswahrscheinlichkeit anzugeben und somit zu erkennen, inwieweit das Klima extremer geworden ist. Dabei zeigte sich je nach Region die Gumbel- oder die Weibull-Verteilung als geeignet. Regionale Schwerpunkte waren dabei u.a. Deutschland bzw. Europa, auch hinsichtlich der Erstellung neuer Klimatrendkarten nach der üblichen linearen Methode (der kleinsten Quadrate) sowie der innovativen. Weiterhin wurden nach der innovativen Methode Klimamodelldaten des Hamburger Max-Planck-Instituts für Meteorologie (IPCC Szenario A2) hinsichtlich des Niederschlag-Extremverhaltens in Europa untersucht. Schließlich erfolgte eine Abschätzung der Wiederkehrzeiten täglicher Extremniederschläge in Deutschland und deren Unsicherheit.
Mönchisches Leben
(2007)
The Inuit inhabit a vast area of--from a European point of view--most inhospitable land, stretching from the northeastern tip of Asia to the east coast of Greenland. Inuit peoples have never been numerous, their settlements being scattered over enormous distances. But nevertheless, from an ethnological point of view, all Inuit peoples shared a distinct culture, featuring sea mammal and caribou hunting, sophisticated survival skills, technical and social devices, including the sharing of essential goods and strategies for minimizing and controlling aggression.
Die Abhandlung ist eine überarbeitete und erweiterte Fassung der vom Institute for Monetary and Financial Stability am 19. Juni 2006 veranstalteten Guest Lecture des Autors zum Thema "Demystifying Hedge Funds"
Die Spielbankenunternehmer haben in Nordrhein-Westfalen eine Spielbankabgabe in Höhe von 80 % der Bruttospielerträge zu entrichten, § 4 Abs. 2 Satz 1 des Spielbankengesetzes NW1. Nach Absatz 3 derselben Norm sind sie dafür von denjenigen Landes- und Gemeindesteuern befreit, die in unmittelbarem Zusammenhang mit dem Betrieb der Spielbank stehen. Ein „angemessener“ Anteil dieser Abgabe ist den jeweiligen Spiel-bankgemeinden wegen der Befreiung des Spielbankunternehmers von Gemeindesteuern zuzuwenden. Durch Rechtsverordnung bestimmt der Innenminister im Einvernehmen mit dem Finanzminister die Höhe dieses Anteils, § 4 Abs. 2 Satz 3 Spielbankgesetz NW. Dies ist in § 1 der Verord-nung über den Anteil der Spielbankgemeinden an der Spielbankabgabe vom 8. Mai 19852 geschehen. Nr. 7 des Haushaltsstrukturgesetzes 20063 hat diesen Anteil von 15 % auf 12 % abgesenkt. Die Absenkung ist am 1. Juli 2006 in Kraft getreten, § 2 Nr. 2 des Haushaltsstrukturgesetzes 2006. Als Folge von Artikel 2 des Gesetzes zur Eindämmung missbräuchlicher Steuergestaltungen wird die zu zahlende Umsatzsteuer seit dem 6. Mai 2006 auf die Spielbankabgabe angerechnet. Das bedeutet, dass sich der Landesanteil an den Bruttospielerträgen um die anzurechnende Umsatzsteuer verringert. Im Folgenden soll untersucht werden, ob Rechte der Spielbankgemeinden in Nordrhein-Westfalen verletzt worden sind. Es handelt sich um die Städte Aachen, Bad Oeynhausen, Dortmund und Duisburg.
Im Laufe der letzten Jahrzehnte haben in die Aspektologie und die ihr gewidmeten wissenschaftlichen Debatten zunehmend Versuche Einzug gehalten, die mit dem Ziel unternommen wurden und darauf ausgerichtet waren, die Lexik der Verben in den Mittelpunkt des Interesses zu rücken und in der Hoffnung darauf zu durchforsten, darin Hinweise aufzuspüren, die es gestatten, entsprechende verlässliche Rückschlüsse auf das von ihnen gezeitigte Aspektverhalten, d.h. die in dem jeweiligen Fall zutage tretende Art der der Imperfektiv-Perfektiv-Opposition zugrunde liegenden Bedeutung zu ziehen. In dem Bemühen, eine aspektuell relevante Verbklassifikation, d.h. eine solche, die sowohl über die Frage der aspektuellen Paarigkeit von Verben als auch über die semantischen Eigenschaften von Perfektivum und Imperfektivum innerhalb eines Aspektpaares Aufschluss erteilt, zu erstellen, musste man sich zunächst auf die Aufgabe zurückbesinnen, die die Sprache dem Aspekt zubedacht hat und die durch den morphologisch geschiedenen Gegensatz von Imperfektiva und Perfektiva wahrgenommen wird: die - von mir eindeutig ausschließlich in diesem Sinne so genannte - Aspektualität.
Scholars of institutional design attribute large importance to the choice of new institutions. The comparative analysis of how Rwanda and Zambia crafted their new electoral systems and the systems of government regards procedural, structural and rational choice variables which may influence the option for particular solutions. External influences and the type of transition are determinants that can decide which actors make their interests prevail. The degree of innovation or conservatism of new institutions is mainly a result of the speed of the process and the kind of actors involved. However, rational reflections on how to produce legitimacy and minimize personal risks which take into consideration the state of conflict in the country decide on the speed and on innovative outcomes. The structured analysis of only two cases uncovers already that it is rather difficult to realise the transfer of design recommendations into reality.
Starting from controversial findings about the relationship between party systems and the prospects of democratic consolidation, this article argues that problems can only be properly addressed on the basis of a differentiated typology of party systems. Contradictory research results do not pose an ‘African puzzle’ but can be explained by different and inadequate approaches. We argue that a modified version of Sartori's typology of party systems provides an appropriate method for classifying African party systems. Based on Sartori's framework, a preponderance of predominant and dominant party systems is identified. This can partly be explained by the prevailing authoritarian nature of many multiparty regimes in Africa as well as by the ethnic plurality of African societies. High ethnic fragmentation is not transformed into highly fragmented party systems. This phenomenon can be attributed to the most frequent ‘ethnic congress party’ which is based on an ethnic elite coalition.
Inhalt: Vorwort Grußwort Vizepräsident Professor Dr. Ingwer Ebsen Grußwort Professor Dr. Helmut Siekmann Dr. Guntram B. Wolff : „Moral hazard und bail-out im deutschen Föderalstaat“ Ernst Burgbacher :„Erwartungen an die Föderalismusreform II – mehr Wettbewerb und mehr Autonomie für den deutschen Bundesstaat“ Professor Dr. Joachim Wieland : „Rechtsregeln für den Umgang mit extremen Haushaltsnotlagen“ Professor Dr. Kai A. Konrad : „Vorschläge zur wirksamen Verschuldungsbegrenzung der Länder“
Schuldenanstieg und Haftungsausschluss im deutschen Föderalstaat : zur Rolle des Moral Hazard
(2007)
Einleitung: Die deutschen Staatsschulden sind in den letzten Jahrzehnten kontinuierlich gestiegen. Künftige Generationen werden zusätzlich aufgrund der demographischen Entwicklung durch die umlagenfinanzierten sozialen Sicherungssysteme belastet. Gerade auch der Anstieg der Verschuldung der Bundesländer war in den letzten Jahrzehnten spürbar. So betrug die Verschuldung aller deutschen Bundesländer zusammengenommen 1991 noch 168 Mrd. Euro, während Anfang 2007 die Verschuldung 483 Mrd. Euro betrug, was eine knappe Verdopplung der Schuldenquote der Länder (Verschuldung in Prozent des BIP) auf ca. 21 Prozent impliziert. In der aktuellen Diskussion um die Reform des deutschen Föderalismus besteht Einigkeit in der Diagnose des Problems. Die Entwicklung der Staatsschulden ist kritisch und darf sich so nicht fortsetzen. Uneinigkeit herrscht hingegen über die Ursache des Anstiegs. Ebenfalls wird um die beste Möglichkeit, diesen zu bremsen, gerungen. Verschiedene Autoren argumentieren, dass der Verschuldungsanstieg der deutschen Bundesländer vor allem auf den Moral Hazard Anreiz zurückzuführen ist. Der vorliegende Diskussionsbeitrag diskutiert dies als einen der möglichen Gründe des Schuldenanstiegs. Hierzu wird zunächst das Konzept kurz eingeführt. Anschließend wird die bestehende empirische Evidenz für Deutschland diskutiert. Schließlich wird eine Bewertung und Einordnung in die aktuelle Debatte vorgenommen. Schlußbemerkungen: Im vorliegenden Diskussionsbeitrag wird das "Moral hazard" Problem als einer der möglichen Gründe für den beobachteten starken Anstieg der Verschuldung deutscher Bundesländer diskutiert. Es wurde gezeigt, dass die Finanzmärkte kaum auf die erheblichen Unterschiede in den fiskalischen Fundamentaldaten der Länder reagieren. Mit einer Fallstudie wurde außerdem verdeutlicht, dass das aktuelle Bundesverfassungsgerichtsurteil zu einer eventuellen Haushaltsnotlage von Berlin Berlin die Risikoeinschätzung der Märkte für deutsche Bundesländer nicht verändert hat. Alles in allem scheint es sinnvoll, über eine größere Beteiligung der Gläubiger an Risiken einzelner Länder nachzudenken. Dies dürfte aber den Schuldenanstieg nur bei bereits hoch verschuldeten Ländern begrenzen und möglicherweise einem Notlagenfall vorbeugen, nicht aber den grundsätzlichen "Defizit-Bias" der Finanzpolitik kompensieren. Insgesamt scheinen deswegen vorgelagerte Regeln notwendig, um den Anstieg der Verschuldung schon früh zu unterbinden und somit Belastungen zukünftiger Generationen zu reduzieren.
Vom Kinderzuschlag zum Kindergeldzuschlag : ein Reformvorschlag zur Bekämpfung von Kinderarmut
(2007)
Ausgehend von einer kritischen Analyse des im Zuge der Hartz IV-Reform 2005 eingeführten Kinderzuschlags wird in der vorliegenden Studie ein Reformkonzept zur Bekämpfung von Kinderarmut entwickelt und eine quantitative Abschätzung der unmittelbaren Reformwirkungen vorgenommen. Bei der Gestaltung des Reformvorschlags wurde an Grundprinzipien des allgemeinen Familienleistungsausgleichs angeknüpft. Dieser sollte unabhängig von der jeweiligen Armutsursache das Existenzminimum des Kindes nicht nur von der Steuer freistellen, sondern im Bedarfsfall durch positive Transfers – mit einem Kindergeldzuschlag – gewährleisten. Dies erfordert a) die Aufstockung des Kindergeldes durch einen Zuschlag auf die Höhe des sächlichen Existenzminimums, also um maximal 150 Euro auf 304 Euro – bei Alleinerziehenden wegen besonderer Mehrbedarfe für das erste Kind um maximal 250 Euro auf 404 Euro; b) den Verzicht auf eine zeitliche Befristung des Kindergeldzuschlags; c) die Berücksichtigung des Familieneinkommen nach Abzug eines Freibetrages in Höhe des pauschalisierten Existenzminimums der Eltern bzw. des Elternteils (1.238 Euro bzw. 860 Euro); d) eine mäßige (mit Besteuerungsgrundsätzen vereinbare) Anrechnung des zu berücksichtigenden Einkommens – wir schlagen eine Transferentzugsrate von 50% vor; e) den Verzicht auf eine Berücksichtigung des Vermögens. Wesentliche Unterschiede des Reformkonzepts gegenüber dem derzeitigen Kinderzuschlag liegen in der Ersetzung der „spitzen“ Berechnung des elterlichen Existenzminimums durch eine Pauschale und in dem Verzicht zum Einen auf eine explizite Höchsteinkommensgrenze – aus der Transferentzugsrate ergibt sich freilich eine implizite Höchsteinkommensgrenze – und zum Anderen auf eine Mindesteinkommensgrenze. Es bleibt den Eltern also unbenommen, den Kindergeldzuschlag in Anspruch zu nehmen, selbst wenn ihre Einkommensverhältnisse und individuellen Wohnkosten auf einen höheren ALG II-Anspruch schließen lassen, den sie aber nicht wahrnehmen – sei es aus Stigmatisierungsangst, aus Unwissenheit, weil sie den Verweis auf kleine Ersparnisse befürchten oder sich von dem bürokratischen Aufwand abschrecken lassen. Aus vorliegenden Schätzungen geht hervor, dass aus den genannten Grün den das Ausmaß verdeckter Armut groß ist. Dem könnte durch einen vergleichsweise unbürokratischen Kindergeldzuschlag entgegengewirkt werden, insbesondere wenn der Leistungsträger, also die Familienkasse, verpflichtet wird, bei sehr geringem Einkommen des Antragstellers diesen auf möglicherweise bestehende höhere ALG II-Ansprüche hinzuweisen. Zur Abschätzung der unmittelbaren Reformwirkungen wurde ein Mikrosimulationsmodell entwickelt und mit den Daten des Sozio-ökonomischen Panels 2006 in mehreren Varianten gerechnet. Auf der Basis einer bereinigten Stichprobe ergeben sich – je nach Reformvariante – 3 Mio. bis 3,6 Mio. potenziell begünstigte Kinder, was etwa einem Sechstel bzw. einem Fünftel aller Kinder, für die Kindergeld bezogen wird, entspricht. Unter den Kindern von Alleinerziehenden würde die Empfängerquote mit gut einem Drittel weit überdurchschnittlich ausfallen. Die fiskalischen Bruttokosten des Reformmodells würden sich auf 3,7 Mrd. bzw. 4,5 Mrd. Euro jährlich (11% bzw. 13% der derzeitigen Kindergeldausgaben) belaufen; sie würden durch einige Einsparungen beim nachrangigen Wohngeld, bei ausbildungsbedingten Transfers sowie beim ALG II – sofern einige Anspruchsberechtigte den Bezug des Kindergeldzuschlags vorziehen – etwas vermindert werden. Der durchschnittliche Zahlbetrag pro Bedarfsgemeinschaft mit Anspruch auf Kindergeldzuschlag liegt bei 190 Euro p. M., der Median bei 150 Euro. Mit dem insgesamt begrenzten Mittelaufwand kann eine erhebliche Verminderung relativer Einkommensarmut von Familien erreicht werden. Die derzeit bei etwa 18% liegende Armutsquote von Kindern, für die Kindergeld bezogen wird, würde nach Einführung des Kindergeldzuschlags um etwa vier Prozentpunkte zurückgehen, die aller Mitglieder in den Familien von 16% um drei Prozentpunkte. Mit etwa zwei Dritteln lebt der größte Teil der potenziellen Anspruchsberechtigten in erwerbstätigen Familien, und die relative stärkste Verminderung der Armutsquote ergibt sich bei Familien mit Vollzeiterwerbstätigkeit. Die mit dem Kindergeldzuschlag zu bewirkende Verminderung von Kinderarmut würde wegen der hohen Erwerbsquote von Familien also mit einem Abbau von Armut trotz Arbeit einhergehen. Besonders große Reformwirkungen zeigen sich bei den Alleinerziehenden, für welche die Simulation eine Reduzierung der derzeit bei 40% liegenden Armutsquote um etwa acht Prozentpunkte ergibt. Dennoch verbliebe die Armutsquote auch nach Einführung des Kindergeldzuschlags auf einem bedrückend hohen Niveau. Dies ist ganz überwiegend auf die große Zahl der Alleinerziehenden mit Bezug von ALG II und Sozialgeld bzw. Sozialhilfe zurückzuführen, die annahmegemäß nach der Reform im Grundsicherungsbezug verbleiben, den vorrangigen Kindergeldzuschlag also nicht in Anspruch nehmen. Bei den Paarfamilien zeigt sich – relativ gesehen – ein ähnlicher Effekt des Kindergeldzuschlags wie bei den Alleinerziehenden; die Armutsquote von derzeit 12,5% würde um ein Fünftel auf 10% zurückgehen. Dabei fällt die Reformwirkung umso größer aus, je mehr Kinder in der Familie leben. Bei den trotz Einführung des Kindergeldzuschlags unter der relativen Armutsgrenze verbleibenden Paarfamilien handelt es sich zu einem geringeren Teil als bei den Alleinerziehenden um Empfänger von nachrangigen allgemeinen Grundsicherungsleistungen und zu einem größeren Teil um Fälle, bei denen auch das um den Kindergeldzuschlag erhöhte Einkommen die Armutsgrenze nicht erreicht. Ihre Situation würde sich dennoch durch die Reform erheblich verbessern, da die relative Armutslücke im Durchschnitt von 21% auf 14% zurückgehen würde; dies entspricht einer Einkommenserhöhung von durchschnittlich 267 Euro. Abschließend bleibt darauf hinzuweisen, dass der hier vorgestellte Reformvorschlag lediglich als erster Schritt zu einer allgemeinen Grundsicherung für Kinder zu verstehen ist. Er wurde unter dem Aspekt einer schnellen Umsetzbarkeit entwickelt, sollte aber weiter reichende Überlegungen nicht verdrängen. Diese haben nicht nur das sächliche Existenzminimum des Kindes, sondern darüber hinaus den verfassungsgerichtlich festgestellten Betreuungs- und Erziehungs- oder Ausbildungsbedarf (BEA) in den Blick zu nehmen. Er wird im Rahmen der Einkommensbesteuerung durch einen Freibetrag berücksichtigt (§ 32 Abs. 6 EStG), ist in die Bemessung des hier vorgestellten Kindergeldzuschlags aber nicht eingegangen. Eine systematische Weiterentwicklung des Familienleistungsausgleichs im Steuerrecht würde die Einführung eines einheitlichen (Brutto-) Kindergeldes zur Abdeckung von sächlichem Existenzminimum und BEA erfordern, das entsprechend der Leistungsfähigkeit der Eltern, also nach dem allgemeinen Einkommensteuertarif, zu versteuern wäre (Lenze 2007).
Im ersten Teil wird zunächst die wenige Forschungsliteratur zum Thema Deskriptivität selbst und eng verwandten Themen vorgestellt und besprochen. Daraus soll sich im Anschluss auch eine Definition des Begriffes ergeben, die weit genug gefasst ist, um die übliche Verwendungsweise des Begriffs bei Autoren, die ihn zwar benutzen, aber nicht theoretisch behandeln, zu erfassen, die sich aber andererseits dennoch in klar definierten und nachvollziehbaren Grenzen bewegt. Dabei soll weiterhin deutlich werden, dass es sich bei Deskriptivität um ein prinzipiell in allen Sprachen anzutreffendes Phänomen handelt, dass sich aber die Frequenz deskriptiver Ausdrücke von Sprache zu Sprache stark unterscheiden kann. Dabei werde ich Daten aus ausgewählten Sprachen einbeziehen und eine quantitative Analyse des Ausmaßes, mit dem verschiedene Sprachen von deskriptiven Bildungen Gebrauch machen vorstellen. Der zweite Hauptteil der Arbeit beschäftigt sich mit folgender Frage: Wenn jede Sprache zu einem gewissen Grad von deskriptiven Benennungen Gebrauch macht, welche Mechanismen des Sprachwandels gibt es, die die Position einer Sprache auf dieser Skala in die eine oder die andere Richtung verändern können?
Die Nutzung der natürlichen Ressourcen ist zur Sicherung gesellschaftlichen Aktivitäten unverzichtbar, gleichwohl stehen ihrer nachhaltigen Bewirtschaftung immer neue Veränderungsprozesse und damit einhergehende Herausforderungen gegenüber. In Anbetracht von wirtschaftlichen Konzentrationsprozessen, sozio-strukturellen und demographischen Entwicklungen, technischen Innovationen, globalem Wandel und neuen Erkenntnissen zu Risiken stoßen etablierte klassische Verfahren des Planungsdenkens zunehmend an ihre Grenzen. Vor diesem Hintergrund wurden neue und innovative Ansätze zur Ressourcensicherung entwickelt, die vereinzelt auch bereits in der Praxis realisiert wurden. Sie greifen die Herausforderung gegenwärtiger Veränderungsprozesse konzeptionell auf und überführen sie in angepasste Strukturen und Verfahren. Die vorliegende Arbeit beschreibt diesen Übergang zu einem neuen, angepassten Planungsdenken. In seinem Mittelpunkt steht der Begriff der „sozial-ökologischen Ressourcenregulation“. Am Beispiel der Bewirtschaftung der Wasserressourcen werden aktuelle Entwicklungen vorgestellt und exemplarisch anhand von zwei Fallbeispielen vertieft: dem Fuhrberger Feld und dem Hessische Ried unter den spezifischen Gesichtspunkten von Wassergüte und Wassermenge. Die Entwicklungen in beiden Regionen werden zunächst anhand der Anforderungen an eine sozial-ökologische Regulation bewertet. In einem weiteren Schritt werden verallgemeinerte Schlussfolgerungen für eine verbesserte Ressourcenbewirtschaftung und deren Regulation sowohl hinsichtlich der Wassergüte als auch der Wassermenge gezogen. Es zeigt sich hierbei die große Bedeutung der Entstehung adaptiver Strukturen durch Rückkopplungen und den Einbezug der relevanten gesellschaftlichen Akteure; so ist langfristig auch eine Koexistenz von tendenziell konfligierenden Ressourcennutzungen und deren nachhaltige Entwicklung möglich.
We introduce a multivariate multiplicative error model which is driven by componentspecific observation driven dynamics as well as a common latent autoregressive factor. The model is designed to explicitly account for (information driven) common factor dynamics as well as idiosyncratic effects in the processes of high-frequency return volatilities, trade sizes and trading intensities. The model is estimated by simulated maximum likelihood using efficient importance sampling. Analyzing five minutes data from four liquid stocks traded at the New York Stock Exchange, we find that volatilities, volumes and intensities are driven by idiosyncratic dynamics as well as a highly persistent common factor capturing most causal relations and cross-dependencies between the individual variables. This confirms economic theory and suggests more parsimonious specifications of high-dimensional trading processes. It turns out that common shocks affect the return volatility and the trading volume rather than the trading intensity. JEL Classification: C15, C32, C52
This paper proves several generic variants of context lemmas and thus contributes to improving the tools to develop observational semantics that is based on a reduction semantics for a language. The context lemmas are provided for may- as well as two variants of mustconvergence and a wide class of extended lambda calculi, which satisfy certain abstract conditions. The calculi must have a form of node sharing, e.g. plain beta reduction is not permitted. There are two variants, weakly sharing calculi, where the beta-reduction is only permitted for arguments that are variables, and strongly sharing calculi, which roughly correspond to call-by-need calculi, where beta-reduction is completely replaced by a sharing variant. The calculi must obey three abstract assumptions, which are in general easily recognizable given the syntax and the reduction rules. The generic context lemmas have as instances several context lemmas already proved in the literature for specific lambda calculi with sharing. The scope of the generic context lemmas comprises not only call-by-need calculi, but also call-by-value calculi with a form of built-in sharing. Investigations in other, new variants of extended lambda-calculi with sharing, where the language or the reduction rules and/or strategy varies, will be simplified by our result, since specific context lemmas are immediately derivable from the generic context lemma, provided our abstract conditions are met.
We develop a proof method to show that in a (deterministic) lambda calculus with letrec and equipped with contextual equivalence the call-by-name and the call-by-need evaluation are equivalent, and also that the unrestricted copy-operation is correct. Given a let-binding x = t, the copy-operation replaces an occurrence of the variable x by the expression t, regardless of the form of t. This gives an answer to unresolved problems in several papers, it adds a strong method to the tool set for reasoning about contextual equivalence in higher-order calculi with letrec, and it enables a class of transformations that can be used as optimizations. The method can be used in different kind of lambda calculi with cyclic sharing. Probably it can also be used in non-deterministic lambda calculi if the variable x is “deterministic”, i.e., has no interference with non-deterministic executions. The main technical idea is to use a restricted variant of the infinitary lambda-calculus, whose objects are the expressions that are unrolled w.r.t. let, to define the infinite developments as a reduction calculus on the infinite trees and showing a standardization theorem.
The goal of this report is to prove correctness of a considerable subset of transformations w.r.t. contextual equivalence in an extended lambda-calculus LS with case, constructors, seq, let, and choice, with a simple set of reduction rules; and to argue that an approximation calculus LA is equivalent to LS w.r.t. the contextual preorder, which enables the proof tool of simulation. Unfortunately, a direct proof appears to be impossible.
The correctness proof is by defining another calculus L comprising the complex variants of copy, case-reduction and seq-reductions that use variable-binding chains. This complex calculus has well-behaved diagrams and allows a proof of correctness of transformations, and that the simple calculus LS, the calculus L, and the calculus LA all have an equivalent contextual preorder.
Die vorliegende Arbeit ist eine kritische Auseinandersetzung mit dem Hofstedeschen Ansatz. Dabei soll in erster Linie das Werk von Hofstede selbst einer wissenschaftstheoretisch-methodologischen Prüfung unterzogen werden. Bei sehr populären Standardansätzen, die sowohl in der Praxis einen großen Anklang finden als auch in der wissenschaftlichen Gemeinschaft ständig rezipiert und weiterentwickelt werden, bleibt es natürlich nicht aus, dass durch Vereinfachungen oder Uminterpretationen in der Literatur Inkonsistenzen entstehen, die so im Originalwerk nicht enthalten sind. In dieser Arbeit soll es im Wesentlichen nicht um solche Probleme der Hofstedeschen Rezeption gehen. Vielmehr werde ich die Argumentation von Hofstede selbst in seinen eigenen Schriften […] einer detaillierten kritischen Analyse zu unterziehen, um auf diese Weise zu prüfen, ob bestimmte gravierende Probleme schon im Originalwerk angelegt sind.
Diese Studie analysiert die deutsche UN-Reformpolitik der letzten Jahre. Im Mittelpunkt steht eine kritische Auseinandersetzung mit der politischen Zielsetzung, einen nationalen ständigen Sitz für Deutschland im Sicherheitsrat der Vereinten Nationen zu erlangen. Vor dem Hintergrund prominenter Vorschläge zur Reform des Sicherheitsrats wird zunächst die Genese dieses Anspruchs rekonstruiert. In einem weiteren Schritt werden die Positionen wichtiger Verbündeter und Partner untersucht. Dabei wird deutlich, wie wenig Unterstützung Deutschland selbst von seinen wichtigsten Partnern erfährt und wie sehr diese Unterstützung in den letzten Jahren abgenommen hat. Die anschließende Analyse der wichtigsten Argumente für einen ständigen deutschen Sitz zeigt, dass sie einer kritischen Prüfung nicht Stand halten können. Die Studie schließt mit einem Plädoyer und konkreten Vorschlägen für eine Wiederbelebung einer europäischen Option.
Namibia is known to be the most arid country south of the Sahara. Average annual rainfall is not only relatively low in most parts of the country, it is also highly variable. Only 8 per cent of the country receives enough rain during a normal rainy season to practice rainfed cultivation. At the same time between 60 per cent and 70 per cent of the population depend on subsistence agro-pastoralism in non-freehold or communal areas. Against the background of rising unemployment, the livelihoods of the majority of these people are likely to depend on natural resources in the foreseeable future.
Natural resources generally are under considerable strain. As the rural population increases, so is the demand for natural resources, land and water specifically. Dependency on subsistence farming which is the result of large scale rural poverty exacerbates the problem. Large parts of the country are stocked injudiciously, resulting in overgrazing and water is frequently overabstracted, leading to declining water tables (MET 2005: 2).
Unequal access to both land and water has prompted government to introduce reforms in these sectors. These reforms were guided by the desire to manage resources more sustainably while providing more equal access to them. In terms of NDP 2, sustainability means to use natural resources in such a way so as not to ‘compromise the ability of future generations to make use of these resources’ (NDP 2: 595).
Immediately after Independence government started reform processes in the land and water sectors. However, these reforms have happened at different paces and largely independent of each other. Increasingly policy makers and development practitioners realised that land and water management needed to be integrated, as decisions about land management and land use options had a direct impact on water resources. Conversely the availability of water sets the parameters for what is possible in terms of agricultural production and other land uses. The north-central regions face a particular challenge in this regard as the region carries more livestock than it can sustain in the long run. At the same time, close to half the households do not own any livestock. Access to livestock by these households would improve their abilities to cultivate their land more efficiently in order to feed themselves and thus reduce poverty levels.
But livestock are a major consumer of water. In 2000 livestock was consuming more water than the domestic sector. The figures were 77Mm3/a and 67Mm3/a respectively (Urban et al. 2003 Annex 7: 2). This situation has prompted a Project Progress Report on the Namibia Water Resources Management Review in 2003 to conclude that Given the extreme water scarcity in most parts of the country, land and water issues are closely linked. It therefore seems indispensable to mutually adjust land – and water sector reform processes (Ibid: 20).
This paper will briefly look at four institutions that are central to land and water management with a view to assess the extent to which they interact. These are Communal Land Boards, Water Point Committees, Traditional Authorities and Regional Councils. A discussion of relevant policy documents and legislative instruments will investigate whether the existing policy framework
provides for an integrated approach or not. Before doing this, it appears sensible to briefly situate these four institutions in the wider maze of institutions operating at regional and
sub-regional level. All these institutions – important as they are in the quest to improve participation at the regional and sub-regional level – are competing for time and input fros mallscale farmers.
Open-end real estate funds are of particular importance in the German bank-dominated financial system. However, recently the German open-end fund industry came under severe distress which triggered a broad discussion of required regulatory interventions. This paper gives a detailed description of the institutional structure of these funds and of the events that led to the crisis. Furthermore, it applies recent banking theory to openend real estate funds in order to understand why the open-end fund structure was so prevalent in Germany. Based on these theoretical insights we evaluate the various policy recommendations that have been raised.
The goal of this report is to prove correctness of a considerable subset of transformations w.r.t. contextual equivalence in a an extended lambda-calculus with case, constructors, seq, let, and choice, with a simple set of reduction rules. Unfortunately, a direct proof appears to be impossible. The correctness proof is by defining another calculus comprising the complex variants of copy, case-reduction and seq-reductions that use variablebinding chains. This complex calculus has well-behaved diagrams and allows a proof that of correctness of transformations, and also that the simple calculus defines an equivalent contextual order.
We survey contributions to the analysis of household liabilities, highlighting relevant theoretical aspects and outlining how data sources may support empirical testing and measurement efforts. Specifically, we classify aspects of household debt, discussing the theoretical and policy relevance of heterogeneity across individual and country dimensions. Aiming to illustrate conceptual and measurement issues, we refer to the approaches and results of some recent relevant country-specific work on administrative and survey data, and we argue that research in this area would greatly benefit from availability of appropriately classified household liabilities data and of cross-country institutional information. JEL Classification: G1, E21
Die Konsequenzen eines unzulässigen Erwerbs eigener Aktien auf ein Rechtsgeschäft zwischen zwei Handelspartnern sind hinreichend bekannt. Die Einführung einer zentralen Gegenpartei hat jedoch zu grundlegenden Veränderungen der Vertrags- und Abwicklungsstruktur im Börsenhandel geführt. Ein wirtschaftlich einheitlicher Kauf wird juristisch aufgeteilt in zwei Rechtsgeschäfte mit der CCP. Der folgende Beitrag zeigt, wie sich ein unzulässiger Erwerb eigener Aktien in diesem System auswirkt und welche Risiken für den zentralen Kontrahenten damit einhergehen.
In this paper we revisit medium- to long-run exchange rate determination, focusing on the role of international investment positions. To do so, we develop a new econometric framework accounting for conditional long-run homogeneity in heterogeneous dynamic panel data models. In particular, in our model the long-run relationship between effective exchange rates and domestic as well as weighted foreign prices is a homogeneous function of a country’s international investment position. We find rather strong support for purchasing power parity in environments of limited negative net foreign asset to GDP positions, but not outside such environments. We thus argue that the purchasing power parity hypothesis holds conditionally, but not unconditionally, and that international investment positions are an essential component to characterizing this conditionality. Finally, we adduce evidence that whether deterioration of a country’s net foreign asset to GDP position leads to a depreciation of that country’s effective exchange rate depends on its rate of inflation relative to the rate of inflation abroad as well as its exposure to global shocks. JEL Classification: F31, F37, C23
This paper documents the methodology underlying the construction of a global database of gross foreign asset and liability positions for 153 countries over the period 1970 to 2004 and illustrates some key data characteristics. The data cover both inflows and outflows of capital and thus allow for an assessment of the degree of international financial integration. In addition to net foreign asset stocks, we also provide details on the composition of the main asset and liability categories, namely the foreign direct investment, equity investment and debt components. Finally, we report on valuation changes as one of the main sources of discrepancy between transaction-based capital flow data and stock values of investment positions. The dataset is available for download at www.ifk-cfs.de/fileadmin/downloads/data/cfs-icfd.zip. or http://publikationen.ub.uni-frankfurt.de/volltexte/2007/4855/original/cfs-icfd.zip JEL Classification: F21; F34; F32
Public employee pension systems throughout the developed world have traditionally been of the pay-as-you-go (PAYGO) defined benefit (DB) variety, where pensioner payments are financed by taxes (contributions) levied on the working generation. But as the number of retirees rises relative to the working-age group, such systems have begun to face financial distress. This trend has been exacerbated in many countries, among them Germany, by high unemployment rates producing further deterioration of the contribution base. In the long run, public sector pension benefits will have to be cut or contributions increased, if the systems are to be maintained. An alternative path sometimes offered to ease the crunch of paying for public employee pensions is to move toward funding: here, plan assets are gradually built up, invested, and enhanced returns devoted to partly defray civil servants’ pension costs. In this study, we evaluate the impact of introducing partial prefunding, paired with a strategic investment policy for the German federal state of Hesse. The analysis assesses the impact of introducing a supplementary tax-sponsored pension fund whose contributions are invested in the capital market and used to relieve the state budget from (some) pension payments. Our model determines the expectation and the Conditional Value-at-Risk of economic pension costs using a stochastic simulation process for pension plan assets. This approach simultaneously determines the optimal contribution rate and asset allocation that controls the expected economic costs of providing the promised pensions, while at the same time controlling investment risk. Specifically, we offer answers to the following questions: 1. How can the plan be designed to control cash-flow shortfall risk, so as to mitigate the potential burden borne by future generations of taxpayers? 2. What is the optimal asset allocation for this fund as it is built up, to generate a maximum return while simultaneously restricting capital market and liability risk? 3. What are reasonable combinations of annual contribution rates and asset allocation to a state-managed pension fund, which will limit costs of providing promised public sector pensions? We anticipate that this research will interest several sorts of policymaker groups. First, focusing on the German case, the state and Federal governments should find it relevant, as these entities face considerable public sector pension liabilities. Second, our findings will also be of interest to other European countries, as most have substantial underfunded defined benefit plans for civil servants. In what follows, we first offer a brief description of the structure of civil servant pensions in Germany, focusing on their benefit formulas, their financing, and the resulting current as well as future plan obligations for taxpayers. Next, we turn to an analysis of the actuarial status of the Hesse civil servants’ pension plan and evaluate how much would have to be contributed to fund this plan in a nonstochastic context. Subsequently we evaluate the asset-liability and decision-making process from the viewpoint of the plan sponsor, to determine sensible plan asset allocation behavior. A final section summarizes findings and implications.
Using a unique data set on trade credit defaults among French firms, we investigate whether and how trade credit is used to relax financial constraints. We show that firms that face idiosyncratic liquidity shocks are more likely to default on trade credit, especially when the shocks are unexpected, firms have little liquidity, are likely to be credit constrained or are close to their debt capacity. We estimate that credit constrained firms pass more than one fourth of the liquidity shocks they face on to their suppliers down the trade credit chain. The evidence is consistent with the idea that firms provide liquidity insurance to each other and that this mechanism is able to alleviate the consequences of credit constraints. In addition, we show that the chain of defaults stops when it reaches firms that are large, liquid, and have access to financial markets. This suggests that liquidity is allocated from large firms with access to outside finance to small, credit constrained firms through trade credit chains.
Der DSGV hat, mit Unterstützung weiterer Verbände, einen Vorstoß zur Deregulierung des Depotstimmrechts vorgelegt. Erteilt der Aktionär dem Depotinstitut keine Weisung, wie dieses in der HV abstimmen soll, dann soll es künftig verpflichtet sein, den Vorschlägen der Verwaltung (Vorstand und Aufsichtsrat) zu folgen, sofern ihm hierfür eine entsprechende Dauervollmacht des Aktionärs vorliegt. Dem Vorschlag sollte in seiner gegenwärtigen Form nicht gefolgt werden. Er würde voraussichtlich nicht zu einer maßgeblichen Erhöhung der Präsenzen führen. Rechtspolitisch bedenklich erscheint, daß die Depotinstitute sich verpflichten, auf der Basis einer Dauervollmacht mit einer u.U. in den Geschäftsbedingungen versteckten generellen Weisung unbesehen den Verwaltungsvorschlägen zu folgen. Richtig am Vorstoß der Verbände erscheint aber, daß künftig darauf verzichtet werden sollte, daß jedes Depotinstitut, das Stimmrechte von Aktionären vertreten will, entweder selbst Abstimmungsvorschläge erarbeiten oder die Vorschläge eines Zentralinstituts oder Stimmrechtsberaters kostenintensiv prüfen muß. Vielmehr sollte der Gesetzgeber den Depotinstituten ermöglichen, ohne eigene Prüfungspflicht im Vollmachtsformular neben den Vorschlägen der Verwaltung auf die Abstimmungsvorschläge einer anerkannten Aktionärsvereinigung oder eines unabhängigen Stimmrechtsberaters zu verweisen. Dies könnte den Wettbewerb um Aktionärsstimmen beleben und auch dazu beitragen, den Stimmen inländischer Privatanleger auf den Hauptversammlungen deutscher Aktiengesellschaften wieder stärker Gehör zu verschaffen. Eine solche Vorgabe wäre mit der demnächst umzusetzenden Aktionärsrichtlinie der EU vereinbar. Eine entsprechende Empfehlung, auf die Abstimmungsvorschläge einer anerkannten Aktionärsvereinigung oder eines unabhängigen Stimmrechtsberaters zu verweisen, sollte im Corporate Governance Kodex für Gesellschaften festgelegt werden, die den Aktionären einen Stimmrechtsvertreter benennen.
Household saving behavior : the role of literacy, information and financial education programs
(2007)
Individuals are increasingly in charge of their own financial security after retirement. But how well-equipped are individuals to make saving decisions; do they possess adequate financial literacy, are they informed about the most important components of saving plans, do they even plan for retirement? This paper shows that financial illiteracy is widespread among the US population and particularly acute among specific demographic groups, such as those with low education, women, African-Americans and Hispanics. Moreover, close to half of older workers do not know which type of pensions they have and the large majority of workers know little about the rules governing Social Security benefits. Lack of literacy and lack of information can affect the ability to save and to secure a comfortable retirement; few individuals rely on the help of financial advisors and ignorance about basic financial concepts can be linked to lack of retirement planning and lack of wealth. Financial education programs can help improve saving and financial decision-making, but much more can be done to improve the effectiveness of these programs. JEL Classification: D91
We review savings trends in Italy, summarizing available empirical evidence on Italians’ motives to save, relying on macroeconomic indicators as well as on data drawn from the Bank of Italy’s Survey of Household Income and Wealth from 1984 to 2004. The macroeconomic data indicate that households’ saving has dropped significantly, although Italy continues to rank above most other countries in terms of saving. We then examine with microeconomic data four indicators of household financial conditions: the propensity to save, the proportion of households with negative savings, the proportion of households with debt, and the proportion of households that lack access to formal credit markets. By international comparison, the level of debt of Italian households and default risk are relatively low. But in light of the deep changes undergone by the Italian pension system, the fall in saving is a concern, particularly for individuals who entered the labor market after the 1995 reform and who have experienced the largest decline in pension wealth. JEL Classification: D91
It is theoretically clear and may be verified empirically that efficient financial markets can make it less necessary for policy to try and offset the welfare effects of labour income risk and unequal consumption dynamics. The literature has also pointed out that, since international competition exposes workers to new sources of risk at the same time as it makes it easier for individual choices to undermine collective policies, international economic integration makes insurance-oriented government policies more beneficial as well as more difficult to implement. This paper reviews the economic mechanisms underlying these insights and assesses their empirical relevance in cross-country panel data sets. Interactions between indicators of international economic integration, of government economic involvement, and of financial development are consistent with the idea that financial market development can substitute public schemes when economic integration calls for more effective household consumption smoothing. The paper’s theoretical perspective and empirical evidence suggest that to the extent that governments can foster financial market development by appropriate regulation and supervision, they should do so more urgently at times of intense and increasing internationalization of economic relationships. JEL Classification: G1, E21
I. Einführung Der Gesetzgeber hat mit dem am 1. 11. 2005 in Kraft getretenen „Gesetz zur Unternehmensintegrität und Modernisierung des Anfechtungsrechts (UMAG)“ eine Reform der Anfechtung von Hauptversammlungsbeschlüssen im Aktienrecht eingeleitet. Diese Reform verfolgt im Wesentlichen folgende Ziele: Erstens, die beklagten Gesellschaften sollen leichter und schneller als bisher die Eintragung angefochtener Beschlüsse ins Handelsregister erwirken können, wenn dem keine schwerwiegenden Bedenken entgegenstehen. Zweitens, die funktionswidrige Verwendung der Anfechtungsklage und mißbräuchliche Klagen sollen weiter zurückgedrängt, und die nachteilige Entwicklung eines „Klagegewerbes“ soll eingedämmt werden. Drittens, Qualität und Geschwindigkeit landgerichtlicher Entscheidungen in Beschlußmängelprozessen sollen verbessert werden. Eine empirische Studie zu den Auswirkungen des UMAG in der Unternehmens- und Gerichtspraxis in diesem Bereich hat ergeben, daß der Gesetzgeber wichtige Schritte unternommen hat, daß aber nicht alle Ziele erreicht werden konnten, sondern weiterer dringlicher Reformbedarf besteht, der sich im Wesentlichen erst in jüngerer Zeit, nach dem Abschluß der Beratungen zum UMAG, entwickelt und gezeigt hat. Das Bundesministerium der Justiz hat inzwischen angekündigt, daß weitere gesetzliche Maßnahmen vor allem gegen die zunehmende Flut von Beschlußmängelklagen durch Berufskläger erwogen werden sollen. Die nachstehenden Überlegungen wollen zu dieser Diskussion beitragen. Dabei bleiben die – zwar in engem Zusammenhang hiermit stehenden, gleichwohl Spezialfragen betreffenden – Vorschläge des Handelsrechtsausschusses des DAV zur Ausweitung des Spruchverfahrens bei Umwandlung und Sachkapitalerhöhung hier ausgeklammert. ... VII. Zusammenfassung 1. Es sind weitere gesetzliche Maßnahmen gegen die zunehmende Anzahl von Beschlußmängelklagen durch Berufskläger erforderlich. 2. Gegen das Erfordernis eines pauschalen Mindestanteilsbesitzes als Voraussetzung der Anfechtungsklage bestehen rechtliche und praktische Bedenken. 3. Das Freigabeverfahren sollte umgestaltet werden: Bei den materiellen Freigabevoraussetzungen sollte die sog. Interessenabwägungsklausel im Gesetz entsprechend der Regierungsbegründung zum UMAG gefaßt werden, so daß im praktischen Ergebnis die Eintragung eines angefochtenen strukturändernden Beschlusses in aller Regel vorzunehmen ist, wenn nicht im Einzelfall die Schwere der mit der Klage geltend gemachten Rechtsverletzung dies ausschließt. Das Freigabeverfahren sollte ferner auf eine Instanz beschränkt werden; hierfür sollte die ausschließliche Zuständigkeit der Oberlandesgerichte vorgesehen werden. 4. Die Anreize für Aktionäre, Anfechtungsklagen zu erheben, um sich nicht den Nachteilen - insbesondere der überlangen Dauer - eines Spruchverfahrens aussetzen zu müssen, sollten beseitigt werden.
Die Übertragung von Kapitalmarktpapieren nach dem US-amerikanischen Uniform Commercial Code (UCC)
(2007)
Mutual insurance companies and stock insurance companies are different forms of organized risk sharing: policyholders and owners are two distinct groups in a stock insurer, while they are one and the same in a mutual. This distinction is relevant to raising capital, selling policies, and sharing risk in the presence of financial distress. Up-front capital is necessary for a stock insurer to offer insurance at a fair premium, but not for a mutual. In the presence of an owner-manager conflict, holding capital is costly. Free-rider and commitment problems limit the degree of capitalization that a stock insurer can obtain. The mutual form, by tying sales of policies to the provision of capital, can overcome these problems at the potential cost of less diversified owners.
We analyze the effect of committee formation on how corporate boards perform two main functions: setting CEO pay and overseeing the financial reporting process. The use of performance-based pay schemes induces the CEO to manipulate earnings, which leads to an increased need for board oversight. If the whole board is responsible for both functions, it is inclined to provide the CEO with a compensation scheme that is relatively insensitive to performance in order to reduce the burden of subsequent monitoring. When the functions are separated through the formation of committees, the compensation committee is willing to choose a higher pay-performance sensitivity as the increased cost of oversight is borne by the audit committee. Our model generates predictions relating the board committee structure to the pay-performance sensitivity of CEO compensation, the quality of board oversight, and the level of earnings management.
Recent models with liquidity constraints and impatience emphasize that consumers use savings to buffer income fluctuations. When wealth is below an optimal target, consumers try to increase their buffer stock of wealth by saving more. When it is above target, they increase consumption. This important implication of the buffer stock model of saving has not been subject to direct empirical testing. We derive from the model an appropriate theoretical restriction and test it using data on working-age individuals drawn from the 2002 and 2004 Italian Surveys of Household Income and Wealth. One of the most appealing features of the survey is that it has data on the amount of wealth held for precautionary purposes, which we interpret as target wealth in a buffer stock model. The test results do not support buffer stock behavior, even among population groups that are more likely, a priori, to display such behavior. The saving behavior of young households is instead consistent with models in which impatience, relative to prudence, is not as high as in buffer stock models. JEL Classification: D91
Acquiring foreign firms far away might be hazardous to your share price: evidence from Germany
(2007)
This paper examines shareholder wealth effects of cross-border acquisitions. In a sample of 155 large acquisitions by German corporations from 1985–2006 international transactions in total do not lead to significant announcement returns. Geography, however, makes a difference: Shareholders of acquiring firms gain 6.5% in cross-border transactions into countries that have a common border with Germany but lose 4.4% in other international transactions. We find proximity to be one of the most important success factors in cross-border mergers and acquisitions, even when we control for firm, deal and country characteristics.
Das OLG Hamburg hat kürzlich entschieden, dass in der AG & Co. KG die Mitglieder des Vorstands der Komplementär-AG keinem Wettbewerbsverbot gegenüber der KG unterliegen. Für die Übernahme eines Vorstandsmandats bei dem die Komplementär-AG beherrschenden und mit der KG konkurrierenden Kommanditisten soll daher die Einwilligung des Aufsichtsrats ausreichen. Der Beitrag kommt demgegenüber aufgrund einer kritischen Analyse der Interessenlage und der Argumentation des OLG Hamburg zu dem Ergebnis, dass der Vorstand der Komplementär-AG entsprechend § 112 HGB einem Wettbewerbsverbot gegenüber der KG unterliegt, von dem ihm nur die Gesellschafter der KG Befreiung erteilen können.
Befristete Anstellungsverhältnisse enden, sofern keine andere vertragliche Vereinbarung getroffen wurde, mit Ende der Laufzeit nach § 620 Abs. 1 BGB oder durch außerordentliche Kündigung gemäß § 626 BGB. Liegt kein wichtiger Grund im Sinne des § 626 BGB vor, kann allenfalls die erfolglose Abmahnung eine vorzeitige Beendigung des Anstellungsverhältnisses ermöglichen. Es sprechen keine zwingenden Gründe dafür, die Abmahnung nicht auch auf einen Geschäftsführer anzuwenden. Etwas anderes ergibt sich auch nicht aus § 14 Abs. 1 Nr. 1 KSchG und der mittlerweile gefestigten Rechtsprechung des Bundesgerichtshofes. Diese Rechtsprechung bezieht sich nicht auf den hier erörterten Fall der Pflichtverletzung unterhalb der Schwelle des § 626 BGB. Bei der Frage nach der konkreten Anwendung müssen grundsätzlich zwei Fallkonstellationen unterschieden werden: Im ersten Fall, in dem der Geschäftsführer zunächst nach § 38 GmbHG abberufen wurde, sein Anstellungsverhältnis jedoch weiterhin fortbesteht, kann der Geschäftsführer nur dann abgemahnt werden, wenn dieser nach seiner Abberufung gegen eine nachwirkende Pflicht verstößt und diese Pflichtverletzung nicht ausreicht, um ihn gemäß § 626 BGB fristlos zu kündigen. Wird der Geschäftsführer im Zusammenhang mit der Beendigung seines Organverhältnisses auf eine Stelle unterhalb der Geschäftsführerebene versetzt, findet die Abmahnung nach den allgemeinen Grundsätzen auf zukünftige Pflichtverstöße Anwendung. Wird ein Geschäftsführer trotz einer Pflichtverletzung im Organverhältnis belassen, steht einer Abmahnung ebenfalls kein Hinderungsgrund entgegen. Bei der durch die Abwägung nach § 314 Abs. 2 Satz 2 i. V. m. § 323 Abs. 2 Nr. 3 BGB vorgeschriebenen Berücksichtigung der beiderseitigen Interessen zeigt sich, dass das Rechtsinstitut der Abmahnung in der angesprochenen Konstellation ein geeignetes Instrument des Interessenausgleichs darstellt, auf das im Interesse beider Parteien zunächst zurückgegriffen werden sollte.
Economists are beginning to investigate the causes and consequences of financial illiteracy to better understand why retirement planning is lacking and why so many households arrive close to retirement with little or no wealth. Our review reveals that many households are unfamiliar with even the most basic economic concepts needed to make saving and investment decisions. Such financial illiteracy is widespread: the young and older people in the United States and other countries appear woefully under-informed about basic financial concepts, with serious implications for saving, retirement planning, mortgages, and other decisions. In response, governments and several nonprofit organizations have undertaken initiatives to enhance financial literacy. The experience of other countries, including a saving campaign in Japan as well as the Swedish pension privatization program, offers insights into possible roles for financial literacy and saving programs. JEL Classification: D80, D91, G11
This paper uses factor-augmented vector autoregressions (FAVAR) estimated using a large data set to disentangle fluctuations in disaggregated consumer and producer prices which are due to macroeconomic factors from those due to sectorial conditions. This allows us to provide consistent estimates of the effects of US monetary policy on disaggregated prices. While sectorial prices respond quickly to sector-specific shocks, we find that for a large number of price series, there is a significant delay in the response of prices to monetary policy shocks. In addition, price responses display little evidence of a “price puzzle,” contrary to existing studies based on traditional VARs. The observed dispersion in the reaction of producer prices is relatively well explained by the degree of market power, as predicted by models with monopolistic competition. JEL Classification: E32, E52
We provide a simple and intuitive measure of interdependence of asset returns and/or volatilities. In particular, we formulate and examine precise and separate measures of return spillovers and volatility spillovers. Our framework facilitates study of both non-crisis and crisis episodes, including trends and bursts in spillovers, and both turn out to be empirically important. In particular, in an analysis of sixteen global equity markets from the early 1990s to the present, we find striking evidence of divergent behavior in the dynamics of return spillovers vs. volatility spillovers: Return spillovers display a gently increasing trend but no bursts, whereas volatility spillovers display no trend but clear bursts. JEL Classification: F30, G15, F36
The European Central Bank
(2007)
The establishment of the ECB and with it the launch of the euro has arguably been a unique endeavor in economic history, representing an important experiment in central banking. This note aims to summarize some of the main lessons learned from this experiment and sketch some of the prospects for the ECB. It is written for "The New Palgrave Dictionary of Economics", 2nd edition. JEL Classification: E52, E58
Mein heutiger Vortrag kann nicht mehr als eine Momentaufnahme der Entwicklungen im europäischen Gesellschaftsrecht bieten. Ich beschränke mich dabei auf die rechtsetzende Tätigkeit der Organe der EU und hier insbesondere auf die Aktivitäten und Pläne der Kommission, blende also die Rechtsprechung des EuGH und die wissenschaftliche Debatte völlig aus.
In this paper, we examine three famous episodes of deliberate deflation (or disinflation) in U.S. history, including episodes following the Civil War, World War I, and the Volcker disinflation of the early 1980s. These episodes were associated with widely divergent effects on the real economy, which we attribute both to differences in the policy actions undertaken, and to the transparency and credibility of the monetary authorities. We attempt to account for the salient features of each episode within the context of a stylized DSGE model. Our model simulations indicate how a more predictable policy of gradual deflation could have helped avoid the sharp post-WWI depression. But our analysis also suggests that the strong argument for gradualism under a transparent monetary regime becomes less persuasive if the monetary authority lacks credibility; in this case, an aggressive policy stance (as under Volcker) can play a useful signalling role by making a policy shift more apparent to private agents. JEL Classification: E31, E32, E52
This paper studies a dynamic general equilibrium model with sticky prices and rational expectations in an environment of low interest rates and deflationary pressures. We show that small changes in the public’s beliefs about the future inflation target of the government can lead to large swings in both inflation and output. This effect is much larger at low interest rates than under regular circumstances. This highlights the importance of effective communication policy at zero interest rates. We argue that confusing communications by the US Federal Reserve, the President of the United States, and key administration officials about future price objectives were responsible for the sharp recession in the US in 1937-38, one of the sharpest recessions in US economic history. Poor communication policy is the mistake of 1937. Before committing the mistake of 1937 the US policy makers faced economic conditions that are similar in some respect to those confronted by Japanese policy makers in the first half of 2006. JEL Classification: E32, E52, E61
This paper documents the trends in the life-cycle profiles of net worth and housing equity between 1983 and 2004. The net worth of older households significantly increased during the housing boom of recent years. However, net worth grew by more than housing equity, in part because other assets also appreciated at the same time. Moreover, the younger elderly offset rising house prices by increasing their housing debt, and used some of the proceeds to invest in other assets. We also consider how much of their housing equity older households can actually tap, using reverse mortgages. This fraction is lower at younger ages, such that young retirees can consume less than half of their housing equity. These results imply that ‘consumable’ net worth is smaller than standard calculations of net worth. JEL Classification: G11, E21
This paper proposes a possible way of assessing the effect of interest rate dynamics on changes in the decision-making approach, communication strategy and operational framework of a Central bank. Through a GARCH specification we show that the USA and Euro area displayed a limited but significant spillover of volatility from money market to longer-term rates. We then checked the stability of this phenomenon in the most recent period of improved policymaking and found empirical evidence that the transmission of overnight volatility along the yield curve vanished soon after specific policy changes of the FED and ECB.
Call-by-need lambda calculi with letrec provide a rewritingbased operational semantics for (lazy) call-by-name functional languages. These calculi model the sharing behavior during evaluation more closely than let-based calculi that use a fixpoint combinator. In a previous paper we showed that the copy-transformation is correct for the small calculus LR-Lambda. In this paper we demonstrate that the proof method based on a calculus on infinite trees for showing correctness of instantiation operations can be extended to the calculus LRCC-Lambda with case and constructors, and show that copying at compile-time can be done without restrictions. We also show that the call-by-need and call-by-name strategies are equivalent w.r.t. contextual equivalence. A consequence is correctness of all the transformations like instantiation, inlining, specialization and common subexpression elimination in LRCC-Lambda. We are confident that the method scales up for proving correctness of copy-related transformations in non-deterministic lambda calculi if restricted to "deterministic" subterms.
This paper extends the internal frank report 28 as follows: It is shown that for a call-by-need lambda calculus LRCCP-Lambda extending the calculus LRCC-Lambda by por, i.e in a lambda-calculus with letrec, case, constructors, seq and por, copying can be done without restrictions, and also that call-by-need and call-by-name strategies are equivalent w.r.t. contextual equivalence.
We model sequential synchronous circuits on the logical level by signal-processing programs in an extended lambda calculus Lpor with letrec, constructors, case and parallel or (por) employing contextual equivalence. The model describes gates as (parallel) boolean operators, memory using a delay, which in turn is modeled as a shift of the list of signals, and permits also constructive cycles due to the parallel or. It opens the possibility of a large set of program transformations that correctly transform the expressions and thus the represented circuits and provides basic tools for equivalence testing and optimizing circuits. A further application is the correct manipulation by transformations of software components combined with circuits. The main part of our work are proof methods for correct transformations of expressions in the lambda calculus Lpor, and to propose the appropriate program transformations.
We develop a utility based model of fluctuations, with nominal rigidities, and unemployment. In doing so, we combine two strands of research: the New Keynesian model with its focus on nominal rigidities, and the Diamond-Mortensen-Pissarides model, with its focus on labor market frictions and unemployment. In developing this model, we proceed in two steps. We first leave nominal rigidities aside. We show that, under a standard utility specification, productivity shocks have no effect on unemployment in the constrained efficient allocation. We then focus on the implications of alternative real wage setting mechanisms for fluctuations in unemployment. We then introduce nominal rigidities in the form of staggered price setting by firms. We derive the relation between inflation and unemployment and discuss how it is influenced by the presence of real wage rigidities. We show the nature of the tradeoff between inflation and unemployment stabilization, and we draw the implications for optimal monetary policy. JEL Classification: E32, E50
We focus on a quantitative assessment of rigid labor markets in an environment of stable monetary policy. We ask how wages and labor market shocks feed into the inflation process and derive monetary policy implications. Towards that aim, we structurally model matching frictions and rigid wages in line with an optimizing rationale in a New Keynesian closed economy DSGE model. We estimate the model using Bayesian techniques for German data from the late 1970s to present. Given the pre-euro heterogeneity in wage bargaining we take this as the first-best approximation at hand for modelling monetary policy in the presence of labor market frictions in the current European regime. In our framework, we find that labor market structure is of prime importance for the evolution of the business cycle, and for monetary policy in particular. Yet shocks originating in the labor market itself may contain only limited information for the conduct of stabilization policy. JEL Classification: E32, E52, J64, C11
This paper proves several generic variants of context lemmas and thus contributes to improving the tools to develop observational semantics that is based on a reduction semantics for a language. The context lemmas are provided for may- as well as two variants of mustconvergence and a wide class of extended lambda calculi, which satisfy certain abstract conditions. The calculi must have a form of node sharing, e.g. plain beta reduction is not permitted. There are two variants, weakly sharing calculi, where the beta-reduction is only permitted for arguments that are variables, and strongly sharing calculi, which roughly correspond to call-by-need calculi, where beta-reduction is completely replaced by a sharing variant. The calculi must obey three abstract assumptions, which are in general easily recognizable given the syntax and the reduction rules. The generic context lemmas have as instances several context lemmas already proved in the literature for specific lambda calculi with sharing. The scope of the generic context lemmas comprises not only call-by-need calculi, but also call-by-value calculi with a form of built-in sharing. Investigations in other, new variants of extended lambda-calculi with sharing, where the language or the reduction rules and/or strategy varies, will be simplified by our result, since specific context lemmas are immediately derivable from the generic context lemma, provided our abstract conditions are met.
We study optimal investment in self-protection of insured individuals when they face interdependencies in the form of potential contamination from others. If individuals cannot coordinate their actions, then the positive externality of investing in self-protection implies that, in equilibrium, individuals underinvest in self-protection. Limiting insurance coverage through deductibles or selling “at-fault” insurance can partially internalize this externality and thereby improve individual and social welfare. JEL Classification: C72, D62, D80
We test the menu cost model of Ball and Mankiw (1994, 1995), which implies that the impact of price dispersion on inflation should differ between inflation and deflation episodes, using data for Japan and Hong Kong. We use a random cross-section sample split when calculating the moments of the distribution of price changes to mitigate the small-cross-sectionsample bias noted by Cecchetti and Bryan (1999). The parameter on the third moment is positive and significant in both countries during both the inflation and deflation periods, and the parameter on the second moment changes sign in the deflation period, as the theory predicts. Keywords: inflation, deflation, menu costs, Hong Kong, Japan JEL Numbers: E31
I employ a large set of scanner price data collected in retail stores to document that (i) although the average magnitude of price changes is large, a substantial number of price changes are small in absolute value; (ii) the distribution of non-zero price changes has fat tails; and (iii) stores tend to adjust prices of goods in narrow product categories simultaneously. I extend the standard menu costs model to a multi-product setting in which firms face economies of scale in the technology of adjusting prices. The model, because of its ability to replicate this additional set of micro-economic facts, can generate aggregate fluctuations much larger than those in standard menu costs economies. JEL Classification: E31, E32
This paper will sketch out some of the developments in European company law as seen from the current moment, which might be referred to as post- 2003 Action Plan, and from my purely personal viewpoint. I will thus restrict myself to presenting the current and expected legislative projects of the EU, with particular focus on the plans and activities of the Commission, and for the moment bracket out both a number of important and interesting decisions of the European Court of Justice and the debates among European legal scholars.
Unerwartete Geschäftszahlen und die daraus resultierende Notwendigkeit der Anpassung von Ergebnisprognosen zeigen sich bereits bei der Vorbereitung der Regelberichterstattung. Damit stellt sich für die Unternehmensleitung die Frage, ob sie solche Insiderinformationen adhoc publizieren muss oder ob sie die Veröffentlichung aufschieben und bis zu dem für die Regelberichterstattung vorgesehenen Termin zuwarten darf. ... Zusammenfassung Ergeben sich bei den Vorbereitungen für die Regelberichterstattung Abweichungen von den Erwartungen an die Geschäftszahlen, die im Falle ihres Bekanntwerdens erheblichen Einfluss auf den Kurs von Insiderpapieren haben können, kann sich der Vorstand des Emittenten vor die Frage gestellt sehen, ob er die Ad-hoc-Veröffentlichung dieser Insiderinformation bis zu dem Zeitpunkt aufschieben darf, der im Finanzkalender für die Regelberichterstattung vorgesehen ist. Jedenfalls dann, wenn der Termin für diese Berichterstattung unmittelbar bevorsteht, überwiegt das Interesse des Emittenten an einem solchen Aufschub regelmäßig das Interesse des Kapitalmarkts an sofortiger Veröffentlichung. Das gilt auch dann, wenn aufgrund der Geschäftszahlen Ergebnisprognosen angepasst werden müssen. Sofern nicht ausnahmsweise eine Irreführung der Öffentlichkeit zu befürchten ist oder Bedenken hinsichtlich der Gewährleistung der Vertraulichkeit der Insiderinformation bestehen, ist der Emittent daher nach § 15 Abs. 3 WpHG bis zu dem für die Regelberichterstattung angekündigten Zeitpunkt von der Pflicht zur Veröffentlichung befreit.
Der vorstehende Beitrag hat untersucht, ob die Praxis, „defensive bids“ in Staatsanleiheauktionen abzugeben oder die Veröffentlichung einer künstlich erhöhten „Bid to Cover-Ratio“ durch die Emittenten von Staatsanleihen sowie ihre „Primary Dealers“ eine verbotene Marktmanipulation im Sinne des § 20 a WpHG darstellen. Das rechtspolitisch wenig überzeugende Ergebnis ist, dass der Emittent und Auslöser dieser Vorgänge – mangels Anwendbarkeit der Norm – nicht gegen das Verbot des § 20 a WpHG verstößt, die privatrechtlich organisierten „Primary Dealers“ – durch die Veröffentlichung der Kennzahl – hingegen durchaus. Inwiefern das aufgezeigte und als Marktmanipulation erkannte Verhalten strafrechtlich sanktioniert werden kann, soll hier nicht erörtert werden, hängt es doch sehr stark vom jeweiligen Einzelfall ab. Der Reputationsschaden, der aus dem Vorwurf der Marktmanipulation entsteht, ist indes nicht zu unterschätzen. Vielleicht gelingt es den „Primary Dealers“ aber gerade deswegen, unter Hinweis auf § 20 a WpHG die Finanzagenturen der Emittenten davon abzuhalten, „defensive bids“ von ihnen einzufordern. Insbesondere der gemeinschaftsrechtliche Hintergrund des Verbots der Marktmanipulation und das Streben nach einem Gleichlauf der Aufsichtspraxis für Marktmanipulationen legen es nahe, dass sich die Aufsichtsbehörden der entsprechenden Emittenten genauer mit den Vorgängen um die Staatsanleiheauktionen befassen. Schließlich besteht auch in Frankreich ein Verbot der Marktmanipulation in Form der Art. L. 465-2 Code monétaire et financier i.V.m. Art. 631-1 Règlement général de l’autorité des marchés financiers (AMF). Darüber hinaus stehen die Anforderungen der Richtlinie über Märkte für Finanzinstrumente (MiFiD) zur „best practice“ und dem Transparenzgebot zum Schutz der Anleger im Widerspruch zu dem geschilderten Verhalten. Vor diesem Hintergrund sollten weder „defensive bids“ eingefordert noch abgegeben werden. Damit wäre nicht nur den „Primary Dealers“, sondern vor allem dem Markt für Staatsanleihen und den Anlegern gedient.
Die Richtlinie vom 6. September 2006 zur Änderung der Kapitalrichtlinie soll den Mitgliedstaaten erlauben, das bislang geltende Kapitalschutzregime in verschiedenen Bereichen zu liberalisieren. Größerer Freiraum kann danach den betroffenen Unternehmen unter anderem für einen Erwerb eigener Aktien eingeräumt werden. Der nachfolgende Beitrag geht der Frage nach, welcher Gestaltungsspielraum den Mitgliedstaaten bei der Umsetzung der insoweit maßgeblichen Bestimmungen zusteht und welcher Anpassungsbedarf sich für das deutsche Recht ergibt.
The European Central Bank has assigned a special role to money in its two pillar strategy and has received much criticism for this decision. In this paper, we explore possible justifications. The case against including money in the central bank’s interest rate rule is based on a standard model of the monetary transmission process that underlies many contributions to research on monetary policy in the last two decades. Of course, if one allows for a direct effect of money on output or inflation as in the empirical “two-pillar” Phillips curves estimated in some recent contributions, it would be optimal to include a measure of (long-run) money growth in the rule. In this paper, we develop a justification for including money in the interest rate rule by allowing for imperfect knowledge regarding unobservables such as potential output and equilibrium interest rates. We formulate a novel characterization of ECB-style monetary cross-checking and show that it can generate substantial stabilization benefits in the event of persistent policy misperceptions regarding potential output. Such misperceptions cause a bias in policy setting. We find that cross-checking and changing interest rates in response to sustained deviations of long-run money growth helps the central bank to overcome this bias. Our argument in favor of ECB-style cross-checking does not require direct effects of money on output or inflation. JEL Classification: E32, E41, E43, E52, E58
The European Central Bank has assigned a special role to money in its two pillar strategy and has received much criticism for this decision. The case against including money in the central bank’s interest rate rule is based on a standard model of the monetary transmission process that underlies many contributions to research on monetary policy in the last two decades. In this paper, we develop a justification for including money in the interest rate rule by allowing for imperfect knowledge regarding unobservables such as potential output and equilibrium interest rates. We formulate a novel characterization of ECB-style monetary cross-checking and show that it can generate substantial stabilization benefits in the event of persistent policy misperceptions regarding potential output. JEL Classification: E32, E41, E43, E52, E58
Exchanges in Europe are in a process of consolidation. After the failure of the proposed merger between Deutsche Börse and Euronext, these two groups are likely to become the nuclei for further mergers and co-operation with currently independent exchanges. A decision for one of the groups entails a decision for the respective trading platform. Against that background we evaluate the attractiveness of the two dominant continental European trading systems. Though both are anonymous electronic limit order books, there are important differences in the trading protocols. We use a matched-sample approach to compare execution costs in Euronext Paris and Xetra. We find that both quoted and effective spreads are lower in Xetra. When decomposing the spread we find no systematic differences in the adverse selection component. Realized spreads, on the other hand, are significantly higher in Euronext. Neither differences in the number of liquidity provision agreements nor differences in the minimum tick size or in the degree of domestic competition for order flow explain the different spread levels. We thus conclude that Xetra is the more efficient trading system. JEL Classification: G10, G15
This paper focuses on dynamic interactions of equity prices among theoretically related assets. We explore the existence of intraday non-linearities in the FTSE 100 cash and futures indices. We test whether the introduction of the electronic trading systems in the London Stock Exchange in 1997 and in the London International Financial Futures and Options Exchange (LIFFE) in 1999 has eliminated the non-linear dynamic relationship in the FTSE 100 markets. We show that the introduction of the electronic trading systems in the FTSE 100 markets has increased the efficiency of the markets by enhancing the price discovery process, namely by facilitating the increase of the speed of adjustment of the futures and cash prices to departures of the mispricing error from its non-arbitrage band. Nevertheless, we conclude that the automation of the markets has not completely eliminated the non-linear properties of the FTSE 100 cash and futures return series. JEL Classification: G12, G14, G15
Private Equity ist außerhalb des Fachpublikums von vielen Mythen und Missverständnissen umgeben. Dies fängt bereits bei der Funktionsweise und Größe des Sektors an, aber auch über die Profitabilität und die Gebührenstruktur von Private Equity Gesellschaften gibt es falsche Vorstellungen. Zudem werden immer wieder Vorwürfe laut, dass Private Equity zu massivem Arbeitsplatzabbau, einer hohen Anzahl von Konkursen und dem Unterlassen von langfristigen Investitionen führt. Dennoch wird Private Equity als wichtiges Instrument zur Finanzierung des deutschen Mittelstandes angeführt. Dieser Essay stellt den gängigen Vorurteilen zu Private Equity die neuesten Forschungsergebnisse gegenüber und versucht so, ein ausgewogenes Bild sowohl der Chancen und Risiken als auch des Einsatzgebiets von Private Equity zu zeichnen.
We propose a new approach to measuring the effect of unobservable private information or beliefs on volatility. Using high-frequency intraday data, we estimate the volatility effect of a well identified shock on the volatility of the stock returns of large European banks as a function of the quality of available public information about the banks. We hypothesise that, as the publicly available information becomes stale, volatility effects and its persistence should increase, as the private information (beliefs) of investors becomes more important. We find strong support for this idea in the data. We argue that the results have implications for debate surrounding the opacity of banks and the transparency requirements that may be imposed on banks under Pillar III of the New Basel Accord.
This paper traces the location of foreign banks in Germany from 1949 to 2006. As suggested by new economic geography models we find a ‘u’-shaped concentration of foreign banks in Germany. Only after a competition between several cities, Frankfurt has emerged as the pre-eminent financial centre, triggered by the ‘historical event’ of setting up the German central bank in Frankfurt. After a strong increase, Frankfurt’s share in the location of foreign banks in Germany decreases slowly but significantly since the mid 1980’s. We conclude that there will be a lesser role in Europe for secondtier financial centres in the future.
Many tax-codes around the world allow for special taxable treatment of savings in retirement accounts. In particular, profits in retirement accounts are usually tax exempt which allow investors to increase an asset’s return by holding it in such a retirement account. While the existing literature on asset location shows that risk-free bonds are usually the preferred asset to hold in a retirement account, we explain how the tax exemption of profits in retirement accounts affects private investors’ asset allocation. We show that total final wealth can be decomposed into what the investor would have earned in a taxable account and what is due to the tax exemption of profits in the retirement account. The tax exemption of profits can thus be considered a tax-gift which is similar to an implicit bond holding. As this tax-gift’s impact on total final wealth decreases over time, so does the investor’s equity exposure.
This paper analyses cross-border contagion in a sample of European banks from January 1994 to January 2003. We use a multinomial logit model to estimate the number of banks in a given country that experience a large shock on the same day (“coexceedances”) as a function of variables measuring common shocks and coexceedances in other countries. Large shocks are measured by the bottom 95th percentile of the distribution of the first difference in the daily distance to default of the bank. We find evidence in favour of significant cross-border contagion. We also find some evidence that since the introduction of the euro cross-border contagion may have increased. The results seem to be very robust to changes in the specification.
We compute the optimal dynamic asset allocation policy for a retiree with Epstein-Zin utility. The retiree can decide how much he consumes and how much he invests in stocks, bonds, and annuities. Pricing the annuities we account for asymmetric mortality beliefs and administration expenses. We show that the retiree does not purchase annuities only once but rather several times during retirement (gradual annuitization). We analyze the case in which the retiree is restricted to buy annuities only once and has to perform a (complete or partial) switching strategy. This restriction reduces both the utility and the demand for annuities.
Retirees confront the difficult problem of how to manage their money in retirement so as to not outlive their funds while continuing to invest in capital markets. We posit a dynamic utility maximizer who makes both asset location and allocation decisions when managing her retirement financial wealth and annuities, and we prove that she can benefit from both the equity premium and longevity insurance in her retirement portfolio. Even without bequests, she will not fully annuitize; rather, her optimal stock allocation amounts initially to more than half of her financial wealth and declines with age. Welfare gains from this strategy can amount to 40 percent of financial wealth (depending on risk parameters and other resources). In practice, it turns out that many retirees will do almost as well by purchasing a variable annuity invested 60/40 in stocks/bonds. JEL Classification: G11, G23, G22, D14, J26, H55
This volume represents a collection of papers that present some of the results of two projects on control: on the one hand, the project Typology of complement control directed by Barbara Stiebels and funded by the German Research Foundation (DFG STI 151/2-2), and on the other hand the project Variation in control structures directed by Maria Polinsky and Eric Potsdam and funded by the US National Science Foundation (NSF grants BCS-0131946, BCS-0131993; website http://accent.ucsd.edu/). Whereas the first project pursued a lexical approach to control with a semantic definition of obligatory control, the second project has mainly pursued a syntactic approach to control – with special emphasis on less studied control structures (such as adjunct control, backward control, finite control, etc.). Both projects have aimed at extending the research on complement control to structures that differ from the prototypical cases of infinitival complements with empty subjects found in many Indo-European languages; their common interest was to bring in new empirical data, both primary and experimental.
The 48th volume of the ZAS Papers in Linguistics presents selected papers from the conference on Intersentential pronominal reference in child and adult language held at the ZAS in December, 2006. The conference, organized by the project Acquisition and disambiguation of intersentential pronominal reference, brought together leading researchers dealing with anaphora resolution in diverse theoretical approaches and the acquisition perspective on pronominal reference taken by the ZAS project.