Universitätspublikationen
Refine
Year of publication
Document Type
- Working Paper (1903) (remove)
Is part of the Bibliography
- no (1903)
Keywords
- Deutschland (45)
- monetary policy (35)
- Banking Union (19)
- Mobilität (18)
- household finance (17)
- Monetary Policy (16)
- Covid-19 (15)
- ECB (15)
- ESG (15)
- Liquidity (15)
Institute
- Wirtschaftswissenschaften (1257)
- Center for Financial Studies (CFS) (1125)
- Sustainable Architecture for Finance in Europe (SAFE) (817)
- House of Finance (HoF) (672)
- Rechtswissenschaft (185)
- Institute for Monetary and Financial Stability (IMFS) (178)
- Exzellenzcluster Die Herausbildung normativer Ordnungen (73)
- Informatik (68)
- Institut für sozial-ökologische Forschung (ISOE) (60)
- Foundation of Law and Finance (51)
Der folgende Aufsatz ist eine geringfügig überarbeitete Version eines Vortrags über das japanische Gesellschaftsrecht anlässlich der im August 2010 veranstalteten Summer School für japanisches Recht an der Goethe-Universität Frankfurt am Main1. Der Vortrag war nicht nur an Juristen und Studierende der Rechtswissenschaften, sondern auch an Japanologen und Studierende der Japanologie gerichtet, weshalb ich mich bemüht habe, mich möglichst nicht in juristischen Details zu verlieren, sondern eine Einführung in das Wesen des japanischen Gesellschaftsrechts zu geben. In den letzten Jahren gab es im Umfeld japanischer Unternehmen zahlreiche bedeutende gesetzliche Änderungen, und es scheint, als würde sich diese Entwicklung zunehmend beschleunigen. In dieser Lage, in der die täglich neu auftretenden Rechtsfragen schnellstmöglich einer Lösung bedürfen, ist es für die Gelehrten des Gesellschaftsrechts oft schwierig, sich wissenschaftlich mit der substantiellen Dimension dieser Rechtsfragen zu beschäftigen. Auch dieser Aufsatz über das japanische Gesellschaftsrecht ist nur eine Skizze zum Gegenstand meines Forschungsgebietes. Die Darstellung beginnt – zum besseren Verständnis der zugrundeliegenden Systematik vor allem für den deutschen Leserkreis – mit einer knappen Erläuterung der Entsprechungen des deutschen Begriffs „Gesellschaft“ im Japanischen. Auf diese terminologische Klärung folgt ein kurzer Überblick zur Geschichte des japanischen Gesellschaftsrechts bis hin zur Erstellung des japanischen Gesellschaftsgesetzes, da zum Verständnis des heutigen japanischen Gesellschaftsrechts eine gewisse Kenntnis seiner Vorgeschichte höchst wichtig ist. Bereits hier sei der wichtige Punkt erwähnt, dass das historische japanische (Aktien-)Gesellschaftsrecht unter dem starken Einfluss Deutschlands und der Vereinigten Staaten von Amerika gestaltet wurde, was sich noch gegenwärtig auf das japanische Gesellschaftsgesetz und die Struktur der japanischen Aktiengesellschaften auswirkt. In den weiteren Abschnitten werden diese Besonderheiten des japanischen Gesellschaftsrechts anhand der Struktur der japanischen Aktiengesellschaft illustriert.
This paper discusses the effect of capital regulation on the risk taking behavior of commercial banks. We first theoretically show that capital regulation works differently in different market structures of banking sectors. In lowly concentrated markets, capital regulation is effective in mitigating risk taking behavior because banks' franchise values are low and banks have incentives to pursue risky strategies in order to increase their franchise values. If franchise values are high, on the other hand, the effect of capital regulation on bank risk taking is ambiguous as banks lack those incentives. We then test the model predictions on a cross-country sample including 421 commercial banks from 61 countries. We find that capital regulation is effective in mitigating risk taking only in markets with a low degree of concentration. The results remain robust after accounting for financial sector development, legal system effciency, and for other country and bank-specific characteristics. Keywords: Banks, market structure, risk shifting, franchise value, capital regulation
The title I have chosen seems to signal a tension, even a contradiction, in a number of respects. Democracy appears to be a form of political organisation and government in which, through general and public participatory procedures, a sufficiently legitimate political will is formed which acquires the force of law. Justice, by contrast, appears to be a value external to this context which is not so much linked to procedures of “input” or “throughput” legitimation but is understood instead as an output- or outcome-oriented concept. At times, justice is even understood as an otherworldly idea which, when transported into the Platonic cave, merely causes trouble and ends up as an undemocratic elite project. In methodological terms, too, this difference is sometimes signalled in terms of a contrast between a form of “worldly” political thought and “abstract” and otherworldly philosophical reflection on justice. In my view, we are bound to talk past the issues to be discussed under the heading “transnational justice and democracy” unless we first root out false dichotomies such as the ones mentioned. My thesis will be that justice must be “secularised” or “grounded” both with regard to how we understand it and to its application to relations beyond the state.
Der Text Konstitutive Regeln – normativ oder nicht? Ein Blick auf ihre Rolle in Praktiken geht der Frage nach, ob – und wenn ja, in welcher Weise – konstitutive Regeln normativ sind. Die Herausforderung besteht darin, dass diese Regeln bzw. ihre Befolgung womöglich durchweg in nicht-normativen Begriffen beschrieben werden können – nämlich im Wesentlichen als Erfüllung notwendiger und/oder hinreichender Bedingungen. Natürlich kann man, aus welchen Gründen auch immer, jederzeit fordern, einer konstitutiven Regel Folge zu leisten. Aber damit würde Normativität ‚von außen‘ an solche Regeln herangetragen; in Frage steht aber, ob diese Regeln selbst normativ sind. Für eine derartige ‚interne‘ Normativität spricht sicherlich unser Umgang mit diesen Regeln und auch unser alltägliches Reden über sie. So beschreiben wir in unserer Alltagspraxis etwa das Befolgen von Spielregeln (als Paradebeispiele für konstitutive Regeln) als etwas, das korrekt ist oder getan werden soll – und Abweichungen entsprechend als Verletzungen. Der Überlegungsgang des Textes ist zweigeteilt: In einem ersten Schritt werden einige Arten von konstitutiven Regeln unterschieden. Der systematische Ertrag dieser begrifflichen Überlegungen besteht in dem Vorschlag, dass manche Arten von konstitutiven Regeln ganz problemlos als auch normative Phänomene charakterisierbar sind, andere hingegen nicht. In einem zweiten Schritt wird vor allem zu zeigen versucht, dass einige der wirklichen ‚Problemfälle‘ konstitutiver Regeln zumindest als schwach-normative Regeln beschrieben werden können (im Unterschied zu stark-normativen Phänomenen wie Verpflichtungen oder Verbote). Die ‚schwache Normativität‘ dieser Regeln kommt zum Vorschein, wenn man ihre Rolle in Praktiken betrachtet – insbesondere die Art und Weise, wie sich Akteure in diesen Praktiken unter Berufung auf konstitutive Regeln kritisieren, ohne sich dabei bereits als verpflichtet zu behandeln, diese Regeln zu befolgen.
Prepared by Christian Laux, Vienna University of Economics and Business & Center for Financial Studies (CFS) for the “Workshop on Liquidity Premium in Solvency II: Conceptual and Measurement Issues,” DNB Amsterdam, March 18, 2011. The insurance industry and the Committee of European Insurance and Occupational Pension Supervisors (CEIOPS) propose to add a liquidity premium to the risk-free rate when discounting liabilities in times of financial turmoil. The objective is to counterbalance adverse effects on regulatory capital due to a decrease in asset values caused by illiquidity in a crisis. As I argue in this note, although the motive might be sensible, the proposal to add a liquidity premium when discounting liabilities is not the right approach to tackle the problem.
The aim of this paper is to examine what has been the role of information provision to the market throughout the crisis. We consider two main sources of information to the market, financial statements and information provided by credit rating agencies. We examine how these sources of information work and the effectiveness of their disclosure process during the crisis. Contrary to the commonly held view, fair value accounting did not have a major impact on the crisis development and severity. However, the structure and lack of accountability of credit rating agencies had a profound impact on their incentives, which may have jeopardized the accuracy of the whole rating process. We claim that the crisis experience has changed the way we think about information as well as market discipline and discuss policy implications and proposals for regulation. JEL Classification: G01, G24, G28, M41, M48
In this paper we challenge the view that corporate bonds are always arm’s length debt. We analyze the effect of bond ratings on the stock price return to acquirers in M&A transactions, which tend to have significant effects on creditor wealth. We find acquirers abnormal returns to be higher if they are unrated, controlling for a wide variety of other effects identified in the literature. Tracing the difference in returns to distinct managerial decisions, we find that, everything else constant, rated firms increase their leverage in takeover transactions by less than their unrated counterparts. Consistent with a significant role for rating agencies, we find monitoring effects to be strongest when acquirer bonds are rated at the borderline between investment grade and junk. Finally, we are able to empirically exclude a large number of alternative explanations for the empirical regularities that we uncover. JEL Classification: G21, G24, G32, G34 Keywords: Acquisitions, Credit Ratings, Mergers and Acquisitions, Arm’s Length Debt, Abnormal Returns
It has become commonplace to say that, in the past, international governance has been legitimated mainly, if not exclusively, by its welfare-enhancing ‘output’. There has been very little research, however, on the history of legitimating international governance by its output to validate this point. In this essay I begin to address this gap by inquiring into the origins of output-oriented strategies for legitimating international organizations. Scrutinizing the programmatic literature on international organizations from the early 20th century, I illustrate how a new and distinctive account of technocratic legitimation emerged and in the 1920s separated from other types of liberal internationalism. My inquiry, centring on the works of James Arthur Salter, David Mitrany, Paul S. Reinsch and Pitman B. Potter, explores their respective conceptions of ‘good functional governance’, executed by a non-political international technocracy. Their account is explicitly pitched against a notion of ‘international politics’, perceived as violent, polarizing, and irrational. The emergence of such a technocratic legitimation of international governance, I submit, needs to be seen in the context of societal modernization and bureaucratization that unfolded in the first half of the 20th century. I also highlight how in this account the material output of governance is intimately linked to the virtues of the organizational form that brings it about.
In the microstructure literature, information asymmetry is an important determinant of market liquidity. The classic setting is that uninformed dedicated liquidity suppliers charge price concessions when incoming market orders are likely to be informationally motivated. In limit order book markets, however, this relationship is less clear, as market participants can switch roles, and freely choose to immediately demand or patiently supply liquidity by submitting either market or limit orders. We study the importance of information asymmetry in limit order books based on a recent sample of thirty German DAX stocks. We find that Hasbrouck’s (1991) measure of trade informativeness Granger-causes book liquidity, in particular that required to fill large market orders. Picking-off risk due to public news induced volatility is more important for top-of-the book liquidity supply. In our multivariate analysis we control for volatility, trading volume, trading intensity and order imbalance to isolate the effect of trade informativeness on book liquidity. JEL Classification: G14 Keywords: Price Impact of Trades , Trading Intensity , Dynamic Duration Models, Spread Decomposition Models , Adverse Selection Risk
We revisit the role of time in measuring the price impact of trades using a new empirical method that combines spread decomposition and dynamic duration modeling. Previous studies which have addressed the issue in a vector-autoregressive framework conclude that times when markets are most active are times when there is an increased presence of informed trading. Our empirical analysis based on recent European and U.S. data offers challenging new evidence. We find that as trade intensity increases, the informativeness of trades tends to decrease. This result is consistent with the predictions of Admati and Pfleiderer’s (1988) rational expectations model, and also with models of dynamic trading like those proposed by Parlour (1998) and Foucault (1999). Our results cast doubt on the common wisdom that fast markets bear particularly high adverse selection risks for uninformed market participants. JEL Classification: G10, C32 Keywords: Price Impact of Trades, Trading Intensity, Dynamic Duration Models, Spread Decomposition Models, Adverse Selection Risk
We present an intertemporal consumption model of consumer investment in financial literacy. Consumers benefit from such investment because their stock of financial literacy allows them to increase the returns on their wealth. Since literacy depreciates over time and has a cost in terms of current consumption, the model determines an optimal investment in literacy. The model shows that financial literacy and wealth are determined jointly, and are positively correlated over the life cycle. Empirically, the model leads to an instrumental variables approach, in which the initial stock of financial literacy (as measured by math performance in school) is used as an instrument for the current stock of literacy. Using microeconomic and aggregate data, we find a strong effect of financial literacy on wealth accumulation and national saving, and also show that ordinary least squares estimates underestate the impact of financial literacy on saving. JEL Classification: E2, D8, G1, J24 Keywords: Financial Literacy, Cognitive Abilities, Human Capital, Saving
We analytically show that a common across rich/poor individuals Stone-Geary utility function with subsistence consumption in the context of a simple two-asset portfolio-choice model is capable of qualitatively and quantitatively explaining: (i) the higher saving rates of the rich, (ii) the higher fraction of personal wealth held in risky assets by the rich, and (iii) the higher volatility of consumption of the wealthier. On the contrary, time-variant “keeping-up-with-the-Joneses” weighted average consumption which plays the role of moving benchmark subsistence consumption gives the same portfolio composition and saving rates across the rich and the poor, failing to reconcile the model with what micro data say. JEL Classification: G11, D91, E21, D81, D14, D11
All-over in Europe, unemployment became a growing problem from the mid 1980s to the mid 1990s. Nevertheless, the effects on the economical situation of the unemployed and the whole population are quite different in European countries. In this paper we first give a brief overview over the development of unemployment rates in eight member states of the European Union and over the different reactions to provide the social protection of the unemployed. Therefore we look at the social security expenditures, the level of income replacement for the unemployed and recent social policy reforms concerning them. In the second section of the paper, we examine the development of income distribution and poverty taking different poverty lines into consideration. There is no general pattern neither for the relationship of inequality among the unemployed to the whole economically active population nor for the development from the 80s to the 90s. But one can say that in countries with increasing income inequality also poverty is rising (especially in the UK) and that where inequality among the unemployed is less pronounced the proportions of the poor went down from the mid 80s to the mid 90s (France and Ireland). In nearly all countries the risk of being poor is ernormously high for the unemployed, Denmark is the only exception.
To sum up our findings we come to the following statements. - During the period from 1973 to 1993 inequality of the personal distribution of equivalent pre-government income increased to some extent, as was to be expected given the enormous rise in unemployment. - Inequality of post-government income also increased slightly, but was much lower than inequality of pre-government income due to the equalizing effect of the German tax and transfer system. - In 1993 inequality of pre-government income was higher, and inequality of post-government income was considerably lower in East Germany than in West Germany; the West German tax and transfer system that was transferred to East Germany after reunification - with some additional but temporary minimum regulations - seems to have had a stronger equalizing effect in the East than in the West. - A decomposition into three age groups, the young and the middle-aged group sub-divided further according to whether household members were affected by unemployment, showed that within-groups inequality explained by far more of overall inequality than between-groups inequality. - The relative positions of the two young groups as well as of the middle-aged group with unemployed members deteriorated with respect to their equivalent pre-government and post-government incomes. - During the first period with rising unemployment (1973 to 1978), the development of within-groups inequality and of between-groups inequality contributed to about the same extent to the increase of overall inequality of pre-government income. But this was fully compensated by the tax and transfer system as there were only a negligible change in inequality of equivalent net income and very slight effects of the (four) components of change which nearly compensated each other. - During the last period from 1988 to 1993 the equalizing effect of the German tax and transfer system seems to have weakened, at least in the western part of Germany. The increase in inequality of equivalent net income is mainly due to developments of within group inequalities.
Im folgenden Beitrag wird zunächst die Entwicklung der personellen Einkommensverteilung in Deutschland zwischen 1993 und 1998 auf der Basis der Einkommens- und Verbrauchsstichproben (EVS) dargestellt. Dabei werden - ähnlich wie in früheren Analysen auf Basis der EVS und des Sozio-ökonomischen Panels (SOEP) - hoch aggregierte Indikatoren berechnet, mit denen die Informationsfülle einer Mikrodatenquelle zu nur einer Zahl bzw. zu einer eindimensionalen relativen Häufigkeitsverteilung verdichtet wird. In einem zweiten Schritt und schwerpunktmäßig wird untersucht, welche Verteilungsstrukturen sich hinter diesen Darstellungen der Gesamtverteilung verbergen.
Grundlage des Artikels ist der Berliner Teil der zweijährigen Studie "Moriana", in der – im ersten Jahr – Wandel der Produktion und Wirtschaftsstruktur, der Arbeits- und Beschäftigungsverhältnisse, der Sozialstruktur und die Rezeption dieser Veränderungen durch Politik, Gewerkschaften, Arbeitgeber, Forschung und Dritter Sektor untersucht wurden. Im zweiten Jahr wurden die Situation und die Bedürfnisse von selbstständig Beschäftigten genauer betrachtet. Das Forschungsprojekt wurde von dem Institut A.A.STER in Mailand unter der Leitung von Aldo Bonomi koordiniert und in den Städten Berlin (D), Paris (F), Valencia (ES), Mailand (I), Turin (I), Genua (I) und Neapel (I) durchgeführt. Das Projekt arbeitete – vor allem im zweiten Teil – mit dem Ansatz der "aktiven Untersuchung", im Rahmen derer die Betroffenen selbst ihre Situation und Bedürfnisse beschreiben und ihre subjektive Wahrnehmung im Mittelpunkt steht. In Berlin wurden dafür im Jahr 2000 u.a. ausführliche Interviews mit 30 Selbstständigen verschiedener Einkommensstufen sowie unterschiedlichen Qualifikationsgrades geführt, und diesen ein zusätzlich ein Fragebogen mit 100 Fragen vorgelegt. Die Ergebnisse können zwar nicht als repräsentativ bezeichnet werden, zeigen aber eine Tendenz auf.
Vortrag in Linz im KunstRaum Goethestrasse am 25.09.2002 im Rahmen der Reihe ESTABLISH CULTURAL WORKER - Ist die KulturArbeit (oder) Kunst?: Zuerst möchte ich kurz zu dem Moriana Projekt etwas sagen. Es wurde in 7 Städten durchgeführt, und war ein europäisches Forschungsprojekt von einem italienischen Forschungsinstitut. Es ging um die Situation von Kleinstselbstständigen, FreiberuflerInnen etc. Dies mit einem erneuerten Ansatz dessen, was früher einmal Arbeitermituntersuchung hiess, nämlich militante Untersuchung. Das heisst, die Leute die in den Verhältnissen stecken, analysieren selbst ihre Arbeitssituation, versuchen selbst ihre Bedürfnisse zu beschreiben, versuchen selbst diesen Arbeitsprozess zu beschreiben, und werden, durch einen Intervention des/der ForscherIn, versucht in eine bestimmte Richtung zu drängen. Nämlich in die Richtung, für ihre Interessen zumindest zu einer Selbstformulierung zu kommen, wenn nicht gar zu einer Selbstorganisierung. Letzteres hat bei dem Projekt nicht geklappt, oder nur zu ganz kleinen Teilen. ...
Das vorliegende Arbeitspapier analysiert die sich in Westmittelfranken konzentrierende Kunststoff verarbeitende Industrie. Im Mittelpunkt der Analyse stehen die Wertschöpfungsprozesse der Unternehmen und damit verbunden unterschiedliche Interaktionsformen und Vertragsbeziehungen innerhalb der Branche. Die Arbeit diskutiert, ob es sich bei der regionalen Konzentration der Branche um ein sogenanntes Cluster handelt, aus dem Unternehmen Synergien bei der Wertschöpfung und unternehmerische Wettbewerbsvorteile gewinnen können. Die Analyse ist Teil eines Forschungsprojektes zum Thema „Innovationsfinanzierung im Mittelstand“ am Institut für Humangeographie (Abteilung Wirtschaftsgeographie) der Johann Wolfgang Goethe-Universität Frankfurt.
Ernst Bloch pointed out in a particularly emphatic way that the concept of human dignity featured centrally in historical struggles against different forms of unjustified rule, i.e. domination – to which one must add that it continues to do so to the present day. The “upright gait,” putting an end to humiliation and insult: this is the most powerful demand, in both political and rhetorical terms, that a “human rights-based” claim expresses. It marks the emergence of a radical, context-transcending reference point immanent to social conflicts which raises fundamental questions concerning the customary opposition between immanent and transcendent criticism. For within the idiom of demanding respect for human dignity, a right is invoked “here and now,” in a particular, context-specific form, which at its core is owed to every human being as a person. Thus Bloch is in one respect correct when he asserts that human rights are not a natural “birthright” but must be achieved through struggle; but in another respect this struggle can develop its social power only if it has a firm and in a certain sense “absolute” normative anchor. Properly understood, it becomes apparent that these social conflicts always affect “two worlds”: the social reality, on the one hand, which is criticized in part or radically in the light of an ideal normative dimension, on the other. For those who engage in this criticism there is no doubt that the normative dimension is no less real than the reality to which they refuse to resign themselves. Those who critically transcend reality always also live elsewhere.
The overvaluation hypothesis (Miller 1977) predicts that a) stocks are overvalued in the presence of short selling restrictions and that b) the overvaluation increases in the degree of divergence of opinion. We design an experiment that allows us to test these predictions in the laboratory. The results indicate that prices are higher with short selling constraints, but the overvaluation does not increase in the degree of divergence of opinion. We further find that trading volume is lower and bid-ask spreads are higher when short sale restrictions are imposed. JEL Classification: C92, G14 Keywords: Overvaluation Hypothesis , Short Selling Constraints , Divergence of Opinion
Regulations in the pre-Sarbanes–Oxley era allowed corporate insiders considerable flexibility in strategically timing their trades and SEC filings, for example, by executing several trades and reporting them jointly after the last trade. We document that even these lax reporting requirements were frequently violated and that the strategic timing of trades and reports was common. Event study abnormal re-turns are larger after reports of strategic insider trades than after reports of otherwise similar nonstrategic trades. Our results also imply that delayed reporting is detrimental to market efficiency and lend strong support to the more stringent trade reporting requirements established by the Sarbanes–Oxley Act. JEL Classification: G14, G30, G32 Keywords: Insider Trading , Directors' Dealings , Corporate Governance , Market Efficiency
This paper studies the market quality of an internalization system which is designed as part of an open limit order book (the Xetra system operated by Deutsche Börse AG). The internalization sys-tem (Xetra BEST) guarantees a price improvement over the inside spread in the Xetra order book. We develop a structural model of this unique dual market environment and show that, while adverse selection costs of internalized trades are significantly lower than those of regular order book trades, the realized spreads (the revenue earned by the suppliers of liquidity) is significantly larger. The cost savings of the internalizer are larger than the mandatory price improvement. This suggests that internalization can be profitable both for the customer and the internalizer. JEL Classification: G10
This paper reconsiders the effect of investor sentiment on stock prices. Using survey-based sentiment indicators from Germany and the US we confirm previous findings of predictability at intermediate time horizons. The main contribution of our paper is that we also analyze the immediate price reaction to the publication of sentiment indicators. We find that the sign of the immediate price reaction is the same as that of the predictability at intermediate time horizons. This is consistent with sentiment being related to mispricing but is inconsistent with the alternative explanation that sentiment indicators provide information about future expected returns. JEL Classification: G12, G14 Keywords: Investor Sentiment , Event Study , Return Predictability
This paper examines to what extent the build-up of "global imbalances" since the mid-1990s can be explained in a purely real open-economy DSGE model in which agents’ perceptions of long-run growth are based on filtering observed changes in productivity. We show that long-run growth estimates based on filtering U.S. productivity data comove strongly with long-horizon survey expectations. By simulating the model in which agents filter data on U.S. productivity growth, we closely match the U.S. current account evolution. Moreover, with household preferences that control the wealth effect on labor supply, we can generate output movements in line with the data. JEL Classification: E13, E32, D83, O40
Der vorliegende Beitrag beschäftigt sich mit Problemen der Messung individueller Wohlfahrt und ihrer Verteilung. Dabei wird versucht, eine Brücke zwischen ökonomischen und soziologischen Ansätzen zu schlagen. In einern ersten Teil werden Probleme der Nutzenmessung diskutiert. Für die Nutzenmessung gibt es weder einen natürlichen Nullpunkt noch eine natürliche Maßeinheit, so daß es deren Bestimmung durch Konventionen bedarf. Selbst die dabei einzubeziehende Palette objektiver und subjektiver Wohlfahrtskomponenten ist nicht vorgegeben. Ausgehend von dem soziologischen Ansatz, sowohl "welfare" als auch "happiness" zu berücksichtigen, wird ein differenziertes Schema wohlfahrtsrelevanter Bedürfnisse erarbeitet, deren Messung teilweise "objektiv unter Annahmen" - dies betrifft alle Besitzbedürfnisse -, überwiegend aber "subjektiv durch Einschätzung" möglich ist (Zugehörigkeitsbedürfnisse, Bedürfnisse nach Selbstverwirklichung, gesellschaftsbezogene Bedürfnisse). Die Bedingtheit empirischer Wohlfahrtsanalysen wird offensichtlich, da die unvermeidlichen normativen Hypothesen einer wissenschaftlichen Beweisführung nicht zugänglich sind. Dies gilt auch, wenn man sich auf die in Geldeinheiten direkt bewertbaren Bedürfnisbefriedigungsmittel beschränkt; denn die daraus resultierende Wohlfahrt hängt von den individuellen Nutzenfunktionen ab. Hinzu kommen Probleme bei der Zusammenfassung von Einkommens-, Vermögens- und Absicherungsindikatoren zu einem individuellen Gesamtwohlfahrtsmaß, um einem eindimensionale Wohlfahrtsverteilung unter allen Gesellschaftsmitgliedern ermitteln zu können. Schließlich bedarf es auch bei der Zurechnung der in einern Haushalt vorhandenen Bedürfnisbefriedigungsmittel auf die einzelnen Haushaltsmitglieder normativer Setzungen, die sich in verschiedenen Äquivalenzskaien niederschlagen. In einem zweiten Teil werden - nach der grundsätzlichen Erörterung von Schwierigkeiten bei der Operationalisierung und Messung von Nutzen - einige Ungleichheitsmaße dargestellt und hinsichtlich ihrer normativen Implikationen diskutiert. Alle Verteilungsindikatoren basieren auf der Philosophie des individualistischen Utilitarismus und gehen von Gleichverteilung als Referenzpunkt aus. Die Frage nach dem Einfluß der Wohlfahrt anderer Gesellschaftsmitglieder auf den individuellen Nutzen bleibt also ebenso ausgeklammert wie die nach einem gerechten Maß an Ungleichheit als Vergleichspunkt zur gegebenen Ungleichheit. Abschließend wird die Entwicklung einiger Verteilungsindikatoren in der Bundesrepublik Deutschland von 1962/63 bis 1988 dargestellt. Dabei zeigt sich eine weitgehende Stabilität der Verteilung der Nettoäquivalenzeinkommen, die allerdings nicht mit der Verteilung individueller Wohlfahrt gleichzusetzen ist.
Gegenstand der Untersuchung ist die Veränderung der Struktur der personellen Einkom-mensverteilung in der Bundesrepublik Deutschland. Die Grundlage der Analyse sind die vom Statistischen Bundesamt erhobenen Einkommens- und Verbrauchsstichproben (EVS) der Jahre 1962/63, 1969, 1973, 1978 sowie 1983. Um zwischen Alters-, Perioden- und Ko-horteneffekten differenzieren zu können, wurden die Daten der einzelnen Querschnittser-hebungen verkettet und mit Hilfe der so gebildeten Zeitreihen, sogenannten „Repeated Cross-Section“-Daten (RCS-Daten), die Entwicklung und Strukturveränderungen der Ein-kommen geburtskohortenspezifisch untersucht. Es zeigt sich, daß die Struktur der Einkommen während der jeweiligen Zeit der Erwerbstätigkeit, d. h. bis zum 60. Lebensjahr, relativ beständig bleibt. Erst der Übergang in die Nacherwerbsphase führt zu einem Bedeutungswandel: die „Einkommen aus öffentlichen Transferzahlungen“ werden zu einer relevanten Einkunftsart. Verursacht wird dies vor allem durch Leistungen aus staatlichen Alterssicherungssystemen. Eine analoge Zunahme der Bedeutung von „Einkünften aus Vermögen“ im Alter, wie sie z. T. in der ökonomischen Theorie sowie von Sozialpolitikern unterstellt wird, kann nicht bestätigt werden. Zusätzlich zu den, getrennt für die Ein- und Zweipersonenhaushalte durchgeführten Analysen wurde ein Vergleich der Wohlstandspositionen zwischen diesen beiden Haushaltsgrößen mittels Äquivalenzeinkommenswerten vorgenommen. Als grundlegendes Resultat ergibt sich, daß die Zweipersonenhaushalte im Hinblick auf die „ausgabefähigen Einkommen und Einnahmen“ grundsätzlich eine höhere Position als die Einpersonenhaushalte innehaben. Darüber hinaus wurden ansatzweise die mit einer Haushaltsänderung einhergehenden Einkommensveränderungen untersucht. Hierbei zeigt sich, daß der Übergang von einem „Zweipersonen-Durchschnittshaushalt“ mit einer männlichen Bezugsperson zu einem „Einpersonen-Durchschnittshaushalt“ mit einer verwitweten Frau als Bezugsperson zu einer erheblichen Verringerung der Wohlstandsposition der verwitweten Frau führt.
Wie können nun die vielfältigen Ergebnisse zur Einkommens- und Vermögensverteilung im Hinblick auf die Frage, ob es eine soziale Polarisierungstendenz gibt, zusammengefaßt werden? Angesichts des unklaren Begriffs der Polarisierung und der begrenzten Aussagekraft des Datenmaterials ist dies schwierig, zumal die empirische Analyse nicht nur Fragen beantwortet, sondern auch neue Fragen aufgeworfen hat und die vorliegenden Daten nicht sehr zeitnah sind. Trotz aller Einschränkungen lassen sich aber vielfältige Anzeichen einer Auseinanderentwicklung der Lebensverhältnisse einzelner Bevölkerungsgruppen feststellen. Diese äußern sich weniger in zusammenfassenden Verteilungsmaßen wie beispielsweise dem Gini-Koeffizienten als vielmehr in disaggregierten Betrachtungsweisen. So hat in Westdeutschland zwischen 1978 und 1993 sowohl der Bevölkerungsanteil, der in relativer Einkommensarmut lebt, als auch der Anteil der Reichen zugenommen. Dies könnte man als Polarisierungstendenz bezeichnen, wenn man Polarisierung allgemein als Prozeß der Herausbildung bzw. Vergrößerung von zwei weit auseinanderliegenden Einkommensgruppen versteht.32 Von der zunehmenden relativen Verarmung sind hauptsächlich Arbeitslosenhaushalte sowie Familien mit Kindern, insbesondere Alleinerziehende, betroffen, steigende gruppenspezifische Reichtumsquoten sind vorwiegend bei Selbständigen-, Angestellten- und Beamtenhaushalten sowie bei Paaren ohne Kinder zu beobachten. Die Gruppen der Alleinstehenden sind sehr heterogen, da sich hier sowohl überdurchschnittliche Armuts- als auch - mit Ausnahme der alleinstehenden älteren Frauen - überdurchschnittliche Reichtumsquoten zeigen; die Armutsquoten der jüngeren Alleinstehenden, insbesondere der Frauen, sind im Beobachtungszeitraum aber drastisch gestiegen, die Reichtumsquoten bei allen Alleinstehenden tendenziell gesunken. Neben diesen Tendenzen beinhaltet das nach wie vor starke West-Ost-Gefälle im Lebensstandard ein nicht zu unterschätzendes gesellschaftliches Spannungs- und Spaltungspotential. Die große Ungleichheit in der Einkommensverteilung wird von der Vermögensverteilung bei weitem übertroffen. Wenn man sich auf das Nettogrund- und Nettogeldvermögen (ausschließlich Zeitwerte der Kapitalversicherungsguthaben) beschränkt, verfügten 1988 die obersten 10% der Haushalte über fast die Hälfte des Gesamtvermögens, während die untere Hälfte der Haushalte weniger als 4% des Gesamtvermögens besaß. Diese krassen Gegensätze zeigen sich, obwohl die reichsten Haushalte in der Datenbasis nicht erfaßt sind. Für die Entwicklung der Konzentration der Vermögen zeigt sich im Zeitablauf keine eindeutige Tendenz. Die Ergebnisse für einzelne Jahre sind wegen unterschiedlicher Begriffsabgrenzungen nicht unmittelbar vergleichbar, die Erfassung des Vermögens ist generell unvollständig. In der Literatur wird eher von einer zunehmenden denn von einer abnehmenden Konzentration ausgegangen. Die bisher vorliegenden empirischen Verteilungsergebnisse decken allenfalls den Zeitraum bis 1993 ab. Seither hat sich die gesamtwirtschaftliche Situation aber deutlich verschlechtert. Die andauernden Arbeitsmarktprobleme und Kürzungen im Sozialleistungsbereich einerseits sowie "explodierende" Aktienkurse andererseits bergen zunehmende Gefahren einer nachhaltigen Spaltung der Gesellschaft. Es ist zu befürchten, daß unstetige Erwerbsverläufe mit der Folge unzureichender Sozialversicherungsansprüche künftig noch häufiger vorkommen werden und daß die Ungleichheit der Arbeitnehmereinkommen - auch durch die beobachtbare Zunahme untertariflicher Bezahlungen - steigen wird mit der Folge einer weiteren Verarmung insbesondere von Familien mit Kindern. Hinzu kommt, daß die von längerer Arbeitslosigkeit betroffenen Haushalte ihre Vermögensbestände aufzehren müssen oder sich gar verschulden, so daß ein Wiederaufstieg deutlich erschwert wird und auch die Vermögensverteilung noch ungleichmäßiger werden dürfte. Der Verteilungskonflikt wird sich darüber hinaus durch die in Gegenwart und Zukunft zu erwartenden Vererbungsvorgänge verschärfen. Hiervon profitieren nicht alle Haushalte gleichermaßen. Aufgrund sinkender Kinderzahlen ist mit einer Kumulierung von Vermögenswerten zu rechnen.33 Die in einigen politischen Kreisen befürwortete stärkere Einbeziehung der privaten Vermögensbestände zur Risikovorsorge, insbesondere für das Alter, ist angesichts der starken Vermögenskonzentration für den größten Teil der Bevölkerung wohl kaum eine realistische Alternative.
The recent financial crisis has highlighted the limits of the “originate to distribute” model of banking, but its nexus with the macroeconomy and monetary policy remains unexplored. I build a DSGE model with banks (along the lines of Holmström and Tirole [28] and Parlour and Plantin [39] and examine its properties with and without active secondary markets for credit risk transfer. The possibility of transferring credit reduces the impact of liquidity shocks on bank balance sheets, but also reduces the bank incentive to monitor. As a result, secondary markets allow to release bank capital and exacerbate the effect of productivity and other macroeconomic shocks on output and inflation. By offering a possibility of capital recycling and by reducing bank monitoring, secondary credit markets in general equilibrium allow banks to take on more risk. Keywords: Credit Risk Transfer , Dual Moral Hazard , Monetary Policy , Liquidity , Welfare JEL Classification: E3, E5, G3 First Draft: December 2009, This Draft: September 2010
According to disposition effect theory, people hold losing investments too long. However, many investors eventually sell at a loss, and little is known about which psychological factors contribute to these capitulation decisions. This study integrates prospect theory, utility maximization theory, and theory on reference point adaptation to argue that the combination of a negative expectation about an investment’s future performance and a low level of adaptation to previous losses leads to a greater capitulation probability. The test of this hypothesis in a dynamic experimental setting reveals that a larger total loss and longer time spent in a losing position lead to downward adaptations of the reference point. Negative expectations about future investment performance lead to a greater capitulation probability. Consistent with the theoretical framework, empirical evidence supports the relevance of the interaction between adaptation and expectation as a determinant of capitulation decisions. Keywords: Investments , Adaptation , Reference Point , Capitulation , Selling Decisions , Disposition Effect , Financial Markets JEL Classification: D91, D03, D81
We investigate the incentives for vertical or horizontal integration in the financial security service industry, consisting of trading, clearing and settlement. We thereby focus on firms’ decisions but also look on the implications of these decisions on competition and welfare. Our analysis shows that the incentives for vertical integration crucially depend on industry as well as market characteristics. A more pronounced demand for liquidity clearly favors vertical integration whereas deeper financial integration increases the incentives to undertake vertical integration only if the efficiency gains associated with vertical integration are sufficiently large. Furthermore, we show that market forces can suffer from a coordination problem that end in vertically integrated structures that are not in the best interest of the firms. We believe this problem can be addressed by policy measures such as the TARGET2-Securities program. Furthermore, we use our framework to discuss major industry trends and policy initiatives. Keywords: Vertical Integration , Horizontal Integration , Competition , Trading , Settlement JEL Classification: G15, L13, L22
During the last decades households in the U.S. have experienced that residential house prices move in a persistent manner, i.e. that returns are positively serially correlated. Since an owner-occupied home is usually the largest investment of a household it is important to understand how households act when they base their consumption and investment decisions on this experience. We show in a setting with housing market cycles and households who can decide whether they rent or own the home, that - besides the consumption and the precautionary savings motive - serial correlation in house prices generates a new speculative motive for homeownership. In particular, we show how good and bad housing market cycles affect homeownership rates, leverage, stock investments and consumption and can explain empirically observed household behavior during housing market boom and bust periods. Keywords: Asset Allocation , Portfolio Choice , Housing Market Cycles , Real Estate JEL Classification: G11, D91
We test whether asymmetric preferences for losses versus gains as in Ang, Chen, and Xing (2006) also affect the pricing of cash flow versus discount rate news as in Campbell and Vuolteenaho (2004). We construct a new four-fold beta decomposition, distinguishing cash flow and discount rate betas in up and down markets. Using CRSP data over 1963–2008, we find that the downside cash flow beta and downside discount rate beta carry the largest premia. We subject our result to an extensive number of robustness checks. Overall, downside cash flow risk is priced most consistently across different samples, periods, and return decomposition methods, and is the only component of beta that has significant out-of-sample predictive ability. The downside cash flow risk premium is mainly attributable to small stocks. The risk premium for large stocks appears much more driven by a compensation for symmetric, cash flow related risk. Finally, we multiply our premia estimates by average betas to compute the contribution of the different risk components to realized average returns. We find that up and down discount rate components dominate the contribution to average returns of downside cash flow risk. Keywords: Asset Pricing, Beta, Downside Risk, Upside Risk, Cash Flow Risk, Discount Rate Risk JEL Classification: G11, G12, G14
Capturing the zero: a new class of zero-augmented distributions and multiplicative error processes
(2010)
We propose a novel approach to model serially dependent positive-valued variables which realize a non-trivial proportion of zero outcomes. This is a typical phenomenon in financial time series observed on high frequencies, such as cumulated trading volumes or the time between potentially simultaneously occurring market events. We introduce a flexible pointmass mixture distribution and develop a semiparametric specification test explicitly tailored for such distributions. Moreover, we propose a new type of multiplicative error model (MEM) based on a zero-augmented distribution, which incorporates an autoregressive binary choice component and thus captures the (potentially different) dynamics of both zero occurrences and of strictly positive realizations. Applying the proposed model to high-frequency cumulated trading volumes of liquid NYSE stocks, we show that the model captures both the dynamic and distribution properties of the data very well and is able to correctly predict future distributions. Keywords: High-frequency Data , Point-mass Mixture , Multiplicative Error Model , Excess Zeros , Semiparametric Specification Test , Market Microstructure JEL Classification: C22, C25, C14, C16, C51
The first part of the following paper deals with varying points of criticism forwarded against Ordoliberalism. Here, it is not the aim to directly falsify each argument on its own; rather, the author tries to give a precise overview of the spectrum of critique. The second section picks out one argument of critical review – namely that the ordoliberal concept of the state is somewhat elitist and grounded on intellectual experts. Based on the previous sections, the final part differentiates two kinds of genesis of norms: an evolutionary and an elitist one – both (latently) present within Ordoliberalism. In combination with the two-level differentiation between individual and regulatory ethics, the essay allows for a distinction between individual-ethical norms based on an evolutionary genesis of norms and regulatory-ethical norms based on an elitist understanding of norms. A by-product of the author’s argument is a (further) demarcation within neoliberalism.
Die fragmentierte Verrechtlichung des internationalen Raums, die Proliferation von Regelungsarrangements jenseits des Staates und die Diffusion globaler Normen sowie die daraus resultierenden Geltungs-, Kompetenz- und Autoritätskonflikte sind seit geraumer Zeit ein in der sozialwissenschaftlichen Literatur viel diskutiertes Phänomen. Überlappungen von nationalen Regierungssystemen und von im Völkerrecht verankerten klassischen internationalen Regimen existieren seit der Schaffung des Westfälischen Staatensystems.In jüngerer Zeit verstärkte sich der Pluralismus normativer Ordnungen jedoch global durch neuartige Typen von Regelungsarrangements jenseits des Staates. Auch unter den zwischenstaatlich geschaffenen internationalen Institutionen finden sich solche, die autonome Handlungs- und Entscheidungskompetenzen zugesprochen bekommen haben und diese als Akteure mit eigener Subjektivität ausüben. Hinzu kommt eine immer stärkere Aufnahme von „behind the border issues“ in den Aufgabenkatalog dieser Regime und Organisationen (Zürn 2004). Diese Entwicklungen führen zu einem neuen Grad an Kontestation und Umstrittenheit globaler normativer Ordnungen. Weder die Herstellung einer einheitlichen globalen normativen Ordnung noch eine Re-Nationalisierung des Rechts erscheinen heute als realistische Zukunftsprognosen. Umso wichtiger ist es daher, sich mit den Auswirkungen dieses Pluralismus’ normativer Ordnungen zu beschäftigen.
This paper discusses the implications of transnational media production and diasporic networks for the cultural politics of migrant minorities. How are fields of cultural politics transformed if Hirschmann’s famous options ‘exit’ and ‘voice’ are no longer constituting mutually exclusive responses to dissent within a nation-state, but modes of action that can combine and build upon each other in the context of migration and diasporic media activism? Two case studies are discussed in more detail, relating to Alevi amateur television production in Germany and to a Kurdish satellite television station that reaches out to a diaspora across Europe and the Middle East. Keywords: migrant media, transnationalism, Alevis, Kurds, Turkey, Germany
Markt- und wettbewerbsorientierte Reformstrategien in den Krankenhaussystemen zahlreicher Industrieländer haben Befürchtungen vor einer kommerzialisierten Krankenhausversorgung hervorgebracht. Dieser Beitrag unterbreitet einen analytischen Interpretationsrahmen zur Erklärung der internationalen Verbreitung dieser Reformstrategien und versucht die behaupteten negativen Effekte von Kommerzialisierungsprozessen auf Versorgungsqualität und Zugänglichkeit zu untersuchen. Gestützt auf einen Vergleich eines idealtypischen Kommerzialisierungsmodells mit dem institutionellen und organisatorischen Wandel im deutschen Krankenhaussystem kommt der Beitrag zu dem Schluss, dass Kommerzialisierungsprozesse in der Krankenhausversorgung bislang noch begrenzt sind. Obwohl ein markt- und wettbewerbsbasierter Umbau der Governancestrukturen zu beobachten ist und Krankenhäuser zu einer Kommerzialisierungsstrategie gedrängt werden, lässt sich aufgrund einer unzureichenden Daten- und Forschungslage bislang nicht empirisch feststellen, ob die Kommerzialisierungsprozesse zu einer Verschlechterung der Qualität und Zugänglichkeit der Krankenhausversorgung geführt haben.
Zusammenfassung - Das Kernanliegen des KredReorgG –die Internalisierung des systemischen Risikos in den Entscheidungsprozess und die Verantwortlichkeit von Bankeignern und –gläubigern – wird im Wesentlichen erreicht. - Die Wirksamkeit des Gesetzes steht und fällt mit der Möglichkeit, jede Bank in systemisch relevante (zu rettende) und systemisch nicht-relevante (abzuwickelnde) Teile zu zerlegen. Dieser Ansatz ist Ziel führend und international „state of the art“ (Bsp. UK). - Unsere Hauptkritik: Um die o.g. Wirksamkeit des Gesetzes überhaupt zu ermöglichen (und eine Unterlaufung der Gesetzesintention zu verhindern), bedarf es einer zusätzlichen und zwingenden Vorgabe, dass jede Bank eine Mindestmenge an Anleihen außerhalb des Kern-Finanzsektors dauerhaft platzieren muss, und dass diese Anleihen zu keinem Zeitpunkt von Banken erworben werden dürfen. - Um dies zu erreichen sind die Anlagevorschriften für Kapitalsammelstellen (Lebensversicherer, Pensionsfonds) und für Banken entsprechend zu ändern bzw. zu verschärfen. - Weitere Kritikpunkte betreffen die vermutete geringe Bedeutung der freiwilligen Verfahren (Sanierung und Reorganisation) und die Gestaltung der Sonderabgabe und der Restrukturierungsfonds.
Die Entwicklung des Verständnisses von globaler Ordnung ist eng mit der Etablierung dessen verbunden, was in den Internationalen Beziehungen gemeinhin als „Westfälisches Staatensystem“ bezeichnet wird. Der Abschluss der Westfälischen Friedensverträge im Jahr 1648, die den Beginn einer auf rechtlicher Gleichheit und Selbstbestimmung basierenden internationalen Ordnung in Europa markieren sollen, wird dabei häufig auch als ein zentraler Meilenstein in der Entstehung der spezifischen politischen Praxis „Außenpolitik“ verstanden. Deren konstitutives Merkmal wird insbesondere im Konzept der „Souveränität“ verortet, eine befähigende Eigenschaft politischer Akteure, frei von Fremdeinfluss in einem größeren Kontext unter Herstellung von Innen-/Außen-Grenzen handeln zu können. Somit ist dieser Begriff einer der Grundprämissen, die in der Vorstellung eines „internationalen Systems“ zum Ausdruck kommt, in dem „souveräne“ Akteure in Beziehungen zu anderen „souveränen“ Akteuren treten – also „Außenpolitik“ betreiben. Nun ist die Denkfigur des Westfälischen Staatensystems bereits aus mehreren disziplinären Perspektiven heraus kritisiert worden, dennoch scheint die Vorstellung eines Systems souveräner Nationalstaaten beachtliche Standfestigkeit zu beweisen. Das Westfälische Staatenmodell – mit seinem „master concept“ Souveränität - verbindet das Konzept von politischer Autorität mit Territorialität und Gruppe und stellt somit ein einschlägiges wie analytisch handliches Ordnungsprinzip internationaler Beziehungen bereit. Oder in Stephen Krasners Worten: „it orders the minds of the policy-makers“.
On the backdrop of the 2008 financial crisis this paper introduces an understanding of societal crises as a reduction in the meaning production of social entities, which can either be internally or externally provoked. The emergence of constitutions and, more generally, constitutional structures, can be understood as responses to both forms of crisis. This is the case because they are double-edged structures which are simultaneously oriented towards the maintenance of internal order and stability within a given social entity at the same time as they frame the transfer of the meaning components between the social entities and their environments. Thus, the 2008 financial crisis indicates a failure of constitutional bonding. When observed from an overall structural perspective, the reasons for this failure can be traced back to an increased discrepancy between the structural composition of world society and the constitutional structures in place. The crisis reflects a failure to respond to two simultaneous, inter-related and mutually re-inforcing structural transformations. First, there is the increased globalisation, which has led to massive dis-locations in the relative centrality of the different national configurations for the reproductive processes of functional systems. Second, there is a structural transformation of the transnational layer of world society through a reduced reliance on the centre/periphery differentiation and an increased reliance on functional differentiation. One of the many consequences of this development is the emergence of new forms of transnational law and politics. A new constitutional architecture which reflects these transformations is needed in order to ensure an adequate constitutional bonding of economic processes, as well as of other social processes.
Die fragmentierte Verrechtlichung des internationalen Raums, die Proliferation von Regelungsarrangements jenseits des Staates und die Diffusion globaler Normen sowie die daraus resultierenden Geltungs-, Kompetenz- und Autoritätskonflikte sind seit geraumer Zeit ein in der sozialwissenschaftlichen Literatur viel diskutiertes Phänomen. Überlappungen von nationalen Regierungssystemen und von im Völkerrecht verankerten klassischen internationalen Regimen existieren seit der Schaffung des Westfälischen Staatensystems.In jüngerer Zeit verstärkte sich der Pluralismus normativer Ordnungen jedoch global durch neuartige Typen von Regelungsarrangements jenseits des Staates. Auch unter den zwischenstaatlich geschaffenen internationalen Institutionen finden sich solche, die autonome Handlungs- und Entscheidungskompetenzen zugesprochen bekommen haben und diese als Akteure mit eigener Subjektivität ausüben. Hinzu kommt eine immer stärkere Aufnahme von „behind the border issues“ in den Aufgabenkatalog dieser Regime und Organisationen (Zürn 2004). Diese Entwicklungen führen zu einem neuen Grad an Kontestation und Umstrittenheit globaler normativer Ordnungen. Weder die Herstellung einer einheitlichen globalen normativen Ordnung noch eine Re-Nationalisierung des Rechts erscheinen heute als realistische Zukunftsprognosen. Umso wichtiger ist es daher, sich mit den Auswirkungen dieses Pluralismus’ normativer Ordnungen zu beschäftigen.
The concept of embeddedness plays a central role in the segment of economic sociology and social theory which is inspired by the works of Karl Polanyi. But to the extent that embeddedness is understood in a substantialist manner, implying the existence of a unitary lifeworld, the desire for embeddedness is an impossible aspiration under modern conditions. Throughout the modern era it is however possible to observe the emergence of complex societal stabilization mechanisms, which serve as substitutes to traditional forms of embeddedness. The emergence of function specific cultures, in the form of, for example, legal, political and scientific cultures, establishing a ‘second nature’ in the Hegelian sense, is one example of this. Other examples are (neo-)corporatist institutions which fulfilled a central stabilising role in classical modernity and the kind of network based governance arrangements which fulfil a similar position in today’s radicalised modernity.
Der vorliegende Beitrag versucht in Grundzügen zwei große thematische und theoretische Stränge zu bearbeiten, die im Begriff der Positiven Generalprävention miteinander verwoben sind. Der eine Strang kann dabei nicht mehr leisten, als erst einmal eine Ahnung von den Herausforderungen zu vermitteln, die das Völkerstrafrecht und seine Kriminologie an die im nationalen Strafrecht geläufigen Strafzwecke stellt; der andere Strang arbeitet dann ausführlicher kriminologisch, rechts- und normentheoretisch heraus, was das Völkerstrafrecht mit seinem Verfahren und seinen Sanktionen - immer gemessen an seinen eigenen immanenten und teilweise noch impliziten Ansprüchen - an expliziten Rechtswirkungen jedenfalls dann anstreben muss, wenn es, wie das nationalstaatliche Strafrecht auch, ein dezidiert präventiv ausgerichtetes Schuldstrafrecht sein und bleiben möchte. Beide Stränge treffen sich schließlich in der Überlegung, dass das Völkerstrafecht in vielfacher, hier dann auch näher erläuterter Weise eine „neue Form“ von Strafrecht ist, dessen Zweckbestimmung sich zwar der teleologischen Semantik des nationalen Strafrechts bedienen darf, die aber aus der Natur seines Gegenstandes heraus etwas ganz anderes und auch Neues bedeuten muss.
Die Entwicklung des Verständnisses von globaler Ordnung ist eng mit der Etablierung dessen verbunden, was in den Internationalen Beziehungen gemeinhin als „Westfälisches Staatensystem“ bezeichnet wird. Der Abschluss der Westfälischen Friedensverträge im Jahr 1648, die den Beginn einer auf rechtlicher Gleichheit und Selbstbestimmung basierenden internationalen Ordnung in Europa markieren sollen, wird dabei häufig auch als ein zentraler Meilenstein in der Entstehung der spezifischen politischen Praxis „Außenpolitik“ verstanden. Deren konstitutives Merkmal wird insbesondere im Konzept der „Souveränität“ verortet, eine befähigende Eigenschaft politischer Akteure, frei von Fremdeinfluss in einem größeren Kontext unter Herstellung von Innen-/Außen-Grenzen handeln zu können. Somit ist dieser Begriff einer der Grundprämissen, die in der Vorstellung eines „internationalen Systems“ zum Ausdruck kommt, in dem „souveräne“ Akteure in Beziehungen zu anderen „souveränen“ Akteuren treten – also „Außenpolitik“ betreiben. Nun ist die Denkfigur des Westfälischen Staatensystems bereits aus mehreren disziplinären Perspektiven heraus kritisiert worden, dennoch scheint die Vorstellung eines Systems souveräner Nationalstaaten beachtliche Standfestigkeit zu beweisen. Das Westfälische Staatenmodell – mit seinem „master concept“ Souveränität - verbindet das Konzept von politischer Autorität mit Territorialität und Gruppe und stellt somit ein einschlägiges wie analytisch handliches Ordnungsprinzip internationaler Beziehungen bereit. Oder in Stephen Krasners Worten: „it orders the minds of the policy-makers“.
Das vergangene Jahr hat uns ein neues Schuldverschreibungsgesetz beschert. Dadurch wurde das alte „Gesetz betreffend die gemeinsamen Rechte der Besitzer von Schuldverschreibungen“ vom 14. 12. 1899 abgelöst, dem praktisch keine große Bedeutung zukam. Einen Vorläufer haben diese Gesetze im preußischen Schuldverschreibungsgesetz, das Friedrich Wilhelm III. am 17. 6. 1833 für die preußische Monarchie in Kraft gesetzt hat. Dieses Gesetz, das bisher selbst in historischen Darstellungen des Schuldverschreibungsrechts kaum gewürdigt wird, ist aus mehreren Gründen von Interesse. Zum einen hatte die zeitgenössische Geldtheorie die Bedeutung des Papiergeldes und die angemessene Rolle des Staates bei der Schöpfung von Papiergeld und der Kontrolle der Geldmenge noch nicht erfaßt. Verschiedene Konzepte wurden erörtert und waren auch in der Praxis der Staaten anzutreffen. Noten privater Zettelbanken waren ebenso im Umlauf wie staatliche Schatzanweisungen und Schuldverschreibungen ohne und mit Gold- oder Silberdeckung. Mit dem Schuldverschreibungsgesetz von 1833 unterwarf Preußen die Emission von Schuldverschreibungen einschließlich der Noten privater Banken einer Genehmigungspflicht. Parallel hierzu findet sich eine auf wenige Einzelfälle beschränkte Bewilligung an „staatsnahe“ Banken, Banknoten auszugeben, die von staatlichen Stellen als Zahlungsmittel angenommen werden oder mit denen Steuerschulden beglichen werden mußten. Mit diesen parallelen Maßnahmen hat die Staatsführung Preußens im Vormärz den in der Literatur debattierten und politisch vielfach befürworteten Weg eines Wettbewerbs privater Papiergeldemittenten („Zettelbanken“) verworfen. Letzten Endes hat sie sich damit das Emissionsmonopol nicht nur für Metallgeld, sondern auch für Papiergeld und die Steuerung der Geldmenge aus papiergeldähnlichen privaten Banknoten gesichert. Ein weiterer leitender Gesichtspunkt bei der Abfassung des Schuldverschreibungsgesetzes war die Lenkung des privaten Anlagekapitals. Preußen wollte im Wettbewerb mit ausländischen Staaten um anlagesuchendes Kapital nicht ins Hintertreffen geraten und unterstellte deshalb auch die Emission und den Umlauf ausländischer Schuldverschreibungen im Inland der Genehmigungspflicht. Schließlich enthält das Schuldverschreibungsgesetz von 1833 auch privatrechtliche Vorschriften zum Schutz der Investoren. Obwohl seit langem Inhaberpapiere im Umlauf waren und sich auch das preußische ALR von 1794 mit Einzelfragen der Übertragung solcher Papiere, ihrer Vindikation, Amortisation und Funktion als Zahlungsmittel befaßt hatte,5 war bis dahin kein konsistentes Konzept entwickelt worden, das eine überzeugende und bruchfreie Lösung der praktisch auftretenden Fragen zur Rechtsstellung der Beteiligten – Aussteller, erster Nehmer und spätere Investoren – gestattet hätte. Auch das Schuldverschreibungsgesetz von 1833 stellt insoweit nur eine weitere Zwischenetappe dar, die in der Entwicklung dieser Finanzierungsinstrumente erreicht wurde. Die vorliegende Studie versucht, die angedeuteten Linien nachzuzeichnen.
Die Einschaltung einer zentralen Gegenpartei in den Handel mit Derivaten erfüllt zahlreiche wirtschaftliche Funktionen. Neben der Reduktion des Kontrahentenausfallrisikos und systemischer Risiken wird das durch das Erfordernis angemessener Eigenkapitalunterlegung gebundene Eigenkapital bestmöglich freigehalten. Letztlich kann mit ihr auch ein Frühwarnsystem zur Vorbeugung ungewollter Marktentwicklungen implementiert werden. Bei der Frage nach der rechtlichen Konstruktion des Handels mit Derivaten mittels zentraler Gegenpartei sind börslicher und außerbörslicher Handel zu trennen. Im börslichen Derivatehandel kommen die Rechtsgeschäfte zwischen CM und zentraler Gegenpartei durch Angebot und Annahme i.S. der §§ 145 ff. BGB zustande. Das Angebot des CM 1 liegt in der Eingabe der Order in das EDV-System. Das Angebot ist hinreichend bestimmt. Auch handelt CM 1 mit Rechtsbindungswillen. Allerdings besteht ein vertraglich vereinbartes Rücktrittsrecht bis zum Zeitpunkt des Matching. Das Angebot geht der zentralen Gegenpartei zu, indem CM 2 dieses als Passivvertreterin der zentralen Gegenpartei zur Kenntnis nimmt. Die Annahme durch die zentrale Gegenpartei erfolgt antizipiert durch Abschluss der Clearing-Vereinbarung. Ist ein NCM beteiligt, kommt zudem ein Parallelkontrakt zwischen CM und NCM zustande. Da die Ordereingabe des NCM zu zwei Vertragsschlüssen führt, gibt es zum einen ein eigenes Angebot gegenüber dem CM ab, welches antizipiert durch Abschluss der NCM-CM-Vereinbarung angenommen wird. Zum anderen gibt es ein Angebot im Namen des CM gegenüber der zentralen Gegenpartei ab. Der Vertragsschluss entspricht dem zwischen CM und zentraler Gegenpartei. Im OTC-Handel wird das Rechtsgeschäft zunächst zwischen den CM oder den RK geschlossen. Dann wird das Geschäft im Wege der abstrakten Novation aufgespalten. Dadurch wird die zentrale Gegenpartei jeweils Vertragspartner eines CM. Die Novation erhält ihre spezielle Ausprägung durch die CB-Eurex. Der Abschluss der neuen Schuldverhältnisse erfolgt durch Abgabe eines eigenen Angebotes der CM, das durch den anerkannten Anbieter als bloßer Bote an die zentrale Gegenpartei übermittelt wird. Die Annahme erfolgt durch Abschluss der Clearing-Vereinbarung. Ist ein RK involviert, kommt ebenfalls ein Parallelkontrakt zustande. Das Zustandekommen der beiden Rechtsgeschäfte findet auf die gleiche Weise wie im börslichen Handel statt. Das Clearing verläuft für den börslichen und außerbörslichen Derivatehandel gleich. Zunächst werden die fälligen Forderungen und Verbindlichkeiten verrechnet (Netting).208 Diesbezüglich schließen die Clearing-Stelle und das jeweilige CM durch Abschluss der Clearing-Vereinbarung einen Aufrechnungsvertrag zur Begründung einer einseitigen Aufrechnungsbefugnis zugunsten der Eurex Clearing AG. Eine Nettingvereinbarung kann auch im Verhältnis CM und NCM bzw. RK geschlossen werden. Eine Pflicht dazu besteht aber nicht. Die nicht verrechneten fälligen Forderungen und Verbindlichkeiten werden durch Barausgleich oder durch Übereignung von Wertpapieren, Wertrechten oder Wertpapieren im Treuhandgiroverkehr, erfüllt. Die Übereignung von Wertpapieren findet nach sachenrechtlichen Grundsätzen statt. Die dingliche Einigung zwischen CM 1 und CM 2 liegt in der Erstellung der Ist-Lieferliste durch die Eurex Clearing AG, die dabei als Aktiv- und Passivvertreter der beteiligten CMs handelt. Die dingliche Einigung erfolgt unter aufschiebender Bedingung. Die Übergabe der Wertpapiere findet durch Umstellung des Besitzmittlungsverhältnisses nach § 929 S. 1 BGB statt. Die Übertragung von Wertrechten oder Wertpapieren im Treuhandgiroverkehr finden nach den schuldrechtlichen Regelungen zur Aufrechnung (§§ 398 ff. BGB) statt. Dazu tritt CM 1 zunächst den Lieferanspruch gegenüber der Wertpapiersammelbank an die Eurex Clearing AG ab. Diese erwirbt den Lieferanspruch jedoch nur treuhänderisch durch Abschluss eines eigennützigen Treuhandverhältnisses. Erst in einem zweiten Schritt tritt die Eurex Clearing AG den Lieferanspruch unter aufschiebender Bedingung an CM 2 ab, was durch die Erteilung entsprechender Gutschriften nach außen erkennbar wird. Nicht fällige Derivategeschäfte werden saldiert. Ein dabei verbleibender Saldo an offenen Verbindlichkeiten ist durch Sicherheiten zu unterlegen. Im Hinblick auf die Funktionswahrung der Clearing-Stelle sind diese bei Sicherheiten in Wertpapieren und Wertrechten ausnahmslos als Pfandrechte zu qualifizieren.
On the backdrop of the 2008 financial crisis this paper introduces an understanding of societal crises as a reduction in the meaning production of social entities, which can either be internally or externally provoked. The emergence of constitutions and, more generally, constitutional structures, can be understood as responses to both forms of crisis. This is the case because they are double-edged structures which are simultaneously oriented towards the maintenance of internal order and stability within a given social entity at the same time as they frame the transfer of the meaning components between the social entities and their environments. Thus, the 2008 financial crisis indicates a failure of constitutional bonding. When observed from an overall structural perspective, the reasons for this failure can be traced back to an increased discrepancy between the structural composition of world society and the constitutional structures in place. The crisis reflects a failure to respond to two simultaneous, inter-related and mutually re-inforcing structural transformations. First, there is the increased globalisation, which has led to massive dis-locations in the relative centrality of the different national configurations for the reproductive processes of functional systems. Second, there is a structural transformation of the transnational layer of world society through a reduced reliance on the centre/periphery differentiation and an increased reliance on functional differentiation. One of the many consequences of this development is the emergence of new forms of transnational law and politics. A new constitutional architecture which reflects these transformations is needed in order to ensure an adequate constitutional bonding of economic processes, as well as of other social processes.
Die Herausbildung normativer Ordnungen : zur Idee eines interdisziplinären Forschungsprogramms
(2010)
Ein geistes- und sozialwissenschaftliches Forschungsprogramm betritt mit der These, dass wir in einer Zeit tiefgreifender sozialer Veränderungen leben, kein Neuland. Ein thematischer Fokus auf die Frage der Herausbildung normativer Ordnungen mit Bezug auf die entsprechenden Verschiebungen, Umbrüche und Konflikte in verschiedenen Gesellschaften und auf transnationaler Ebene bringt dagegen etwas Neues und Wichtiges ans Licht. Das ist jedenfalls unsere Überzeugung.
Das vorliegende Arbeitspapier ist die unveränderte Fassung einer Diplomarbeit, die von Michael Grimm während einer Dauer von vier Monaten am Institut für Konjunktur, Wachstum und Verteilung der Universität Frankfurt a. M. geschrieben wurde. Die Ergebnisse der Analyse halte ich für so interessant, daß mir eine Veröffentlichung als Arbeitspapier im Rahmen des von mir geleiteten EVS-Projektes, dessen Daten die Grundlage der Arbeit bilden, als lohnend erscheint. Dadurch kann sichergestellt werden, daß die Untersuchungsergebnisse Interessierten zur weiteren Nutzung, sei es als reine Informationsgrundlage oder als Ausgangspunkt weiterer Analysen, zur Verfügung stehen. Die Studie beleuchtet die Verteilung von Geld- und Grundvermögen auf sozioökonomische Gruppen in der Bundesrepublik Deutschland. Als Datenbasis wurde eine Datenbank mit (anonymisierten) Individualdaten der Einkommens- und Verbrauchsstichprobe 1988 der Universität Frankfurt a. M. genutzt. Anknüpfend an frühere Arbeiten, die zu diesem Themenkomplex im Rahmen des Sonderforschungsbereichs 3 "Mikroanalytische Grundlagen der Gesellschaftspolitik" angefertigt wurden sowie durch Berücksichtigung von Daten zur EVS 1993, die zum Untersuchungszeitpunkt allerdings nur in tabellierter Form vorlagen, skizziert die Analyse eindrucksvoll die Entwicklung der Vermögensverteilung bis in die neunziger Jahre hinein. Dabei zeigt sich, daß die Verteilung des Vermögens, im Vergleich zur Verteilung der Einkommen, einen weiterhin sehr hohen Konzentrationsgrad aufweist. Insbesondere auf der Personenebene hat sich der Grad der Konzentration im Laufe der achtziger Jahre sogar noch verstärkt. Auch die Betrachtung der Verteilung auf sozio-ökonomische Gruppen zeigt viele interessante und neue Ergebnisse, so daß die Analyse ein echter Erkenntnisfortschritt ist. Es bleibt zu hoffen, daß weitere Arbeiten auf Basis der Einkommens- und Verbrauchs stichproben 1993 und 1998 sich der Entwicklung der Vermögensverteilung, insbesondere auch in den neuen Bundesländern, widmen und so eine langfristige Informationsgrundlage für Wirtschafts- und Sozialpolitik schaffen. Frankfurt am Main, im März 1998 (Richard Hauser)
Enthält die 2 Vorträge: Die Entwicklung der Einkommensverteilung und der Einkommensarmut in den alten Bundesländern von 1962 bis 1988 / Irene Becker, Universität Frankfurt/Main Vergleichende Analyse der Einkommensverteilung und der Einkommensarmut in den alten und neuen Bundesländern von 1990 bis 1995 / Richard Hauser, Universität Frankfurt a.M.
Revised version of a paper presented at the Conference "The Distribution of Economic Well-Being in the 1980s - an International Perspective", June 21 - 23, 1993, in Fiskebäckskil, Sweden. This paper sketches changes in the distribution of well-being during the period from 1972 to 1991 against the background of West Germany's economic and demographic development, and compares the distribution of well-being in East Germany before and after reunification. We rely on equivalent income of persons as the main indicator to measure well-being, but we also look at the distribution of gross wage income of workers and employees. Estimates of the Federal Statistical Office referring to the mesolevel of average equivalent income of socio-economic groups as well as various distributional measures computed by us at the micro-level are used to gauge changes of the distribution. The computations are based on two sets of micro-data available to us, the official Income and Consumption Surveys (1973, 1978 and 1983), and the German Socio-economic Panel (1983 to 1990 for West Germany, 1990, 1991 for East Germany). At the meso-level we find substantial changes in the relative welfare positions of the ten socio-economic groups distinguished, but a nearly constant ranking of the groups during the whole period under review. At the micro-level our computations indicate slight increases in the inequality of gross earnings during both decades. The distribution of well-being as measured by equivalent income of persons seems also to have become slightly more unequal during the whole period but the changes are very small, and partly reversed during subperiods. A decomposition of overall inequality by occupational status of the heads of household using the Theil measure shows that more than 80 percent of overall inequality is due to within-group inequality with rising tendency. This result is mitigated a little when dis aggregating the heterogeneous group of not gainfully employed with regard to the main income source of the household.
Die Untersuchungen auf der Basis der Einkommens- und Verbrauchs stichproben haben ergeben, daß sich hinter der für die "alte" Bundesrepublik festgestellten weitgehenden Stabilität der Verteilung der Nettoäquivalenzeinkommen deutliche Veränderungen auf den vorgelagerten Stufen des Verteilungsprozesses verbergen. Bei den individuellen Erwerbseinkommen sowie bei den individuellen Faktoreinkommen (nur Bezieher) sind zwischen 1973 und 1988 die hier einbezogenen aggregierten Ungleichheitsmaße zwar kaum gestiegen; Kernel Density-Schätzungen zeigen aber einen leichten Polarisierungstrend der bimodalen Verteilung, da die Dichte in den Randbereichen der Verteilung zugenommen hat und das Dichtetal zwischen den beiden Gipfeln sich gesenkt hat. Unter Berücksichtigung des Haushaltszusammenhangs - durch Zusammenfassung individueller Faktoreinkommen auf Haushaltsebene und Gewichtung mit einer Äquivalenzskala - erweisen sich die Verteilungsänderungen als noch gravierender. Die aggregierten Ungleichheitsmaße sind stark gestiegen, und das Verhältnis der beiden Modi der zweigipfligen Verteilung hat sich umgekehrt: lag 1973 der erste Gipfel im Bereich der geringfügigen Faktoräquivalenzeinkommen noch deutlich unter dem zweiten, knapp unterhalb des Durchschnitts gelegenen Gipfel, so war 1988 der erste Gipfel deutlich höher als der zweite. Die relative Häufigkeit marginaler Faktoräquivalenzeinkommen hat im Zeitablauf also eindeutig zugenommen, ebenso wie die im oberen Einkommensbereich. Dennoch kann man von Polarisierung nur in einem weiteren Sinn sprechen, da das Dichtetal zwischen den Modi 1988 höher als 1973 liegt. Es mag beruhigend wirken, daß - zumindest in der Zeit vor der Wiedervereinigung - das Abgaben- und Transfersystem die zunehmende Disparität der Faktoreinkommensverteilung insoweit kompensieren konnte, als die relative Häufigkeit des Niedrigeinkommensbereichs - hier abgegrenzt mit 50% des durchschnittlichen Nettoäquivalenzeinkommens - vergleichsweise mäßig zugenommen hat. Dieser Eindruck ist allerdings im Hinblick auf die eingangs erwähnten Einschränkungen der Datenbasis zu relativieren. Die unzureichende Erfassung des oberen und des unteren Randbereichs der Einkommensverteilung läßt vermuten, daß der tatsächliche Trend zunehmender Ungleichheit und Polarisierung durch unsere Analysen unterschätzt wird.
Die Analyse von Entwicklungstendenzen der personellen Einkommensverteilung in der Bundesrepublik Deutschland hat ein hohes Maß an Stabilität ergeben. Trotz vielfältiger gesamtwirtschaftlicher und sozialer Wandlungsprozesse während des einbezogenen Vierteljahrhunderts (1962/63 bis 1988) deuten aggregierte Verteilungsmaße auf der Basis von Mikrodaten der Einkommens- und Verbrauchsstichproben (EVS) sehr mäßige Veränderungen der Verteilung der Nettoäquivalenzeinkommen an. Der sich zunächst abzeichnende leichte Trend zu verminderter Ungleichverteilung kehrte sich im letzten Jahrzehnt des Beobachtungszeitraums wieder um, so daß die meisten Verteilungsindikatoren 1988 wieder nahe den Werten zu Beginn der siebziger Jahre lagen. Zwischen 1978 und 1983 scheint sich insbesondere die Situation der untersten Schichten verschlechtert zu haben, wie die Entwicklung des Atkinson-Index bei hoher Ungleichheitsaversion, des Theil-Index und der Armutsquote - bei einer relativen Armutsgrenze von 50% des durchschnittlichen Nettoäquivalenzeinkommens - belegen. Ein Vergleich der Verteilungsentwicklung auf verschiedenen Stufen des Verteilungsprozesses zeigt, daß sich die primäre und die sekundäre Verteilung tendenziell auseinanderentwickelt haben. Beispielsweise ist der Gini-Koeffizient der Faktoräquivalenzeinkommen im Untersuchungszeitraum um 7% gestiegen, der der Nettoäquivalenzeinkommen um 11% gesunken. Das soziale Sicherungssystem scheint sich im Untersuchungszeitraum also im großen und ganzen bewährt zu haben. Dennoch deuten sich neuerdings wieder zunehmende Verteilungsprobleme und sozialpolitische Problemfelder an. Abgesehen von dem allgemeinen Anstieg der Armutsquote in den achtziger Jahren und der nach wie vor ungünstigen Position der (vollständigen) Familien mit mehreren Kindern zeigt sich insbesondere bei den Alleinerziehenden eine alarmierende Entwicklung. Ihre durchschnittliche Wohlstandsposition erreichte 1988 nur noch ca. vier Fünftel (Alleinerziehende mit einem Kind) bzw. drei Fünftel (Alleinerziehende mit mehreren Kindern) des durchschnittlichen Nettoäquivalenzeinkommens insgesamt. Die relativen Positionen der anderen Haushalts- bzw. Familientypen haben sich im Zeitablauf tendenziell eher dem Gesamtdurchschnitt angenähert, so daß eine Dekomposition von Verteilungsindikatoren eine eindeutige und anhaltende Dominanz der Intra-Gruppen-Ungleichheit gegenüber der Ungleichverteilung zwischen den Haushaltstypen ergibt (ca. 90% der insgesamt gemessenen Ungleichheit). Auch in der Differenzierung nach der sozialen Stellung des Haushaltsvorstands überwiegt die Intra-Gruppen-Ungleichheit die Inter-Gruppen-Komponente der Einkommensungleichverteilung um ein Vielfaches, und zwar in deutlich zunehmendem Maß. Eine zielgerichtete Sozial- und Verteilungspolitik sollte also nicht an traditionellen Kategorien bzw. Schichtmerkmalen - z.B. Arbeiterschicht versus Unternehmerschicht - anknüpfen, sondern die komplexen Einflußfaktoren, die die materielle Situation von Haushalten determinieren, und damit die Heterogenität von eindimensional abgegrenzten Gruppen berücksichtigen. Darüber hinaus hat die Untersuchung auf der Basis der EVS-Datenbank gezeigt, daß sich hinter einer insgesamt recht stabilen Einkommensverteilung vielfältige, sich kompensierende Einzelentwicklungen verbergen, die in der Sozial- und Familienpolitik beachtet werden sollten.
Did earnings inequality in the Federal Republic of Germany increase from the 1960s to the 1980s?
(1996)
Das Niedrigeinkommenssegment steht im Zentrum der Kontroversen um eine Reform des Sozialstaats. Die Kenntnis seiner soziodemographischen Zusammensetzung ist daher unabdingbar, um in der betreffenden Diskussion gehaltvoll Position beziehen zu können. Besonders interessieren in diesem Zusammenhang Zeitvergleiche. In diesem Sinne wird in der vorliegenden Studie die Veränderung der Struktur des Niedrigeinkommensbereiches in der Bundesrepublik anhand einer Abfolge mehrerer Querschnitte, welche die Jahre 1962/63 bis 1988 umfaßt, analysiert. Dem Niedrigeinkommensbereich werden - in Anlehnung an neuere Ergebnisse in der Literatur über „prekären Wohlstand“ und über Abstiegsrisiken - diejenigen Personen zugerechnet, die nicht mehr als 80 v. H. des durchschnittlichen Nettoäquivalenzeinkommens zur Verfügung haben. Zur vertieften Analyse wird der Niedrigeinkommensbereich nochmals in vier Teilsegmente unterteilt. Entsprechend den relativen Besetzungshäufigkeiten zeigt sich beim Vergleich mit dem oberen Einkommensbereich für spezifische Personengruppen eine Überrepräsentation im Niedrigeinkommensbereich bzw. in seinen vier Teilsegmenten. Hierbei ergeben sich im Zeitablauf einige aufschlußreiche Trends. So erhöhte sich von 1962 bis 1988 beispielsweise für Alleinstehende, für Personen in Alleinerziehenden-, in Nichterwerbstätigenhaushalten sowie für Personen in Haushalten mit einer weiblichen Bezugsperson der Grad der Überrepräsentation im Niedrigeinkommensbereich. Gleiches gilt für Personen in Haushalten mit einem hohen Mietanteil am Haushaltsnettoeinkommen bzw. generell für Personen in Nichteigentümerhaushalten. Demgegenüber verringerte sich insbesondere für Personen im Haushaltstyp einer vollständigen Familie mit vier Kindern oder für Personen in Landwirte- und Arbeiterhaushalten von 1962 bis 1988 das Ausmaß der Überrepräsentation im Niedrigeinkommenssegment.
Im vorliegenden Arbeitspapier werden alternative normative Grundpositionen der Familienpolitik diskutiert und die Entwicklung der relativen Verteilungspositionen von Haushalten unterschiedlicher Größe bzw. von Familien mit und ohne Kinder untersucht. Die empirische Analyse stützt sich zum einen auf veröffentlichte Tabellen des Statistischen Bundesamtes und zum anderen auf eigene Auswertungen der Einkommens- und Verbrauchsstichproben 1973, 1978 und 1983 sowie des Sozio-ökonomischen Panels für einzelne Stichjahre der späteren Periode und insbesondere für die Ausgangssituation und die bisherigen Veränderungen in den neuen Bundesländern. Als Indikator für die Einkommenslage von Personen wird ein Äquivalenzeinkommen in Relation zum jeweiligen Gruppen- oder Gesamtdurchschnitt, die sogenannte Wohlstandsposition, herangezogen. Personen in Haushalten mit drei oder mehr Personen - das sind hauptsächlich Familien mit Kindern - schneiden erwartungsgemäß im Durchschnitt schlechter ab als Personen in kleineren Haushalten. Allerdings sind die Diskrepanzen innerhalb der Gruppen, die überwiegend von Transfers leben, mäßiger als innerhalb der Gruppen mit erwerbstätigem Haushaltsvorstand; anscheinend wirkt der Familienlastenausgleich in den sozial schwächeren Gruppen stärker. Zwischen 1972 und 1992 (Westdeutschland) hat sich die relative Position der größeren Haushalte allerdings tendenziell etwas verschlechtert. Die Verteilungsanalyse auf der Basis der erwähnten Mikrodaten zeigt zudem, daß Familien mit Kindern wesentlich häufiger unterhalb der durchschnittlichen Wohlstandsposition und unterhalb der relativen Armutslinie von 50 % einzuordnen sind als (Ehe-)Paare ohne Kinder. Besonders ungünstig sieht die Situation bei den Alleinerziehenden aus; die Armutsquote dieser Gruppe schwankt zwischen einem Fünftel und einem Viertel. In der ehemaligen DDR scheint die relative Position der Familien mit Kindern überwiegend besser gewesen zu sein; die Strukturen in den neuen Bundesländern haben sich aber bereits denen in Westdeutschland angenähert.
Dieser Beitrag vergleicht mit einheitlicher Methodik die Mobilität des individuellen Bruttoarbeitseinkommens, des Bruttoäquivalenzeinkommens und des Nettoäquivalenzeinkommens in Westdeutschland, Ostdeutschland, Großbritannien, den USA und Ungarn mit Panel-Daten dieser Länder aus dem Zeitraum 1989-1995. Die Mobilität ist in Ostdeutschland bei allen Einkommenskonzepten wesentlich höher als in Westdeutschland, nähert sich aber im Zeitablauf und insbesondere beim Nettoäquivalenzeinkommen dem westdeutschen Niveau an. Die Mobilität des Bruttoäquivalenzeinkommens ist in Westdeutschland größer, die des Nettoäquivalenzeinkommens kleiner als in Großbritannien. Die Mobilität des individuellen Bruttoarbeitseinkommens und des Bruttoäquivalenzeinkommens ist in Westdeutschland höher, die des Nettoäquivalenzeinkommens niedriger als in den USA. Die Mobilität des Nettoäquivalenzeinkommens ist in Ungarn deutlich höher als in Ostdeutschland. Diese Ergebnisse zeigen eine im internationalen Vergleich unerwartet hohe Flexibilität des deutschen Arbeitsmarkts, wobei jedoch die Verweildauer in der Arbeitslosigkeit in Deutschland länger ist als in den USA und Großbritannien, wo viele Arbeitslose schnell in schlecht bezahlte Jobs wechseln. Ferner zeigt sich, daß das Steuer- und Transfersystem in keiner anderen Volkswirtschaft die Mobilität der Bruttoäquivalenzeinkommen stärker reduziert als in Deutschland.
This paper aims to provide a descriptive analysis of the changing patterns of labour market participation, non-participation and unemployment in Great Britain, Sweden and Germany. Since the mid 1970s, most European countries have experienced two parallel developments: on the one hand they have witnessed a huge growth in the proportion of women participating on the labour market. On the other however, they have experienced the return of mass unemployment and a growing insecurity of employment for those in work. In this paper, a typology of work histories is constructed using decade periods. Retrospective and panel data from Germany, Britain and Sweden are then used to compare the effects of different employment and welfare regimes on the proportions of respondents with different types of work histories and how these are combined with unemployment.
Überarbeitete Version des Arbeitspapiers "The dynamics of labour market participation, unemployment and non-participation in Great Britain, Sweden and Germany" / Wolfgang Strengmann-Kuhn. [Johann-Wolfgang-Goethe-Universität Frankfurt am Main, Fachbereich Wirtschaftswissenschaften, Institut für Volkswirtschaftslehre]
This paper fits within a broader research programme concerned with the processes that link labour market precarity and social exclusion. Labour market insecurity manifests itself most directly in the form of unemployment, and other elements in the programme seek to measure the impact of precarity, and unemployment in particular, on poverty and social exclusion in the eight countries covered. One of the principal concerns of the programme is however the extent to which institutional differences across countries with respect to the labour market and social protection are a significant factor mediating the relationship between labour market precarity and social exclusion. This paper focuses on the effectiveness of cash transfers, the central element of social protection systems, in alleviating the effects of unemployment on income poverty. The structures of social protection systems vary greatly across European Union member states, and in many cases have altered significantly in recent years in response to high unemployment (see Hauser et al, 1998). Using data from the mid-1980s and the mid-1990s for six member countries, the paper compares the effectiveness of different systems in lifting or keeping the unemployed out of poverty, and how this has been affected by the way systems have responded to the challenges produced by developments in the labour market in the past decade. The specific role of social insurance-based unemployment-linked transfers versus other cash transfers is also considered, to assess the extent to which social insurance has been able to cope with changes in the labour market over the period. The data come from a variety of national large-scale household surveys. The paper is structured as follows. Section 2 discusses the data and methods to be employed in measuring the impact of cash transfers on poverty risks for the unemployed. Section 3 looks at the overall risks of poverty for the unemployed before and after cash transfers, and how these changed between the mid-1980s and mid-1990s. Section 4 looks at the role of social insurance-based unemployment payments versus other cash transfers. Section 5 examines the extent to which the impact of transfers varies by gender and by duration of unemployment. Section 6 highlights the key patterns identified and what these tell us about the relationship between the type of welfare regime a country operates and effectiveness in alleviating poverty among the unemployed.
Empirische Wohlstandsanalysen können prinzipiell anhand dreier Indikatoren durchgeführt werden: Anhand des Privaten Verbrauchs, anhand des verfügbaren Einkommens oder anhand des Nettovermögens.1 Während es für die Definition der Indikatoren des Privaten Verbrauchs und des verfügbaren Einkommens zumindest einigermaßen akzeptierte internationale Konventionen gibt, ist dies bezüglich der Definition des privaten Vermögens nicht annähernd der Fall. Im Unterschied zu den Volkseinkommensrechnungen sind Volksvermögensrechnungen im internationalen Maßstab deutlich weniger gut ausgebaut. Dies mag damit zusammenhängen, daß bei einer Bestandsgröße wie dem privaten Vermögen Aspekte der Verwertung, Nutz-ung, sozialen Absicherung wie auch der Verleihung von Macht2 intensiver zum Tragen kommen als bei einer Stromgröße wie dem privat verfügbaren Haushaltseinkommen. Aus welchen Bestandteilen sich das Gesamtvermögen zusammenzusetzen hat, ist daher einem heftigeren Diskurs als bei den anderen Wohlstandsindikatoren ausgesetzt. Es herrscht beispielsweise Uneinigkeit darüber, ob das Human- oder das Sozialvermögen sinnvolle Vermögenskomponenten sind. Eine eher negative Einschätzung in diesem Zusammenhang wird üblicherweise damit begründet, daß beide potentiellen Gesamtvermögensbestandteile das Kriterium der interpersonellen Veräußerbarkeit nicht bzw. nur unzureichend erfüllen.1 Auch ist die Forschung vor zum Teil schwer überwindbare Bewertungsprobleme einzelner Vermögenskomponenten gestellt, und zwar stärker als bei den beiden anderen Wohlstandsindikatoren, bei denen zumindest die überwiegende Anzahl an Teilelementen mittels nachvollziehbarer Marktpreise vergleichsweise einfach bewertet werden kann. Hinzu kommt die schlechtere Datenlage hinsichtlich der Erfassung privaten Vermögens im Vergleich zum Privaten Verbrauch bzw. verfügbaren Haushaltseinkommen, was nicht zuletzt auf die - in Befragungen - (noch) größere Sensibilität der Interviewten bezüglich der Beantwortung vermögensbezogener Fragen im Vergleich zu den beiden anderen Wohlstandsindikatoren zurückzuführen ist. Alles in allem bleibt festzuhalten, daß allein die Deskription der Höhe und Verteilung privat gehaltenen Vermögens eine höchst komplexe Aufgabe ist. Es ist daher keineswegs unwahrscheinlich, daß verschiedene Vermögensanalysen selbst auf einer einheitlichen Datengrundlage zu zum Teil entgegengesetzten Aussagen gelangen werden. Diesen letztgenannten Gedanken aufgreifend, werden in der vorliegenden Studie in beispielhafter Form drei auf Basis der Einkommens- und Verbrauchsstichprobe (EVS) 1988 durchgeführte Analysen zur bundesdeutschen Vermögensverteilung privater Haushalte einer vergleichenden Betrachtung unterzogen. Es wird gezeigt, an welchen Stellen Abweichungen zwischen den einzelnen Studien auftreten und worauf diese (vermutlich) zurückzuführen sind. Das vorliegende Arbeitspapier ist wie nachfolgend aufgebaut. Kapitel 2 vermittelt einen Eindruck von der Datenbasis, auf der die drei genannten Studien jeweils basieren, Kapitel 3 schildert kurz die Konstruktionselemente der drei behandelten Analysen, und in Kapitel 4 werden in einer Gegenüberstellung der drei Studien Unterschiede kausal herausgearbeitet. Es folgt in Kapitel 5 eine Bewertung der Untersuchungsergebnisse.
Performance and storage requirements of topology-conserving maps for robot manipulator control
(1989)
A new programming paradigm for the control of a robot manipulator by learning the mapping between the Cartesian space and the joint space (inverse Kinematic) is discussed. It is based on a Neural Network model of optimal mapping between two high-dimensional spaces by Kohonen. This paper describes the approach and presents the optimal mapping, based on the principle of maximal information gain. It is shown that Kohonens mapping in the 2-dimensional case is optimal in this sense. Furthermore, the principal control error made by the learned mapping is evaluated for the example of the commonly used PUMA robot, the trade-off between storage resources and positional error is discussed and an optimal position encoding resolution is proposed.
The structure of the compulsory pension system (CPS) in the Federal Republic of Germany has been changed fundamentally. The federal government has decided to introduce a private pension system on a voluntary basis. The payments to this voluntary system are to constitute a capital stock to supplement the payments of the compulsory pension system. Comprehensive fiscal subsidies will be introduced to support this change to the pension system. This paper discusses the special situation of families with children. The second section investigates the extent to which families with children were able to accumulate private wealth in the last ten years in Germany. In the third section the main features of the intended changes to the compulsory pension system are described, and an overview of the planned fiscal subsidies is provided. In the fourth and final section we attempt to evaluate the changes with particular attention to the situation of families.
Die Struktur der Gesetzlichen Rentenversicherung (GRV) in der Bundesrepublik Deutschland ist grundsätzlich geändert worden. Die Bundesregierung hat die Einführung einer zusätzlichen privaten Alterssicherung auf freiwilliger Basis beschlossen. Hierdurch soll ein Kapitalstock gebildet werden, der die Leistungen der GRV ergänzt. Zur Förderung dieser Systemänderung der Alterssicherung werden umfangreiche fiskalische Unterstützungsmaßnahmen eingeführt. Im Rahmen des hier vorliegenden Beitrags wird auf die besondere Situation der Familien mit Kindern eingegangen. Im zweiten Abschnitt wird untersucht, inwieweit Familien mit Kindern in den letzten zehn Jahren in Deutschland in der Lage waren, privates Vermögen aufzubauen. Im dritten Abschnitt werden die beabsichtigten Änderungen des Systems der gesetzlichen Rentenversicherung in den Grundzügen dargestellt, und es wird ein Überblick über die geplanten fiskalischen Fördermaßnahmen gegeben. Im abschließenden vierten Abschnitt wird eine Bewertung der Änderungen vor allem in Bezug auf die Situation von Familien versucht.
This investigation of the wealth of private households as a possible indicator for the prosperity of a society indicated a strong increase in wealth for the Federal Republic of Germany since 1970. This applies both to the macro-economic results of the financial accounting of the Deutsche Bundesbank and to the micro-economic results of the Income and Consumption Surveys of the Federal Statistical Office. However, substantial differences become clear in the content expressed by these two different sets of data. While the financial accounting of the Deutsche Bundesbank shows an increase of net assets of around 808 per cent over 27 years (from 1.3 trillion DM in the year 1970 to 12.1 trillion DM in 1997), calculations on the basis of the Income and Consumption Surveys yield a corresponding value of only 280 per cent in a 25-year period, with a substantially lower overall magnitude in later investigations (from 2.2 trillion DM in 1973 to only 8.3 trillion DM in 1998). Investigation of the EVS data pointed out the great importance of property for the wealth situation of private households. However, not every household has property in the form of housing and real estate. In West Germany, ownership rates have increased substantially since 1962. However, since 1993 these rates have stagnated at about 50 per cent. The analysis of the distribution of wealth for West German households yielded a decline in the concentration of wealth in the period from 1973 to 1993, both in terms of the shares of total wealth held by individual quintiles of households, and as expressed by the Gini coefficients. However, this trend did not continue in the years between 1993 and 1998. For the year 1998 it can be determined that the lowest 40 per cent of households in West Germany had practically no wealth, while the highest quintile claimed over 60 per cent of total assets. For East Germany, strong tendencies are established toward adapting to the values in the West German Länder. This concerns first the absolute level of net assets, even though in 1998 these amounted to just 38 per cent of the analogous value in West German households, in terms of the average value per household. Similarly, the ownership rates of housing and real estate also rose dramatically after reunification. The inequality of the distribution of wealth in East Germany was reduced somewhat by this broader basis of real-estate ownership over the course of time, such that the Gini coefficient decreased slightly in the period from 1993 to 1998. However, it is also true for the new Länder in the Federal Republic that the lowest 40 per cent of households have practically no wealth, while the highest quintile of East German households claim over 70 per cent of total assets, even higher than its share in West Germany. Furthermore, the distribution of wealth is remarkably congruous in East and West Germany. Both the distribution of wealth as expressed by the quintile values and the results of the Gini coefficients yield similar results, whereby the trend in both regions is toward convergence. The similarity of these results must be regarded as nothing less than amazing, considering that the two regions followed different economic models for over forty years: the social free-market economy (Soziale Marktwirtschaft) in the Federal Republic of Germany, and the socialist planned economy (Sozialistische Planwirtschaft) in the German Democratic Republic.
Die Entwicklung des aggregierten Privatvermögens und seine Verteilung in Deutschland seit 1970
(2002)
Die hier vorgestellte Untersuchung des Vermögens privater Haushalte als ein möglicher Indikator für den Wohlstand einer Gesellschaft hat für die Bundesrepublik Deutschland einen starken Anstieg der Vermögen seit 1970 aufgezeigt. Dies gilt sowohl für die makroökonomischen Resultate der Finanzierungsrechnung der Deutschen Bundesbank als auch für die mikroökonomischen Ergebnisse der Einkommens- und Verbrauchsstichproben des Statistischen Bundesamts. Allerdings werden auch wesentliche Unterschiede im Aussagegehalt der einzelnen Datensätze deutlich. Während die Finanzierungsrechnung eine Steigerung des Nettovermögens um 808 Prozent in 27 Jahren aufweist (von 1,3 Billionen DM im Jahr 1970 auf 12,1 Billionen DM im Jahr 1997) lautet der entsprechende Prozentwert auf der Berechnungsbasis der Einkommens- und Verbrauchsstichproben nur 280 Prozent in 25 Jahren bei einer wesentlich niedrigeren Gesamthöhe in späteren Untersuchungen (von 2,2 Billionen DM im Jahr 1973 auf nur 8,3 Billionen DM im Jahr 1998). Die Untersuchung der Daten der EVS hat aufgezeigt, welch große Bedeutung das Immobilienvermögen für die Vermögenssituation der privaten Haushalte hat. Allerdings ist es nicht so, dass alle Haushalte über Eigentum an Grund- und Hausbesitz verfügen. In Westdeutschland hat es zwar eine starke Steigerungen der Eigentümerquote seit 1961 gegeben. Seit 1993 ist jedoch eine Stagnation bei etwa 50 Prozent zu konstatieren. Die Analyse der Vermögensverteilung nur bezogen auf die westdeutschen Haushalte hat im Zeitraum von 1973 bis 1993 eine abnehmende Konzentration sowohl bei der Betrachtung der Anteile einzelner Haushaltsquintile am Nettogesamtvermögen als auch bei der Analyse des Gini-Koeffizienten ergeben. Allerdings hat sich dieser Trend in den Jahren bis 1998 nicht weiter fortgeführt. Für das Jahr 1998 ist in Westdeutschland feststellbar, dass die unteren 40 Prozent der Haushalte über praktisch kein Vermögen verfügen, während das oberste Quintil über 60 Prozent des Gesamtvermögens aufweisen kann. Für Ostdeutschland sind starke Anpassungstendenzen hin zu den Werten der westdeutschen Bundesländer festzustellen. Dies betrifft einerseits die absolute Höhe der Vermögenswerte, auch wenn diese bisher nur 38 Prozent des entsprechenden Wertes westdeutscher Haushalte bei einer Betrachtung der Durchschnittswerte je Haushalte im Jahr 1998 erreichen. Andererseits ist auch die Eigentümerquote an Haus- und Grundbesitz nach der Wiedervereinigung stark angestiegen. Durch dieses Immobilieneigentum auf breiterer Basis wird die Ungleichheit der Vermögensverteilung in Ostdeutschland im Zeitablauf etwas verringert, so dass der Gini-Koeffizient in den Jahren von 1993 zu 1998 leicht gesunken ist. Jedoch kann auch für die neuen Bundesländer festgestellt werden, dass die unteren 40 Prozent der Haushalte über praktisch kein Vermögen verfügen, während das oberste Quintil ostdeutscher Haushalte sogar über 70 Prozent des Gesamtvermögens aufweisen kann. Feststellbar ist weiterhin eine hohe Übereinstimmung der Vermögensverteilung in Ost- und Westdeutschland. Sowohl die Vermögensverteilung auf der Basis der Quintilswerte als auch die Resultate der Gini-Koeffizienten weisen ähnliche Ergebnisse auf, wobei eine starke Angleichungstendenz zwischen beiden Landesteilen gegeben ist. Diese Ähnlichkeit der Ergebnisse kann nur als erstaunlich bezeichnet werden, wenn man bedenkt, dass beide Landesteile für über 40 Jahre unterschiedlichen wirtschaftspolitischen Leitbildern gefolgt sind – die Bundesrepublik Deutschland der sozialen Marktwirtschaft und die Deutsche Demokratische Republik der sozialistischen Planwirtschaft.
Einkommensverteilung in Deutschland : Strukturanalyse der Ungleichheit nach Einkommenskomponenten
(2000)
Ergebnisse von Verteilungsanalysen fallen je nach der Bezugseinheit - Haushalt oder Person - recht unterschiedlich aus. Dies gilt sowohl für das Niveau von Verteilungsindikatoren und deren Entwicklung im Zeitverlauf, als auch hinsichtlich der Beiträge einzelner Einkommens- und Abgabearten zu der gemessenen Ungleichheit. Auf der Basis der Einkommens- und Verbrauchsstichproben 1988 und 1993 und unter Verwendung der "älteren OECD-Skala" hat sich gezeigt, dass die Ungleichheit der personellen Verteilung der Nettoäquivalenzeinkommen im Beobachtungszeitraum in den alten Ländern zugenommen hat, aber nach wie vor wesentlich gleichmäßiger als die unveränderte Verteilung der Haushaltsnettoeinkommen auf Haushalte ist. In den neuen Ländern ist der Unterschied zwischen der haushaltsbezogenen und der personenbezogenen Einkommensverteilung noch deutlicher bei insgesamt geringerer Ungleichheit als in den alten Ländern. Auch die Zerlegung der aggregierten Ungleichheit nach Einkommenskomponenten führt zu teilweise abweichenden Ergebnissen in Abhängigkeit von der Bezugseinheit, da bei einzelnen Haushaltstypen im Durchschnitt jeweils unterschiedliche Einkommensarten dominieren. Entgegen gängigen Vorstellungen über Verteilungsstrukturen zeigt sich allerdings generell, dass die Verteilungsungleichheit zum größten Teil durch die Bruttoeinkommen aus unselbständiger Arbeit bestimmt wird. Zwar sind die Selbständigen- und Vermögenseinkommen erwartungsgemäß wesentlich ungleicher verteilt, durch ihren vergleichsweise geringen Anteil am Gesamteinkommen ist ihr Einfluss auf die Gesamtverteilung aber - insbesondere in Ostdeutschland, aber auch in Westdeutschland - begrenzt. Dies wird bei der Analyse der personellen Verteilung allerdings weniger deutlich als bei der Bezugnahme auf Haushalte. Wiederum im Gegensatz zu verbreiteten Annahmen wird die Ungleichheit der Verteilung der Haushaltseinkommen durch staatliche Transferzahlungen nicht oder nur unwesentlich gemildert. Dies ist aber nur auf den ersten Blick überraschend, da nur ein geringer Teil der Transfers vorrangig vertikalen, interpersonellen Umverteilungszielen dient. Die Leistungen der Sozialversicherung und vergleichbarer Systeme bezwecken hauptsächlich eine intertemporale Umverteilung und Lebensstandardsicherung bei Eintritt bestimmter Risikotatbestände (Alter, Tod des Ernährers, Unfall, Arbeitslosigkeit, Krankheit), so dass sie die Verteilung der Einkommen aus unselbständiger Arbeit abgeschwächt wiederspiegeln. Demzufolge geht auch von ihnen keine merkliche Verminderung der Ungleichheit der Nettoeinkommensverteilung auf der Haushaltsebene bzw. sogar eine leichte Erhöhung der Ungleichheit der personellen Verteilung der Nettoäquivalenzeinkommen in Westdeutschland aus. Aber selbst von den steuerfinanzierten Transfers geht unter Bezugnahme auf Haushalte insgesamt nur ein sehr geringer nivellierender Effekt aus. Hier wird die konzeptionelle Schwäche des analytischen Ansatzes am ungewichteten Haushaltseinkommen besonders deutlich. Denn mit dem Haushaltseinkommen wird ohne eine Berücksichtigung der Haushaltsgröße und -struktur die Bedarfssituation der Haushaltsmitglieder, die für viele steuerfinanzierte Transfers maßgeblich ist, nur unzureichend erfasst. Dementsprechend erweist sich der ausgleichende Effekt der Transfers der Gebietskörperschaften unter Bezugnahme auf Personen als recht deutlich, wenn auch in Westdeutschland im Vergleich zum Anteil am Einkommensaggregat als unterproportional. Bei einer weiteren Aufspaltung des heterogenen Komplexes der steuerfinanzierten Transfers in das einkommensunabhängige Kindergeld, Einkommensübertragungen mit Entschädigungscharakter und Transfers mit dem vorrangigen Ziel vertikaler Umverteilung zeigt sich aber auch für Westdeutschland eine weit überproportionale Reduzierung der Ungleichheit der Verteilung der Nettoäquivalenzeinkommen durch i. e. S. bedarfsabhängige Transfers. Absolut gesehen macht der ausgleichende Effekt zwar in den alten Ländern weniger als ein Zehntel, in den neuen Ländern ungefähr ein Fünftel der entsprechenden Effekte der persönlichen Steuern aus; unter Berücksichtigung des geringen Volumens der Transfers mit vorwiegend vertikaler Ausrichtung ergibt sich aber eine recht hohe Effizienz. Sie scheint in Westdeutschland zwischen 1988 und 1993 allerdings etwas zurückgegangen zu sein, ähnlich wie der ausgleichende Einfluss der persönlichen Steuern. Schließlich zeigt sich für das Kindergeld eine nur mäßige relative Reduzierung der Ungleichheit der personellen Einkommensverteilung, die 1993 in West- wie in Ostdeutschland nur ungefähr zwei Dritteln des Anteils am Einkommensaggregat entspricht. Dies ist angesichts der horizontalen Ausrichtung des Familienlastenausgleichs in Deutschland nicht verwunderlich, könnte aber für eine Zieldiskussion im Zusammenhang mit Reformüberlegungen Anlass geben.
Ziel der hier vorgestellten Arbeit ist es, einen Eindruck über die Größenordnung der Kosten eines Bürgergeldmodells als alternatives Grundsicherungssystem zu gewinnen. Dazu wurde eine formale („impact“-) Partialinzidenzanalyse mit Hilfe einer statischen Simulation auf der Basis von Mikrodaten der Einkommens- und Verbrauchsstichproben 1983 und 1988 durchgeführt. Die Ergebnisse können nur als ungefähre Orientierungspunkte interpretiert werden, zumal sie sich auf den Transferbereich beschränken. Bei der Konkretisierung des sozio-kulturellen Existenzminimums wurde im wesentlichen an das bestehende Sozialhilferecht angeknüpft, und für das anzurechnende Einkommen wurde schwerpunktmäßig ein Transferentzugssatz von 50% unterstellt. Die Berechnungen führen zu erheblichen Mehrkosten des Bürgergeldmodells gegenüber dem gegenwärtigen Nebeneinander verschiedener Mindestsicherungsleistungen (mit deutlich höheren Transferentzugssätzen), die z. gr. T. durch die auch oberhalb des Existenzminimums (bis zu dessen doppeltem Betrag) bestehenden potentiellen Ansprüche bedingt sind. Die Nettokosten hätten 1988 fast ein Drittel des Aufkommens der Lohn- und Einkommensteuer ausgemacht, so daß die hier vorgestellte Reformvariante als kaum finanzierbar bezeichnet werden kann. Es wäre wohl utopisch anzunehmen, daß die möglichen positiven Anreizeffekte des verminderten Transferentzugssatzes zu einer Senkung des Bürgergeldvolumens in ähnlicher Größenordnung führen würde. Mit Blick auf die Gegenwart ist zudem zu bedenken, daß seit der Wiedervereinigung das Transfervolumen im Falle der Einführung eines Bürgergeldes wesentlich höher als in der hier präsentierten Simulationsrechnung ausfallen dürfte, und zwar auch in Relation zum Volkseinkommen. Denn die schrittweise Angleichung der Einkommen in Ostdeutschland an das westdeutsche Niveau bewirkt, daß in der Übergangszeit die Haushaltseinkommen in den neuen Bundesländern vergleichsweise häufiger und tendenziell stärker unterhalb des Existenzminimums liegen als in Westdeutschland - es sei denn, für Ostdeutschland würde das relevante Existenzminimum deutlich niedriger als hier vorgeschlagen definiert; dies wäre aber nicht sinnvoll und politisch kaum tragbar. Eine Reform der sozialen Mindestsicherung nach dem Muster einer Negativen Einkommensteuer würde also zu erheblichen Mehrkosten führen. Bei allen Vorteilen, die ein Bürgergeldsystem mit 50%igem Transferentzugssatz haben mag, ist die Finanzierungsfrage völlig offen; bei höherem Transferentzugssatz wäre das Problem zwar weniger gravierend, aber nicht gelöst.
Im vorliegenden Papier werden drei Ansätze zur Reform des Familienleistungsausgleichs (FLA) mit jeweils zwei Varianten dargestellt und hinsichtlich ihrer fiskalischen Effekte und Wirkungen in verschiedenen Segmenten der Einkommensverteilung systematisch verglichen. – Mit dem weitestgehenden Konzept, der Kindergrundsicherung, wird ein Existenz sicherndes und zu versteuerndes Kindergeld in Höhe von monatlich 502 Euro bzw. 454 Euro pro Kind vorgeschlagen. Die bisherigen kindbedingten Freibeträge und mehrere Sozialleis-tungen könnten entfallen bzw. reduziert werden. – Daneben werden Kindergelderhöhungen auf einheitlich 238 Euro bzw. 328 Euro pro Kind und Monat, die allen Kindern – auch denen im SGB II-Leistungsbezug – zugute kommen sollen, untersucht. Das Kindergeld wäre wie bisher nicht zu versteuern, die bisherigen kindbedingten Freibeträge würden aber entfallen. – Schließlich wird der Vorschlag einer deutlichen Erhöhung des Kinderzuschlags bei reduzierter Mindesteinkommensgrenze und Wegfall der Höchsteinkommensgrenze erörtert. Zudem ist bei diesem Ansatz ein nochmals erhöhter Kinderzuschlag bei Alleinerziehenden – analog zum Mehrbedarfszuschlag nach dem SGFB II – (erste Variante) oder eine Herabsetzung der Transferentzugsrate auf Nichterwerbseinkommen von 100% auf 70% (zweite Variante) vorgesehen. Die zu erwartenden fiskalischen Belastungen der einfachen Kindergelderhöhung (ohne Be-steuerung) können ohne Weiteres hochgerechnet werden (16 bzw. 35 Mrd. Euro p. a.), die der anderen Reformmodelle sind aber ohne mikroanalytische Fundierung unter Berücksichtigung der Einkommensverteilung kaum abschätzbar. Zwar lassen sich auch die Bruttokosten der Kindergrundsicherung auf einfachem Wege ermitteln (Multiplikation der Kindergeld-Kinder mit der Betragshöhe), die Aggregate der davon abzusetzenden zahlreichen Einsparungen bei anderen Sozialleistungen und insbesondere der Steuermehreinnahmen sind allerdings nicht offensichtlich. Eine erste Überschlagsrechnung hat ergeben, dass die Nettokosten der ersten „großzügigen“ Variante der Kindergrundsicherung (502 Euro) denen der Kindergelderhöhung auf das sächliche Existenzminimum (322 Euro) ohne Besteuerung ungefähr gleich sind (in der Größenordnung von 35 Mrd. Euro). Eine genauere Quantifizierung kann aber nur auf der Ba-sis repräsentativer Mikrodaten und eines Simulationsmodells erfolgen, da insbesondere der Besteuerungseffekt der Kindergrundsicherung von der faktischen Einkommensverteilung abhängt. Auch eine Kostenschätzung für die Kinderzuschlagsreform bedarf mikroanalytischer Verfahren; ungeachtet dessen würde diese auf einen begrenzten Einkommensbereich gerichte-te Reform aber eindeutig die geringsten Kosten verursachen. Für einen systematischen Vergleich der Verteilungswirkungen der Reformvorschläge werden in der vorliegenden Arbeit Modellrechnungen für zwei ausgewählte Haushaltstypen präsen-tiert. Dabei wird deutlich, dass mit dem vergleichsweise begrenzten Konzept der Ausweitung des Kinderzuschlags die Situation von Familien in prekären Einkommensverhältnissen bis zu Familien der unteren Mittelschicht deutlich verbessert werden könnte. Inwieweit dieser Effekt eintreten würde, hängt allerdings auch vom Inanspruchnahmeverhalten ab; bisher ist die Nicht-Inanspruchnahme von Kinderzuschlag und Wohngeld weit verbreitet. Zudem würde sich die Situation der ärmsten Familien, die auf SGB II-Leistungen angewiesen sind, nicht verbessern, und am oberen Rand würden die Entlastungseffekte des FLA als Folge der kind-bedingten Freibeträge weiterhin mit dem elterlichen Einkommen zunehmen. Demgegenüber würden sich bei den Varianten der Kindergelderhöhung (ohne Besteuerung) die deutlichen Verbesserungen gegenüber dem Status quo gleichmäßig über das Einkommensspektrum vom Niedriglohnsegment – bei unverändert problematischen Effekten des Kinderzuschlags (Ein-kommensbruchstelle bei Höchsteinkommensgrenze) – bis in obere Schichten verteilen und erst am oberen Rand mit steigendem Einkommen sinken (infolge des Wegfalls der bisherigen kindbedingten Freibeträge). Die Förderungen durch die Kindergrundsicherung schließlich würden am stärksten im unteren und unteren Mittelbereich ausfallen und – im Gegensatz zu anderen Konzepten – insbesondere verdeckte Armut systembedingt, also quasi „automatisch“, weitgehend abbauen. Im oberen Mittelbereich und hauptsächlich in höheren Schichten würden die Transfers dagegen mit zunehmendem Einkommen kontinuierlich abnehmen. Insgesamt würde dies zu einem vergleichsweise stetig steigenden Verlauf des verfügbaren Familieneinkommens führen; die wegen der hohen Transferentzugsraten des Kinderzuschlags – gegebenenfalls in Kombination mit Wohngeld – häufigen Befürchtungen negativer Arbeitsanreize im unteren Einkommensbereich wären gegenstandslos. Inwieweit die hier diskutierten Reformkonzepte zu einem Abbau von Kinder- und Familien-armut und zu weniger Ungleichheit der personellen Einkommensverteilung führen können, lässt sich allein auf der Basis von Modellrechnungen allerdings nicht absehen. Dazu bedarf es detaillierter Analysen auf der Basis von repräsentativen Mikrodaten, die die faktische Ein-kommensverteilung abbilden und Simulationsrechnungen zur Quantifizierung der Effekte der Reformvarianten – unter Einbeziehung der Finanzierung der jeweiligen Nettokosten – ermöglichen. Daran wird im Projekt „Vom Kindergeld zu einer Grundsicherung für Kinder“ auf Basis der Daten des Sozio-ökonomischen Panels (SOEP) 2007 gearbeitet; die Repräsentativität des Datensatzes hinsichtlich des Nachweises von Einkommens-, insbesondere Transferar-ten wurde bereits geprüft – mit gutem Ergebnis.
Vom Kinderzuschlag zum Kindergeldzuschlag : ein Reformvorschlag zur Bekämpfung von Kinderarmut
(2007)
Ausgehend von einer kritischen Analyse des im Zuge der Hartz IV-Reform 2005 eingeführten Kinderzuschlags wird in der vorliegenden Studie ein Reformkonzept zur Bekämpfung von Kinderarmut entwickelt und eine quantitative Abschätzung der unmittelbaren Reformwirkungen vorgenommen. Bei der Gestaltung des Reformvorschlags wurde an Grundprinzipien des allgemeinen Familienleistungsausgleichs angeknüpft. Dieser sollte unabhängig von der jeweiligen Armutsursache das Existenzminimum des Kindes nicht nur von der Steuer freistellen, sondern im Bedarfsfall durch positive Transfers – mit einem Kindergeldzuschlag – gewährleisten. Dies erfordert a) die Aufstockung des Kindergeldes durch einen Zuschlag auf die Höhe des sächlichen Existenzminimums, also um maximal 150 Euro auf 304 Euro – bei Alleinerziehenden wegen besonderer Mehrbedarfe für das erste Kind um maximal 250 Euro auf 404 Euro; b) den Verzicht auf eine zeitliche Befristung des Kindergeldzuschlags; c) die Berücksichtigung des Familieneinkommen nach Abzug eines Freibetrages in Höhe des pauschalisierten Existenzminimums der Eltern bzw. des Elternteils (1.238 Euro bzw. 860 Euro); d) eine mäßige (mit Besteuerungsgrundsätzen vereinbare) Anrechnung des zu berücksichtigenden Einkommens – wir schlagen eine Transferentzugsrate von 50% vor; e) den Verzicht auf eine Berücksichtigung des Vermögens. Wesentliche Unterschiede des Reformkonzepts gegenüber dem derzeitigen Kinderzuschlag liegen in der Ersetzung der „spitzen“ Berechnung des elterlichen Existenzminimums durch eine Pauschale und in dem Verzicht zum Einen auf eine explizite Höchsteinkommensgrenze – aus der Transferentzugsrate ergibt sich freilich eine implizite Höchsteinkommensgrenze – und zum Anderen auf eine Mindesteinkommensgrenze. Es bleibt den Eltern also unbenommen, den Kindergeldzuschlag in Anspruch zu nehmen, selbst wenn ihre Einkommensverhältnisse und individuellen Wohnkosten auf einen höheren ALG II-Anspruch schließen lassen, den sie aber nicht wahrnehmen – sei es aus Stigmatisierungsangst, aus Unwissenheit, weil sie den Verweis auf kleine Ersparnisse befürchten oder sich von dem bürokratischen Aufwand abschrecken lassen. Aus vorliegenden Schätzungen geht hervor, dass aus den genannten Grün den das Ausmaß verdeckter Armut groß ist. Dem könnte durch einen vergleichsweise unbürokratischen Kindergeldzuschlag entgegengewirkt werden, insbesondere wenn der Leistungsträger, also die Familienkasse, verpflichtet wird, bei sehr geringem Einkommen des Antragstellers diesen auf möglicherweise bestehende höhere ALG II-Ansprüche hinzuweisen. Zur Abschätzung der unmittelbaren Reformwirkungen wurde ein Mikrosimulationsmodell entwickelt und mit den Daten des Sozio-ökonomischen Panels 2006 in mehreren Varianten gerechnet. Auf der Basis einer bereinigten Stichprobe ergeben sich – je nach Reformvariante – 3 Mio. bis 3,6 Mio. potenziell begünstigte Kinder, was etwa einem Sechstel bzw. einem Fünftel aller Kinder, für die Kindergeld bezogen wird, entspricht. Unter den Kindern von Alleinerziehenden würde die Empfängerquote mit gut einem Drittel weit überdurchschnittlich ausfallen. Die fiskalischen Bruttokosten des Reformmodells würden sich auf 3,7 Mrd. bzw. 4,5 Mrd. Euro jährlich (11% bzw. 13% der derzeitigen Kindergeldausgaben) belaufen; sie würden durch einige Einsparungen beim nachrangigen Wohngeld, bei ausbildungsbedingten Transfers sowie beim ALG II – sofern einige Anspruchsberechtigte den Bezug des Kindergeldzuschlags vorziehen – etwas vermindert werden. Der durchschnittliche Zahlbetrag pro Bedarfsgemeinschaft mit Anspruch auf Kindergeldzuschlag liegt bei 190 Euro p. M., der Median bei 150 Euro. Mit dem insgesamt begrenzten Mittelaufwand kann eine erhebliche Verminderung relativer Einkommensarmut von Familien erreicht werden. Die derzeit bei etwa 18% liegende Armutsquote von Kindern, für die Kindergeld bezogen wird, würde nach Einführung des Kindergeldzuschlags um etwa vier Prozentpunkte zurückgehen, die aller Mitglieder in den Familien von 16% um drei Prozentpunkte. Mit etwa zwei Dritteln lebt der größte Teil der potenziellen Anspruchsberechtigten in erwerbstätigen Familien, und die relative stärkste Verminderung der Armutsquote ergibt sich bei Familien mit Vollzeiterwerbstätigkeit. Die mit dem Kindergeldzuschlag zu bewirkende Verminderung von Kinderarmut würde wegen der hohen Erwerbsquote von Familien also mit einem Abbau von Armut trotz Arbeit einhergehen. Besonders große Reformwirkungen zeigen sich bei den Alleinerziehenden, für welche die Simulation eine Reduzierung der derzeit bei 40% liegenden Armutsquote um etwa acht Prozentpunkte ergibt. Dennoch verbliebe die Armutsquote auch nach Einführung des Kindergeldzuschlags auf einem bedrückend hohen Niveau. Dies ist ganz überwiegend auf die große Zahl der Alleinerziehenden mit Bezug von ALG II und Sozialgeld bzw. Sozialhilfe zurückzuführen, die annahmegemäß nach der Reform im Grundsicherungsbezug verbleiben, den vorrangigen Kindergeldzuschlag also nicht in Anspruch nehmen. Bei den Paarfamilien zeigt sich – relativ gesehen – ein ähnlicher Effekt des Kindergeldzuschlags wie bei den Alleinerziehenden; die Armutsquote von derzeit 12,5% würde um ein Fünftel auf 10% zurückgehen. Dabei fällt die Reformwirkung umso größer aus, je mehr Kinder in der Familie leben. Bei den trotz Einführung des Kindergeldzuschlags unter der relativen Armutsgrenze verbleibenden Paarfamilien handelt es sich zu einem geringeren Teil als bei den Alleinerziehenden um Empfänger von nachrangigen allgemeinen Grundsicherungsleistungen und zu einem größeren Teil um Fälle, bei denen auch das um den Kindergeldzuschlag erhöhte Einkommen die Armutsgrenze nicht erreicht. Ihre Situation würde sich dennoch durch die Reform erheblich verbessern, da die relative Armutslücke im Durchschnitt von 21% auf 14% zurückgehen würde; dies entspricht einer Einkommenserhöhung von durchschnittlich 267 Euro. Abschließend bleibt darauf hinzuweisen, dass der hier vorgestellte Reformvorschlag lediglich als erster Schritt zu einer allgemeinen Grundsicherung für Kinder zu verstehen ist. Er wurde unter dem Aspekt einer schnellen Umsetzbarkeit entwickelt, sollte aber weiter reichende Überlegungen nicht verdrängen. Diese haben nicht nur das sächliche Existenzminimum des Kindes, sondern darüber hinaus den verfassungsgerichtlich festgestellten Betreuungs- und Erziehungs- oder Ausbildungsbedarf (BEA) in den Blick zu nehmen. Er wird im Rahmen der Einkommensbesteuerung durch einen Freibetrag berücksichtigt (§ 32 Abs. 6 EStG), ist in die Bemessung des hier vorgestellten Kindergeldzuschlags aber nicht eingegangen. Eine systematische Weiterentwicklung des Familienleistungsausgleichs im Steuerrecht würde die Einführung eines einheitlichen (Brutto-) Kindergeldes zur Abdeckung von sächlichem Existenzminimum und BEA erfordern, das entsprechend der Leistungsfähigkeit der Eltern, also nach dem allgemeinen Einkommensteuertarif, zu versteuern wäre (Lenze 2007).
Die Auswertungen der EVS 2003 zur Höhe und Struktur der Konsumausgaben der Paarhaushalte mit einem Kind im unteren Einkommensbereich erfolgten vorrangig mit dem Ziel, Anhaltspunkte zur Beurteilung des gegenwärtigen Niveaus der mit Arbeitslosengeld II und Sozialgeld gegebenen Grundsicherung von Familien zu erarbeiten. Die Ergebnisse vermitteln einen ersten Eindruck über die insgesamt stark eingeschränkten Teilhabemöglichkeiten von Familien mit Bezug von Grundsicherungsleistungen. ...
Die vorliegende Untersuchung der effektiven Stundenlöhne in Deutschland erfolgte im Hin-blick auf die Frage nach der Ungleichheit ihrer Verteilung und der Einhaltung eines Kriteri-ums minimaler Leistungsgerechtigkeit. Ausgangspunkt ist die Annahme eines komplexen Gerechtigkeitsempfindens in der Gesellschaft, das neben dem Marktmechanismus als einem Motor für Leistung und leistungsabhängige Einkommen auch individuelle Anstrengungen sowie die Folgen faktischer Marktunvollkommenheiten bzw. faktischen Marktversagens berücksichtigt. Zur Approximation der ergänzenden Aspekte von Leistungsgerechtigkeit wird an relative Lohnpositionen angeknüpft: Lohneinkommen, die einen gesellschaftlichen Mittelwert sehr weit – bezogen auf den Durchschnitt um mehr als die Hälfte, und alternativ bezogen auf den Median um mehr als ein Drittel – unterschreiten, gelten als Indikator für Zielabweichungen. Implizit wird damit unterstellt, dass individuelle Leistungsunterschiede begrenzt, die aus dem Marktmechanismus folgende Differenzierungen aber grenzenlos sind. Die sich aus dem hier gewählten Kriterium ergebenden Niedriglohngrenzen entsprechen ungefähr alternativ abgeleiteten Grenzwerten, die aus der Norm folgen, dass eine Vollzeiterwerbstätigkeit mindestens das eigene sozio-kulturelle Existenzminimum zuzüglich einer Leistungskomponente sichern sollte. Neben dem Aspekt minimaler Leistungsgerechtigkeit für den unteren Rand der Verteilung werden keine weiteren konkreten Normen zur Beurteilung der Zielangemessenheit der beobachteten Verteilung der Lohnsätze gesetzt. Dies würde den Rahmen dieser Untersuchung sprengen. Die empirische Analyse auf Basis des Sozio-ökonomischen Panels (SOEP) und der Einkommens- und Verbrauchsstichprobe (EVS) konzentriert sich auf das Jahr 2003 und wird ergänzt um einige Auswertungen für 1998, die allerdings nur mit dem SOEP durchgeführt werden können. Obwohl aus dem SOEP generell eine größere Ungleichheit der Verteilung resultiert, halten sich die Unterschiede zwischen den Ergebnissen beider Datenquellen in Grenzen. ...
Zusammenfassung und Schlussfolgerungen Die verschiedenen Alternativrechnungen zur Bemessung des Eckregelsatzes auf Basis der Daten der EVS 2003 und der normativen Setzungen der derzeit gültigen Regelsatzverordnung (RSV) haben zu Beträgen leicht über (Variante 1b) bis mäßig unter (Variante 4b) dem gegenwärtigen Satz von 345 Euro geführt. Da sich aus einer kritischen Betrachtung der grundlegenden Vorentscheidungen, auf denen die RSV aufbaut, einige fragwürdige bzw. nicht konsistente Einzelregelungen ergeben haben, erscheint das seit 2005 gültige Niveau des gesetzlich anerkannten Existenzminimums als tendenziell zu gering, zumal der Eckregelsatz auch für den Leistungsanspruch von Familien mit Kindern maßgeblich ist. Darüber hinaus ist zu bedenken, dass die Herausnahme der Sozialhilfebezieher aus der Referenzgruppe gemäß RSV unter theoretischen Gesichtspunkten nicht hinreichend ist, um Zirkelschlüsse - vom Ausgabeverhalten der Hilfebedürftigen auf deren Existenzminimum - zu vermeiden. Denn nur etwa die Hälfte bis drei Fünftel der Bedürftigen nehmen ihre HLu-Ansprüche wahr, die weiteren Anspruchsberechtigten leben in verdeckter Armut. Die Referenzgruppe zur Ermittlung des sozio-kulturellen Existenzminimums müsste also auch um die so genannte Dunkelziffer der Armut (Personen in verdeckter Armut) bereinigt werden, was vermutlich zu einem leicht erhöhten (regelsatzrelevanten) Ausgabenniveau führen und Forderungen nach einer moderaten Anhebung des Eckregelsatzes unterstreichen würde. Abschließend soll der letztlich normative Charakter jeglicher Definition des Existenzmi-nimums nochmals verdeutlicht werden, aus dem die Notwendigkeit einer gesellschaftspoliti-schen Diskussion dessen, was ein menschenwürdiges Dasein und Chancengerechtigkeit - nicht nur im formalen, sondern im materiellen Sinne - ermöglicht, folgt. Dass mit dem so genannten Statistik-Modell der Regelsatzbemessung keineswegs Objektivität bzw. Wertur-teilsfreiheit, eher nur Überprüfbarkeit oder Nachvollziehbarkeit erreicht wird, haben die An-merkungen zu den regelsatzrelevanten Anteilssätzen einzelner Ausgabenpositionen in Kapitel 3.2 gezeigt. Wie stark der Einfluss normativer Vorentscheidungen auf das Niveau des sozio-kulturellen Existenzminimums ist, zeigt sich aber bereits in der Auswahl der Alleinstehenden als Referenzgruppe. Damit wird bei der Analyse des regelsatzrelevanten Ausgabeverhaltens auf eine Gruppe Bezug genommen, die überdurchschnittlich von relativer Einkommensarmut betroffen ist.13 Alternativ könnten auch die Paarhaushalte ohne Kinder mit ihrem vergleichs-weise geringen Armutsrisiko als Referenzgruppe definiert werden. Nach einer ersten Abschätzung ergibt sich für das unterste Quintil von Paaren ohne Kind ein regelsatzrelevanter Konsum in Höhe von gut 700 Euro; bei gegebenen Regelsatzproportionen folgt daraus ein Existenzminimum (ohne Kosten für Unterkunft und Heizung) von gut 390 Euro gegenüber derzeit 345 Euro bei Alleinstehenden und von etwa 1.130 Euro gegenüber 828 Euro bei Paa-ren mit einem Kind. Mit diesem Beispiel ist nicht die Empfehlung einer entsprechend starken Leistungsanhebung verbunden, sondern lediglich ein Hinweis darauf, dass das derzeitige Ver-fahren der Regelsatzbemessung restriktiv angelegt ist und mit aktuellen Daten eher eine Er-höhung als eine Absenkung des Niveaus des Existenzminimums begründet werden kann.
Sozialpolitische Auseinandersetzungen kursieren gegenwärtig verschärft um die Gestaltung der Sicherung des sozio-kulturellen Existenzminimums, um eine angebliche "Kostenexplosion" bei der Grundsicherung für Arbeitsuchende und um Vermutungen über verbreiteten Leistungsmissbrauch. Der Blick ist also stark auf die staatlicherseits auf Basis des Sozialgesetzbuches (SGB) über Transfers "zu bekämpfende" und "bekämpfte" Armut gerichtet. Vor diesem Hintergrund sollen die auf relative Grenzen – 50% des arithmetischen Mittels oder 60% des Medians der Nettoäquivalenzeinkommen – bezogenen Studien über Armut in Deutschland um eine Armutsanalyse ergänzt werden, die den Einkommensbereich unterhalb des gesetzlichen Existenzminimums in den Fokus nimmt. In der folgenden Untersuchung geht es nicht nur um die Größe der edürftigenBevölkerungsgruppe insgesamt, sondern darüber hinaus um die Bedeutung von Ursachen der Hilfebedürftigkeit – Arbeitslosigkeit, Teilzeiterwerbstätigkeit, niedriges Erwerbseinkommen, Alter –, um geschlechtsspezifische Unterschiede und um die Betroffenheit von Kindern. Hier fehlt es bisher an zeitnahen empirischen Informationen. Daten über die Zahl und Struktur der Empfänger von Grundsicherungsleistungen – also von Arbeitslosengeld II (Alg II) bzw. Sozialgeld, Grundsicherung im Alter und bei Erwerbsminderung oder Hilfe zum Lebensunterhalt (HLu) der Sozialhilfe – vermitteln nur die "halbe Wahrheit". ...
The selection of features for classification, clustering and approximation is an important task in pattern recognition, data mining and soft computing. For real-valued features, this contribution shows how feature selection for a high number of features can be implemented using mutual in-formation. Especially, the common problem for mutual information computation of computing joint probabilities for many dimensions using only a few samples is treated by using the Rènyi mutual information of order two as computational base. For this, the Grassberger-Takens corre-lation integral is used which was developed for estimating probability densities in chaos theory. Additionally, an adaptive procedure for computing the hypercube size is introduced and for real world applications, the treatment of missing values is included. The computation procedure is accelerated by exploiting the ranking of the set of real feature values especially for the example of time series. As example, a small blackbox-glassbox example shows how the relevant features and their time lags are determined in the time series even if the input feature time series determine nonlinearly the output. A more realistic example from chemical industry shows that this enables a better ap-proximation of the input-output mapping than the best neural network approach developed for an international contest. By the computationally efficient implementation, mutual information becomes an attractive tool for feature selection even for a high number of real-valued features.
It is well known that artificial neural nets can be used as approximators of any continous functions to any desired degree. Nevertheless, for a given application and a given network architecture the non-trivial task rests to determine the necessary number of neurons and the necessary accuracy (number of bits) per weight for a satisfactory operation. In this paper the problem is treated by an information theoretic approach. The values for the weights and thresholds in the approximator network are determined analytically. Furthermore, the accuracy of the weights and the number of neurons are seen as general system parameters which determine the the maximal output information (i.e. the approximation error) by the absolute amount and the relative distribution of information contained in the network. A new principle of optimal information distribution is proposed and the conditions for the optimal system parameters are derived. For the simple, instructive example of a linear approximation of a non-linear, quadratic function, the principle of optimal information distribution gives the the optimal system parameters, i.e. the number of neurons and the different resolutions of the variables.
Towards correctness of program transformations through unification and critical pair computation
(2010)
Correctness of program transformations in extended lambda-calculi with a contextual semantics is usually based on reasoning about the operational semantics which is a rewrite semantics. A successful approach is the combination of a context lemma with the computation of overlaps between program transformations and the reduction rules, which results in so-called complete sets of diagrams. The method is similar to the computation of critical pairs for the completion of term rewriting systems. We explore cases where the computation of these overlaps can be done in a first order way by variants of critical pair computation that use unification algorithms. As a case study of an application we describe a finitary and decidable unification algorithm for the combination of the equational theory of left-commutativity modelling multi-sets, context variables and many-sorted unification. Sets of equations are restricted to be almost linear, i.e. every variable and context variable occurs at most once, where we allow one exception: variables of a sort without ground terms may occur several times. Every context variable must have an argument-sort in the free part of the signature. We also extend the unification algorithm by the treatment of binding-chains in let- and letrec-environments and by context-classes. This results in a unification algorithm that can be applied to all overlaps of normal-order reductions and transformations in an extended lambda calculus with letrec that we use as a case study.
Measuring confidence and uncertainty during the financial crisis : evidence from the CFS survey
(2010)
The CFS survey covers individual situations of banks and other companies of the financial sector during the financial crisis. This provides a rare possibility to analyze appraisals, expectations and forecast errors of the core sector of the recent turmoil. Following standard ways of aggregating individual survey data, we first present and introduce the CFS survey by comparing CFS indicators of confidence and predicted confidence to ifo and ZEW indicators. The major contribution is the analysis of several indicators of uncertainty. In addition to well established concepts, we introduce innovative measures based on the skewness of forecast errors and on the share of ‘no response’ replies. Results show that uncertainty indicators fit quite well with pattern of real and financial time series of the time period 2007 to 2010. Business Sentiment , Financial Crisis , Survey Indicator , Uncertainty
This paper provides theory as well as empirical results for pre-averaging estimators of the daily quadratic variation of asset prices. We derive jump robust inference for pre-averaging estimators, corresponding feasible central limit theorems and an explicit test on serial dependence in microstructure noise. Using transaction data of different stocks traded at the NYSE, we analyze the estimators’ sensitivity to the choice of the pre-averaging bandwidth and suggest an optimal interval length. Moreover, we investigate the dependence of pre-averaging based inference on the sampling scheme, the sampling frequency, microstructure noise properties as well as the occurrence of jumps. As a result of a detailed empirical study we provide guidance for optimal implementation of pre-averaging estimators and discuss potential pitfalls in practice. Quadratic Variation , MarketMicrostructure Noise , Pre-averaging , Sampling Schemes , Jumps
SUMMARY RECOMMENDATIONS 1. One of the major lessons from the current financial crisis refers to the systemic dimension of financial risk which had been almost completely neglected by bankers and supervisors in the pre-2007 years. 2. Accordingly, the most needed change in financial regulation, in order to avoid a repetition of such a crisis in the future, consists of influencing individual bank behaviour such that systemic risk is decreased. This objective is new and distinct from what Basle II was intended to achieve. 3. It is important, therefore, to evaluate proposed new regulatory instruments on the ground of whether or not they contribute to a reduction, or containment of systemic risk. We see two new regulatory measures of paramount importance: the introduction of a Systemic Risk Charge (SRC), and the implementation of a transparent bank resolution regime. Both measures complement each other, thus both have to be realized to be effective. 4. We propose a Systemic Risk Charge (SRC), a levy capturing the contribution of any individual bank to the overall systemic risk which is distinct from the institution’s own default risk. The SRC is set up such that the more systemic risk a bank contributes, the higher is the cost it has to bear. Therefore, the SRC serves to internalize the cost of systemic risk which, up to now, was borne by the taxpayer. 5. Major details of our SRC refer to the use of debt that may be converted into equity when systemic risk threatens the stability of the banking system. Also, the SRC raises some revenues for government. 6. The SRC has to be compared to several bank levies currently debated. The Financial Transaction Tax (FTT) does not directly address systemic risk and is therefore inferior to a SRC. Nevertheless, a FTT may offer the opportunity to subsidize on-exchange trading at the expense of off-exchange (over-the-counter, OTC) transactions, thereby enhancing financial market stability. The Financial Activity Tax (FAT) is similar to a VAT on financial services. It is the least adequate instrument among all instruments discussed above to limit systemic risk. 7. Bank resolution regime: No instrument to contain systemic risk can be effective unless the restructuring of bank debt, and the ensuing loss given default to creditors, is a real possibility. As the crisis has taught, bank restructuring is very difficult in light of contagion risk between major banks. We therefore need a regulatory procedure that allows winding down banks, even large banks, on short notice. Among other things, the procedure will require to distinguish systemically relevant exposures from those that are irrelevant. Only the former will be saved with government money, and it will then be the task of the supervisor to ensure a sufficient amount of nonsystemically relevant debt on the balance sheet of all banks. 8. Further issues discussed in this policy paper and its appendices refer to the necessity of a global level playing field, or the lack thereof, for these new regulatory measures; the convergence of our SRC proposal with what is expected to be long-term outcome of Basle III discussions; as well as the role of global imbalances.
Many studies show that most people are not financially literate and are unfamiliar with even the most basic economic concepts. However, the evidence on the determinants of economic literacy is scant. This paper uses international panel data on 55 countries from 1995 to 2008, merging indicators of economic literacy with a large set of macroeconomic and institutional variables. Results show that there is substantial heterogeneity of financial and economic competence across countries, and that human capital indicators (PISA test scores and college attendance) are positively correlated with economic literacy. Furthermore, inhabitants of countries with more generous social security systems are generally less literate, lending support to the hypothesis that the incentives to acquire economic literacy are related to the amount of resources available for private accumulation. JEL Classification: E2, D8, G1
This paper investigates the accuracy and heterogeneity of output growth and inflation forecasts during the current and the four preceding NBER-dated U.S. recessions. We generate forecasts from six different models of the U.S. economy and compare them to professional forecasts from the Federal Reserve’s Greenbook and the Survey of Professional Forecasters (SPF). The model parameters and model forecasts are derived from historical data vintages so as to ensure comparability to historical forecasts by professionals. The mean model forecast comes surprisingly close to the mean SPF and Greenbook forecasts in terms of accuracy even though the models only make use of a small number of data series. Model forecasts compare particularly well to professional forecasts at a horizon of three to four quarters and during recoveries. The extent of forecast heterogeneity is similar for model and professional forecasts but varies substantially over time. Thus, forecast heterogeneity constitutes a potentially important source of economic fluctuations. While the particular reasons for diversity in professional forecasts are not observable, the diversity in model forecasts can be traced to different modeling assumptions, information sets and parameter estimates. JEL Classification: G14, G15, G24
Price pressures
(2010)
We study price pressures in stock prices—price deviations from fundamental value due to a risk-averse intermediary supplying liquidity to asynchronously arriving investors. Empirically, twelve years of daily New York Stock Exchange intermediary data reveal economically large price pressures. A $100,000 inventory shock causes an average price pressure of 0.28% with a half-life of 0.92 days. Price pressure causes average transitory volatility in daily stock returns of 0.49%. Price pressure effects are substantially larger with longer durations in smaller stocks. Theoretically, in a simple dynamic inventory model the ‘representative’ intermediary uses price pressure to control risk through inventory mean reversion. She trades off the revenue loss due to price pressure against the price risk associated with remaining in a nonzero inventory state. The model’s closed-form solution identifies the intermediary’s relative risk aversion and the distribution of investors’ private values for trading from the observed time series patterns. These allow us to estimate the social costs—deviations from constrained Pareto efficiency—due to price pressure which average 0.35 basis points of the value traded. JEL Classification: G12, G14, D53, D61