Universitätspublikationen
Refine
Year of publication
Document Type
- Working Paper (1885) (remove)
Has Fulltext
- yes (1885) (remove)
Is part of the Bibliography
- no (1885)
Keywords
- Deutschland (45)
- monetary policy (35)
- Mobilität (18)
- household finance (17)
- Banking Union (16)
- Monetary Policy (16)
- Covid-19 (15)
- ECB (15)
- ESG (15)
- Liquidity (14)
Institute
- Wirtschaftswissenschaften (1240)
- Center for Financial Studies (CFS) (1109)
- Sustainable Architecture for Finance in Europe (SAFE) (803)
- House of Finance (HoF) (661)
- Rechtswissenschaft (184)
- Institute for Monetary and Financial Stability (IMFS) (175)
- Exzellenzcluster Die Herausbildung normativer Ordnungen (73)
- Informatik (68)
- Institut für sozial-ökologische Forschung (ISOE) (60)
- Foundation of Law and Finance (50)
Compliance with prevailing accounting standards is induced if the expected disadvantage due to sanctions imposed if non-compliance is detected outweighs the advantage of noncompliant accounting choices. The expected disadvantage materialises the threat potential of sanctions imposed by an enforcement agency. The capital market mechanism unfolds an important threat potential if companies expect an adverse share price reaction suite to enforcement actions. Enforcement agencies in turn can make use of this capital market related sanction by releasing information on defections to the market after the settlement of an investigation. The present contribution analyses the capital market reaction on accounting standards enforcement activities of the British Financial Reporting Review Panel (FRRP). After a brief introduction into the legal basis and working procedure of the Panel, the analysis of its activities will serve a dual purpose: firstly, the significance of capital market related sanctions for the overall enforcement regime will be elaborated upon. Secondly, the extent to which capital market related sanctions accomplish their function within the overall enforcement regime will be assessed empirically. The results of the empirical analysis suggest that the capital market related sanctioning by the FRRP may not unfold a sufficient threat potential which is a prerequisite for compliance enhancement.
Our article integrates the manager’s care in the literature on auditor’s liability. With unobservable efforts, we face a double moral hazard setting. It is well-known that efficient liability rules without punitive damages do not exist under these circumstances. However, we show that the problem can be solved through strict liability, contingent auditing fees, and fair insurance contracts. Neither punitive damages nor deductibles above the damages are required.
It is the objective of this paper to determine the voting premium for French shares by comparing the values of voting and non-voting shares, and to analyze the value of the voting rights. The study uses data for 25 French companies which had both types of shares outstanding and traded on the stock exchange during the entire period from 1986 to 1996, or for some time during this interval. The average value of the voting premium is 51,35%.
The paper analyzes the reasons for this surprisingly high value by testing different hypotheses based on dividend differences, the revival) of the voting right, capitalization, shareholder structure, and the share of non-voting capital in total equity capital. The regressions show that the shareholder structure strongly influences the value of the voting premium.
A case study of the attempted takeover of Casino by Promodes shows that investors attach a much higher value to the voting right during relevant situations than at other tomes. Both companies involved had, at the time, two types of shares outstanding and listed. Furthermore the paper shows that non-voting shares have never played an important role in equity finance in France since the companies have different alternatives.
In an international cumparison, France is found to have the second highest voting premium, exceeded only by that of Italy. A probable reason is the low quality of the national accounting standards and the low level of minority shareholder protection.
Die mit unterschiedlichen Organisationsformen des Wertpapierhandels einhergehende Liquidität und ihre Messung ist eine der zentralen Fragen im Zusammenhang mit der Gestaltung von Wertpapiermärkten. Zunächst wird die Eignung verschiedener in der Literatur vorgeschlagener Liquiditätsmaße diskutiert. Anhand einer Serie von Marktexperimenten wird dann die Liquidität der grundsätzlichen Ausgestaltungsformen des Wertpapierhandels - Gesamtkursermittlung, kontinuierliche Auktion und Market-Maker-System - miteinander verglichen.
Sowohl das Handelsvolumen als auch das von ROLL (1984) vorgeschlagene Maß sind offenbar für den Vergleich der Liquidität unterschiedlich organisierter Wertpapiermärkte nicht geeignet. Eine aufgrund theoretischer Überlegungen prognostizierte Überschätzung der Transaktionskosten bei der Gesamtkursermittlung kann empirisch bestätigt werden.
Die explizite Geld-Brief-Spanne ist dagegen grundsätzlich ein geeignetes Liquiditätsmaß. Mit den Daten der experimentellen Märkte läßt sich auch für die Gesamtkursermittlung eine solche Spanne ermitteln. Sie erweist sich als niedriger als die Spanne in der kontinuierlichen Auktion und dem Market-Maker-Markt. Jedoch ist auch die Geld-Brief-Spanne mit Vorsicht zu interpretieren. Es wird gezeigt, daß unter bestimmten Umständen systematische Verzerrungen existieren können. In den hier untersuchten experimentellen Märkten ließen sich diese identifizieren. Bei Untersuchungen anhand von Felddaten ist dies jedoch nicht ohne weiteres möglich, so daß hier die Gefahr von Verzerrungen durchaus real ist.
This paper provides a detailed empirical analysis of the call auction procedure on the German stock exchanges. The auction is conducted by the Makler whose position resembles that of a NYSE specialist. We use a dataset which contains information about all individual orders for a sample of stocks traded on the Frankfurt Stock Exchange (FSE). This sample allows us to calculate the cost of transacting in a call market and compare them to the costs of transacting in a continuous market. We find that transaction costs for small transactions in the call market are lower than the quoted spread in the order book of the continuous market whereas transaction costs for large transactions are higher than the spread in the continuous market.
We further address the question whether active participation of the Makler is advantageous. On the one hand he may accomodate order imbalances, increase the liquidity of the market and stabilize prices. On the other hand, the discretion in price setting gives him an incentive to manipulate prices. This may increase return volatility. Our dataset identifies the trades the Maklers make for their own accounts. We eliminate these trades and determine the price that would have obtained without their participation. Comparing this hypothetical price series to the actual transaction prices, we find that Makler participation tends to reduce return volatility. A further analysis shows that the actual prices are much closer to the surrounding prices of the continuous trading session than the hypothetical prices that would have obtained without Makler participation. These results indicate that the Maklers provide a valuable service to the market. We further calculate the profits associated with the positions taken by the Maklers and find that, on average, they do not earn profits on the positions they take. Their compensation is thus restricted to the commissions they receive.
Der Neue Markt soll wachstumsorientierten Unternehmen den Zugang zur Börse eröffnen. Die für dieses Marktsegment neu geschaffene Institution des Betreuers soll Vorbildcharakter für andere Marktsegmente haben. In der vorliegenden Arbeit werden Vor- und Nachteile des Betreuer-Konzeptes erarbeitet. Die daraus abgeleiteten Fragen werden empirisch untersucht. Dabei zeigt sich, daß der Neue Markt eine hohe Handelsintensität und niedrige Geld-BriefSpannen aufweist. Auch eine schriftliche Befragung der notierten Unternehmen ergab eine positive Einschätzung des neuen Marktsegments.
Überlegungen zur Profitabilität der Betreuer-Funktion deuten darauf hin, daß diese nicht an sich profitabel ist. Es findet offenbar eine Quersubventionierung aus Erträgen des Emissionsgeschäftes statt. Diese Abhängigkeit sollte berücksichtigt werden, wenn die Übertragung des Betreuerkonzepts auf andere Marktsegmente diskutiert wird.
The pion multiplicity per participating nucleon in central nucleus-nucleus collisions at the energies 2-15 A GeV is significantly smaller than in nucleon-nucleon interactions at the same collision energy. This effect of pion suppression is argued to appear due to the evolution of the system produced at the early stage of heavy-ion collisions towards a local thermodynamic equilibrium and further isentropic expansion.
The data on average hadron multiplicities in central A+A collisions measured at CERN SPS are analysed with the ideal hadron gas model. It is shown that the full chemical equilibrium version of the model fails to describe the experimental results. The agreement of the data with the off-equilibrium version allowing for partial strangeness saturation is significantly better. The freeze-out temperature of about 180 MeV seems to be independent of the system size (from S+S to Pb+Pb) and in agreement with that extracted in e+e-, pp and p{\bar p} collisions. The strangeness suppression is discussed at both hadron and valence quark level. It is found that the hadronic strangeness saturation factor gamma_S increases from about 0.45 for pp interactions to about 0.7 for central A+A collisions with no significant change from S+S to Pb+Pb collisions. The quark strangeness suppression factor lambda_S is found to be about 0.2 for elementary collisions and about 0.4 for heavy ion collisions independently of collision energy and type of colliding system
The transverse momentum and rapidity distributions of net protons and negatively charged hadrons have been measured for minimum bias proton-nucleus and deuteron-gold interactions, as well as central oxygen-gold and sulphur-nucleus collisions at 200 GeV per nucleon. The rapidity density of net protons at midrapidity in central nucleus-nucleus collisions increases both with target mass for sulphur projectiles and with the projectile mass for a gold target. The shape of the rapidity distributions of net protons forward of midrapidity for d+Au and central S+Au collisions is similar. The average rapidity loss is larger than 2 units of rapidity for reactions with the gold target. The transverse momentum spectra of net protons for all reactions can be described by a thermal distribution with temperatures' between 145 +- 11 MeV (p+S interactions) and 244 +- 43 MeV (central S+Au collisions). The multiplicity of negatively charged hadrons increases with the mass of the colliding system. The shape of the transverse momentum spectra of negatively charged hadrons changes from minimum bias p+p and p+S interactions to p+Au and central nucleus-nucleus collisions. The mean transverse momentum is almost constant in the vicinity of midrapidity and shows little variation with the target and projectile masses. The average number of produced negatively charged hadrons per participant baryon increases slightly from p+p, p+A to central S+S,Ag collisions.
During the last years issues of strategic management accounting have received widespread attention in the accounting literature. Yet the conceptual foundation of most proposals is not clear. This paper presents a theoretical analysis of one of the most prominent approaches of strategic management accounting, i.e., Target Costing. First, the relationship between Target Costing and Life-Cycle-Costing is shown. Secondly, a model based on a mechanism-design-approach is used to answer the question of whether the „Market-into-Company“-method of Target Costing can somehow be endogenized. The model captures problems of asymmetric information, price policy and cost structures (i.e. learning effects etc.). The analysis shows that the more „strategic“ is the firm´s cost function, the less valid is „strategic“ management accounting in terms of the usual way Target Costing is employed.
Insider trading and portfolio structure in experimental asset markets with a long lived asset
(1997)
We report results of a series of nine market experiments with asymmetric information and a fundamental value process that is more "realistic" than those in previous experiments. Both a call market institution and a continuous double auction mechanism are employed. We find considerable pricing inefficiencies that are only partially exploited by insiders. The magnitude of insider gains is analyzed separately for each experiment. We find support for the hypothesis that the continuous double auction leads to more efficient outcomes. Finally, we present evidence of an endowment effect: the initial portfolio structure influences the final asset holdings of experimental subjects.
Die externe Performance-Messung beurteilt auf Basis öffentlich verfügbarer Daten die Leistung des Fondsmanagements. Es wird zunächst geprüft, inwieweit die für die Beurteilung von Aktienfonds entwickelten Maße auf Rentenfonds anwendbar sind. Anschließend wird die Performance einer Stichprobe deutscher Rentenfonds untersucht. Es zeigt sich, daß die risikoadjustierte Rendite in den meisten Fällen nicht über der eines geeigneten Marktindex liegt. Einige Fonds weisen ein signifikantes Aktien-Exposure auf. Ein systematischer Zusammenhang zwischen der Nettorendite und der Gebührenhöhe kann nicht nachgewiesen werden.
Das Niedrigeinkommenssegment steht im Zentrum der Kontroversen um eine Reform des Sozialstaats. Die Kenntnis seiner soziodemographischen Zusammensetzung ist daher unabdingbar, um in der betreffenden Diskussion gehaltvoll Position beziehen zu können. Besonders interessieren in diesem Zusammenhang Zeitvergleiche. In diesem Sinne wird in der vorliegenden Studie die Veränderung der Struktur des Niedrigeinkommensbereiches in der Bundesrepublik anhand einer Abfolge mehrerer Querschnitte, welche die Jahre 1962/63 bis 1988 umfaßt, analysiert. Dem Niedrigeinkommensbereich werden - in Anlehnung an neuere Ergebnisse in der Literatur über „prekären Wohlstand“ und über Abstiegsrisiken - diejenigen Personen zugerechnet, die nicht mehr als 80 v. H. des durchschnittlichen Nettoäquivalenzeinkommens zur Verfügung haben. Zur vertieften Analyse wird der Niedrigeinkommensbereich nochmals in vier Teilsegmente unterteilt. Entsprechend den relativen Besetzungshäufigkeiten zeigt sich beim Vergleich mit dem oberen Einkommensbereich für spezifische Personengruppen eine Überrepräsentation im Niedrigeinkommensbereich bzw. in seinen vier Teilsegmenten. Hierbei ergeben sich im Zeitablauf einige aufschlußreiche Trends. So erhöhte sich von 1962 bis 1988 beispielsweise für Alleinstehende, für Personen in Alleinerziehenden-, in Nichterwerbstätigenhaushalten sowie für Personen in Haushalten mit einer weiblichen Bezugsperson der Grad der Überrepräsentation im Niedrigeinkommensbereich. Gleiches gilt für Personen in Haushalten mit einem hohen Mietanteil am Haushaltsnettoeinkommen bzw. generell für Personen in Nichteigentümerhaushalten. Demgegenüber verringerte sich insbesondere für Personen im Haushaltstyp einer vollständigen Familie mit vier Kindern oder für Personen in Landwirte- und Arbeiterhaushalten von 1962 bis 1988 das Ausmaß der Überrepräsentation im Niedrigeinkommenssegment.
Die Untersuchungen auf der Basis der Einkommens- und Verbrauchs stichproben haben ergeben, daß sich hinter der für die "alte" Bundesrepublik festgestellten weitgehenden Stabilität der Verteilung der Nettoäquivalenzeinkommen deutliche Veränderungen auf den vorgelagerten Stufen des Verteilungsprozesses verbergen. Bei den individuellen Erwerbseinkommen sowie bei den individuellen Faktoreinkommen (nur Bezieher) sind zwischen 1973 und 1988 die hier einbezogenen aggregierten Ungleichheitsmaße zwar kaum gestiegen; Kernel Density-Schätzungen zeigen aber einen leichten Polarisierungstrend der bimodalen Verteilung, da die Dichte in den Randbereichen der Verteilung zugenommen hat und das Dichtetal zwischen den beiden Gipfeln sich gesenkt hat. Unter Berücksichtigung des Haushaltszusammenhangs - durch Zusammenfassung individueller Faktoreinkommen auf Haushaltsebene und Gewichtung mit einer Äquivalenzskala - erweisen sich die Verteilungsänderungen als noch gravierender. Die aggregierten Ungleichheitsmaße sind stark gestiegen, und das Verhältnis der beiden Modi der zweigipfligen Verteilung hat sich umgekehrt: lag 1973 der erste Gipfel im Bereich der geringfügigen Faktoräquivalenzeinkommen noch deutlich unter dem zweiten, knapp unterhalb des Durchschnitts gelegenen Gipfel, so war 1988 der erste Gipfel deutlich höher als der zweite. Die relative Häufigkeit marginaler Faktoräquivalenzeinkommen hat im Zeitablauf also eindeutig zugenommen, ebenso wie die im oberen Einkommensbereich. Dennoch kann man von Polarisierung nur in einem weiteren Sinn sprechen, da das Dichtetal zwischen den Modi 1988 höher als 1973 liegt. Es mag beruhigend wirken, daß - zumindest in der Zeit vor der Wiedervereinigung - das Abgaben- und Transfersystem die zunehmende Disparität der Faktoreinkommensverteilung insoweit kompensieren konnte, als die relative Häufigkeit des Niedrigeinkommensbereichs - hier abgegrenzt mit 50% des durchschnittlichen Nettoäquivalenzeinkommens - vergleichsweise mäßig zugenommen hat. Dieser Eindruck ist allerdings im Hinblick auf die eingangs erwähnten Einschränkungen der Datenbasis zu relativieren. Die unzureichende Erfassung des oberen und des unteren Randbereichs der Einkommensverteilung läßt vermuten, daß der tatsächliche Trend zunehmender Ungleichheit und Polarisierung durch unsere Analysen unterschätzt wird.
Did earnings inequality in the Federal Republic of Germany increase from the 1960s to the 1980s?
(1996)
Pion and strangeness puzzles
(1996)
Data on the mean multiplicity of strange hadrons produced in minimum bias proton--proton and central nucleus--nucleus collisions at momenta between 2.8 and 400 GeV/c per nucleon have been compiled. The multiplicities for nucleon--nucleon interactions were constructed. The ratios of strange particle multiplicity to participant nucleon as well as to pion multiplicity are larger for central nucleus--nucleus collisions than for nucleon--nucleon interactions at all studied energies. The data at AGS energies suggest that the latter ratio saturates with increasing masses of the colliding nuclei. The strangeness to pion multiplicity ratio observed in nucleon--nucleon interactions increases with collision energy in the whole energy range studied. A qualitatively different behaviour is observed for central nucleus--nucleus collisions: the ratio rapidly increases when going from Dubna to AGS energies and changes little between AGS and SPS energies. This change in the behaviour can be related to the increase in the entropy production observed in central nucleus-nucleus collisions at the same energy range. The results are interpreted within a statistical approach. They are consistent with the hypothesis that the Quark Gluon Plasma is created at SPS energies, the critical collision energy being between AGS and SPS energies.
Der vorliegende Beitrag beschäftigt sich mit Problemen der Messung individueller Wohlfahrt und ihrer Verteilung. Dabei wird versucht, eine Brücke zwischen ökonomischen und soziologischen Ansätzen zu schlagen. In einern ersten Teil werden Probleme der Nutzenmessung diskutiert. Für die Nutzenmessung gibt es weder einen natürlichen Nullpunkt noch eine natürliche Maßeinheit, so daß es deren Bestimmung durch Konventionen bedarf. Selbst die dabei einzubeziehende Palette objektiver und subjektiver Wohlfahrtskomponenten ist nicht vorgegeben. Ausgehend von dem soziologischen Ansatz, sowohl "welfare" als auch "happiness" zu berücksichtigen, wird ein differenziertes Schema wohlfahrtsrelevanter Bedürfnisse erarbeitet, deren Messung teilweise "objektiv unter Annahmen" - dies betrifft alle Besitzbedürfnisse -, überwiegend aber "subjektiv durch Einschätzung" möglich ist (Zugehörigkeitsbedürfnisse, Bedürfnisse nach Selbstverwirklichung, gesellschaftsbezogene Bedürfnisse). Die Bedingtheit empirischer Wohlfahrtsanalysen wird offensichtlich, da die unvermeidlichen normativen Hypothesen einer wissenschaftlichen Beweisführung nicht zugänglich sind. Dies gilt auch, wenn man sich auf die in Geldeinheiten direkt bewertbaren Bedürfnisbefriedigungsmittel beschränkt; denn die daraus resultierende Wohlfahrt hängt von den individuellen Nutzenfunktionen ab. Hinzu kommen Probleme bei der Zusammenfassung von Einkommens-, Vermögens- und Absicherungsindikatoren zu einem individuellen Gesamtwohlfahrtsmaß, um einem eindimensionale Wohlfahrtsverteilung unter allen Gesellschaftsmitgliedern ermitteln zu können. Schließlich bedarf es auch bei der Zurechnung der in einern Haushalt vorhandenen Bedürfnisbefriedigungsmittel auf die einzelnen Haushaltsmitglieder normativer Setzungen, die sich in verschiedenen Äquivalenzskaien niederschlagen. In einem zweiten Teil werden - nach der grundsätzlichen Erörterung von Schwierigkeiten bei der Operationalisierung und Messung von Nutzen - einige Ungleichheitsmaße dargestellt und hinsichtlich ihrer normativen Implikationen diskutiert. Alle Verteilungsindikatoren basieren auf der Philosophie des individualistischen Utilitarismus und gehen von Gleichverteilung als Referenzpunkt aus. Die Frage nach dem Einfluß der Wohlfahrt anderer Gesellschaftsmitglieder auf den individuellen Nutzen bleibt also ebenso ausgeklammert wie die nach einem gerechten Maß an Ungleichheit als Vergleichspunkt zur gegebenen Ungleichheit. Abschließend wird die Entwicklung einiger Verteilungsindikatoren in der Bundesrepublik Deutschland von 1962/63 bis 1988 dargestellt. Dabei zeigt sich eine weitgehende Stabilität der Verteilung der Nettoäquivalenzeinkommen, die allerdings nicht mit der Verteilung individueller Wohlfahrt gleichzusetzen ist.
Enthält die 2 Vorträge: Die Entwicklung der Einkommensverteilung und der Einkommensarmut in den alten Bundesländern von 1962 bis 1988 / Irene Becker, Universität Frankfurt/Main Vergleichende Analyse der Einkommensverteilung und der Einkommensarmut in den alten und neuen Bundesländern von 1990 bis 1995 / Richard Hauser, Universität Frankfurt a.M.
Rapidity distributions of net hyperons (Λ−Λ¯¯¯¯) are compared to distributions of participant protons (p−p¯¯¯). Strangeness production (mean multiplicities of produced Λ/Σ0 hyperons and ⟨K+K¯¯¯¯¯⟩) in central nucleus-nucleus collisions is shown for different collision systems at different energies. An enhanced production of Λ¯¯¯¯ compared to p¯¯¯ is observed at 200 GeV per nucleon.
Ziel der hier vorgestellten Arbeit ist es, einen Eindruck über die Größenordnung der Kosten eines Bürgergeldmodells als alternatives Grundsicherungssystem zu gewinnen. Dazu wurde eine formale („impact“-) Partialinzidenzanalyse mit Hilfe einer statischen Simulation auf der Basis von Mikrodaten der Einkommens- und Verbrauchsstichproben 1983 und 1988 durchgeführt. Die Ergebnisse können nur als ungefähre Orientierungspunkte interpretiert werden, zumal sie sich auf den Transferbereich beschränken. Bei der Konkretisierung des sozio-kulturellen Existenzminimums wurde im wesentlichen an das bestehende Sozialhilferecht angeknüpft, und für das anzurechnende Einkommen wurde schwerpunktmäßig ein Transferentzugssatz von 50% unterstellt. Die Berechnungen führen zu erheblichen Mehrkosten des Bürgergeldmodells gegenüber dem gegenwärtigen Nebeneinander verschiedener Mindestsicherungsleistungen (mit deutlich höheren Transferentzugssätzen), die z. gr. T. durch die auch oberhalb des Existenzminimums (bis zu dessen doppeltem Betrag) bestehenden potentiellen Ansprüche bedingt sind. Die Nettokosten hätten 1988 fast ein Drittel des Aufkommens der Lohn- und Einkommensteuer ausgemacht, so daß die hier vorgestellte Reformvariante als kaum finanzierbar bezeichnet werden kann. Es wäre wohl utopisch anzunehmen, daß die möglichen positiven Anreizeffekte des verminderten Transferentzugssatzes zu einer Senkung des Bürgergeldvolumens in ähnlicher Größenordnung führen würde. Mit Blick auf die Gegenwart ist zudem zu bedenken, daß seit der Wiedervereinigung das Transfervolumen im Falle der Einführung eines Bürgergeldes wesentlich höher als in der hier präsentierten Simulationsrechnung ausfallen dürfte, und zwar auch in Relation zum Volkseinkommen. Denn die schrittweise Angleichung der Einkommen in Ostdeutschland an das westdeutsche Niveau bewirkt, daß in der Übergangszeit die Haushaltseinkommen in den neuen Bundesländern vergleichsweise häufiger und tendenziell stärker unterhalb des Existenzminimums liegen als in Westdeutschland - es sei denn, für Ostdeutschland würde das relevante Existenzminimum deutlich niedriger als hier vorgeschlagen definiert; dies wäre aber nicht sinnvoll und politisch kaum tragbar. Eine Reform der sozialen Mindestsicherung nach dem Muster einer Negativen Einkommensteuer würde also zu erheblichen Mehrkosten führen. Bei allen Vorteilen, die ein Bürgergeldsystem mit 50%igem Transferentzugssatz haben mag, ist die Finanzierungsfrage völlig offen; bei höherem Transferentzugssatz wäre das Problem zwar weniger gravierend, aber nicht gelöst.
Die Analyse von Entwicklungstendenzen der personellen Einkommensverteilung in der Bundesrepublik Deutschland hat ein hohes Maß an Stabilität ergeben. Trotz vielfältiger gesamtwirtschaftlicher und sozialer Wandlungsprozesse während des einbezogenen Vierteljahrhunderts (1962/63 bis 1988) deuten aggregierte Verteilungsmaße auf der Basis von Mikrodaten der Einkommens- und Verbrauchsstichproben (EVS) sehr mäßige Veränderungen der Verteilung der Nettoäquivalenzeinkommen an. Der sich zunächst abzeichnende leichte Trend zu verminderter Ungleichverteilung kehrte sich im letzten Jahrzehnt des Beobachtungszeitraums wieder um, so daß die meisten Verteilungsindikatoren 1988 wieder nahe den Werten zu Beginn der siebziger Jahre lagen. Zwischen 1978 und 1983 scheint sich insbesondere die Situation der untersten Schichten verschlechtert zu haben, wie die Entwicklung des Atkinson-Index bei hoher Ungleichheitsaversion, des Theil-Index und der Armutsquote - bei einer relativen Armutsgrenze von 50% des durchschnittlichen Nettoäquivalenzeinkommens - belegen. Ein Vergleich der Verteilungsentwicklung auf verschiedenen Stufen des Verteilungsprozesses zeigt, daß sich die primäre und die sekundäre Verteilung tendenziell auseinanderentwickelt haben. Beispielsweise ist der Gini-Koeffizient der Faktoräquivalenzeinkommen im Untersuchungszeitraum um 7% gestiegen, der der Nettoäquivalenzeinkommen um 11% gesunken. Das soziale Sicherungssystem scheint sich im Untersuchungszeitraum also im großen und ganzen bewährt zu haben. Dennoch deuten sich neuerdings wieder zunehmende Verteilungsprobleme und sozialpolitische Problemfelder an. Abgesehen von dem allgemeinen Anstieg der Armutsquote in den achtziger Jahren und der nach wie vor ungünstigen Position der (vollständigen) Familien mit mehreren Kindern zeigt sich insbesondere bei den Alleinerziehenden eine alarmierende Entwicklung. Ihre durchschnittliche Wohlstandsposition erreichte 1988 nur noch ca. vier Fünftel (Alleinerziehende mit einem Kind) bzw. drei Fünftel (Alleinerziehende mit mehreren Kindern) des durchschnittlichen Nettoäquivalenzeinkommens insgesamt. Die relativen Positionen der anderen Haushalts- bzw. Familientypen haben sich im Zeitablauf tendenziell eher dem Gesamtdurchschnitt angenähert, so daß eine Dekomposition von Verteilungsindikatoren eine eindeutige und anhaltende Dominanz der Intra-Gruppen-Ungleichheit gegenüber der Ungleichverteilung zwischen den Haushaltstypen ergibt (ca. 90% der insgesamt gemessenen Ungleichheit). Auch in der Differenzierung nach der sozialen Stellung des Haushaltsvorstands überwiegt die Intra-Gruppen-Ungleichheit die Inter-Gruppen-Komponente der Einkommensungleichverteilung um ein Vielfaches, und zwar in deutlich zunehmendem Maß. Eine zielgerichtete Sozial- und Verteilungspolitik sollte also nicht an traditionellen Kategorien bzw. Schichtmerkmalen - z.B. Arbeiterschicht versus Unternehmerschicht - anknüpfen, sondern die komplexen Einflußfaktoren, die die materielle Situation von Haushalten determinieren, und damit die Heterogenität von eindimensional abgegrenzten Gruppen berücksichtigen. Darüber hinaus hat die Untersuchung auf der Basis der EVS-Datenbank gezeigt, daß sich hinter einer insgesamt recht stabilen Einkommensverteilung vielfältige, sich kompensierende Einzelentwicklungen verbergen, die in der Sozial- und Familienpolitik beachtet werden sollten.
Gegenstand der Untersuchung ist die Veränderung der Struktur der personellen Einkom-mensverteilung in der Bundesrepublik Deutschland. Die Grundlage der Analyse sind die vom Statistischen Bundesamt erhobenen Einkommens- und Verbrauchsstichproben (EVS) der Jahre 1962/63, 1969, 1973, 1978 sowie 1983. Um zwischen Alters-, Perioden- und Ko-horteneffekten differenzieren zu können, wurden die Daten der einzelnen Querschnittser-hebungen verkettet und mit Hilfe der so gebildeten Zeitreihen, sogenannten „Repeated Cross-Section“-Daten (RCS-Daten), die Entwicklung und Strukturveränderungen der Ein-kommen geburtskohortenspezifisch untersucht. Es zeigt sich, daß die Struktur der Einkommen während der jeweiligen Zeit der Erwerbstätigkeit, d. h. bis zum 60. Lebensjahr, relativ beständig bleibt. Erst der Übergang in die Nacherwerbsphase führt zu einem Bedeutungswandel: die „Einkommen aus öffentlichen Transferzahlungen“ werden zu einer relevanten Einkunftsart. Verursacht wird dies vor allem durch Leistungen aus staatlichen Alterssicherungssystemen. Eine analoge Zunahme der Bedeutung von „Einkünften aus Vermögen“ im Alter, wie sie z. T. in der ökonomischen Theorie sowie von Sozialpolitikern unterstellt wird, kann nicht bestätigt werden. Zusätzlich zu den, getrennt für die Ein- und Zweipersonenhaushalte durchgeführten Analysen wurde ein Vergleich der Wohlstandspositionen zwischen diesen beiden Haushaltsgrößen mittels Äquivalenzeinkommenswerten vorgenommen. Als grundlegendes Resultat ergibt sich, daß die Zweipersonenhaushalte im Hinblick auf die „ausgabefähigen Einkommen und Einnahmen“ grundsätzlich eine höhere Position als die Einpersonenhaushalte innehaben. Darüber hinaus wurden ansatzweise die mit einer Haushaltsänderung einhergehenden Einkommensveränderungen untersucht. Hierbei zeigt sich, daß der Übergang von einem „Zweipersonen-Durchschnittshaushalt“ mit einer männlichen Bezugsperson zu einem „Einpersonen-Durchschnittshaushalt“ mit einer verwitweten Frau als Bezugsperson zu einer erheblichen Verringerung der Wohlstandsposition der verwitweten Frau führt.
Revised version of a paper presented at the Conference "The Distribution of Economic Well-Being in the 1980s - an International Perspective", June 21 - 23, 1993, in Fiskebäckskil, Sweden. This paper sketches changes in the distribution of well-being during the period from 1972 to 1991 against the background of West Germany's economic and demographic development, and compares the distribution of well-being in East Germany before and after reunification. We rely on equivalent income of persons as the main indicator to measure well-being, but we also look at the distribution of gross wage income of workers and employees. Estimates of the Federal Statistical Office referring to the mesolevel of average equivalent income of socio-economic groups as well as various distributional measures computed by us at the micro-level are used to gauge changes of the distribution. The computations are based on two sets of micro-data available to us, the official Income and Consumption Surveys (1973, 1978 and 1983), and the German Socio-economic Panel (1983 to 1990 for West Germany, 1990, 1991 for East Germany). At the meso-level we find substantial changes in the relative welfare positions of the ten socio-economic groups distinguished, but a nearly constant ranking of the groups during the whole period under review. At the micro-level our computations indicate slight increases in the inequality of gross earnings during both decades. The distribution of well-being as measured by equivalent income of persons seems also to have become slightly more unequal during the whole period but the changes are very small, and partly reversed during subperiods. A decomposition of overall inequality by occupational status of the heads of household using the Theil measure shows that more than 80 percent of overall inequality is due to within-group inequality with rising tendency. This result is mitigated a little when dis aggregating the heterogeneous group of not gainfully employed with regard to the main income source of the household.
Im vorliegenden Arbeitspapier werden alternative normative Grundpositionen der Familienpolitik diskutiert und die Entwicklung der relativen Verteilungspositionen von Haushalten unterschiedlicher Größe bzw. von Familien mit und ohne Kinder untersucht. Die empirische Analyse stützt sich zum einen auf veröffentlichte Tabellen des Statistischen Bundesamtes und zum anderen auf eigene Auswertungen der Einkommens- und Verbrauchsstichproben 1973, 1978 und 1983 sowie des Sozio-ökonomischen Panels für einzelne Stichjahre der späteren Periode und insbesondere für die Ausgangssituation und die bisherigen Veränderungen in den neuen Bundesländern. Als Indikator für die Einkommenslage von Personen wird ein Äquivalenzeinkommen in Relation zum jeweiligen Gruppen- oder Gesamtdurchschnitt, die sogenannte Wohlstandsposition, herangezogen. Personen in Haushalten mit drei oder mehr Personen - das sind hauptsächlich Familien mit Kindern - schneiden erwartungsgemäß im Durchschnitt schlechter ab als Personen in kleineren Haushalten. Allerdings sind die Diskrepanzen innerhalb der Gruppen, die überwiegend von Transfers leben, mäßiger als innerhalb der Gruppen mit erwerbstätigem Haushaltsvorstand; anscheinend wirkt der Familienlastenausgleich in den sozial schwächeren Gruppen stärker. Zwischen 1972 und 1992 (Westdeutschland) hat sich die relative Position der größeren Haushalte allerdings tendenziell etwas verschlechtert. Die Verteilungsanalyse auf der Basis der erwähnten Mikrodaten zeigt zudem, daß Familien mit Kindern wesentlich häufiger unterhalb der durchschnittlichen Wohlstandsposition und unterhalb der relativen Armutslinie von 50 % einzuordnen sind als (Ehe-)Paare ohne Kinder. Besonders ungünstig sieht die Situation bei den Alleinerziehenden aus; die Armutsquote dieser Gruppe schwankt zwischen einem Fünftel und einem Viertel. In der ehemaligen DDR scheint die relative Position der Familien mit Kindern überwiegend besser gewesen zu sein; die Strukturen in den neuen Bundesländern haben sich aber bereits denen in Westdeutschland angenähert.
It is well known that artificial neural nets can be used as approximators of any continous functions to any desired degree. Nevertheless, for a given application and a given network architecture the non-trivial task rests to determine the necessary number of neurons and the necessary accuracy (number of bits) per weight for a satisfactory operation. In this paper the problem is treated by an information theoretic approach. The values for the weights and thresholds in the approximator network are determined analytically. Furthermore, the accuracy of the weights and the number of neurons are seen as general system parameters which determine the the maximal output information (i.e. the approximation error) by the absolute amount and the relative distribution of information contained in the network. A new principle of optimal information distribution is proposed and the conditions for the optimal system parameters are derived. For the simple, instructive example of a linear approximation of a non-linear, quadratic function, the principle of optimal information distribution gives the the optimal system parameters, i.e. the number of neurons and the different resolutions of the variables.
Performance and storage requirements of topology-conserving maps for robot manipulator control
(1989)
A new programming paradigm for the control of a robot manipulator by learning the mapping between the Cartesian space and the joint space (inverse Kinematic) is discussed. It is based on a Neural Network model of optimal mapping between two high-dimensional spaces by Kohonen. This paper describes the approach and presents the optimal mapping, based on the principle of maximal information gain. It is shown that Kohonens mapping in the 2-dimensional case is optimal in this sense. Furthermore, the principal control error made by the learned mapping is evaluated for the example of the commonly used PUMA robot, the trade-off between storage resources and positional error is discussed and an optimal position encoding resolution is proposed.
Why do banks issue contingent convertible debt? To answer this question we study comprehensive data covering all issues by publicly traded banks in Europe of contingent convertible bonds (CoCos) that count as additional tier 1 capital (AT1). We find that banks with lower asset volatility are more likely to issue AT1 CoCos than their riskier counterparts, but that CDS spreads do not react following issue announcements. Our estimates therefore suggest that agency costs play a crucial role in banks' ability to successfully issue CoCos. The agency costs may be higher for CoCos than for equity explaining why we observe riskier or lowly capitalized banks to issue equity rather than CoCos.