Refine
Year of publication
Document Type
- Part of Periodical (288)
- Working Paper (190)
- Book (95)
- Report (45)
- Contribution to a Periodical (44)
- Article (40)
- Doctoral Thesis (35)
- diplomthesis (8)
- Periodical (8)
- Conference Proceeding (7)
Language
- German (776) (remove)
Is part of the Bibliography
- no (776) (remove)
Keywords
- Financial Institutions (43)
- Deutschland (40)
- Capital Markets Union (29)
- Financial Markets (26)
- ECB (24)
- Macro Finance (22)
- Banking Regulation (21)
- Banking Supervision (20)
- Banking Union (18)
- Household Finance (18)
Institute
- Wirtschaftswissenschaften (776) (remove)
Das Stapelrecht in Mainz
(1925)
Die deutschen Hohlglashütten wurden im August 1933 zu einem Zwangskartell zusammengeschlossen . Die dabei zu überwindenden Schwierigkeiten bestanden vornehmlich in der Verschiedenartigkeit der erstellten Erzeugnisse und in dem besonders ausgeprägten Hang zur Selbständigkeit der in diesem Industriezweig weitaus überwiegenden Mittelbetriebe. Darüber hinaus stieß die Durchführung der Preisordnung infolge der Rückständigkeit des Rechnungswesens der einzelnen Hütten auf nahezu unüberwindbar erscheinende Widerstände. Es mangelte und mangelt noch heute durchweg an brauchbaren Kalkulationsunterlagen und damit an der Möglichkeit einer einwandfreien Ermittlung des Erfolges bzw . Verlustes und seiner Quellen...
Schon im ersten Weltkrieg, besonders aber seit dem Ausbruch der Weltwirtschaftskrise und erst recht im zweiten Weltkrieg hat der öffentliche Kredit in finanz- und wirtschaftspolitischer Hinsicht eine Bedeutung erlangt, wie nie zuvor. Er, der ehedem fast nur ein außerordentliches Mittel zur Überwindung vorübergehender finanzieller Schwierigkeiten des Staates gewesen war, entwickelte sich in dieser Zeit zu einem wirtschaftspolitischen Faktor ersten Ranges, ohne dessen Mitwirkung eine erfolgreiche Finanz- und Wirtschaftspolitik heute kaum denkbar ist. Besonders die durch den zweiten Weltkrieg geschaffene Zwangslage nötigte die einzelnen Volkswirtschaften, die durch ihn gebotenen finanz- und wirtschaftspolitischen Möglichkeiten in jeder Weise bis zur Grenze des absolut Möglichen auszuprobieren. Die konjunkturaktive öffentliche Kreditpolitik jener Zeit war von Anfang an kein einheitliches Ganzes, sondern entwickelte sich zu einem geschlossenen wirtschafts- und finanzpolitischen System erst allmählich aus verschiedenen wirtschafts- und finanzpolitischen Einzelmaßnahmen. Sinn und Zweck dieser Arbeit ist es nun, rückschauend auf diese Entwicklung das Grundsätzliche dieser Politik herauszuarbeiten. Ihr besonderer Schwerpunkt liegt dabei auf der Beantwortung der Fragen, inwieweit eine staatliche konjunkturaktive Kreditpolitik ein Heilmittel ist, um einen wirtschaftlichen Schrumpfungsprozess zum Stillstand zu bringen, inwieweit ein Reizmittel, um die wirtschaftliche Entwicklung voranzutreiben und inwieweit ein Gift, das schließlich den Ruin von Marktwirtschaft und Finanzwirtschaft herbeiführt.
Gegenstand dieser Arbeit ist das Entropiegesetz und seine Bedeutung für die Umweltökonomie. Das Grundgesetz vom Niedergang , wie Schütze es genannt hat, trifft in seiner ursprünglichen Bedeutung Aussagen über die Umwandlung von verschiedenen Formen von Energie bzw. über ihre Nutzbarkeit u.a. für menschliche Belange. So ist zu erklären, daß die stärkste Beschäftigung der Ökonomen mit dem Entropiegesetz in der Folge der sog. Ölkrise und der Studie Grenzen des Wachstums stattfand, da zu dieser Zeit der Gedanke einer plötzlichen Erschöpfbarkeit der Energiequellen um so stärker in den Vordergrund drang, wie es in der Zeit davor normal erschien, daß sich der Energieverbrauch regelmäßig verdoppelte. Das Thema physikalische Grenzen des wirtschaftlichen Wachstums ist in der öffentlichen wie auch in der (wirtschafts-) wissenschaftlichen Diskussion durch aktuellere und akutere Probleme in den Hintergrund gedrängt worden und mit ihm auch der Begriff Entropie. Diese akuteren Probleme sind vor allem im Zusammenhang mit Stoffen zu sehen, die den Bereich des menschlichen Wirtschaftens verlassen. Die zunehmende Umweltverschmutzung stellt sich in den letzten Jahren als das vordringliche Problemfeld für die Umweltökonomie dar. Zu erinnern wäre hier beispielhaft einerseits an die Unfälle bei Sandoz in Basel und des Kernkraftwerks in Tschernobyl sowie die Havarie des Tankers Exxon Valdez in Alaska. Andererseits ist aber auch der Normalbetrieb mit Problematiken wie der u.a. durch FCKWs zunehmenden Zerstörung der Ozonschicht oder auch dem übermäßigen Auftreten von Ozon in Bodennähe im Zusammenhang mit dem photochemischen Smog verbunden...
Gegenstand der Untersuchung ist die Veränderung der Struktur der personellen Einkom-mensverteilung in der Bundesrepublik Deutschland. Die Grundlage der Analyse sind die vom Statistischen Bundesamt erhobenen Einkommens- und Verbrauchsstichproben (EVS) der Jahre 1962/63, 1969, 1973, 1978 sowie 1983. Um zwischen Alters-, Perioden- und Ko-horteneffekten differenzieren zu können, wurden die Daten der einzelnen Querschnittser-hebungen verkettet und mit Hilfe der so gebildeten Zeitreihen, sogenannten „Repeated Cross-Section“-Daten (RCS-Daten), die Entwicklung und Strukturveränderungen der Ein-kommen geburtskohortenspezifisch untersucht. Es zeigt sich, daß die Struktur der Einkommen während der jeweiligen Zeit der Erwerbstätigkeit, d. h. bis zum 60. Lebensjahr, relativ beständig bleibt. Erst der Übergang in die Nacherwerbsphase führt zu einem Bedeutungswandel: die „Einkommen aus öffentlichen Transferzahlungen“ werden zu einer relevanten Einkunftsart. Verursacht wird dies vor allem durch Leistungen aus staatlichen Alterssicherungssystemen. Eine analoge Zunahme der Bedeutung von „Einkünften aus Vermögen“ im Alter, wie sie z. T. in der ökonomischen Theorie sowie von Sozialpolitikern unterstellt wird, kann nicht bestätigt werden. Zusätzlich zu den, getrennt für die Ein- und Zweipersonenhaushalte durchgeführten Analysen wurde ein Vergleich der Wohlstandspositionen zwischen diesen beiden Haushaltsgrößen mittels Äquivalenzeinkommenswerten vorgenommen. Als grundlegendes Resultat ergibt sich, daß die Zweipersonenhaushalte im Hinblick auf die „ausgabefähigen Einkommen und Einnahmen“ grundsätzlich eine höhere Position als die Einpersonenhaushalte innehaben. Darüber hinaus wurden ansatzweise die mit einer Haushaltsänderung einhergehenden Einkommensveränderungen untersucht. Hierbei zeigt sich, daß der Übergang von einem „Zweipersonen-Durchschnittshaushalt“ mit einer männlichen Bezugsperson zu einem „Einpersonen-Durchschnittshaushalt“ mit einer verwitweten Frau als Bezugsperson zu einer erheblichen Verringerung der Wohlstandsposition der verwitweten Frau führt.
In diesem Arbeitspapier werden Veränderungen der Wohlstandsverteilung während der Periode 1972 bis 1991 vor dem Hintergrund der ökonomischen und demographischen Entwicklung in Westdeutschland skizziert und die Wohlstandsverteilungen in Ostdeutschland vor und nach der Wiedervereinigung verglichen. Dabei beziehen wir uns auf das Äquivalenzeinkommen von Personen zur Erfassung individuellen Wohlstands. Die Analyse bezieht sich zum einen auf Ergebnisse des Statistischen Bundesamtes, die auf einem mittleren Aggregationsniveau durchschnittliche Äquivalenzeinkommen nach sozio-ökonomischen Gruppen ausweisen. Zum anderen werden verschiedene Verteilungsmaße auf der Basis von Mikrodaten berechnet, wobei uns zwei Datenquellen zur Verfügung standen: die offiziellen Einkommens- und Verbrauchsstichproben (1973, 1978 und 1983) und das Sozio-ökonomische Panel (1983 bis 1990 für Westdeutschland, 1990, 1991 für Ostdeutschland). Auf mittlerem Aggregationsniveau zeigen sich wesentliche Änderungen in den relativen Wohlstandspositionen der zehn unterschiedenen sozio-ökonomischen Gruppen, aber eine nahezu unveränderte Rangfolge der Gruppen während des gesamten Beobachtungszeitraums. Auf der Mikroebene zeigt sich eine leichte Zunahme der Ungleichheit der Wohlstandsverteilung, die am Äquivalenzeinkommen der Personen gemessen wurde. Die Veränderungen sind allerdings sehr gering und weisen teilweise in den beiden Dekaden entgegengesetzte Richtungen auf. Aus der Dekomposition der mit dem Theil-Maß ermittelten Verteilungsungleichheit nach der sozialen Stellung des Haushaltsvorstands ergibt sich, daß mehr als 80% der Ungleichheit insgesamt auf Intra-Gruppen-Ungleichverteilungen zurückzuführen ist, und zwar mit steigender Tendenz. Dieses Ergebnis wird etwas gemildert, wenn man die sehr heterogene Gruppe der Nichterwerbstätigenhaushalte nach der überwiegenden Einkommensart des Haushalts disaggregiert.
Im vorliegenden Arbeitspapier werden alternative normative Grundpositionen der Familienpolitik diskutiert und die Entwicklung der relativen Verteilungspositionen von Haushalten unterschiedlicher Größe bzw. von Familien mit und ohne Kinder untersucht. Die empirische Analyse stützt sich zum einen auf veröffentlichte Tabellen des Statistischen Bundesamtes und zum anderen auf eigene Auswertungen der Einkommens- und Verbrauchsstichproben 1973, 1978 und 1983 sowie des Sozio-ökonomischen Panels für einzelne Stichjahre der späteren Periode und insbesondere für die Ausgangssituation und die bisherigen Veränderungen in den neuen Bundesländern. Als Indikator für die Einkommenslage von Personen wird ein Äquivalenzeinkommen in Relation zum jeweiligen Gruppen- oder Gesamtdurchschnitt, die sogenannte Wohlstandsposition, herangezogen. Personen in Haushalten mit drei oder mehr Personen - das sind hauptsächlich Familien mit Kindern - schneiden erwartungsgemäß im Durchschnitt schlechter ab als Personen in kleineren Haushalten. Allerdings sind die Diskrepanzen innerhalb der Gruppen, die überwiegend von Transfers leben, mäßiger als innerhalb der Gruppen mit erwerbstätigem Haushaltsvorstand; anscheinend wirkt der Familienlastenausgleich in den sozial schwächeren Gruppen stärker. Zwischen 1972 und 1992 (Westdeutschland) hat sich die relative Position der größeren Haushalte allerdings tendenziell etwas verschlechtert. Die Verteilungsanalyse auf der Basis der erwähnten Mikrodaten zeigt zudem, daß Familien mit Kindern wesentlich häufiger unterhalb der durchschnittlichen Wohlstandsposition und unterhalb der relativen Armutslinie von 50 % einzuordnen sind als (Ehe-)Paare ohne Kinder. Besonders ungünstig sieht die Situation bei den Alleinerziehenden aus; die Armutsquote dieser Gruppe schwankt zwischen einem Fünftel und einem Viertel. In der ehemaligen DDR scheint die relative Position der Familien mit Kindern überwiegend besser gewesen zu sein; die Strukturen in den neuen Bundesländern haben sich aber bereits denen in Westdeutschland angenähert.
"Verhaltenswissenschaftliche Theorien oder mikroökonomische Theorie?" - das ist nicht die Frage, wenn es um die Erklärung menschlichen Verhaltens in Organisationengeht. Sie schließen sich nämlich nicht gegenseitig aus, sondern ergänzen sich. Deshalb sollten sie gemeinsam, und zwar in einem integrativen und nicht in einem additiven Sinne zumbesseren Verständnis und zur wirksameren Beeinflussung menschlicher Handlungen in Organisationen genutzt werden. Der vorliegende Aufsatz will dazu und zur Vermeidung bzw. Überwindung verfehlter Frontbildungen einen Beitrag leisten. Die ökonomische Effizienz von Anreizsystemen, die in der Regel nicht direkt beurteilt werden kann, sondern indirekt über adäquate Ersatzkriterien oder -wie hier- über plausible Bedingungen, ist, wie sich schnell erkennenläßt, ein besonders treffliches Objektfürderartige Bemühungen unter marktwirtschaftichen Bedingungen.
Ziel der hier vorgestellten Arbeit ist es, einen Eindruck über die Größenordnung der Kosten eines Bürgergeldmodells als alternatives Grundsicherungssystem zu gewinnen. Dazu wurde eine formale („impact“-) Partialinzidenzanalyse mit Hilfe einer statischen Simulation auf der Basis von Mikrodaten der Einkommens- und Verbrauchsstichproben 1983 und 1988 durchgeführt. Die Ergebnisse können nur als ungefähre Orientierungspunkte interpretiert werden, zumal sie sich auf den Transferbereich beschränken. Bei der Konkretisierung des sozio-kulturellen Existenzminimums wurde im wesentlichen an das bestehende Sozialhilferecht angeknüpft, und für das anzurechnende Einkommen wurde schwerpunktmäßig ein Transferentzugssatz von 50% unterstellt. Die Berechnungen führen zu erheblichen Mehrkosten des Bürgergeldmodells gegenüber dem gegenwärtigen Nebeneinander verschiedener Mindestsicherungsleistungen (mit deutlich höheren Transferentzugssätzen), die z. gr. T. durch die auch oberhalb des Existenzminimums (bis zu dessen doppeltem Betrag) bestehenden potentiellen Ansprüche bedingt sind. Die Nettokosten hätten 1988 fast ein Drittel des Aufkommens der Lohn- und Einkommensteuer ausgemacht, so daß die hier vorgestellte Reformvariante als kaum finanzierbar bezeichnet werden kann. Es wäre wohl utopisch anzunehmen, daß die möglichen positiven Anreizeffekte des verminderten Transferentzugssatzes zu einer Senkung des Bürgergeldvolumens in ähnlicher Größenordnung führen würde. Mit Blick auf die Gegenwart ist zudem zu bedenken, daß seit der Wiedervereinigung das Transfervolumen im Falle der Einführung eines Bürgergeldes wesentlich höher als in der hier präsentierten Simulationsrechnung ausfallen dürfte, und zwar auch in Relation zum Volkseinkommen. Denn die schrittweise Angleichung der Einkommen in Ostdeutschland an das westdeutsche Niveau bewirkt, daß in der Übergangszeit die Haushaltseinkommen in den neuen Bundesländern vergleichsweise häufiger und tendenziell stärker unterhalb des Existenzminimums liegen als in Westdeutschland - es sei denn, für Ostdeutschland würde das relevante Existenzminimum deutlich niedriger als hier vorgeschlagen definiert; dies wäre aber nicht sinnvoll und politisch kaum tragbar. Eine Reform der sozialen Mindestsicherung nach dem Muster einer Negativen Einkommensteuer würde also zu erheblichen Mehrkosten führen. Bei allen Vorteilen, die ein Bürgergeldsystem mit 50%igem Transferentzugssatz haben mag, ist die Finanzierungsfrage völlig offen; bei höherem Transferentzugssatz wäre das Problem zwar weniger gravierend, aber nicht gelöst.
Die Analyse von Entwicklungstendenzen der personellen Einkommensverteilung in der Bundesrepublik Deutschland hat ein hohes Maß an Stabilität ergeben. Trotz vielfältiger gesamtwirtschaftlicher und sozialer Wandlungsprozesse während des einbezogenen Vierteljahrhunderts (1962/63 bis 1988) deuten aggregierte Verteilungsmaße auf der Basis von Mikrodaten der Einkommens- und Verbrauchsstichproben (EVS) sehr mäßige Veränderungen der Verteilung der Nettoäquivalenzeinkommen an. Der sich zunächst abzeichnende leichte Trend zu verminderter Ungleichverteilung kehrte sich im letzten Jahrzehnt des Beobachtungszeitraums wieder um, so daß die meisten Verteilungsindikatoren 1988 wieder nahe den Werten zu Beginn der siebziger Jahre lagen. Zwischen 1978 und 1983 scheint sich insbesondere die Situation der untersten Schichten verschlechtert zu haben, wie die Entwicklung des Atkinson-Index bei hoher Ungleichheitsaversion, des Theil-Index und der Armutsquote - bei einer relativen Armutsgrenze von 50% des durchschnittlichen Nettoäquivalenzeinkommens - belegen. Ein Vergleich der Verteilungsentwicklung auf verschiedenen Stufen des Verteilungsprozesses zeigt, daß sich die primäre und die sekundäre Verteilung tendenziell auseinanderentwickelt haben. Beispielsweise ist der Gini-Koeffizient der Faktoräquivalenzeinkommen im Untersuchungszeitraum um 7% gestiegen, der der Nettoäquivalenzeinkommen um 11% gesunken. Das soziale Sicherungssystem scheint sich im Untersuchungszeitraum also im großen und ganzen bewährt zu haben. Dennoch deuten sich neuerdings wieder zunehmende Verteilungsprobleme und sozialpolitische Problemfelder an. Abgesehen von dem allgemeinen Anstieg der Armutsquote in den achtziger Jahren und der nach wie vor ungünstigen Position der (vollständigen) Familien mit mehreren Kindern zeigt sich insbesondere bei den Alleinerziehenden eine alarmierende Entwicklung. Ihre durchschnittliche Wohlstandsposition erreichte 1988 nur noch ca. vier Fünftel (Alleinerziehende mit einem Kind) bzw. drei Fünftel (Alleinerziehende mit mehreren Kindern) des durchschnittlichen Nettoäquivalenzeinkommens insgesamt. Die relativen Positionen der anderen Haushalts- bzw. Familientypen haben sich im Zeitablauf tendenziell eher dem Gesamtdurchschnitt angenähert, so daß eine Dekomposition von Verteilungsindikatoren eine eindeutige und anhaltende Dominanz der Intra-Gruppen-Ungleichheit gegenüber der Ungleichverteilung zwischen den Haushaltstypen ergibt (ca. 90% der insgesamt gemessenen Ungleichheit). Auch in der Differenzierung nach der sozialen Stellung des Haushaltsvorstands überwiegt die Intra-Gruppen-Ungleichheit die Inter-Gruppen-Komponente der Einkommensungleichverteilung um ein Vielfaches, und zwar in deutlich zunehmendem Maß. Eine zielgerichtete Sozial- und Verteilungspolitik sollte also nicht an traditionellen Kategorien bzw. Schichtmerkmalen - z.B. Arbeiterschicht versus Unternehmerschicht - anknüpfen, sondern die komplexen Einflußfaktoren, die die materielle Situation von Haushalten determinieren, und damit die Heterogenität von eindimensional abgegrenzten Gruppen berücksichtigen. Darüber hinaus hat die Untersuchung auf der Basis der EVS-Datenbank gezeigt, daß sich hinter einer insgesamt recht stabilen Einkommensverteilung vielfältige, sich kompensierende Einzelentwicklungen verbergen, die in der Sozial- und Familienpolitik beachtet werden sollten.
Der vorliegende Beitrag beschäftigt sich mit Problemen der Messung individueller Wohlfahrt und ihrer Verteilung. Dabei wird versucht, eine Brücke zwischen ökonomischen und soziologischen Ansätzen zu schlagen. In einern ersten Teil werden Probleme der Nutzenmessung diskutiert. Für die Nutzenmessung gibt es weder einen natürlichen Nullpunkt noch eine natürliche Maßeinheit, so daß es deren Bestimmung durch Konventionen bedarf. Selbst die dabei einzubeziehende Palette objektiver und subjektiver Wohlfahrtskomponenten ist nicht vorgegeben. Ausgehend von dem soziologischen Ansatz, sowohl "welfare" als auch "happiness" zu berücksichtigen, wird ein differenziertes Schema wohlfahrtsrelevanter Bedürfnisse erarbeitet, deren Messung teilweise "objektiv unter Annahmen" - dies betrifft alle Besitzbedürfnisse -, überwiegend aber "subjektiv durch Einschätzung" möglich ist (Zugehörigkeitsbedürfnisse, Bedürfnisse nach Selbstverwirklichung, gesellschaftsbezogene Bedürfnisse). Die Bedingtheit empirischer Wohlfahrtsanalysen wird offensichtlich, da die unvermeidlichen normativen Hypothesen einer wissenschaftlichen Beweisführung nicht zugänglich sind. Dies gilt auch, wenn man sich auf die in Geldeinheiten direkt bewertbaren Bedürfnisbefriedigungsmittel beschränkt; denn die daraus resultierende Wohlfahrt hängt von den individuellen Nutzenfunktionen ab. Hinzu kommen Probleme bei der Zusammenfassung von Einkommens-, Vermögens- und Absicherungsindikatoren zu einem individuellen Gesamtwohlfahrtsmaß, um einem eindimensionale Wohlfahrtsverteilung unter allen Gesellschaftsmitgliedern ermitteln zu können. Schließlich bedarf es auch bei der Zurechnung der in einern Haushalt vorhandenen Bedürfnisbefriedigungsmittel auf die einzelnen Haushaltsmitglieder normativer Setzungen, die sich in verschiedenen Äquivalenzskaien niederschlagen. In einem zweiten Teil werden - nach der grundsätzlichen Erörterung von Schwierigkeiten bei der Operationalisierung und Messung von Nutzen - einige Ungleichheitsmaße dargestellt und hinsichtlich ihrer normativen Implikationen diskutiert. Alle Verteilungsindikatoren basieren auf der Philosophie des individualistischen Utilitarismus und gehen von Gleichverteilung als Referenzpunkt aus. Die Frage nach dem Einfluß der Wohlfahrt anderer Gesellschaftsmitglieder auf den individuellen Nutzen bleibt also ebenso ausgeklammert wie die nach einem gerechten Maß an Ungleichheit als Vergleichspunkt zur gegebenen Ungleichheit. Abschließend wird die Entwicklung einiger Verteilungsindikatoren in der Bundesrepublik Deutschland von 1962/63 bis 1988 dargestellt. Dabei zeigt sich eine weitgehende Stabilität der Verteilung der Nettoäquivalenzeinkommen, die allerdings nicht mit der Verteilung individueller Wohlfahrt gleichzusetzen ist.
Enthält die 2 Vorträge: Die Entwicklung der Einkommensverteilung und der Einkommensarmut in den alten Bundesländern von 1962 bis 1988 / Irene Becker, Universität Frankfurt/Main Vergleichende Analyse der Einkommensverteilung und der Einkommensarmut in den alten und neuen Bundesländern von 1990 bis 1995 / Richard Hauser, Universität Frankfurt a.M.
Die traditionelle Begründung der Bankenregulierung basiert auf der Vorstellung, daß regulatorische Vorschriften in erster Linie dem Schutz der Bankeinlagen und der Vermeidung von Bankkonkursen dienen. In Kapitel 2 wurde argumentiert, daß diese Begründung nicht den Kern des Regulierungsproblems trifft. Der einzige letztlich überzeugende Grund für die Regulierung der Eigenkapitalausstattung von Banken ist in Externalitäten zu sehen, die aus den derzeit praktizierten Einlagensicherungssystemen bzw. der impliziten Einlagensicherung durch den Staat resultieren. Diese Begründung für die Bankenregulierung führt dazu, daß die Aktiva der Bank ins Zentrum der Betrachtung rücken: Die Bankenregulierung muß danach dafür sorgen, daß die von Banken getroffenen Entscheidungen in bezug auf die Übernahme von Risiken in einem wohlfahrtstheoretisch effizienten Sinn getroffen werden. Wenn die Verminderung des Konkursrisikos die alleinige Zielgröße der Regulierung darstellen würde, müßte man schlußfolgern, daß ein einfaches Verbot riskanter Geschäftsaktivitäten die Erreichung des Regulierungsziels sicherstellt. Dies kann natürlich keine ernstzunehmende Option sein. Das Geschäft der Banken besteht in der Evaluierung und dem Management von Risiken. Die Regulierung muß dafür sorgen, daß Banken diese Funktion trotz bestehender Externalitäten in einer wohlfahrtstheoretisch effizienten Weise erfüllen. Um die Frage der Effizienz von Risikoentscheidungen in einem formalen Modellrahmen analysieren zu können, wurde in Kapitel 4.2.4 ein neuer Optionsbewertungsansatz für das Eigenkapital der Bank entwickelt. Dies war erforderlich, da sich die bisher in der Literatur verwendeten Ansätze nicht zur Beurteilung dieser Frage eignen. Im μ-σ-Rahmen kann zwar analysiert werden, ob die Bank ein effizientes Portfolio wählt. Der Modellansatz basiert aber auf der kritischen Annahme normalverteilter Renditen. Da die beschränkte Haftung der Eigenkapitalgeber aber eine untere Schranke der Eigenkapitalrendite bewirkt, ist diese Annahme zur Analyse der Risikowahl problematisch. Das in Kapitel 4.2.1 vorgestellte Optionsbewertungsmodell von Merton berücksichtigt zwar die beschränkte Haftung der Eigenkapitalgeber, eignet sich aber nicht zur Analyse der Effizienz der Risikowahl, weil die Wahl des Anlagerisikos irrelevant für die erreichbare Wohlfahrt ist. Als problemadäquater Modellrahmen wurde ein Modell mit risikoabhängiger Rendite von Bankanlagen entwickelt. Dieser Ansatz beruht auf der Idee, daß Banken in Spezialbereichen über superiore Informationen verfügen, die sie zur Erzielung von über den Kapitalkosten liegenden Renditen einsetzen können. Da die Bank aber nur über begrenzte Informationen verfügt, ist die Anzahl der verfügbaren Anlagen mit positivem Kapitalwert begrenzt und definiert so das effiziente Maß der Risikoübernahme. Die Analyse der Auswirkungen der Eigenkapitalregulierung zeigt, daß die risikoabhängige Eigenkapitalregulierung zwar der einfachen Verschuldungsgradregulierung überlegen ist, das Risikoanreizproblem der Banken aber nicht vollständig lösen kann. Sie stellt aber im Vergleich zu den anderen in dieser Arbeit diskutierten Regulierungsansätzen die robusteste Lösung des Problems dar. Nach weitverbreiteter Ansicht leisten Wettbewerbsbeschränkungen einen wichtigen Beitrag zur Behebung des Risikoanreizproblems, weil eine Bank bei Erhöhung des Anlagerisikos den Verlust der Monopolrente (Charterwert ) im Konkurs befürchten muß. Es wurde aber gezeigt, daß diese Kraft nur für unplausibel hohe Monopolrenten stark genug ist, um die aus der Einlagensicherung resultierenden Anreize zu kompensieren. Auch der in Kapitel 4.5 analysierte Vorschlag von John, John und Senbet (1991) einer Nutzung des Steuersystems zur Korrektur des Risikoanreizproblems erweist sich bei näherer Analyse für praktische Regulierungszwecke als unbrauchbar, da hierfür ein marginaler Steuersatz auf die Investitionsrückflüsse in der Größenordnung von 90% notwendig ist. Schließlich erweist sich auch die in Kapitel 4.4 und 4.6.1 untersuchte Idee, durch Einsatz von sicheren Reserven den Effekt einer Erhöhung der Anlagerisiken zu kompensieren, als wenig sinnvoll. Der das Merton-Modell treibende Effekt einer Anlagersikoerhöhung kann durch diese Regulierungsform erfolgreich ausgeschaltet werden. An seine Stelle treten aber unerwünschte Nebeneffekte, die im Ergebnis nach wie vor zu einer nicht effizienten Risikowahl führen. Die Nebeneffekte können nur durch einen Verzicht auf eine Eigenkapitalunterlegung ausgeschaltet werden. Obwohl prinzipiell auch ohne Eigenkapitalunterlegung die Stabilität von Banken durch entsprechend hohe sichere Reservehaltung gewährleistet werden kann, ist eine solche Regulierung aufgrund des enormen Bedarfs an sicheren Reserveanlagen nicht praktikabel. Eine Regulierungsform, die theoretisch in der Lage ist, die wohlfahrtseffiziente Risi kowahl zu implementieren, ist ein Einlagensicherungssystem mit "fair" berechneter risikoabhängiger Prämienkalkulation. Ein solches Einlagensicherungssystem verhindert effektiv jegliche Externalitäten der Risikoentscheidung der Bank auf die Einlagensicherung und führt damit automatisch zur effizienten Wahl des Anlagerisikos. Angesichts dieses Ergebnisses überrascht die Tatsache, daß sich die Aufsichtsbehörden fast vollständig auf das Instrument der Eigenkapitalregulierung konzentrieren. In Kapitel 4.6.2.2 wurden argumentiert, daß die Gründe dafür in den politischen und praktischen Problemen der Umsetzung von risikoabhängigen Einlagensicherungsprämien liegen. Da die Einlagensicherungsprämie nur in diskreten Zeitabständen fällig wird, hat eine eigenkapitalschwache Bank nach wie vor einen starken Anreiz, nach Zahlung der Prämie ihr Anlagerisiko zu erhöhen. Daneben zeigen die Erfahrungen der Savings & Loan-Krise, daß die Einlagensicherung mit erheblichen Agency-Kosten verbunden ist, weil die Mitarbeiter der Einlagensicherungsbehörde dazu neigen, notwendige Liquidationen von Banken zu unterlassen oder hinauszuzögern. In Kapitel 5 wurde das Zusammenwirken von Einlagensicherung und Eigenkapitalregulierung untersucht. Dazu wurde ein Modell verwendet, in dem eine optimale Kapitalstruktur von Banken existiert, die sich aus einem Trade Off zwischen Finanzierungskostenvorteilen der Einlagenfinanzierung und Liquidationskosten im Insolvenzfall ergibt. Das Modell zeigt, daß die Kombination einer risikoabhängigen Eigenkapitalregulierung mit einer traditionellen volumenabhängigen Einlagensicherungsprämie zwar die effiziente Stabilität von Banken, nicht dagegen effiziente Anlageentscheidungen erreicht. Wenn alternativ eine traditionelle Verschuldungsgradregulierung mit einer risikoabhängigen Einlagensicherungsprämie kombiniert wird, resultieren effiziente Anlageentscheidungen, die Bank operiert jedoch nicht im Kapitalkostenminimum. Erst die Kombination von risikoabhängiger Eigenkapitalregulierung und risikoabhängiger Einlagensicherungsprämie führt dazu, daß das insgesamt wohlfahrtsoptimale Marktergebnis implementiert wird. Die risikoabhängige Kapitalregulierung steht danach in einem komplementären Verhältnis zum risikoabhängigen Einlagensicherungssystem. Entgegen der teilweise geäußerten Warnung vor einer "doppelten" Bestrafung der Risikoübernahme durch Eigenkapitalregulierung und Einlagensicherung führt allein die Risikoabhängigkeit bei der Regulierungen zu effizienten Marktergebnissen. In Kapitel 6 wurde argumentiert, daß auch die Berücksichtigung der Interessendivergenz zwischen Kapitalgebern und Managern nichts an der Beurteilung der risikoabhängigen Eigenkapitalregulierung ändert. Die Eigeninteressen von Managern können zwar zu einer Abweichung der tatsächlich verfolgten Risikopolitik von der durch die Eigenkapitalgeber bevorzugten Risikopolitik führen. Allerdings können die Eigeninteressen des Managements in nicht prognostizierbarer Weise sowohl risikoerhöhende als auch risikosenkende Wirkung haben. Aus Sicht der Aufsichtsbehörden erscheint daher die Orientierung an Modellen sinnyoll, die ein marktwertmaximierendes Verhalten der Bank unterstellen. Schließlich zeigt die Analyse der Wechselwirkungen von Eigenkapitalregulierung und den Arbeitsanreizen des Managements, daß die risikobasierte Eigenkapitalregulierung auch im Hinblick auf diesen Agency-Konflikt positive Wirkungen entfaltet. Wenn die Drohung des Konkurses ein Motivationsinstrument für Manager darstellt. dann ist es aus Sicht der Kapitalgeber unter plausiblen Annahmen sinnvoll, auch im Hinblick auf die Auswirkung auf die Anreizsituation des Managements bei hohen Anlagerisiken eine höhere Eigenkapitalquote zu wählen. Die risikoabhängige Eigenkapitalregulierung kann allerdings den Agency-Konflikt auch verstärken, wenn die Aufsichtsbehörde ein zu hohes Konfidenzniveau vorgibt. Dann versagt die Anreizwirkung der Konkursdrohung, weil Konkurse auch bei "Fehlverhalten" des Managements so unwahrscheinlich sind, daß die Konkursdrohung keinen Einfluß auf das Verhalten von Managern hat. Zusammenfassend kann festgestellt werden, daß die risikoabhängige Eigenkapitalregulierung von Banken nicht nur die Sorgen der Aufsichtsbehörden verringert, sondern auch auf einem soliden theoretischen Fundament steht. Sie stellt die notwendige Antwort auf die durch die Einlagensicherung generierten Fehlanreize zur Übernahme exzessiver Risiken dar und leistet damit einen wichtigen Beitrag für die Funktionsfähigkeit der Kapitalmärkte. Gleichzeitig zeigt die Analyse aber auch, daß überzogenes Stabilitätsdenken der Aufsichtsbehörden nicht angebracht ist. Gerade im Fall von Banken verfügen Manager über ausgesprochen große Verhaltensspielräume und Eigenkapitalgeber über wenige Instrumente, um eine Geschäftspolitik im Sinne der Kapitalgeber durchzusetzen. Die Konkursdrohung stellt in dieser Situation ein wichtiges Instrument zur Durchsetzung des Interessengleichlaufs zwischen Management und Kapitalgebern dar. Die Bankenregulierung darf daher die Konkurswahrscheinlichkeit von Banken nicht so stark senken, daß die Drohung des Konkurses seine positive Anreizwirkung verliert.
Performance fees for portfolio managers are designed to align the managers' goals with those of the investors and to motivate managers to aquire "superior" information and to make better investment decisions. A part of the literature analyzes performance fees on the basis of market valuation. In this article it is shown that market valuation faces a dilemma: on the one hand, the conditions which allow for market valuation imply that the portfolio manager perfectly hedges the performance fee. This in turn implies severe restrictions on the incentive effects of the performance fee. In particular, the fee does not motivate the manager to use superior information for investment decisions concerning the managed portfolio. On the other hand, better incentives can only be generated under conditions which exclude market valuation. In this case, the analysis has to be based on expected utility valuation. Keywords: performance fees, portfolio managers, "superior" information, market valuation, incentive effects
Die soziale Dimension des europäischen Einigungsprozesses steht derzeit, nicht zuletzt wegen der geplanten Währungsunion im Rahmen der Europäischen Union, im Brennpunkt einer kontroversen Diskussion.Im Rahmen dieses Beitrags sollen Probleme der sozialen Sicherungsysteme erörtert werden, die sich explizit aus dem Verlauf des Integrationsprozesses ergeben könnten. Es wird zunächst ein knapper Überblick über die seit Gründung der Europäischen Gemeinschaften erfolgten Maßnahmen im Bereich der Sozialpolitik gegeben. Daran schließt sich eine Typologisierung der sozialen Sicherungssysteme in den Mitgliedstaaten an und eine zusammenfassende Darstellung der beiden grundlegenden ordnungspolitischen Konzeptionen für den europäischen Integrationsprozeß, des Wettbewerbskonzeptes einerseits und des Harmonisierungskonzeptes andereseits, an. Während das Wettbewerbskonzept von vielen, meist eher neoliberal orientierten Ökonomen als das prinzipiell überlegenere ordnungspolitische Paradigma angesehen wird, mehren sich die kritischen Stimmen, die das Wettbewerbskonzept zwar nicht unbedingt prinzipiell ablehnen, jedoch auf Schwächen einer zu starr an der neoliberalen Interpretation des Wettbewerbskonzeptes orientierten Umsetzung hinweisen. Im Bereich der Sozialpolitik wird vor allem von Seiten der Gewerkschaften vor einem „Sozialdumping“ gewarnt. Eine weitere Ineffizienz des Wettbewerbskonzeptes, wird in der Möglichkeit eines sog. „race to the bottom“ gesehen, dem bei einer Anwendung des Subsidiaritätsprinzips drohenden, ruinösen Wettbewerb der europäischen Sozialstaaten. Die theoretische und empirische Relevanz der Thesen vom „Sozialdumping“ und des „race to the bottom“ wird diskutiert. Abschließend wird ein Ausblick auf die künftige Entwicklung gewagt und es werden Lösungskonzepte für die befürchteten Fehlentwicklungen erörtert.
Die externe Performance-Messung beurteilt auf Basis öffentlich verfügbarer Daten die Leistung des Fondsmanagements. Es wird zunächst geprüft, inwieweit die für die Beurteilung von Aktienfonds entwickelten Maße auf Rentenfonds anwendbar sind. Anschließend wird die Performance einer Stichprobe deutscher Rentenfonds untersucht. Es zeigt sich, daß die risikoadjustierte Rendite in den meisten Fällen nicht über der eines geeigneten Marktindex liegt. Einige Fonds weisen ein signifikantes Aktien-Exposure auf. Ein systematischer Zusammenhang zwischen der Nettorendite und der Gebührenhöhe kann nicht nachgewiesen werden.
Das Niedrigeinkommenssegment steht im Zentrum der Kontroversen um eine Reform des Sozialstaats. Die Kenntnis seiner soziodemographischen Zusammensetzung ist daher unabdingbar, um in der betreffenden Diskussion gehaltvoll Position beziehen zu können. Besonders interessieren in diesem Zusammenhang Zeitvergleiche. In diesem Sinne wird in der vorliegenden Studie die Veränderung der Struktur des Niedrigeinkommensbereiches in der Bundesrepublik anhand einer Abfolge mehrerer Querschnitte, welche die Jahre 1962/63 bis 1988 umfaßt, analysiert. Dem Niedrigeinkommensbereich werden - in Anlehnung an neuere Ergebnisse in der Literatur über „prekären Wohlstand“ und über Abstiegsrisiken - diejenigen Personen zugerechnet, die nicht mehr als 80 v. H. des durchschnittlichen Nettoäquivalenzeinkommens zur Verfügung haben. Zur vertieften Analyse wird der Niedrigeinkommensbereich nochmals in vier Teilsegmente unterteilt. Entsprechend den relativen Besetzungshäufigkeiten zeigt sich beim Vergleich mit dem oberen Einkommensbereich für spezifische Personengruppen eine Überrepräsentation im Niedrigeinkommensbereich bzw. in seinen vier Teilsegmenten. Hierbei ergeben sich im Zeitablauf einige aufschlußreiche Trends. So erhöhte sich von 1962 bis 1988 beispielsweise für Alleinstehende, für Personen in Alleinerziehenden-, in Nichterwerbstätigenhaushalten sowie für Personen in Haushalten mit einer weiblichen Bezugsperson der Grad der Überrepräsentation im Niedrigeinkommensbereich. Gleiches gilt für Personen in Haushalten mit einem hohen Mietanteil am Haushaltsnettoeinkommen bzw. generell für Personen in Nichteigentümerhaushalten. Demgegenüber verringerte sich insbesondere für Personen im Haushaltstyp einer vollständigen Familie mit vier Kindern oder für Personen in Landwirte- und Arbeiterhaushalten von 1962 bis 1988 das Ausmaß der Überrepräsentation im Niedrigeinkommenssegment.
Die Untersuchungen auf der Basis der Einkommens- und Verbrauchs stichproben haben ergeben, daß sich hinter der für die "alte" Bundesrepublik festgestellten weitgehenden Stabilität der Verteilung der Nettoäquivalenzeinkommen deutliche Veränderungen auf den vorgelagerten Stufen des Verteilungsprozesses verbergen. Bei den individuellen Erwerbseinkommen sowie bei den individuellen Faktoreinkommen (nur Bezieher) sind zwischen 1973 und 1988 die hier einbezogenen aggregierten Ungleichheitsmaße zwar kaum gestiegen; Kernel Density-Schätzungen zeigen aber einen leichten Polarisierungstrend der bimodalen Verteilung, da die Dichte in den Randbereichen der Verteilung zugenommen hat und das Dichtetal zwischen den beiden Gipfeln sich gesenkt hat. Unter Berücksichtigung des Haushaltszusammenhangs - durch Zusammenfassung individueller Faktoreinkommen auf Haushaltsebene und Gewichtung mit einer Äquivalenzskala - erweisen sich die Verteilungsänderungen als noch gravierender. Die aggregierten Ungleichheitsmaße sind stark gestiegen, und das Verhältnis der beiden Modi der zweigipfligen Verteilung hat sich umgekehrt: lag 1973 der erste Gipfel im Bereich der geringfügigen Faktoräquivalenzeinkommen noch deutlich unter dem zweiten, knapp unterhalb des Durchschnitts gelegenen Gipfel, so war 1988 der erste Gipfel deutlich höher als der zweite. Die relative Häufigkeit marginaler Faktoräquivalenzeinkommen hat im Zeitablauf also eindeutig zugenommen, ebenso wie die im oberen Einkommensbereich. Dennoch kann man von Polarisierung nur in einem weiteren Sinn sprechen, da das Dichtetal zwischen den Modi 1988 höher als 1973 liegt. Es mag beruhigend wirken, daß - zumindest in der Zeit vor der Wiedervereinigung - das Abgaben- und Transfersystem die zunehmende Disparität der Faktoreinkommensverteilung insoweit kompensieren konnte, als die relative Häufigkeit des Niedrigeinkommensbereichs - hier abgegrenzt mit 50% des durchschnittlichen Nettoäquivalenzeinkommens - vergleichsweise mäßig zugenommen hat. Dieser Eindruck ist allerdings im Hinblick auf die eingangs erwähnten Einschränkungen der Datenbasis zu relativieren. Die unzureichende Erfassung des oberen und des unteren Randbereichs der Einkommensverteilung läßt vermuten, daß der tatsächliche Trend zunehmender Ungleichheit und Polarisierung durch unsere Analysen unterschätzt wird.
Das vorliegende Arbeitspapier ist die unveränderte Fassung einer Diplomarbeit, die von Michael Grimm während einer Dauer von vier Monaten am Institut für Konjunktur, Wachstum und Verteilung der Universität Frankfurt a. M. geschrieben wurde. Die Ergebnisse der Analyse halte ich für so interessant, daß mir eine Veröffentlichung als Arbeitspapier im Rahmen des von mir geleiteten EVS-Projektes, dessen Daten die Grundlage der Arbeit bilden, als lohnend erscheint. Dadurch kann sichergestellt werden, daß die Untersuchungsergebnisse Interessierten zur weiteren Nutzung, sei es als reine Informationsgrundlage oder als Ausgangspunkt weiterer Analysen, zur Verfügung stehen. Die Studie beleuchtet die Verteilung von Geld- und Grundvermögen auf sozioökonomische Gruppen in der Bundesrepublik Deutschland. Als Datenbasis wurde eine Datenbank mit (anonymisierten) Individualdaten der Einkommens- und Verbrauchsstichprobe 1988 der Universität Frankfurt a. M. genutzt. Anknüpfend an frühere Arbeiten, die zu diesem Themenkomplex im Rahmen des Sonderforschungsbereichs 3 "Mikroanalytische Grundlagen der Gesellschaftspolitik" angefertigt wurden sowie durch Berücksichtigung von Daten zur EVS 1993, die zum Untersuchungszeitpunkt allerdings nur in tabellierter Form vorlagen, skizziert die Analyse eindrucksvoll die Entwicklung der Vermögensverteilung bis in die neunziger Jahre hinein. Dabei zeigt sich, daß die Verteilung des Vermögens, im Vergleich zur Verteilung der Einkommen, einen weiterhin sehr hohen Konzentrationsgrad aufweist. Insbesondere auf der Personenebene hat sich der Grad der Konzentration im Laufe der achtziger Jahre sogar noch verstärkt. Auch die Betrachtung der Verteilung auf sozio-ökonomische Gruppen zeigt viele interessante und neue Ergebnisse, so daß die Analyse ein echter Erkenntnisfortschritt ist. Es bleibt zu hoffen, daß weitere Arbeiten auf Basis der Einkommens- und Verbrauchs stichproben 1993 und 1998 sich der Entwicklung der Vermögensverteilung, insbesondere auch in den neuen Bundesländern, widmen und so eine langfristige Informationsgrundlage für Wirtschafts- und Sozialpolitik schaffen. Frankfurt am Main, im März 1998 (Richard Hauser)
Dieser Beitrag vergleicht mit einheitlicher Methodik die Mobilität des individuellen Bruttoarbeitseinkommens, des Bruttoäquivalenzeinkommens und des Nettoäquivalenzeinkommens in Westdeutschland, Ostdeutschland, Großbritannien, den USA und Ungarn mit Panel-Daten dieser Länder aus dem Zeitraum 1989-1995. Die Mobilität ist in Ostdeutschland bei allen Einkommenskonzepten wesentlich höher als in Westdeutschland, nähert sich aber im Zeitablauf und insbesondere beim Nettoäquivalenzeinkommen dem westdeutschen Niveau an. Die Mobilität des Bruttoäquivalenzeinkommens ist in Westdeutschland größer, die des Nettoäquivalenzeinkommens kleiner als in Großbritannien. Die Mobilität des individuellen Bruttoarbeitseinkommens und des Bruttoäquivalenzeinkommens ist in Westdeutschland höher, die des Nettoäquivalenzeinkommens niedriger als in den USA. Die Mobilität des Nettoäquivalenzeinkommens ist in Ungarn deutlich höher als in Ostdeutschland. Diese Ergebnisse zeigen eine im internationalen Vergleich unerwartet hohe Flexibilität des deutschen Arbeitsmarkts, wobei jedoch die Verweildauer in der Arbeitslosigkeit in Deutschland länger ist als in den USA und Großbritannien, wo viele Arbeitslose schnell in schlecht bezahlte Jobs wechseln. Ferner zeigt sich, daß das Steuer- und Transfersystem in keiner anderen Volkswirtschaft die Mobilität der Bruttoäquivalenzeinkommen stärker reduziert als in Deutschland.
Wie können nun die vielfältigen Ergebnisse zur Einkommens- und Vermögensverteilung im Hinblick auf die Frage, ob es eine soziale Polarisierungstendenz gibt, zusammengefaßt werden? Angesichts des unklaren Begriffs der Polarisierung und der begrenzten Aussagekraft des Datenmaterials ist dies schwierig, zumal die empirische Analyse nicht nur Fragen beantwortet, sondern auch neue Fragen aufgeworfen hat und die vorliegenden Daten nicht sehr zeitnah sind. Trotz aller Einschränkungen lassen sich aber vielfältige Anzeichen einer Auseinanderentwicklung der Lebensverhältnisse einzelner Bevölkerungsgruppen feststellen. Diese äußern sich weniger in zusammenfassenden Verteilungsmaßen wie beispielsweise dem Gini-Koeffizienten als vielmehr in disaggregierten Betrachtungsweisen. So hat in Westdeutschland zwischen 1978 und 1993 sowohl der Bevölkerungsanteil, der in relativer Einkommensarmut lebt, als auch der Anteil der Reichen zugenommen. Dies könnte man als Polarisierungstendenz bezeichnen, wenn man Polarisierung allgemein als Prozeß der Herausbildung bzw. Vergrößerung von zwei weit auseinanderliegenden Einkommensgruppen versteht.32 Von der zunehmenden relativen Verarmung sind hauptsächlich Arbeitslosenhaushalte sowie Familien mit Kindern, insbesondere Alleinerziehende, betroffen, steigende gruppenspezifische Reichtumsquoten sind vorwiegend bei Selbständigen-, Angestellten- und Beamtenhaushalten sowie bei Paaren ohne Kinder zu beobachten. Die Gruppen der Alleinstehenden sind sehr heterogen, da sich hier sowohl überdurchschnittliche Armuts- als auch - mit Ausnahme der alleinstehenden älteren Frauen - überdurchschnittliche Reichtumsquoten zeigen; die Armutsquoten der jüngeren Alleinstehenden, insbesondere der Frauen, sind im Beobachtungszeitraum aber drastisch gestiegen, die Reichtumsquoten bei allen Alleinstehenden tendenziell gesunken. Neben diesen Tendenzen beinhaltet das nach wie vor starke West-Ost-Gefälle im Lebensstandard ein nicht zu unterschätzendes gesellschaftliches Spannungs- und Spaltungspotential. Die große Ungleichheit in der Einkommensverteilung wird von der Vermögensverteilung bei weitem übertroffen. Wenn man sich auf das Nettogrund- und Nettogeldvermögen (ausschließlich Zeitwerte der Kapitalversicherungsguthaben) beschränkt, verfügten 1988 die obersten 10% der Haushalte über fast die Hälfte des Gesamtvermögens, während die untere Hälfte der Haushalte weniger als 4% des Gesamtvermögens besaß. Diese krassen Gegensätze zeigen sich, obwohl die reichsten Haushalte in der Datenbasis nicht erfaßt sind. Für die Entwicklung der Konzentration der Vermögen zeigt sich im Zeitablauf keine eindeutige Tendenz. Die Ergebnisse für einzelne Jahre sind wegen unterschiedlicher Begriffsabgrenzungen nicht unmittelbar vergleichbar, die Erfassung des Vermögens ist generell unvollständig. In der Literatur wird eher von einer zunehmenden denn von einer abnehmenden Konzentration ausgegangen. Die bisher vorliegenden empirischen Verteilungsergebnisse decken allenfalls den Zeitraum bis 1993 ab. Seither hat sich die gesamtwirtschaftliche Situation aber deutlich verschlechtert. Die andauernden Arbeitsmarktprobleme und Kürzungen im Sozialleistungsbereich einerseits sowie "explodierende" Aktienkurse andererseits bergen zunehmende Gefahren einer nachhaltigen Spaltung der Gesellschaft. Es ist zu befürchten, daß unstetige Erwerbsverläufe mit der Folge unzureichender Sozialversicherungsansprüche künftig noch häufiger vorkommen werden und daß die Ungleichheit der Arbeitnehmereinkommen - auch durch die beobachtbare Zunahme untertariflicher Bezahlungen - steigen wird mit der Folge einer weiteren Verarmung insbesondere von Familien mit Kindern. Hinzu kommt, daß die von längerer Arbeitslosigkeit betroffenen Haushalte ihre Vermögensbestände aufzehren müssen oder sich gar verschulden, so daß ein Wiederaufstieg deutlich erschwert wird und auch die Vermögensverteilung noch ungleichmäßiger werden dürfte. Der Verteilungskonflikt wird sich darüber hinaus durch die in Gegenwart und Zukunft zu erwartenden Vererbungsvorgänge verschärfen. Hiervon profitieren nicht alle Haushalte gleichermaßen. Aufgrund sinkender Kinderzahlen ist mit einer Kumulierung von Vermögenswerten zu rechnen.33 Die in einigen politischen Kreisen befürwortete stärkere Einbeziehung der privaten Vermögensbestände zur Risikovorsorge, insbesondere für das Alter, ist angesichts der starken Vermögenskonzentration für den größten Teil der Bevölkerung wohl kaum eine realistische Alternative.
Seit zwanzig Jahren befaßt sich die Finanzmarktforschung einerseits mit Fragen der Bewertung und des Managements von Finanztiteln auf effizienten Kapitalmärkten und mit Fragen der Managementkontrolle auf unvollkommenen Märkten. Der folgende selektive Überblick konzentriert sich auf zentrale Aspekte der Theorie und Empirie der Managementkontrolle bei asymmetrischer Information. Ziel ist die Auseinandersetzung mit der unlängst vorgetragenen These zu den Mythen der Unternehmenskontrolle (Martin Hellwig 1997). Der aktuelle Überblick wird entwickelt vor dem Hintergrund der Gutenberg’schen Position eines eigenständigen Unternehmensinteresses, losgelöst von den Interessen der shareholder oder anderer stakeholder. Diese Position von Gutenberg verbindet sich im dritten Band der „Grundlagen der BWL: Die Finanzen“ von 1969 mit der Forderung nach Einhaltung eines sog. finanziellen Gleichgewichts. Erst in jüngster Zeit werden auch kapitalmarkttheoretisch fundierte Modelle entwickelt, die auch Raum bieten für eine Autonomie des Managements gegenüber dessen stakeholders.
Nationale rechtliche Rahmenbedingungen beeinflussen die Möglichkeiten für wirtschaftliche Aktivitäten multinationaler Unternehmen (MNU) in einem Gastland und der Koordination zwischen den Unternehmensteilen in verschiedenen Ländern. Sie sind damit wichtige Bestimmungsfaktoren für Standortentscheidungen von MNU. Die Bedeutung von Recht und Standortwahl unterscheidet sich aber je nach verfolgter MNUStrategie. Seit etwa 10 Jahren verändern MNU ihre strategische Ausrichtung. Gleichzeitig gab es wesentliche Fortschritte bei der Forschung über Geschäftsfeld- und Gesamt-unternehmensstrategien von MNU. Aufbauend auf diesen beiden Entwicklungen wird in diesem Aufsatz die These vertreten, daß heute - im Zeitalter integrierter MNU-Strategien - Einfachheit, Flexibilität und Verläßlichkeit des relevanten nationalen Rechts in einem Land und seine Ähnlichkeiten mit dem Recht anderer Länder eine zentrale Bedeutung erlangt haben. Dies stellt einen wesentlichen Unterschied zu einer – allerdings noch nicht gänzlich überwundenen – Situation dar, in der MNU mehr an einer rechtlichen Situation interessiert sind, die ihnen eine maximale Anpassung an die jeweiligen lokalen Umstände der einzelnen Gastländer erlaubt, worin der Kern von ”multi-domestic” MNU-Strategien besteht. Die Veränderung von MNU-Strategien bietet auch eine Erklärung für die in jüngster Zeit zu beobachtende Veränderung der Lobbyingaktivitäten von MNU bezüglich der rechtlichen Rahmenbedingungen in ihren jeweiligen Gastländern.
Der Eisenbahngüterverkehr verliert weiterhin Marktanteile an den Straßengüterverkehr. Dies ist nicht nur eine Folge der Tatsache, daß sich die geringeren externen Effekte der Bahn nicht genügend "auszahlen", die Bahn weist bei ihrer jetzigen Betriebsweise auch systembedingte Nachteile auf. Für den immer bedeutsameren Transport von Nicht-Massengütern in kleinen Mengen ist wohl der LKW als wesentlich kleinere Einheit als der Eisenbahnzug geeigneter. Eine Möglichkeit für die Bahn, diesem Problem zu begegnen, besteht in der Einführung einer neuen Transporttechnologie, die auf einzeln angetriebenen Güterwagen basiert, die ohne Fahrer automatisch gesteuert ihren Weg vom Start- zum Zielort selbsttätig finden. Die gesellschaftliche Erwünschtheit von mehr Schienengüterverkehr wird zu einem Gutteil mit der größeren Umweltfreundlichkeit, den geringeren externen Effekten der Eisenbahn begründet. Ob allerdings dieser Vorteil der Bahn erhalten bleibt, wenn versucht wird, die Vorteile eines dezentral gesteuerten automatischen Fahrens zu realisieren, stand bisher nicht fest. Die Arbeit untersucht diese Fragestellung durch die Rückführung externer Effekte auf naturwissenschaftlich-technische Grundlagen und kommt zu dem Ergebnis, daß 1. externe Nutzen in nennenswertem Umfang nicht einzuberechnen sind - weder im üblichen Sinne als statische technologische externe Effekte noch unter Berücksichtigung evolutionärer, dynamischer Aspekte; daß weiterhin 2. eine Einführung eines automatisierten und dezentralisierten Eisenbahngüterverkehrs eine deutliche Reduzierung der externen Effekte des Verkehrs erwarten läßt, und daß dabei 3. die Luftverschmutzung durch Abgase etwa "in der Mitte" zwischen heutigem Straßen- und Schienenverkehr liegt, Stau- und Unfallkosten jedoch im wesentlichen weiterhin den günstigeren Werten der Bahn entsprechen. Die Arbeit zeigt insgesamt, daß entgegen der ursprünglichen Befürchtung die externen Kosten eines automatisierten und dezentralisierten Schienengüterverkehrs dicht bei denen der bisherigen Bahn liegen. Trotzdem sind externe Kosten zu internalisieren, wo dies möglich scheint - nicht zuletzt, weil Ausmaß und Richtung des technischen Fortschritts durch Signale über die wirklichen Knappheiten gelenkt werden müssen. Die praktische Durchführbarkeit eines Schienengütertransports mit dezentral gesteuerten fahrerlosen Gütertriebwagen müßte in einem nächsten Schritt in der Praxis erprobt werden, weiterer Forschungsbedarf bleibt auch bei der Frage der Unfallsicherheit eines solchen Systems bestehen.
"Ich möchte in diesem Vortrag Beziehungen zwischen Gutenbergs Theorie der Unternehmung, die in seiner Habilitationsschrift angelegt und in den "Grundlagen der Betriebswirtschaftslehre" entfaltet ist, und aktuellen Entwicklungen in der Theorie der Unternehmung herstellen. Obwohl der Anlaß für diesen Vortrag das Thema hinreichend rechtfertigt, stellt sich die Frage, ob mein Vorhaben ein wissenschaftlich sinnvolles Unterfangen darstellt: Kann Gutenbergs Theorie der Unternehmung noch aktuell sein?"
Beitrag fur das 27. Wirtschaftswissenschaftliche Seminar Ottobeuren 14.- 17.9.1997). Dieser Beitrag nimmt aus theoretischer und ökonometrischer Sicht zu der Kontroverse über die Bedeutung der qualifikatorischen Lohnstruktur zur Erklärung der Beschäftigungsstruktur Stellung. Basierend auf einer Einteilung in drei Qualifikationsgruppen zeigt sich empirisch, daß die Entlohnung der mittleren Gruppe relativ zur unteren und oberen weniger stark ansteigt, während ein kontinuierlicher Trend zur Höherqualifikation der Beschäftigten besteht. Es werden eine Translog-Kostenfunktion und Anteilsgleichungen ökonometrisch geschätzt, um den Einfluß der Lohnstruktur auf die Beschäftigungsstruktur zu erfassen. Bei allen Vorbehalten aufgrund verschiedener Probleme der Schätzungen implizieren die Ergebnisse einen signifikanten Einfluß der qualifikatorischen Struktur der mittleren Löhne auf die Beschäftigungsstruktur wie auch eine die relative Beschäftigung steigernde Wirkung einer erhöhten Lohndispersion innerhalb der Qualifikationsgruppen. Damit besteht die Möglichkeit, daß mit einer größeren Lohnspreizung die Lastverteilung der Arbeitslosigkeit bei gegebenem Output, Kapitaleinsatz und technischem Fortschritt in Form einer Erhöhung der Beschäftigung von gering qualifizierten Arbeitnehmern angeglichen werden kann.
Der vorliegende Beitrag führt eine detaillierte empirische Untersuchung über die Rolle der amtlichen Kursmakler an der Frankfurter Wertpapierbörse durch. Der verwendete Datensatz erlaubt eine Analyse des Einflusses der Maklertätigkeit auf Liquidität und Volatilität sowie eine Beurteilung der Profitabilität der Eigengeschäfte.
Die Beteiligung der Makler am Präsenzhandel ist erheblich. Ihre Eigengeschäfte machen über 20% des Handelsvolumens zu gerechneten Kursen und über 40% des Handelsvolumens im variablen Handel aus. Für letzteren wird zudem dokumentiert, daß die Tätigkeit der Makler zu einer deutlichen Reduktion der Geld-Brief-Spannen beiträgt. Die letztendlich gezahlte effektive Spanne beträgt im Durchschnitt weniger als ein Drittel der Spanne, die sich aus dem Orderbuch ergibt.
Für den Handel zu gerechneten Kursen wird gezeigt, daß die Preisfeststellung durch die Makler zu einer Verringerung der Volatilität führt. Eine Beurteilung des Einflusses der Makler auf die Volatilität im fortlaufenden Handel scheitert daran, daß das hierfür teilweise verwendete Maß, die Stabilisierungsrate, nach unserer Einschätzung keine aussagekräftigen Resultate liefert.
Die Makler erzielten während unseres Untersuchungszeitraums im Durchschnitt keinen Gewinn aus ihren Eigengeschäften. Eine Zerlegung der Gewinne in zwei Komponenten zeigt, daß positive Spannengewinne im Aggregat nicht für entstehende Positionierungsverluste kompensieren können.
Insgesamt zeigt unsere Untersuchung, daß die Kursmakler an den deutschen Wertpapierbörsen einen Beitrag zur Sicherung der Marktqualität leisten. Die Konsequenzen dieser Resultate für die Organisation des Aktienhandels in Deutschland werden diskutiert.
Die mit unterschiedlichen Organisationsformen des Wertpapierhandels einhergehende Liquidität und ihre Messung ist eine der zentralen Fragen im Zusammenhang mit der Gestaltung von Wertpapiermärkten. Zunächst wird die Eignung verschiedener in der Literatur vorgeschlagener Liquiditätsmaße diskutiert. Anhand einer Serie von Marktexperimenten wird dann die Liquidität der grundsätzlichen Ausgestaltungsformen des Wertpapierhandels - Gesamtkursermittlung, kontinuierliche Auktion und Market-Maker-System - miteinander verglichen.
Sowohl das Handelsvolumen als auch das von ROLL (1984) vorgeschlagene Maß sind offenbar für den Vergleich der Liquidität unterschiedlich organisierter Wertpapiermärkte nicht geeignet. Eine aufgrund theoretischer Überlegungen prognostizierte Überschätzung der Transaktionskosten bei der Gesamtkursermittlung kann empirisch bestätigt werden.
Die explizite Geld-Brief-Spanne ist dagegen grundsätzlich ein geeignetes Liquiditätsmaß. Mit den Daten der experimentellen Märkte läßt sich auch für die Gesamtkursermittlung eine solche Spanne ermitteln. Sie erweist sich als niedriger als die Spanne in der kontinuierlichen Auktion und dem Market-Maker-Markt. Jedoch ist auch die Geld-Brief-Spanne mit Vorsicht zu interpretieren. Es wird gezeigt, daß unter bestimmten Umständen systematische Verzerrungen existieren können. In den hier untersuchten experimentellen Märkten ließen sich diese identifizieren. Bei Untersuchungen anhand von Felddaten ist dies jedoch nicht ohne weiteres möglich, so daß hier die Gefahr von Verzerrungen durchaus real ist.
Der Neue Markt soll wachstumsorientierten Unternehmen den Zugang zur Börse eröffnen. Die für dieses Marktsegment neu geschaffene Institution des Betreuers soll Vorbildcharakter für andere Marktsegmente haben. In der vorliegenden Arbeit werden Vor- und Nachteile des Betreuer-Konzeptes erarbeitet. Die daraus abgeleiteten Fragen werden empirisch untersucht. Dabei zeigt sich, daß der Neue Markt eine hohe Handelsintensität und niedrige Geld-BriefSpannen aufweist. Auch eine schriftliche Befragung der notierten Unternehmen ergab eine positive Einschätzung des neuen Marktsegments.
Überlegungen zur Profitabilität der Betreuer-Funktion deuten darauf hin, daß diese nicht an sich profitabel ist. Es findet offenbar eine Quersubventionierung aus Erträgen des Emissionsgeschäftes statt. Diese Abhängigkeit sollte berücksichtigt werden, wenn die Übertragung des Betreuerkonzepts auf andere Marktsegmente diskutiert wird.
Die langfristige Entwicklung der personellen Einkommensverteilung in der Bundesrepublik Deutschland
(1998)
Wir verwenden eine neue, auf der Burr-Verteilung basierende Spezifikation aus der Familie der Autoregressive Conditional Duration (ACD) Modelle zur ökonometrischen Analyse der Transaktionsintensitäten während der Börseneinführung (IPO) der Deutsche Telekom Aktie. In diesem Fallbeispiel wird die Leistungsfähigkeit des neu entwickelten Burr-ACD-Modells mit den Standardmodellen von Engle und Russell verglichen, die im Burr-ACD Modell als Spezialfälle enthalten sind. Wir diskutieren außerdem alternative Möglichkeiten, Intra- Tagessaisonalitäten der Handelsintensität in ACD Modellen zu berücksichtigen.
Die Verteilungssituation in Deutschland ist durch ein zunehmendes Maß an Ungleichheit gekennzeichnet. Das Wohlstandsgefälle zwischen West- und Ostdeutschland - 1993 lag das durchschnittliche Nettoäquivalenzeinkommen in den neuen Ländern nach Kaufkraftbereinigung um ca. ein Viertel unter dem Westniveau - birgt sozialen Sprengstoff. Hinzu kommt eine Verschärfung des Verteilungsproblems auch innerhalb der alten Bundesländer. So ist der Anteil der Personen (in Haushalten mit deutscher Bezugsperson) mit weniger als der Hälfte des im Westen erreichten durchschnittlichen Nettoäquivalenzeinkommens von 1988 bis 1993 um 1,7 Prozentpunkte auf 10,5% gestiegen. Die Dynamik in der Verteilungsentwicklung hat sich gegenüber dem vorangegangenen Fünfjahreszeitraum (1983 bis 1988) verstärkt. Angesichts einer weiter gestiegenen Arbeitslosigkeit, Einschränkungen bei den Lohnersatzleistungen und Arbeitsförderungsmaßnahmen sowie ausbleibender Anpassungen von Wohngeld und Sozialhilfe an die Preisentwicklung muß davon ausgegangen werden, daß sich die Verteilungssituation für einen weiten Bevölkerungskreis seit 1993 noch zugespitzt hat. Dies sollte bei allen Überlegungen zu steuer- und sozialpolitischen Reformen berücksichtigt werden.
Es gibt Überlegungen, Kreditinstituten den Besitz der Anteilsmehrheit an Kapitalanlagegesellschaften (KAGs) zu untersagen. Dahinter steht die Vorstellung, daß solche Beteiligungen Gestaltungsspielräume eröffnen, die mißbräuchlich genutzt werden. Die Neuemission von Aktien ist einer der Fälle, die in diesem Zusammenhang erörtert werden. Ziel dieser Arbeit ist es zu prüfen, ob die zum Konzernverbund einer konsortialführenden Bank gehörenden KAGs bei Erstemissionen anders behandelt werden als andere KAGs.
Untersucht werden 46 Neuemissionen der Jahre 1994 bis 1997. Insgesamt deuten die Ergebnisse darauf hin, daß die KAGs in ihren Anlageentscheidungen unabhängig sind, und daß keine mißbräuchliche Nutzung eventuell vorhandener Informationsvorsprünge vorliegt.
Überarbeitete Version des Arbeitspapiers "The dynamics of labour market participation, unemployment and non-participation in Great Britain, Sweden and Germany" / Wolfgang Strengmann-Kuhn. [Johann-Wolfgang-Goethe-Universität Frankfurt am Main, Fachbereich Wirtschaftswissenschaften, Institut für Volkswirtschaftslehre]
In der heutigen Theorie der Optionsbewertung wird davon ausgegangen, daß die Markterwartungen genau berechenbar sind. Die Unsicherheit besteht lediglich darin, welcher Aktienkurs sich letztlich realisiert, die Eintrittswahrscheinlichkeiten sind bekannt. Dabei treten jedoch erhebliche Probleme auf, denn theoretisch erwartete Preise entsprechen oft nicht den am Markt beobachteten. Ziel dieser Arbeit ist es, zu untersuchen, ob auch dann eine Optionsbewertung möglich ist, wenn die Unsicherheit nicht nur auf die Stochastik reduziert wird, sondern wenn zusätzlich angenommen wird, daß Marktteilnehmer nur unscharfes Wissen über künftige Preisentwicklungen haben. Hierbei dient die Fuzzy Set Theorie zur Modellierung der nur größenordnungsmäßig bekannten künftigen Aktienkurse. Es wird in dieser Arbeit zwischen der Optionspreistheorie und der Fuzzy Set Theorie eine Verbindung geschaffen, die es zukünftig erlauben wird, die Unsicherheit im Markt besser zu modellieren, als dies mit heute dominierenden Methoden der Optionsbewertung möglich ist.
Der internen Unternehmensrechnung werden im allgemeinen zwei Funktionen zugeschrieben (Ewert/Wagenhofer (1997), S. 6): Sie soll einerseits Informationen für Planungszwecke bereitstellen, andererseits der Verhaltenssteuerung von Entscheidungsträgern in hierarchischen, dezentralen Organisationen dienen. In der jüngeren Vergangenheit ist die Verhaltenssteuerungsfunktion zunehmend in das Blickfeld theoretischer und praktischer Überlegungen gerückt. Gleichzeitig läßt sich eine verstärkte Marktwertorientierung deutscher Unternehmen in der Unternehmenspolitik wie auch in der internen Unternehmensrechnung beobachten. Die betriebswirtschaftliche Literatur hat darauf mit einer wachsenden Zahl von Beiträgen reagiert, die die Marktwertorientierung der internen Unternehmensrechnung vor dem Hintergrund ihrer Verhaltenssteuerungsfunktion diskutieren.1) Das Interesse dieses Beitrags gilt der Rolle der Periodenerfolgsrechnung als Teil der internen Unternehmensrechnung bei der marktwertorientierten Steuerung von Investitionsentscheidungen über Periodenerfolgsbeteiligungen. Zentrale Bedeutung kommt hierbei dem Residualgewinnkonzept aufgrund seiner Kompatibilität mit dem Marktwertkriterium (vgl. Abschnitt 5.1) zu. Dieses Konzept hat in der Praxis unter dem Namen Economic Value Added zunehmend an Popularität - insbesondere auch als Grundlage für Erfolgsbeteiligungen (vgl. z.B. Stewart (1991), Ehrbar (1998), O'Hanlon/Peasnell (1998) ) - gewonnen. Gezeigt werden soll, welche Vorteile die Periodisierung von Cash Flows im Rahmen einer Periodenerfolgsrechnung auf der Basis des Residualgewinnkonzepts gegenüber einer unbelassenen Cash Flow-Rechnung bei der Steuerung von Investitionsentscheidungen über finanzielle Anreizsysteme bietet. Betrachtet wird eine einfache bilaterale Principal-Agent-Beziehung: Eine delegierende Instanz (Prinzipal) beauftragt einen Entscheidungsträger (Agenten) mit Investitionsentscheidungen und versucht, dessen Investitionsverhalten über eine „Erfolgsbeteiligung“ in ihrem Sinne auf das Ziel der Maximierung des Barwertes aller Cash Flows gerichtet zu beeinflussen. Die Rolle des internen Rechnungswesens ist dabei auf die Bereitstellung der Bemessungsgrundlage für die Erfolgsbeteiligung beschränkt. Es wird gezeigt, daß die Periodisierung von Cash Flows und die Zugrundelegung periodisierter Größen bei der Investitionssteuerung zu besseren Lösungen des Steuerungsproblems des Prinzipals führt als eine reine Cash Flow- Beteiligung. ...
Die Öffnung des deutschen Bilanzrechts bewirkt eine zunehmende Anwendungsbreite von internationalen Rechnunungslegungsnormen (wie insbesondere der US-GAAP und der IAS) für deutsche Rechtsanwender;1 die heterogenen Normtypen und die – damit einhergehend – unterschiedlichen ökonomischen Eigenschaften dieser Normen erfordern für einen sinnvollen Rechnungslegungsvergleich eine komparative Rechnungslegungstheorie. Eine Besinnung auf die ökonomische Theorie ist – auch ausgelöst durch die Internationalisierung der Rechnungslegung – hier grundsätzlich festzustellen,2 wie auch das moderne deutsche Bilanzrecht seine heutige Prägung durch die ökonomische Theorie – und nicht vornehmlich durch die Anwender – erhielt.3 Es ist das Ziel des Aufsatzes, einen Beitrag zu einer institutionenökonomischen Theorie der Rechnungslegung zum Zweck der Bestimmung von Informationsinhalten und Gewinnansprüchen sowie zur vergleichenden Rechnungslegungstheorie zu leisten. In einem ersten Hauptteil (2) wird im folgenden – auf dem institutionenökonomischen Forschungsprogramm aufbauend – skizziert, welche Bedeutung Institutionen im Rahmen des Nutzenkalküls von Entscheidern zuzumessen ist; danach werden die einzelnen für eine vergleichende Rechnungslegung relevanten Institutionsarten typisiert (in formale und informelle Regeln) sowie deren Attribute im individuellen Zielstromkalkül eingeführt (nämlich Prädikate der Manipulationsfreiheit und Prädikate der Entscheidungsverbundenheit). Das Verhältnis der Institutionen zueinander wird im folgenden Abschnitt (3) anhand eines rechtlich geprägten und eines ökonomischen Systemverständnisses entwickelt. Es wird gezeigt, daß beide Systembegriffe auf einer Nichtadditivität der sie konstituierenden Institutionen gründen, die den qualitativen Vergleich unterschiedlicher Systeme erschweren; man überschätzt hingegen die Unterschiede zwischen juristischem und ökonomischem Systemverständnis: beide sind funktionsähnlich. Im letzten Hauptteil (4) werden schließlich vor dem Hintergrund einer gestaltenden Theorie die hierfür relevanten Teilbereiche (Sub-Systeme) der Rechnungslegungsordnung vorgestellt sowie einzelne Publizitätsnormen funktional ausgelegt. Der Beitrag schließt mit zusammenfassenden Thesen (5).
In der Literatur zur Abschlußprüfung ist ein negativer Effekt eines ökonomischen Vorteils aus der wiederholten Mandatsannahme, der aufgrund von Transaktionskosten entsteht, auf die Unabhängigkeit des Abschlußprüfers diskutiert worden. Anders als die bisher vorgestellten Ansätze wird im Rahmen des vorliegenden Modells rationales Verhalten der Kapitalmarktakteure unterstellt, die ihre Ansprüche in Abhängigkeit der Reputation des Prüfers und damit der Glaubwürdigkeit des Testats stellen. Als Ergebnis kann festgehalten werden, daß transaktionskostenbedingte Quasirenten die Urteilsfreiheit nicht gefährden, sondern daß vielmehr Informationsrenten für das Berichtsverhalten des Prüfers ausschlaggebend sind. Auch ergeben sich neue Ansatzpunkte zur Diskussion der externen Pflichtrotation und von Maßnahmen zur Steigerung der Kapitalmarkteffizienz.
Internationale Verkehrsflughäfen sind Einrichtungen, die eine zentrale ökonomische Bedeutung für das regionale Umfeld haben. Zusätzlich zu ihrer eigentlichen Funktion als Anbieter von Flugverkehrsleistungen werden Güter und Dienstleistungen angeboten, die in unterschiedlich starkem Ausmaß an die Verkehrsfunktion gekoppelt sind. Neben der Flughafengesellschaft und den Flugverkehrsgesellschaften tragen beispielsweise gastronomische Einrichtungen, Groß- und Einzelhändler, Luftfrachtspeditionen, Expressdienste, Reiseveranstalter, Flugsicherung, Zoll, Catering-Unternehmen zu den ökonomischen Aktivitäten des Flughafens bei. Die Palette der verkehrsbezogenen Aktivitäten am Flughafen reicht von der Betreuung der Passagiere über Reparatur- und Wartungsarbeiten für die Fluggesellschaften bis hin zur Abwicklung des Frachtverkehrs. ...
Aus dem weiten Spektrum ökonomisch relevanter Fragen, die die europäische Integration und das Gesellschaftsrecht verbinden, soll hier diejenige herausgegriffen werden, ob sich die nationalen Corporate-Governance-Systeme in den großen europäischen Volkswirtschaften Deutschlands, Frankreichs und Großbritanniens unter dem Einfluß der europäischen Integration bereits aneinander angeglichen haben und ob es demnächst zu einer solchen Angleichung kommen wird. Unser Thema deckt nur einen Teil des Gesellschaftsrechts ab und geht zugleich hinsichtlich der angesprochenen rechtlichen Materie über das Gesellschaftsrecht hinaus, denn die Corporate Governance fügt sich nicht einfach in herkömmliche juristische Klassifikationen ein. Unser Vorhaben unterscheidet sich aber vor allem dadurch von einer juristischen Behandlung des Themas, daß primär ökonomische Mechanismen und Zusammenhänge angesprochen werden. Ökonomen betrachten die Corporate Governance im weiteren Kontext des Finanzsystems, denn das Corporate-Governance-System ist ein Teil des Finanzsystems eines Landes. Die Fragen, wie unterschiedlich die nationalen Systeme der Corporate Governance waren, ehe zu Beginn der 80er Jahre der Prozeß der Angleichung in Europa einsetzte, wie unterschiedlich sie heute noch sind, wie sehr sie sich somit bereits angeglichen haben und wie ein möglicher Angleichungsprozeß weitergehen könnte, sind deshalb ein Teil der weiteren Frage nach der Angleichung der Finanzsysteme in Europa. In diesem Beitrag konzentrieren wir uns aber nur auf Entwicklungen der 90er Jahre.
Die Empfehlung, das Shareholder-Value-Konzept zur Grundlage der Unternehmenspolitik zu machen, erscheint um so überzeugender und wird vermutlich um so eher akzeptiert, (1) je lohnender die Shareholder-Value-Orientierung für die Aktionäre ist, (2) je eindeutiger es ist, wie die Empfehlung umgesetzt werden kann und soll, und (3) je problemloser sie aus theoretischen und wohlfahrtsökonomischer Sicht ist. Der Beitrag diskutiert die in Wissenschaft und Praxis verbreiteten Positionen zu diesen drei Aspekten und erläutert, warum sie bzw. die emprischen, praktischen und theoretischen Argumente, durch die sie gestützt werden sollen, auf Mißverständnissen beruhen.
Thema dieses Beitrags ist zum einen eine kritische Würdigung des Flächentarifvertrages (FTV) im Hinblick auf seine Regelungsdichte und zum anderen die theoretische Analyse eines Elements des Flexibilisierungspotentials des FTV, namlich der Öffnungsklausel, unter Berücksichtigung der Insider-Outsider-Problematik. Im Ergebnis kommt dieser Beitrag zu dem Schluß, daß der FTV nicht überholt, wohl aber dringend und umfassend überholungsbedürftig ist. Wichtig erscheint eine differenzierende Betrachtung, denn nicht alle diskutierten Flexibilisierungsmaßnahmen führen notwendigerweise zu Beschäftigungsgewinnen. Die Regelungsdichte des FTV kommt unter anderem zum Tragen, wenn bisher tarifgebundene Unternehmen beispielsweise auf Grund einer überzogenen Lohnpolitik den FTV verlassen wollen. Sie müssen zunächst erhebliche Nachwirkungsfristen des FTV beachten, können aber häufig selbst als nicht (mehr) tarifgebundene Unternehmen keine Lohnabschlüsse mit ihrem Betriebsrat tätigen. Die Regelungsdichte wird zudem durch die Arbeitsgerichtsbarkeit verstärkt, beispielsweise durch das in diesem Beitrag kritisierte Urteil des Bundesarbeitsgerichts, welches unter bestimmten Voraussetzungen eine Verbandsklage als zulässig erklärt. Ein gründlich reformierter FTV, der einer erforderlichen Flexibilität auf der betrieblichen Ebene Rechnung trägt, weist eine Reihe von Vorteilen auf. Denn Lohnverhandlungen ausschließlich auf der betrieblichen Ebene führen dort zu teilweise beachtlichen Transaktionskosten, zwingen die Unternehmensleitung zur Offenlegung der Bücher (gegenüber dem Betriebsrat) und verstärken unter Umständen ein Insider-Outsider-Verhalten. Der Beitrag unternimmt im weiteren eine theoretische Analyse der Beschäftigungswirkungen des FTV und eines Haustarifvertrages (HTV) als mögliche Alternative. Das vorgeschlagene Modell integriert Insider-Outsider-Verhalten und die Möglichkeit einer Tariföffnungsklausel. Das Modell zeigt, daß aus theoretischer Sicht keine eindeutige Rangordnung zwischen HTV und FTV hinsichtlich ihrer Beschäftigungswirkungen besteht. Auch führt eine Tariföffnungsklausel nicht notwendigerweise zu höherer Beschäftigung, da die Gewerkschaften fur die Situationen mit günstigen Güternachfrageschocks einen vergleichsweise hohen Lohn anstreben. Angesichts der theoretisch unklaren Ergebnisse plädiert die Arbeit fur eine Reform des FTV anstelle eines drastischen Systemwechsels hin zu HTV.
Die neoklassische Arbitragetheorie setzt voraus, daß alle Marktteilnehmer identische Erwartungen bezüglich der künftigen zustandsabhängigen Auszahlungen von risikobehafteten Wertpapieren bilden. Die Unsicherheit besteht dann im Eintritt des Zustandes selber, jedoch nicht in dessen Ausprägung.
In diesem Artikel wird untersucht, wie eine zusätzliche Unsicherheit in Form des Unwissens über die genaue Ausprägung eines Umweltzustandes modelliert werden kann. Dazu werden die klassischen Finanzwirtschaftstheorien mit der Fuzzy Set Theorie (Theorie unscharfer Mengen) verbunden.
Ziel ist es, sowohl eine einperiodige als auch eine mehrperiodige Arbitragebewertung so zu modifizieren, daß vage Erwartungen der Marktteilnehmer unterstellt werden können.
Kursänderungen auf Aktienmärkten können informationsinduziert durch neu zu verarbeitende Informationen oder liquiditätsinduziert durch kurzfristige Angebots- bzw. Nachfrageüberhänge auftreten. Diese zwei so unterschiedlich verursachten Kursreaktionen sind in empirischen Untersuchungen nur schwer zu trennen. Das Modell von Easley, Kiefer, O’Hara und Paperman (1996) bietet eine theoretische Basis zur separaten Erfassung von liquiditätsorientiertem und informationsbasiertem Handel und eröffnet darüber hinaus auch einen Weg zur empirischen Quantifizierung dieser Größen.
In der vorliegenden Untersuchung nutzen wir diesen Ansatz zur Analyse des Handels deutscher Aktien über das Computerhandelssystem IBIS. Dabei zeigt sich, daß innerhalb der DAX-Werte Informationsereignisse bei den sehr stark gehandelten Aktien nicht häufiger als bei weniger oft gehandelten Werten auftreten. Die Unterschiede im Handelsvolumen sind auf unterschiedlich starke Handelsaktivität sowohl informierter als auch uninformierter Marktteilnehmer zurückzuführen. Weiterhin zeigt sich, daß das Risiko, mit informierten Marktteilnehmern zu handeln, bei den sehr umsatzstarken Aktien am geringsten ist.
In Einklang mit dem sogenannten Montagseffekt ist die Wahrscheinlichkeit für das Auftreten von negativen Informationsereignissen zu Wochenanfang besonders groß. Dieses Ergebnis könnte durch eine Tendenz von Managern erklärt werden, negative Informationen freitags nach Börsenschluß zu veröffentlichen. Eine getrennte Untersuchung für Handelstage mit niedriger und solche mit hoher Volatilität zeigt, daß an Handelstagen mit höherer Volatilität die Handelsintensität sowohl informierter als auch uninformierter Investoren größer ist. Auch die Wahrscheinlichkeit, an solchen Tagen mit besser informierten Marktteilnehmern zu handeln, steigt. Dieser Anstieg ist allerdings nicht statistisch signifikant.
Die Neue Institutionenökonomie beschäftigt sich mit der Erklärung institutioneller Gegebenheiten wie Vertrags- und Organisationsformen und versucht, eine Begründung für die Existenz von Unternehmen zu finden. Ein Bestandteil der Neuen Institutionenökonomie ist, neben der Principal- Agent- und der Property-Rights-Theorie, die hier näher zu erörternde Transaktionskostentheorie. Entstanden ist die Transaktionskostentheorie aus der Kritik an der Neoklassik, insbesondere an den dieser zugrunde liegenden Annahmen. Innerhalb der neoklassischen Theorie wird der Preismechanismus als das zentrale Instrument zur Koordination von wirtschaftlichen Aktivitäten betrachtet. Die Wirtschaftssubjekte handeln in einem Markt unter vollständiger Konkurrenz, in dem sich ohne Verursachung von Kosten ein Gleichgewichtspreis bildet. Sie verhalten sich daher als Mengenanpasser, die aufgrund dieses vorgegebenen Preises ihren Gewinn maximieren. Im Gegensatz dazu wird in der Transaktionskostentheorie davon ausgegangen, daß die Bildung des Preises bzw. die Nutzung des Marktmechanismus nicht kostenlos genutzt werden kann. Aus der Annahme der Neoklassik, daß der Preis die operativen Entscheidungen der Wirtschaftssubjekte determiniert und zu einer effizienten Allokation der Produktionsfaktoren führt,6 stellt sich weiterhin die Frage nach dem Grund für die Existenz von Unternehmungen, welche mit Hilfe der Transaktionskostentheorie beantwortet wird. Wäre der Marktmechanismus tatsächlich in der Lage alle wirtschaftlichen Aktivitäten effizient zu koordinieren, so bestünde keine Notwendigkeit für die Bildung von Institutionen. Die Entstehung von Unternehmen ist daher auf ein Versagen des Preismechanismus aufgrund von Transaktionskosten zurückzuführen....
Im Rahmen eines Börsen-Großexperiments anlässlich der Fußball-WM 1998 untersuchen wir den Einfluss von Aktienbetreuern auf die Marktliquidität. Die Marktformen des kontinuierlichen Handels, eines Systems mit einem monopolistischen Aktienbetreuer und mit konkurrierenden Betreuern wurden durch einen Gruppenvergleich unterschiedlich betreuter Aktien analysiert. Die Liquidität wurde mit Hilfe des bid-ask-Spreads und der inversen Markttiefe gemessen, einer Kenngröße zur Charakterisierung der Preis-Mengen-Relation der Liquidität. Wir finden, dass die betreuten Märkte liquider sind als die unbetreuten, und die konkurrierende Betreuung mehr Liquidität generiert als die eines Monopolisten. Nach kursrelevanten Informationsereignissen kehrten die Spreads in den betreuten Märkten schneller zu ihrem normalen Niveau zurück. Durch Rekonstruktion der nichtanonymen Orderbücher konnte der direkte Einfluß der Betreuer auf die Liquidität von den Beiträgen der übrigen Marktteilnehmer separiert werden. Interessanterweise zeigt sich, dass nur ein Teil der Liquiditätsverbesserung mit den Orders der Betreuer erklärt werden kann. Demnach stünden die Liquiditätsbereitstellung durch Betreuer und die der anderen Marktteilnehmer nicht in einer konkurrierenden, sondern komplementären Beziehung zueinander.
In den letzten Jahren wurden verschiedene Modelle entwickelt, um das Ausfallrisiko von Banken unter Berücksichtigung von Portfolioeffekten zu quantifizieren. Bisher hat sich kein Ansatz als allgemein akzeptierter Standard durchsetzen können. Da die Modelle grundlegende konzeptionelle Unterschiede aufweisen und unterschiedliche empirische Inputdaten verwenden, hat die Auswahl eines Kreditrisikomodells unter Umständen einen erheblichen Einfluß auf die Kreditportfoliosteuerung der Bank. In diesem Beitrag soll deshalb geklärt werden, ob die Modelle systematisch abweichende Value-at-Risk-Werte berechnen und worin die Ursachen für auftretende Abweichungen liegen. Zunächst wird gezeigt, daß die bestehenden Kreditrisikomodelle in zwei grundlegende Klassen eingeteilt werden können: Assetwert-basierte Modelle und auf Ausfallraten basierende Modelle. Am Beispiel eines Musterportfolios von Krediten an deutsche Baufirmen werden zwei Vertreter der Modellklassen (CreditMetrics und CreditRisk+) verglichen und der Effekt der unterschiedlichen empirischen Inputparameter auf die Risikoergebnisse abgeschätzt. Die Analyse zeigt erhebliche Unterschiede zwischen den Modellen. Eine Analyse der Abweichungsursachen ergibt allerdings, daß der Grund für die großen Value-at-Risk-Unterschiede in erster Linie in den unterschiedlichen empirischen Inputdaten liegt, welche zu unterschiedlichen impliziten Korrelationsannahmen führen. Es wird gezeigt, wie die Modellparameter gewählt werden müssen, um identische Korrelationen zu erzeugen. Bei konsistenten Korrelationsannahmen stimmen die Ergebnisse beider Modelle weitgehend überein. Keywords: Credit Risk Models, credit risk correlation
Thesenförmige Zusammenfassung der Untersuchungsergebnisse (1) Der Begriff der Finanzinstrumente untergliedert sich in originäre und derivative Finanzinstrumente und umfaßt somit alle Außenfinanzierungsbeziehungen sowie daraus abgeleitete Geschäfte. (2) Finanzderivate sind im Unternehmen zur Steuerung von Marktrisiken einsetzbar. Schwerpunkte des Einsatzes von Finanzderivaten bilden das Hedging, die Spekulation und die Arbitrage. (3) Zur bilanziellen Abbildung derivativer Finanzinstrumente enthält das deutsche Handelsrecht - von Vorschriften zur Fremdwährungsumrechnung bei Kreditinstituten abgesehen - keine expliziten Regelungen. Die Bilanzierung unternehmerisch eingesetzter Finanzderivate richtet sich daher nach den allgemeinen Bilanzierungsnormen, d.h. nach kodifizierten wie nicht kodifizierten GoB unter Orientierung am Sinn und Zweck des handelsrechtlichen Jahresabschlusses. Dieser besteht in der Ermittlung eines entziehbaren Betrages unter Beachtung der Interessen von Gesellschaftern und Unternehmensgläubigern; der Informationsvermittlung kommt de lege lata nur eine Nebenfunktion zu. (4) Die Bilanzierung spekulativer, d.h. nicht zu Sicherungszwecken eingesetzter Finanzderivate läßt sich innerhalb des GoB-Gefilges prinzipiengerecht lösen: Der Einzelbewertungsgrundsatz gebietet die bilanzielle Isolation von anderen Bilanzierungsobjekten, das Realisationsprinzip untersagt die erfolgswirksame Berücksichtigung festgestellter Marktwerterhöhungen, das Imparitätsprinzip erfordert die aufwandswirksame Antizipation von (Markt-)Bewertungsverlusten. (5) Schwierigkeiten bereitet eine GoB-konforme Bilanzierung sichernder Finanzderivate aufgrund einer offenen Dissonanz zwischen strengem EinzeIbewertungsgrundsatz und dem Prinzip der wirtschaftlichen Betrachtungsweise. Die aktuelle Bilanzierungspraxis sowie der überwiegende Teil des handelsrechtlichen Schrifttums versucht dieses Problem durch Einschaltung bilanzieller Bewertungseinheiten zu lösen. Hierzu werden - je nach verfolgter Bewertungseinheiten-Konzeption - auf unterschiedlichen Aggregationsebenen (Mikro-, Portfolio- oder Makro-Ebene) Finanzinstrumente zu Zwecken der bilanziellen Bewertung zusammengefaßt und saldiert bewertet. Lediglich ein verbleibender Bewertungsverlustüberhang ist gemäß dem Imparitätsprinzip aufwandswirksam zu erfassen; Bewertungsgewinnüberhänge bleiben nach dem Realisationsprinzip unberücksichtigt. Im Falle von Makro-Bewertungseinheiten soll eine Bewertung gänzlich unterbleiben. Um Eingang in eine bilanzielle Bewertungseinheit zu finden, sollen Finanzinstrumente verschiedene objektive und subjektive Anforderungskriterien erfiillen, welche jedoch hinsichtlich Qualität und Quantität innerhalb des Schrifttums in unterschiedlicher Strenge gesehen werden. (6) Sämtliche Bewertungseinheiten sind kritikwürdig auf grund mangelnder konzeptioneller Stringenz sowie aufgrund des großen Spielraums, der dem Bilanzierenden zur Gestaltung des Jahresergebnisses zwar nicht willentlich, jedoch faktisch eingeräumt wird. Die herrschenden Bewertungseinheiten-Konzepte sind de laga lata fragwürdig und teilweise abzulehnen. Sie eignen sich ebenfalls nicht als Ausgangsbasis für eine am Sinn und Zweck des handelsrechtlichen Jahresabschlusses ausgerichtete Bilanzierungsmethode de lege ferenda. (7) Die internationalen Rechnungslegungsstandards US-GAAP und lAS weisen neben Vorschriften bezüglich einer detaillierten Berichterstattung über finanzinstrumentelle Engagements auch explizite Normen zur Bilanzierung von Finanzinstrumenten auf Die Entwicklung bewegt sich hier in Richtung umfassender Vorgaben sowie einer breiten Marktbewertung. Gleichwohl ergeben sich Grenzen durch ein nach wie vor institutionalisiertes Hedge-Accounting und eine an Zwecksetzungen des Bilanzierenden ausgerichtete bilanzielle Vorgehensweise. Aus deutscher Sicht ist den derzeit bestehenden internationalen Standards zur Bilanzierung von Finanzinstrumenten weder de lege lata noch de lege ferenda zu folgen. (8) Hervorgehoben durch ein Diskussionspapier des lASC aus dem Jahre 1997 ergibt sich als stringente Methode zur bilanzielIen Abbildung originärer und derivativer Finanzinstrumente eine vollumfilngliche, ergebniswirksame Marktwertbilanzierung (reine Marktwertbilanzierung). Diese erfordert den BiJanzansatz jedes Finanzinstruments zum aktuellen Marktwert sowie die unmittelbar erfolgswirksame Erfassung festgestellter Bewertungsgewinne und -verluste. Die beachtlichen Vorzüge der reinen Marktwertbilanzierung bestehen in einem gänzlichen Verzicht auf die Bildung von Bewertungseinheiten bzw. auf ein Hedge-Accounting, wodurch bilanzielle Gestaltungsspielräume spürbar eingedämmt werden. Weiterhin zeichnet sich die reine Marktwertbilanzierung durch einen Ansatz aus, welcher originäre und derivative Finanzinstrumente sowohl der Aktiv- als auch der Passivseite gleichermaßen umfaßt, der Methodik der innerbetrieblichen Steuerung und Kontrolle von Finanzinstrumenten entspricht, eine verbesserte Informationsgewährung durch Bilanz und Gewinn- und Verlustrechnung ermöglicht und eine unkomplizierte Umsetzung gewährleistet. (9) Eine Rezeption der reinen Marktwertbilanzierung fiir Finanzinstrumente ist de lege lata aufgrund eindeutig entgegenstehender Gesetzesnormen nicht möglich. Indessen bildet die reine Marktwertbilanzierung eine de lege ferenda interessante Methode zur bilanziellen Abbildung derivativer und originärer Finanzinstrumente. Zur Übernalnne in die handelsrechtliche Rechnungslegung erfordert die reine Marktwertbilanzierung in erster Linie ein geändertes Verständnis des Realisationssowie des Imparitätsprinzips. Dies kann erreicht werden durch die Annalnne der Marktbewertung als Realisationstatbestand, eine ausgeprägte Abschlußstichtagsbetrachtung sowie die Befiirwortung der Eindämmung stiller Reserven. Insgesamt läßt sich zeigen, daß eine reine Marktwertbilanzierung konzeptionell zunächst nicht im Widerspruch zu Gläubiger- oder Gesellschafterinteressen steht. Gleichwohl konkretisieren sich die Schwachpunkte und damit das Scheitern einer reinen Marktwertbilanzierung an maßgeblichen Objektivierungsrestriktionen: Die Existenz eines Marktes für das zu bilanzierende Finanzinstrument, die Bewertbarkeit des Finanzinstruments durch den Markt sowie die sichere Realisierbarkeit festgestellter Bewertungsergebnisse stellen Voraussetzungen dar, welche zwar zu einer erfolgswirksamen Erfassung von Marktbewertungsergebnissen zu fordern sind, in Fällen bestimmter Finanzinstrumente hingegen nicht erfüllt werden. (10) Die streng vorsichtige Marktwertbilanzierung stellt eine Alternativmethode zur bilanziellen Abbildung von Finanzinstrumenten de lege ferenda dar, welche auf der reinen Marktwertbilanzierung autbaut. Kennzeichnend ist bier der Ansatz von Finanzinstrumenten zu ihrem Marktwert und die Erfassung festgestellter Bewertungsergebnisse auf einem bilanziellen Sonderposten zu Zwecken der Wertkompensation. Ein nach Saldierung auf diesem Sonderposten verbleibender Bewertungsverlustüberhang ist aufwandswirksam zu erfassen, während ein Bewertungsgewinnüberschuß erfolgsneutral abgegrenzt wird. Weiterhin sind nicht objektiv bewertbare Finanzinstrumente nach dem bisherigen Verständnis des Vorsichtsprinzips einzeln zu bilanzieren. Diese Bilanzierungsmethode weist gegenüber der überkommenen handelsrechtlichen Bilanzierung im wesentlichen die gleichen Vorteile wie die reine Marktwertbilanzierung auf: ist allerdings der gewachsenen handelsrechtlichen Denkweise eher verwandt. Konzeptionelle Schwächen der streng vorsichtigen Marktwertbilanzierung liegen in geringfiigigen bilanziellen Gestaltungsspielräumen sowie in einer kategorischen Ablehnung der Ertragswirksamkeit sämtlicher überschießenden Bewertungsgewinne. (11) Eine ,,Mischung" aus reiner und streng vorsichtiger Marktwertbilanzierung bildet die gemildert vorsichtige MarktwertbiIanzierung, welche im Rahmen dieser Arbeit als Methode zur Bilanzierung derivativer und originärer Finanzinstrumente de lege ferenda befiirwortet wird. Wesensmerkmal dieser Konzeption ist die an der Bewertungsqualität der zu bilanzierenden Finanzinstrumente ausgerichtete Vorgehensweise. Im Rahmen verschiedener Typisierungen von Anforderungskriterien sowie Ausnahmetatbeständen gestaltet sich die gemildert vorsichtige Marktwertbilanzierung im wesentlichen dreistufig: Finanzinstrumente höchster Bewertungsqualität, i.e. die meisten standardisierten Finanzinstrumente sowie nicht standardisierte Finanzinstrumente, welche unproblematisch duplizierbar (und damit glattstellbar) sind, machen einen Bilanzansatz zu M,arktwerten erforderlich; positive wie negative Marktwertänderungen werden erfolgswirksam erfaßt. Finanzinstrumente, die zwar objektiv bewertbar sind, deren unverzügliche GlattsteIlbarkeit jedoch als nicht gesichert angesehen werden kann, sind zu Marktwerten zu bilanzieren; Bewertungsverluste erlangen Aufwandswirksamkeit, und Bewertungsgewinne sind, soweit sie nach Wertkompensation verbleiben, erfolgsneutral abzugrenzen. Finanzinstrumenten ohne Sekundärmarkt bzw. ohne objektive Bewertbarkeit bleibt eine Marktbewertung verwehrt; diese sind nach dem geltenden Verständnis des Imparitätsprinzips einzeln zu bilanzieren. Die Vorzüge der gemildert vorsichtigen Marktwertbilanzierung für Finanzinstrumente gegenüber den ad legern latam vorgeschlagenen Bilanzierungsmethoden entsprechen grundSätzlich denen der reinen Marktwertbilanzierung, wobei die gemildert vorsichtige Marktwertbilanzierung auf grund ihrer differenzierenden Behandlung die Probleme der reinen Marktwertbilanzierung zusätzlich zu lösen vermag. Der hauptsächliche Nachteil der gemildert vorsichtigen Marktwertbilanzierung besteht in ihrer mitunter komplizierten Umsetzbarkeit. (12) Zinsswaps und Forward Rate Agreements (FRAs) verkörpern finanzwirtschaftlich Zinsderivate mit symmetrischem Risikoprofil und zivilrechtlich synallagmatische, schwebende Geschäfte. Weiterhin sind diese Instrumente anhand verfiigbarer Marktdaten mittels eines finanzwirtschaftlichen Modells objektiv und unkompliziert zu bewerten und zudem unverzüglich glattstellbar. Die Bilanzierung von Zinsswaps und FRAs ergibt sich de lege lata gemäß weitgehend eindeutiger GoB-Ausrichtung. Unter Anwendung der gemildert vorsichtigen Marktwertbilanzierung de lege ferenda ist für beide Finanzinstrumente die uneingeschränkt erfolgswirksame Bi1anzierung zu Marktwerten zu befürworten. (13) Zinsbegrenzungsvereinbarungen stellen optionsbasierte Finanzinstrumente mit einem mithin asymmetrischen Risikoprofil dar. Zu ihrer Bewertung ist ein Optionspreismodell heranzuziehen, welches zwar grundsätzlich eine objektive und marktorientierte Wertermittlung ermöglicht, jedoch einem Bereich noch nicht abgeschlossener finanzwirtschaftlicher Forschung entspringt. Zudem kann eine unverzügliche und unkomplizierte Glattstellbarkeit von Zinsbegrenzungsvereinbarungen nicht als gewährleistet angesehen werden. Die handelsrechtliche Bilanzierung von Zinsbegrenzungsvereinbarungen erfolgt unter weitgehend systematischer GoB-Orientierung. Nach Umsetzung der gemildert vorsichtigen Marktwertbilanzierung ergibt sich die Bilanzierung von Zinsbegrenzungsvereinbarungen zu ihrem modellmäßig ermittelten Marktwert, wobei lediglich Bewertungsverluste vollständige Erfolgswirksamkeit erfahren. Bewertungsgewinne, welche über eine Kompensation mit den Bewertungsverlusten anderer Finanzinstrumente hinausgehen, sind hingegen erfolgsneutral abzugrenzen.
Einkommensverteilung in Deutschland : Strukturanalyse der Ungleichheit nach Einkommenskomponenten
(2000)
Ergebnisse von Verteilungsanalysen fallen je nach der Bezugseinheit - Haushalt oder Person - recht unterschiedlich aus. Dies gilt sowohl für das Niveau von Verteilungsindikatoren und deren Entwicklung im Zeitverlauf, als auch hinsichtlich der Beiträge einzelner Einkommens- und Abgabearten zu der gemessenen Ungleichheit. Auf der Basis der Einkommens- und Verbrauchsstichproben 1988 und 1993 und unter Verwendung der "älteren OECD-Skala" hat sich gezeigt, dass die Ungleichheit der personellen Verteilung der Nettoäquivalenzeinkommen im Beobachtungszeitraum in den alten Ländern zugenommen hat, aber nach wie vor wesentlich gleichmäßiger als die unveränderte Verteilung der Haushaltsnettoeinkommen auf Haushalte ist. In den neuen Ländern ist der Unterschied zwischen der haushaltsbezogenen und der personenbezogenen Einkommensverteilung noch deutlicher bei insgesamt geringerer Ungleichheit als in den alten Ländern. Auch die Zerlegung der aggregierten Ungleichheit nach Einkommenskomponenten führt zu teilweise abweichenden Ergebnissen in Abhängigkeit von der Bezugseinheit, da bei einzelnen Haushaltstypen im Durchschnitt jeweils unterschiedliche Einkommensarten dominieren. Entgegen gängigen Vorstellungen über Verteilungsstrukturen zeigt sich allerdings generell, dass die Verteilungsungleichheit zum größten Teil durch die Bruttoeinkommen aus unselbständiger Arbeit bestimmt wird. Zwar sind die Selbständigen- und Vermögenseinkommen erwartungsgemäß wesentlich ungleicher verteilt, durch ihren vergleichsweise geringen Anteil am Gesamteinkommen ist ihr Einfluss auf die Gesamtverteilung aber - insbesondere in Ostdeutschland, aber auch in Westdeutschland - begrenzt. Dies wird bei der Analyse der personellen Verteilung allerdings weniger deutlich als bei der Bezugnahme auf Haushalte. Wiederum im Gegensatz zu verbreiteten Annahmen wird die Ungleichheit der Verteilung der Haushaltseinkommen durch staatliche Transferzahlungen nicht oder nur unwesentlich gemildert. Dies ist aber nur auf den ersten Blick überraschend, da nur ein geringer Teil der Transfers vorrangig vertikalen, interpersonellen Umverteilungszielen dient. Die Leistungen der Sozialversicherung und vergleichbarer Systeme bezwecken hauptsächlich eine intertemporale Umverteilung und Lebensstandardsicherung bei Eintritt bestimmter Risikotatbestände (Alter, Tod des Ernährers, Unfall, Arbeitslosigkeit, Krankheit), so dass sie die Verteilung der Einkommen aus unselbständiger Arbeit abgeschwächt wiederspiegeln. Demzufolge geht auch von ihnen keine merkliche Verminderung der Ungleichheit der Nettoeinkommensverteilung auf der Haushaltsebene bzw. sogar eine leichte Erhöhung der Ungleichheit der personellen Verteilung der Nettoäquivalenzeinkommen in Westdeutschland aus. Aber selbst von den steuerfinanzierten Transfers geht unter Bezugnahme auf Haushalte insgesamt nur ein sehr geringer nivellierender Effekt aus. Hier wird die konzeptionelle Schwäche des analytischen Ansatzes am ungewichteten Haushaltseinkommen besonders deutlich. Denn mit dem Haushaltseinkommen wird ohne eine Berücksichtigung der Haushaltsgröße und -struktur die Bedarfssituation der Haushaltsmitglieder, die für viele steuerfinanzierte Transfers maßgeblich ist, nur unzureichend erfasst. Dementsprechend erweist sich der ausgleichende Effekt der Transfers der Gebietskörperschaften unter Bezugnahme auf Personen als recht deutlich, wenn auch in Westdeutschland im Vergleich zum Anteil am Einkommensaggregat als unterproportional. Bei einer weiteren Aufspaltung des heterogenen Komplexes der steuerfinanzierten Transfers in das einkommensunabhängige Kindergeld, Einkommensübertragungen mit Entschädigungscharakter und Transfers mit dem vorrangigen Ziel vertikaler Umverteilung zeigt sich aber auch für Westdeutschland eine weit überproportionale Reduzierung der Ungleichheit der Verteilung der Nettoäquivalenzeinkommen durch i. e. S. bedarfsabhängige Transfers. Absolut gesehen macht der ausgleichende Effekt zwar in den alten Ländern weniger als ein Zehntel, in den neuen Ländern ungefähr ein Fünftel der entsprechenden Effekte der persönlichen Steuern aus; unter Berücksichtigung des geringen Volumens der Transfers mit vorwiegend vertikaler Ausrichtung ergibt sich aber eine recht hohe Effizienz. Sie scheint in Westdeutschland zwischen 1988 und 1993 allerdings etwas zurückgegangen zu sein, ähnlich wie der ausgleichende Einfluss der persönlichen Steuern. Schließlich zeigt sich für das Kindergeld eine nur mäßige relative Reduzierung der Ungleichheit der personellen Einkommensverteilung, die 1993 in West- wie in Ostdeutschland nur ungefähr zwei Dritteln des Anteils am Einkommensaggregat entspricht. Dies ist angesichts der horizontalen Ausrichtung des Familienlastenausgleichs in Deutschland nicht verwunderlich, könnte aber für eine Zieldiskussion im Zusammenhang mit Reformüberlegungen Anlass geben.
Empirische Wohlstandsanalysen können prinzipiell anhand dreier Indikatoren durchgeführt werden: Anhand des Privaten Verbrauchs, anhand des verfügbaren Einkommens oder anhand des Nettovermögens.1 Während es für die Definition der Indikatoren des Privaten Verbrauchs und des verfügbaren Einkommens zumindest einigermaßen akzeptierte internationale Konventionen gibt, ist dies bezüglich der Definition des privaten Vermögens nicht annähernd der Fall. Im Unterschied zu den Volkseinkommensrechnungen sind Volksvermögensrechnungen im internationalen Maßstab deutlich weniger gut ausgebaut. Dies mag damit zusammenhängen, daß bei einer Bestandsgröße wie dem privaten Vermögen Aspekte der Verwertung, Nutz-ung, sozialen Absicherung wie auch der Verleihung von Macht2 intensiver zum Tragen kommen als bei einer Stromgröße wie dem privat verfügbaren Haushaltseinkommen. Aus welchen Bestandteilen sich das Gesamtvermögen zusammenzusetzen hat, ist daher einem heftigeren Diskurs als bei den anderen Wohlstandsindikatoren ausgesetzt. Es herrscht beispielsweise Uneinigkeit darüber, ob das Human- oder das Sozialvermögen sinnvolle Vermögenskomponenten sind. Eine eher negative Einschätzung in diesem Zusammenhang wird üblicherweise damit begründet, daß beide potentiellen Gesamtvermögensbestandteile das Kriterium der interpersonellen Veräußerbarkeit nicht bzw. nur unzureichend erfüllen.1 Auch ist die Forschung vor zum Teil schwer überwindbare Bewertungsprobleme einzelner Vermögenskomponenten gestellt, und zwar stärker als bei den beiden anderen Wohlstandsindikatoren, bei denen zumindest die überwiegende Anzahl an Teilelementen mittels nachvollziehbarer Marktpreise vergleichsweise einfach bewertet werden kann. Hinzu kommt die schlechtere Datenlage hinsichtlich der Erfassung privaten Vermögens im Vergleich zum Privaten Verbrauch bzw. verfügbaren Haushaltseinkommen, was nicht zuletzt auf die - in Befragungen - (noch) größere Sensibilität der Interviewten bezüglich der Beantwortung vermögensbezogener Fragen im Vergleich zu den beiden anderen Wohlstandsindikatoren zurückzuführen ist. Alles in allem bleibt festzuhalten, daß allein die Deskription der Höhe und Verteilung privat gehaltenen Vermögens eine höchst komplexe Aufgabe ist. Es ist daher keineswegs unwahrscheinlich, daß verschiedene Vermögensanalysen selbst auf einer einheitlichen Datengrundlage zu zum Teil entgegengesetzten Aussagen gelangen werden. Diesen letztgenannten Gedanken aufgreifend, werden in der vorliegenden Studie in beispielhafter Form drei auf Basis der Einkommens- und Verbrauchsstichprobe (EVS) 1988 durchgeführte Analysen zur bundesdeutschen Vermögensverteilung privater Haushalte einer vergleichenden Betrachtung unterzogen. Es wird gezeigt, an welchen Stellen Abweichungen zwischen den einzelnen Studien auftreten und worauf diese (vermutlich) zurückzuführen sind. Das vorliegende Arbeitspapier ist wie nachfolgend aufgebaut. Kapitel 2 vermittelt einen Eindruck von der Datenbasis, auf der die drei genannten Studien jeweils basieren, Kapitel 3 schildert kurz die Konstruktionselemente der drei behandelten Analysen, und in Kapitel 4 werden in einer Gegenüberstellung der drei Studien Unterschiede kausal herausgearbeitet. Es folgt in Kapitel 5 eine Bewertung der Untersuchungsergebnisse.
Im Mittelpunkt dieses Beitrag stehen Verweildauermodelle und deren Verwendung als Analyseinstrumente für die Bewertung und Berechnung von Kreditausfallrisiken. Verschiedene Möglichkeiten zur Berechnung der Dauer des Nichtausfalls eines Kredites werden dabei vorgestellt. Die hier vorgestellten Verfahren werden auf einen aus Kreditakten von sechs deutschen Universalbanken zusammengestellten Datensatz angewendet. Beispiele und Interpretationshilfen zu den jeweils vorgestellten Methoden erleichtern den Zugang zu diesen Modellen. Es werden zahlreiche Hinweise auf weiterführende Literatur gegeben.
Wenn man untersuchen möchte, ob sich die Finanzsysteme verschiedener Länder im Verlauf der letzten Jahre aneinander angeglichen haben oder demnächst angleichen werden, braucht man ein Konzept zur Beschreibung von Finanzsystemen, durch das wesentliche Strukturen, deren Unterschiede und Veränderungen erkennbar werden, ohne dabei in "Systemgeschwafel" (D. Schneider) abzugleiten. Wir haben dafür das Konzept der Komplementarität als nützlich identifiziert. Der Beitrag stellt dieses Konzept vor und soll und seine Eignung belegen. Letztlich geht es dabei auch um die Frage, ob reale Finanzsysteme konsistente Systeme mit komplementären Elementen darstellen. Nach der Vorstellung der formalen Konzepte der Komplementarität und der Konsistenz wird "das Finanzsystem" auf seine Komple mentarität untersucht. Dazu wird ein Finanzsystem aus der Sicht von Unternehmen des nichtfinanziellen Sektors als ein System gekennzeichnet, das aus drei Teilsystemen besteht. Das erste Teilsystem ist das Finanzierungssystem einschließlich Finanzsektor und Mustern der Unternehmensfinanzierung, das zweite das Corporate Governance-System und das dritte das Unternehmens-Strategie-System. Für alle drei Teilsysteme wird – allgemein und mit Bezug auf die Finanzsysteme Deutschlands, Japans und der USA - gezeigt, inwieweit die Elemente der betreffenden Teilsysteme untereinander komplementär sind, und geprüft, ob sie in ihren Ausprägungen auch konsistent sind, d.h. wirklich "zueinander passen". Untersucht wird auch die Komplementarität und Konsistenz zwischen den Teilsystemen selbst. Der Beitrag endet mit Überlegungen über die Anwendung des Komplementaritätskonzepts. Dass ein Finanzsystem die Eigenschaft der Komplementarität aufweist, hat nicht nur weitreichende Implikationen für die Methodik der Analyse von Finanzsystemen, sondern auch für die Vorhersehbarkeit der Entwicklung von Finanzsystemen und damit für die Wahrscheinlichkeit einer Konvergenz von Finanzsystemen, für deren Effizienzeigenschaften und für die Möglichkeiten, Finanzsysteme durch gestaltende Eingriffe zu verbessern.
Ja, der Ablauf der Lock-up-Frist ist ein kursrelevantes Ereignis. Wir untersuchen Kursreaktionen auf das Ende der Lock-up-Frist bei 142 Unternehmen des Neuen Marktes. Da der Ablauf der Sperrfrist bereits zum Zeitpunkt des Börsengangs bekannt ist, erwarten wir bei einem (semi-)informationseffizienten Kapitalmarkt durchschnittlich keine Kursreaktion. Im Rahmen einer Ereignisstudie zeigen wir aber, dass sich am Ende der Sperrfrist signifikant negative Überrenditen ergeben. Durch eine differenzierte Analyse stellen wir fest, dass firmenspezifische Faktoren (Volatilität, Performance, Free Float) die Kursreaktionen am Ende der Lock-up-Periode beeinflussen. Die Befunde unserer Untersuchung belegen die Notwendigkeit klarer Regeln für mehr Transparenz nach dem Börsengang. Bedeutsam sind die vorliegenden Ergebnisse vor allem vor dem Hintergrund der aktuellen Diskussion um eine Erweiterung der insiderrechtlichen Meldepflichen im Rahmen des 4. Finanzmarktförderungsgesetzes. This paper explores the materiality of expirations of lock-up provisions that prevent insiders from selling their shares after the initial public offering (IPO). We examine 172 lock-up agreements of 142 IPOs floated on Germany’s New Market. Since the date of the lock-up expiration is common knowledge at the IPO, we would not expect to find abnormal returns surrounding the event day, assuming that markets are informationally efficient. However, using an event-study methodology we detect statistically significant negative abnormal returns and a twenty-five percent increase in trading volume surrounding lock-up expiration. The negative abnormal returns are larger for firms with high volatility, superior performance after the IPO, and low free float. The results of our study raise important regulatory issues with respect to disclosure rules of firms going public. We argue that insiders should be legally required to disclose their sell transactions in order to protect new and less informed shareholders.
Entwicklungsfinanzierung
(2000)
Joseph E. Stiglitz (1943 - )
(2000)
Am 24.11.1999 gibt Joseph E. Stiglitz seinen vorzeitigen Rücktritt als Chief Economist und Senior Vice President der Weltbank zum Jahresende bekannt. Er will sich wieder ausschließlich der Forschung und Lehre widmen und kehrt auf seinen Lehrstuhl am Economics Department der Stanford University zurück. Stiglitzs Rückzug aus der aktiven Entwicklungspolitik erfolgt nicht ganz freiwillig. Er selbst kommentiert seinen Entschluß: „It has become obvious to me that it would be difficult to continue to speak out as forcefully and publicly as I have on a variety of issues and still remain as chief economist. Rather than muzzle myself, or be muzzled, I decided to leave.“ (New York Times, 1.12.1999). Seit geraumer Zeit galt seine öffentliche Kritik am Washington Consensus, dem ökonomischen Glaubensbekenntnis, auf das sich die politische Linie des US Treasury genauso stützt wie die Stabilisierungs- und Reformpolitik des IWF, als Dorn im Auge der Vertreter dieser Institutionen. Für sie war Stiglitz - so die Metapher der Financial Times vom 26.11.99 - „a veritable gadfly“, eine wahre Viehbremse, deren lästiges Summen aufgrund von Position und Intellekt nicht einfach ignoriert werden konnte. ...
Im ersten Kapitel wird dabei die "klassische" Theorie des Fiskalföderalismus diskutiert, die von Problemen des politischen Prozesses weitgehend abstrahiert. Das zweite Kapitel bietet dann einen Überblick der Argumente, die Unzulänglichkeiten des politischen Prozesses als Begründung für Dezentralisierung bzw. Zentralisierung heranziehen. Obwohl die allgemeine Theorie des Fiskalföderalismus einige wichtige Anhaltspunkte für die Zentralisierungsentscheidung beinhaltet, ist es unabdingbar, in Abhängigkeit vom konkreten Politikfeld jeweils eine spezielle Bestandsaufnahme bezüglich der einhergehenden Kosten und Nutzen einer verstärkten Zentralisierung anzustellen. Die vorliegende Studie nimmt sich dabei aus der Fülle der möglichen Politikfelder einige wichtige Teilgebiete heraus. Kapitel 3 diskutiert die möglichen Vorteile einer verstärkten außen- und verteidigungspolitischen Zentralisierung in Europa. Vor dem Hintergrund, dass jedes Land in Europa einen Anreiz hat, sich bei der Durchsetzung gemeinsamer Interessen auf die Partnerländer innerhalb der NATO zu verlassen, lässt eine verstärkte Koordinierung der Europäer auf eine Verringerung des Freifahrerproblems hoffen. Allerdings steht zu befürchten, dass die resultierenden Mehranstrengungen der Europäer zu verminderten Anstrengungen der USA führen. Die Lasten der Verteidigungspolitik könnten sich daher verstärkt von den USA auf Europa verschieben. Je größer Europa durch zusätzliche Beitritte wird, desto eher lohnt es sich allerdings wie Kapitel 3 erläutert eine solche Verschiebung der Lasten in Kauf zu nehmen. Kapitel 4 erörtert die europäischen Finanzausgleichsbeziehungen. In einem ersten Schritt werden die existierenden Finanzbeziehungen innerhalb der EU skizziert. In einem zweiten Schritt werden die Grundlagen und Probleme einer erweiterten regionalen Umverteilung zwischen den Mitgliedstaaten diskutiert. Kapitel 5 argumentiert, dass es in dieser institutionellen Situation nicht verwunderlich ist, wenn die einzelnen Mitgliedsländer eine verstärkte Präferenz für rigide Arbeitsmärkte entwickeln. Weil es rigide Arbeitsmärkte für gebietsfremde Outsider schwerer machen dürften, Zugang zum regionalen Arbeitsmarkt zu erhalten, helfen Arbeitsmarktrigiditäten die Mobilität zu verringern. Umverteilungssysteme zu Gunsten von Geringverdienern, die ansonsten durch die Arbeitskräftemobilität erodieren würden, lassen sich so eher bewahren. Kapitel 6 beschäftigt sich mit der Koordinierung bei der Besteuerung von mobilem Kapital.
Zur wissenschaftlichen Evaluation der aktiven Arbeitsmarktpolitik in Deutschland : ein Überblick
(2000)
Dieser Beitrag gibt einen Überblick der neueren wissenschaftlichen Literatur zur Evaluation der Aktiven Arbeitsmarktpolitik (AAMP) in Deutschland. Das Grundproblem mikroökonomischer Evaluation besteht darin, den Vergleichsmaßstab bei Nichtteilnahme zu schätzen, sei es auf Basis einer vergleichbaren Kontrollgruppe von Nichtteilnehmern oder auf Basis der Situation vor Teilnahme. Entscheidend ist hierbei, den potentiellen Selektionsproblemen Rechnung zu tragen. Evaluationsstudien auf der Makroebene müssen zusätzlich auch die indirekten Effkete der AAMP auf den gesamten Arbeitsmarkt berücksichtigen und der möglichen Endogenität der AAMP Rechnung tragen. Die meisten Evaluationsstudien fur Deutschland zeigen keine signifikant positiven Beschäftigungseffekte der AAMP, sind jedoch mit großer statistischer Unsicherheit behaftet. Wir führen letzteres im wesentlichen darauf zurück, daß wegen zu geringen Datenumfangs meist äußerst heterogene Maßnahmen gepoolt werden und daß über Teilnehmer und Nichtteilnehmer zu wenige Hintergrundinformationen verfügbar sind. Aufgrund dieser Datenrestriktionen verbietet sich daher aus Sicht der Autoren ein vorschnelles Verdikt über die ökonomischen Wirkungen der AAMP, obwohl mögliche positive Effekte nicht sehr stark sein können, da sie sonst vermutlich trotz unterschiedlicher Methoden und unzureichender Daten empirisch hätten identifiziert werden können.
Dieser Beitrag stellt verschiedene ökonometrische Methoden zur Bewertung und Berechnung von Kreditausfallrisiken vor und wendet diese auf einen Datensatz sechs deutscher Universalbanken an. Im Mittelpunkt stehen dabei Logit- und Probitmodelle, mit deren Hilfe die Ausfallwahrscheinlichkeit eines Kredites geschätzt werden kann. Dabei werden auch moderne Verfahren zur Analyse von Paneldaten besprochen. Beispiele undInterpretationshilfen zu den jeweils vorgestellten Methoden erleichtern den Zugang zu diesen Modellen. Es werden zahlreiche Hinweise auf weiterführende Literatur gegeben.
Versicherungsunternehmen haben bei der Auswahl ihrer Vermögensanlagen die gesetzlichen Restriktionen des Versicherungsaufsichtsgesetzes einzuhalten. Neben einer strukturierten Darstellung der zahlreichen Regulierungstatbestände werden aus Sicht der Finanzierungstheorie sowie den empirischen Verhältnissen an den Kapitalmärkten die im VAG enthaltenen Rahmenbedingungen einer kritischen Bewertung unterzogen.
Vorgestellt wird eine empirische Studie, welche den Zusammenhang zwischen Rendite und Risiko für ein Sample deutscher Versicherungsaktien im Zeitraum 1975-1998 untersucht. Als Methode wurde ein Multifaktorenmodell mit makroökonomischen Faktoren verwendet. Je nach Untersuchungszeitraum beläuft sich der Anteil der erklärten Varianz auf 9,29% bis 13,62%. Es konnte eine signifikanter negativer Einfluß zwischen der Veränderung des allgemeinen Zinsniveaus und den Risikoprämien von Versicherungsaktien identifiziert werden. Weiterhin ist Wechselkurses der DM zum US-Dollar signifikant.
Der Ansatz des Infrastruktur-Netzwerkes bietet eine Möglichkeit, das Entstehen von Netzwerken und die Abhängigkeit von bestimmten Einflüssen auf die Struktur nachzuvollziehen. Trotz der komplexen Struktur scheinen dezentrale Ansätze ihre Berechtigung zu haben. Das deutlich schlechtere Abschneiden des statischen Ansatzes zeigt, wie wichtig Kommunikation zwischen den Akteuren ist. Da die umfangreiche Kommunikation trotz des recht einfachen Entscheidungsverhaltens gute Ergebnisse erzielt, wäre zu untersuchen, wie weit man bei Einschränkung der Kommunikation durch bessere Entscheidungsregeln ähnlich gute Ergebnisse erzielen kann. Die Frage, wie gut ein statischer Ansatz sein kann, ist sicher nicht endgültig beantwortet. Ob jedoch rein statische Ansätze ein realistisches Szenario darstellen und untersucht werden sollten, ist eine Frage, die hier nicht beantwortet werden kann. Das sehr gute Abschneiden von reinen Verbesserungsverfahren lässt auf eine relativ homogene Nachbarschaftsstruktur schließen. Des weiteren war zu beobachten, dass in größeren Netzen der relative Verlust durch Fehlentscheidungen tendenziell geringer ausfällt. Ein Ursache könnte sein, dass die zunehmende Dichte von Netzwerken zu Bündelungseffekten bezüglich der Transportleistungen führen. In einem nächsten Schritt wäre es interessant, intelligentere Entscheidungsregeln von Agenten in einem solchen Umfeld zu testen. Durch geeigneten Einsatz dieser ’internen Intelligenz’ bei eingeschränkter Kommunikation, ist es vielleicht möglich, zu schnelleren und effizienteren Lösungen zu finden, als es mit diesem Ansatz möglich war.
Im folgenden Beitrag wird zunächst die Entwicklung der personellen Einkommensverteilung in Deutschland zwischen 1993 und 1998 auf der Basis der Einkommens- und Verbrauchsstichproben (EVS) dargestellt. Dabei werden - ähnlich wie in früheren Analysen auf Basis der EVS und des Sozio-ökonomischen Panels (SOEP) - hoch aggregierte Indikatoren berechnet, mit denen die Informationsfülle einer Mikrodatenquelle zu nur einer Zahl bzw. zu einer eindimensionalen relativen Häufigkeitsverteilung verdichtet wird. In einem zweiten Schritt und schwerpunktmäßig wird untersucht, welche Verteilungsstrukturen sich hinter diesen Darstellungen der Gesamtverteilung verbergen.
Auch sechs Jahre nach Einführung der Vorschriften zur Ad-hoc-Publizität nach § 15 WpHG besteht bei den Unternehmen weiterhin große Unsicherheit bezüglich ihrer ordnungsmäßigen Umsetzung. Dies gilt insbesondere für die Behandlung von ad-hoc-meldepflichtigen Sachverhalten, die sich aus der Regelberichterstattung ergeben. Der vorliegende Beitrag entwickelt hierzu Lösungsansätze im Sinne einer kapitalmarktorientierten Unternehmenspublizität.
In den 1980er und den frühen 1990er Jahren waren japanische Banken die weltweit größten Finanzinstitute und galten als Inbegriff „globaler“ Banken. Der Crash der japanischen Wertpapier- und Immobilienmärkte Anfang der 1990er Jahre und die nachfolgende Rezession waren Anlass zu tiefgreifenden Reformen im japanischen Finanzsystem. Die japanischen Banken waren gezwungen, ihre internationalen Strategien zu reformulieren. Als Konsequenz zogen sie sich aus vielen Märkten zurück und strukturierten ihre internationalen Netzwerke um. Vor dem Hintergrund theoretischer Überlegungen zu der Bedeutung von „Globalität“ und einer empirischen Untersuchung der Entwicklung der Auslandsstellennetze japanischer Banken in den 1980er und 1990er Jahren stellt der vorliegende Beitrag die Globalität japanischer Banken in Frage.
Mängel bei der Abschlußprüfung : Tatsachenberichte und Analysen aus betriebswirtschaftlicher Sicht
(2001)
Unternehmenskrisen, „überraschende“ zumal, standen am Anfang der gesetzlichen Normierung der Abschlußprüfung in Deutschland. Es entspricht daher einem legitimen Anliegen von Öffentlichkeit und Fachwelt, die herrschende Maßstäblichkeit der Qualität von Abschlußprüfungen und die Glaubwürdigkeit4 von Abschlußprüfern insbesondere dann in gesteigertem Maße als Problem zu begreifen, wenn den gesetzlichen Schutzzwecken und Schutznormen der etablierten Abschlußprüfung zum Trotz Unternehmen in eine Krise geraten: Denn innerhalb der institutionellen Mechanismen ihrer Früherkennung – eines funktionalen Teils des deutschen Systems von corporate governance – gilt die Pflichtprüfung mit Recht als pivotales Element. Vieles an festzustellender Kritik mag hierbei einem der Komplexität der zu verhandelnden Sachzusammenhänge unüberbrückbaren Laienverständnis geschuldet sein; manches aber ist sicherlich erklärlich durch verbesserbare gesetzliche Vorschriften, zu lösende theoretische (ökonomische und rechtswissenschaftliche) Problemstellungen und eine zu fördernde gute Berufspraxis. Jüngste fragliche Mängel der Abschlußprüfung geben den Anlaß zu vorliegenden Tatsachenberichten und betriebswirtschaftlichen Analysen. Die getroffene Auswahl der Unternehmen ist hierbei ebenso willkürlich wie die der betroffenen Wirtschaftsprüfungsgesellschaften – nicht zufällig ist indes die Auswahl der betriebswirtschaftlichen Grundprobleme: Betreffen diese doch wesentliche Erwartungen an die Abschlußprüfung, die offenbar so regelmäßig enttäuscht wurden, daß selbst in Regierungsbegründungen von Gesetzesvorlagen nunmehr eine „sog. Erwartungslücke“5 bemüht wird. Die Erwartungslücken ergeben sich hierbei insbesondere aus der Vorstellung, daß (a) der gesetzliche Pflichtprüfer bei einer ordnungsmäßigen Prüfung zwingend doloses Handeln aufzudecken habe, daß (b) bilanzielle Wertansätze hinreichend zuverlässige Größen bilden, die über die Vermögenslage des Unternehmens berichten und schließlich (c) die Prüfung der tatsächlichen wirtschaftlichen Lage des Unternehmens und die Unterrichtung hiervon in Prüfungsbericht und Bestätigungsvermerk eine Selbstverständlichkeit der Pflichtprüfung sei. Diesen Erwartungen folgt der Gang der Untersuchung.
Eine spieltheoretische Analyse von Zulieferer-Abnehmer-Beziehungen auf Basis des JELS-Modells
(2001)
Im Rahmen wertorientierter Unternehmensführung gewinnen Erfolgsbeteiligungen immer größere Verbreitung. Besonders populär ist das EVA-Bonussystem, das auf dem Erfolgskonzept "Economic Value Added" von STERN STEWART & Co. beruht. In der vorliegenden Arbeit wird gezeigt, daß dieses Bonussystem gegen die Bedingung der Anreizkompatibilität verstößt: Der Entscheidungsträger kann finanzielle Vorteile erzielen, indem er Investitionsentscheidungen trifft, die aus Sicht der Anteilseigner nachteilig sind. Insbesondere besteht die Tendenz zur Unterinvestition. Die Darstellungen beruhen auf der Annahme, daß nicht nur die Anteilseigner zukünftige Einkünfte (bzw. Überschüsse) mit einem risikoangepaßten Zinssatz diskontieren, sondern auch der Entscheidungsträger. Zunächst werden die theoretischen Grundlagen dargestellt. Wenn bei gegebener Risikoklasse der Entscheidungsträger erwartete Prämien mit dem Kalkulationszinsfuß k +D diskontiert und die Anteilseigner erwartete Überschüsse des Leistungsbereichs mit k diskontieren, besteht bei einem im Zeitablauf konstanten Prämiensatz f und Überschußbeteiligung nur dann Anreizkompatibilität, wenn D= 0 gilt. Für D> 0 besteht die Tendenz zur Unterinvestition. Sie ist um so größer, je höher D ist und je später die potentiellen Projektüberschüsse anfallen. Bei Beteiligung am Residualgewinn ergeben sich dieselben Anreizwirkungen wie bei Überschußbeteiligung, sofern die kalkulatorischen Zinsen mit dem risikolosen Zinssatz r ermittelt werden. Werden sie mit k ermittelt, so wird (für k>r ) im Vergleich zu einer Überschußbeteiligung die Tendenz zur Unterinvestition ausgelöst (sofern D= 0) oder verstärkt (sofern D> 0). Die Tendenz zur Unterinvestition ist jeweils um so gravierender, je später aktivierte Anschaffungsauszahlungen als Abschreibungen zu verrechnen sind und je höher der für die Ermittlung der kalkulatorischen Zinsen auf die (Rest-)Buchwerte maßgebliche Zinssatz k ist. Der Economic Value Added stellt eine Konkretisierung des Residualgewinns dar. Auch bei dem darauf aufbauenden (EVA-)Bonussystem besteht die Tendenz zu Fehlentscheidungen (insbesondere zur Unterinvestition). Sie resultiert vor allem aus der Ermittlung der kalkulatorischen Zinsen mit dem risikoangepaßten Zinssatz k, den geforderten "Bereinigungen" bei der Ermittlung des investierten Kapitals bzw. des Periodenerfolges und gegebenenfalls der Wahl der Erfolgsänderung gegenüber dem Vorjahr als Bemessungsgrundlage.
Vor dem Hintergrund allgemeiner Bedingungen der Anreizkompatibilität wird für verschiedenen Kapitalmarktmodelle untersucht, ob zwischen den Anteilseignern eines Unternehmens Einmütigkeit besteht und, wenn ja, mit welchem Unternehmensziel der finanzielle Nutzen der Anteilseigner maximiert wird. Von besonderer Bedeutung für die Anreizkompatibilität der üblichen linearen Erfolgsteilung ist die Bedingung pareto-effizienter Risikoteilung. Sind für den Erfolg des Unternehmens spezifische Störterme relevant und soll der Entscheidungsträger in relativ starkem Umfang am Erfolg beteiligt werden, ist die Risikoteilung zwischen ihm und den (anderen) Anteilseignern pareto-inferior. Anreizkompatible erfolgsorientierte Belohnungs- bzw. Prämienfunktionen für den Entscheidungsträger sind dann konvex und zustandsabhängig. Aktienoptionsprogramme können als Approximationen an solche Prämienfunktionen interpretiert werden.
Motivation der Arbeit Die Motivation zur vorliegenden Arbeit beruht auf zwei herausragenden Charakteristika des deutschen Kapitalstocks. Dieser ist zum einen durch ein hohen Anteil der Wohnbauten gekennzeichnet. Wohnbauten unterscheiden sich in einiger Hinsicht deutlich von den Ausrüstungen sowie den übrigen Bauten und machen daher eine eigenständige Analyse ihrer Bestimmungsgründe erforderlich. Zum anderen fällt auf, daß die meisten Wohnungen Mietwohnungen sind und Deutschland damit im Vergleich mit westlichen Industrienationen eine geringe Eigentümerquote aufweist. Es soll daher die Besitzwahlentscheidung der Haushalte unter besonderer Berücksichtigung der Kosten unterschiedlicher Besitzformen untersucht werden. Längerfristige makroökonomische Entwicklung des Wohnungsbestandes In langer Sicht zeigt sich, daß die seit 1950 entstandenen Wohnungen nur zum Teil durch eine wachsende Bevölkerung erklärt werden können. Bedeutender sind hier veränderte Wohngewohnheiten, die einen höheren Wohnungsbestand erforderlich machen. Zum einen ist hier die Verringerung der Zahl der Haushalte zu nennen, die sich eine Wohnung teilen. Dieser Rückgang war besonders in der unmittelbaren Nachkriegszeit markant, setzte sich aber auch bis in die Gegenwart fort. Zum anderen hat sich die Haushaltsgröße von 3 Personen je Haushalt im Jahre 1950 auf 2,18 Personen im Jahre 1998 verringert. Mittelfristige regionale Entwicklung des Wohnungsbestandes Auffälligste Entwicklung der letzten Jahrzehnte ist der deutliche Rückgang fertiggestellter Wohnungen seit den 1970er Jahren bis 1987 und der danach beobachtbare Wiederanstieg. Zur Untersuchung der konjunkturellen Bestimmungsgründe dieser Entwicklung werden Längsschnitts-Querschnitts-Bauinvestitionsfunktionen für Bundesländer mit Methoden der Panelanalyse geschätzt. Als Investitionsindikator werden die realen Baugenehmigungen (in Kubikmetern umbauten Raums) pro Kopf der Bevölkerung herangezogen. Im Vergleich zu Spezifikationen, die den mit Tobins Q vergleichbaren Renditequotient als Exogene enthalten, zeigen sich hierbei Modelle, die stattdessen die Realzinsen berücksichtigen, im Hinblick auf die Anpassungsgüte ebenbürtig. Neben einem signifikanten Einfluß des Prokopfeinkommens zeigt sich ein signifikant negativer Einfluß der Bevölkerungsdichte und ein signifikanter Einfluß der geographischen Nord-Süd-Lage, mit höherer durchschnittlicher Investitionsaktivität der südlichen Bundesländer. Hierin kommt die besondere Lageabhängigkeit der Bauinvestitionen zum Ausdruck. Ferner zeigt sich, daß der Einkommenseinfluß signifikant von der Vermögensstruktur der untersuchten Einheiten abhängt: Je höher der Anteil des Finanzvermögens im Vergleich zum Wohnungsvermögen ist, umso geringer ist der Einfluß des Einkommens auf die Investitionsaktivität. Je liquider also die Vermögensstruktur der Einheiten ist, umso weniger ist ihre Investitionsaktivität vom laufenden Einkommen abhängig. Da das Einkommen als Indikator des Zustroms liquider Mittel gesehen werden kann, bestätigen sich damit für das Investitionsverhalten von Produktionsunternehmen vorliegende Befunde einer Liquiditätsabhängigkeit der Investitionen auch für die Wohnungsbautätigkeit. Das spricht auch dafür, daß der signifikante Einkommenseinfluß - zumindest nicht ausschließlich - Ausdruck eines Einkommenseffektes bei der Nachfrage nach dem Konsumgut Wohnung ist. Da allerdings daneben auch der Zinseinfluß bzw. der Einfluß des Renditequotienten bei den liquiden Einheiten geringer ausfällt, gewinnen in dieser Gruppe andere, einheitenspezifische und nicht explizit erfaßte Determinanten an Bedeutung. Diese Determinanten sind möglicherweise auch mit einem mesoökonomischen Modell nicht zu erfassen. Zusammenhänge zwischen dem verwendeten Investitionsindikator und der wohnungspolitisch relevanten Zahl neuer Wohnungen werden im Anschluß untersucht. Dabei zeigt sich zwar eine weitgehend gleichläufige Entwicklung beider Größen. Da jedoch einer gegebenen Menge umbauten Raumes sowohl im Zeit- als auch im Ländervergleich eine unterschiedliche Zahl neuer Wohnungen gegenübersteht, ist dieser Zusammenhang durch den Einfluß sich unterscheidender Baukonventionen überlagert. So gibt es etwa - besonders für die Aufschwungphase von 1987 bis 1994 - Hinweise auf "sparsameres" Bauen, wie etwa Einsparen von Nebenflächen und Verringerung der Wohnungsgrößen. Da die berechneten Effekte zudem in den Bundesländern mit unterschiedlichem Gewicht in Erscheinung treten, tragen diese nicht nur zu einer qualitativen Veränderung des Wohnungsbestandes im Zeitablauf, sondern auch zu einer qualitativen Differenzierung des regionalen Wohnungsbestandes bei. Wohnkosten und Besitzformwahl Im nächsten Abschnitt wird der Frage nachgegangen, welchen Einfluß die Kosten der Besitzformen Miete und Eigentum auf die individuelle Besitzformwahl der Haushalte haben. Datenbasis ist die Einkommens- und Verbrauchsstichprobe des Jahres 1993, die eine Fülle von haushalts- und wohnungsindividuellen Informationen enthält. Hierzu werden Mietkosten und Selbstnutzungskosten (ermittelt als Kapitalkosten des gebundenen Vermögens, haushaltsindividuellem Steuervorteil und Erhaltungsaufwand) gegenübergestellt. Für diese Gegenüberstellung ist es erforderlich, für Mieter hypothetische Selbstnutzungskosten, hier für den Fall des Kaufs der aktuell bewohnten Wohnung zu bestimmen. Für Eigentümer sind hypothetische Mietkosten für den Fall zu ermitteln, daß sie die eigene Wohnung mieteten. Es werden durchweg kalkulatorische Werte verwendet, was die Vergleichbarkeit von Mieter und Eigentümerhaushalten gewährleistet und auf beobachtete marktpreisbestimmende Faktoren abstellt. Mit befriedigender Anpassungsgüte werden hierzu mit einem Regressionsansatz, in den Lage- und Ausstattungsmerkmale der Wohnungen eingehen, ein deutschlandweiter Miet- und Verkehrswertspiegel geschätzt. Mit diesen läßt sich eine kalkulatorische Miete und das in der Wohnung gebundene Vermögen (kalkulatorischer Verkehrswert) sowohl für Mieter- als auch für Eigentümerhaushalte abschätzen. Bei der Berechnung der Kosten des gebundenen Eigen- und Fremdkapitals und des Steuervorteils kann auf die individuellen Angaben der Haushalte zugegriffen werden. Die Gegenüberstellung von Mietkosten und Selbstnutzungskosten für beide Haushaltsgruppen ergibt eine Kostendifferenz, die einer Rendite vor Wertsteigerungen entspricht. Deskriptive Analysen für Bundesländer und Einkommensgruppen zeigen, daß im Allgemeinen eine höhere Kostendifferenz mit einer höheren Eigentümerquote einhergeht. Dieser positive Zusammenhang bestätigt sich in einem Logit-Modell, in dem die Kostendifferenz eine gute Klassifikation von Mieter- und Eigentümerhaushalten ermöglicht. Auch nach Aufnahme weiterer in der Literatur berücksichtigter Variablen wie Haushaltsnettoeinkommen und soziodemographischen Variablen bleibt die Kostendifferenz die erklärungskräftigste Variable. Offenbar dienen diese Variablen bei weniger haushaltsindividueller Berechnung der Kosten- bzw. Rentabilitätsvariable auch als Proxies für bestimmte Kosten- bzw. Rentabilitätskomponenten. Eine nach Bundesländern und Einkommensgruppen disaggregierte Analyse der Modellergebnisse bestätigt die gute Klassifikationsgüte, weist aber auch auf noch fehlende Informationen zu den Motiven der Besitzwahlentscheidung hin. Steuerpolitische Implikationen einer unterschiedlichen Wohneigentumsförderung Die Steuervorteile aus der Nutzung selbstgenutzten Wohneigentums sind eine wichtige Komponente der berechneten Kostendifferenz. Um Erkenntnisse über den Einfluß unterschiedlicher steuerlicher Regelungen selbstgenutzten Wohnraums zu gewinnen, werden mikroökonomische Besteuerungsszenarien durchgeführt. Der im Jahre 1993 gültigen Regelung, die Abschreibungen im Rahmen von Höchstbeträgen und ein Baukindergeld vorsieht, werden folgende drei alternative Regelungen gegenübergestellt: (1) Die seit 1996 praktizierte Eigenheimzulage mit einer einkommensunabhängigen Förderung und einem Baukindergeld. (2) Die Gewährung eines Schuldzinsabzugs vom zu versteuernden Einkommen. (3) Die sogenannte Investitionsgutlösung, die auf einer Gewinn- und Verlustrechnung des Wohnungseigentümers beruht. Für jeden Haushalt der Datenbasis werden aufgrund seiner individuellen Situation die Steuervorteile und die Kostendifferenz berechnet, die er bei Gültigkeit der alternativen Regelung aufweisen würde. Mit dem oben geschätzten Logit-Modell wird die Besitzform bei Gültigkeit der alternativen Regelung vorhergesagt. Fehlklassifizierte Mieter, die zudem gemäß verschiedener Variablen als nicht kaufrestringiert eingeschätzt werden, gelten als potentielle Neueigentümer. Gemessen an der Zahl potentieller Neueigentümer erweist sich die Eigenheimzulage als am wohnungspolitisch effektivsten, hätte aber auch den höchsten fiskalischen Aufwand zur Folge. Da die Gewährung eines Schuldzinsabzuges und die Investitionsgutlösung eine geringere Zahl potentieller Neueigentümern mit sich bringen würden, dürfen diese Varianten in der hier unterstellten Ausgestaltung als wohnungspolitisch unergiebig eingestuft werden. Da von der Investitionsgutlösung auch die Alteigentümer betroffen wären, ist bei der hier untersuchten Ausgestaltung mit einer gegenüber dem Status Quo zusätzlichen Subventionierung dieser Gruppe in Höhe von 2,62 Mrd. DM zu rechnen, was wohnungspolitisch nicht zu rechtfertigen ist. Im Hinblick auf die Verteilung der potentiellen Neueigentümer zeigt sich in allen Szenarien, daß diese überwiegend den oberen Einkommensdezilen angehören. Im Vergleich mit den anderen Szenarien führt die Gewährung einer Eigenheimzulage in den unteren Einkommensdezilen, die eine geringe Eigentümerquote aufweisen, noch zur höchsten Zahl potentieller Eigentümer. Die Eigenheimzulage würde hier mit Abstand zur höchsten potentiellen Fördersumme in den unteren fünf Einkommensdezilen beitragen. In den östlichen Flächenstaaten reagiert die Anzahl potentieller Neueigentümer und der durchschnittliche Förderbetrag besonders deutlich auf die unterstellte Fördervariante. Die Eigenheimzulage führt hier zum höchsten Anteil potentieller Neueigentümer, was angesichts der dort niedrigen Eigentümerquote positiv zu beurteilen ist. In den westlichen Flächenstaaten dagegen führen alle betrachteten Fördervarianten der Tendenz nach zu einem hohen Anteil potentieller Neueigentümer in Ländern mit einer niedrigen Eigentümerquote. Im Hinblick auf die Wohnlagen findet der Tendenz nach bei allen Varianten eine stärkere Förderung von Zentren und zentrumsnahen Lagen mit bis zu 25 km Großstadtentfernung statt. Auch gemessen an diesem Verteilungskriterium führt die Eigenheimzulage zu einer geringsten Ausprägung des geschilderten Zentrum-Peripherie-Gefälles. Steuerpolitische Implikationen einer Kombination wohnungspolitischer Instrumente Zunächst zeigt sich, daß reine Begrenzungen des Schuldzinsabzuges wohnungspolitisch nicht effektiv sind. Erst durch eine Kombination mit einer Option auf eine einkommensunabhängige Mindestförderung (ähnlich der Eigenheimzulage, aber ohne Baukindergeld) erlangt die Gewährung eines Schuldzinsabzuges eine wohnungspolitische Effektivität. Die Zahl potentieller Neukäufer ließe sich bei jeweils gleichem fiskalischen Aufwand mit Mindestfördersätzen von knapp 3 Prozent gegenüber dem Status Quo und mit Mindestfördersätzen von rund 3,5 Prozent gegenüber der Eigenheimzulage erhöhen. Die Investitionsgutlösung wird durch das Instrument eines begrenzten Schuldzinsabzuges bzw. eines weiteren Mietzinszuschlages, jeweils kombiniert mit einem Mietgewinnfreibetrag variiert. Zur Erreichung von Aufkommensneutralität bei den Alteigentümern müßte der Schuldzinsabzug drastisch reduziert werden. Mit Mietzinszuschlägen gelangt man ohne Gewährung eines Mietgewinnfreibetrages bei einem Zuschlagsatz von 0,9 Prozentpunkten und bei Gewährung eines Freibetrages von 5.000 DM p.a. bei einem Zuschlag von etwa 2,5 Prozentpunkten zu einer aufkommensneutralen Position der Alteigentümer. Die Investitionsgutlösung wird sodann so ausgestaltet, daß sie für Alteigentümer aufkommensneutral ist. Hierzu wird auf die obigen Erkenntnisse zurückgegriffen und es werden drei verschiedene aufkommensneutrale Kombinationspunkte von Mietzinszuschlag und Mietgewinnfreibetrag gewählt. Potentielle Neueigentümer können auf Ansatz ihres (negativen) Mietgewinnes oder auf die Mindestförderung optieren. Eine gleiche Zahl potentieller Neueigentümer wie im Status Quo würde sich - bei niedrigerer potentieller Fördersumme - bei einem Mindestfördersatz von 2,8 Prozent ergeben. Die schon hohe Zahl potentieller Neueigentümer in der Eigenheimzulage ließe sich - wiederum bei niedrigerer potentieller Fördersumme - bei einem Mindestfördersatz von 3,4 Prozent erreichen und gleichzeitig ein höheres Maß an Gleichheit bei der Verteilung der Fördersummen über die Einkommensdezile erreichen. Bei derart hohen Mindestfördersätzen würde allerdings die größte Zahl potentieller Neueigentümer auf die Mindestförderung optieren, so daß hier praktisch nicht mehr von einer Investitionsgutlösung gesprochen werden kann. Belastet man die Alteigentümer mit per Saldo 2 Mrd. DM so ergeben sich vergleichbare Ergebnisse. Der Fiskus wird dann aber in die Lage versetzt, bei Aufkommensneutralität insgesamt höhere Fördersätze zu gewähren. Resümee Bei der Eigenheimförderung steht das eigenständige wohnungspolitische Ziel einer hohen Eigentümerquote klar im Vordergrund, da andere Zielsetzungen schwierig zu begründen sind. Die durchgeführten Szenarien geben Hinweise darauf, daß mit einer einkommensunabhängigen Förderung dieses Ziel am effektivsten erreicht werden kann. Eine vollständige Verteilungsgleichheit läßt sich allerdings nicht herstellen. In allen Szenarien bleiben die Bezieher höherer Einkommen bevorteilt, wenn auch das Ausmaß der Ungleichheit zwischen den gerechneten Varianten erheblich variiert. Auch hier kommt eine einkommensunabhängige Mindestförderung zu günstigen Ergebnissen und würde zudem die Chance bieten, die seit Jahrzehnten bestehende deutliche Konzentration der Fördermittel auf die oberen Einkommensgruppen abzuschwächen. Eine eindeutige wohnungspolitische Ausrichtung würde zudem den Verzicht auf die familienpolitische Komponente eines Baukindergeldes nahelegen, das Bestandteil der derzeit praktizierten und fast aller vorherigen Förderarten war. Aus den Szenarien gibt es Hinweise darauf, daß einem Verzicht auf diese Komponente bei gleicher wohnungspolitischer Effektivität ein reduzierter fiskalischer Aufwand gegenübersteht. Dagegen stehen allerdings die offenbar mit der Wohnungspolitik immer fest verknüpften familienpolitischen Überlegungen. Bei alledem ist die Stärkung der Nachfrage nach selbstgenutztem Wohnraum vor dem Hintergrund der im ersten Teil der Arbeit aufgezeigten lang- und mittelfristigen, demographischen, ökonomischen und regionalen Rahmenbedingungen der Wohnungsbauaktivität nicht unproblematisch. Stößt diese zusätzliche Nachfrage auf ein starres Angebot, resultieren allenfalls Preissteigerungen, die wiederum eine Erhöhung der Eigentümerquote im Wege stehen und auch aus verteilungspolitischer Sicht nicht wünschenswert sind.
Die Struktur der Gesetzlichen Rentenversicherung (GRV) in der Bundesrepublik Deutschland ist grundsätzlich geändert worden. Die Bundesregierung hat die Einführung einer zusätzlichen privaten Alterssicherung auf freiwilliger Basis beschlossen. Hierdurch soll ein Kapitalstock gebildet werden, der die Leistungen der GRV ergänzt. Zur Förderung dieser Systemänderung der Alterssicherung werden umfangreiche fiskalische Unterstützungsmaßnahmen eingeführt. Im Rahmen des hier vorliegenden Beitrags wird auf die besondere Situation der Familien mit Kindern eingegangen. Im zweiten Abschnitt wird untersucht, inwieweit Familien mit Kindern in den letzten zehn Jahren in Deutschland in der Lage waren, privates Vermögen aufzubauen. Im dritten Abschnitt werden die beabsichtigten Änderungen des Systems der gesetzlichen Rentenversicherung in den Grundzügen dargestellt, und es wird ein Überblick über die geplanten fiskalischen Fördermaßnahmen gegeben. Im abschließenden vierten Abschnitt wird eine Bewertung der Änderungen vor allem in Bezug auf die Situation von Familien versucht.
Im Zentrum des Schwerpunktes stehen die Beschreibung, Erklärung und Gestaltung von Informationserstellungs- und -verarbeitungsprozessen, insbesondere soweit sie durch moderne Informations- und Kommunikationstechniken unterstützt werden. Diese Prozesse dienen zum einen der unmittelbaren Bedürfnisbefriedigung durch Information sowie zum anderen der Koordination physischer Wertschöpfung. Die schnelle Fortentwicklung der IuK-Systeme sowie die rasante Verbreitung ihrer Nutzung führen vielfach zu tief greifenden Veränderungen der Geschäftsabläufe und darüber hinaus des gesellschaftlichen Lebens. Aufgabe des Schwerpunktes ist hierbei, die Nutzenpotenziale neuer Informations- und Kommunikationstechniken sowie deren Anwendung insbesondere in Wirtschaft und Verwaltung zu analysieren und eigene Gestaltungsvorschläge zu unterbreiten. Dies gilt auch für die Gestaltung und Auswahl der institutionellen Rahmenbedingungen von Informationserstellungs- und - verarbeitungsprozessen.
Während sich die Entwicklungsfinanzierung in Theorie und Praxis generell mit dem Finanzwesen in Entwicklungs- und Transformationsländern befasst, steht im Teilgebiet der Microfinance die Frage im Vordergrund, wie in diesen Ländern der Zugang ärmerer Bevölkerungsgruppen und speziell von Klein- und Kleinstunternehmer(innen), Kleinbauern und sonstigen wirtschaftlich Selbständigen aus eher niedrigen sozialen Schichten zu Kredit und anderen Finanzdiensleistungen verbessert werden kann. Obwohl es einige Vorläufer gibt, die schon früh die allgemeine Politik der Entwicklungsländer bezüglich ihrer Finanzsektoren und ebenso die dazu passende Entwicklungshilfe-Politik der Industrieländer der 60er und 70er Jahre mit ökonomisch-theoretischen Argumenten scharf kritisiert haben,1 waren in der Vergangenheit weder Entwicklungsfinanzierung im allgemeinen noch Microfinance im besonderen ein wirklich ernst genommener Gegenstand der ökonomischen Literatur, die man zum mainstream rechnen kann. Dem entspricht es, dass sich auch die Praxis der Entwicklungsfinanzierung sehr lange weitgehend unabhängig von ökonomisch- theoretischen Überlegungen vollzogen hat. Diese Situation hat sich seit mehr als einem Jahrzehnt grundlegend verändert. Dies hat einen wesentlichen Grund darin, dass sich in der entwicklungspolitischen Praxis auf dem Gebiet der Finanzierung von Klein- und Kleinstbetrieben, eben Microfinance, Erfolge erzielen ließen, die vorher unvorstellbar waren. Mit einer deutlichen commercial orientation und einer Ausrichtung auf die genuinen Probleme des financial institution building konnte erreicht werden, dass es inzwischen einige Dutzend Finanzinstitutionen in Entwicklungs- und Transformationsländern gibt, die ökonomisch stabil und sogar profitabel sind und mit ihrem Leistungsangebot eine große Anzahl von "armen" Kunden erreichen, die bei den Kreditabteilungen der herkömmlichen Banken kaum über die Schwelle gelassen würden.2 Dies hat die Aufmerksamkeit von Forschern aus dem mainstream erweckt. Mindestens ebenso wichtig sind aber die immanenten Entwicklungen innerhalb der ökonomischen Theorie. Mit ihrer Hinwendung zum institutionalistischen Denkansatz hat die Wirtschaftstheorie auf einmal eine neue Aufmerksamkeit für die Phänomene entwickelt, die für die Praktiker der Entwicklungsfinanzierung seit langem von zentraler Bedeutung sind: Inzwischen kann man theoretisch nachweisen, dass es in der Tat Zugangsprobleme zu Kredit für "kleine Leute" gibt, dass das Angebot von Kredit für sie beschränkt ist und dass es nicht genügt, einfach nur staatlich auferlegte Restriktionen – die so genannte financial repression – zu beseitigen, um ....
Durch Prozessverbesserungen ist es möglich, den Ressourcenverbrauch einer Unternehmung zu reduzieren, ohne an den Eigenschaften des erstellten Gutes Abstriche vornehmen zu müssen. Intuitiv ist ersichtlich, dass eine bessere Ausnutzung der vorhandenen Ressourcen vorteilhaft für die Unternehmung ist. Mit dem Übergang zur Informationsgesellschaft stellt sich die Frage, inwiefern traditionelle Verfahren zur Prozessverbesserung sich auf die immer bedeutender werdende Ressource „Wissen“ anwenden lassen. Hat Wissen in Verfahren zur Erstellung physischer Güter noch eine nur unterstützende Funktion, so stellt es in Branchen, deren Focus in der Entwicklung von Wissen liegt, den wichtigsten „Produktionsfaktor“ dar. In vorliegendem Text wird der Versuch unternommen, bekannte Verfahren zur Qualitätsverbesserung von Prozessen dahingehend zu betrachten, inwieweit sie für eine Anwendung auf den Umgang mit Wissen geeignet sind. Dazu erfolgt eine Darstellung grundlegender Begriffe, gefolgt von Kriterien, anhand derer die Qualität von Wissensprozessen beurteilt werden kann. Danach werden verschiedene Qualitätsverbesserungsverfahren dargestellt und ihre Eignung zur Anwendung auf Wissensprozesse beurteilt. Abschließend findet sich ein Ausblick darauf, in welchen Gebieten weitere Überlegungen zu diesem Thema angebracht sind. Hingewiesen werden muss auf dem Umstand, dass vorliegende Arbeit aus Platzgründen einige mehr oder minder starke Reduzierungen enthält. Bekannte Qualitätsverbesserungsverfahren wurden in verschiedene Kategorien eingeteilt, aus diesen Kategorien wurden dann exemplarisch einige Verfahren für die nähere Betrachtung ausgewählt. Einen Anspruch auf Vollständigkeit erhebt der vorliegende Text somit nicht. Auch die Kategorisierung kann nicht als allgemeingültig angesehen werden, da die meisten Qualitätsverbesserungsverfahren starke Unterschiede aufweisen und somit das Einordnen in ein einheitliches Schema erschweren. Dennoch wurden gemeinsame Merkmale identifiziert und zur Bildung von Kategorien verwandt.
Pensions- und Finanzsysteme in Europa : ein Vergleich unter dem Gesichtspunkt der Komplementarität
(2001)
Die Debatte über die optimale Ausgestaltung der Alterssicherung wird in jüngster Zeit äußerst kontrovers und hitzig geführt. Dabei scheint uns ein zentraler Aspekt nicht genügend beachte zu werden: Welcher Zusammenhang besteht zwischen den Merkmalen des Finanzsystems und des Pensionssystems eines Landes? Weil dieser Zusammenhang wichtig sein könnte, wird in diesem Beitrag untersucht, ob es Unterschiede zwischen den Finanz- und Pensionssystemen in drei großen europäischen Ländern, Deutschland, Frankreich und Großbritannien, gibt, ob sich diese Unterschiede in charakteristischer Weise entsprechen und ob sich über diese Entsprechungen hinaus auch Wechselwirkungen zwischen dem Finanzsystem und dem Pensionssystem eines Landes nachweisen lassen.
Zur Beantwortung dieser Fragen wird in einem ersten Schritt kurz die Unterschiedlichkeit der Finanz- und Pensionssysteme zwischen den drei Ländern skizziert, und es werden parallelen zwischen diesen Unterschieden nachgewiesen. Daran anschließend werden die Zusammenhänge zwischen der Ausgestaltung der gesetzlichen Alterssicherung und der volkswirtschaftlichen Risikoallokation sowie der Ausgestaltung der betrieblichen Alterssicherung für die Unternehmensstrategien, -finanzierung und –verfassung betrachtet. Dabei lässt sich zeigen, dass es sowohl in Deutschland als auch in Großbritannien eine – wenn auch vollkommen unterschiedlich ausgeprägte – Komplementarität zwischen Finanz- und Pensionssystem gibt, während sich ein solcher Zusammenhang für Frankreich nicht konstatieren lässt. Abschließend werden wirtschaftspolitische Implikationen dieses Zusammenhangs angesprochen
Der vorliegende Beitrag zeigt auf, wie hedonische Preisindizes für Immobilien auf der Basis von Transaktionen berechnet werden können. Der Heterogenität der Immobilien wird dabei durch ein ökonometrisches Modell Rechnung getragen, wobei in dieser Arbeit das Problem der Wahl einer geeigneten Funktionsform durch eine Transformation nach dem Ansatz von Box/Cox (1964) explizit berücksichtigt wird. Die Datenbasis deckt etwa 65% der Transaktionen des Wohnungsmarktes im Zeitraum 1990-1999 ab. Die Korrektur aufgrund unvollständiger Angaben führt zu einem Datensatz von 84 686 Transaktionen. Dieser Datensatz ist ein Vielfaches dessen, was bisher vergleichbaren Studien zugrunde lag und stellt damit eine international einmalige Datengrundlage dar.
Die vorliegende Arbeit beleuchtete ein bisher in der Finanzwissenschaft weitgehend unbeachtetes Thema.: die Ausgaben für staatliches Personal. Der Fokus lag dabei auf den von den acht westdeutschen Flächenländern getätigten Ausgaben. Ziel war es, Gemeinsamkeiten und Unterschiede in der Entwicklung, der Höhe und der Struktur der Personalausgaben über einen Zeitraum von 26 Jahren, von 1970 bis 1996, herauszuarbeiten. Weiterhin wurden die insbesondere seit Mitte der neunziger Jahre verstärkten Aktivitäten der Länder zur Begrenzung bzw. dem effizienteren Einsatz der Personalausgaben untersucht. ...
In diesem Beitrag zur Frage nach dem Ausmaß von Einkommensarmut von Familien stehen zwei Aspekte im Mittelpunkt. – Zum einen ist im Vorfeld von Verteilungsanalysen die Art der Einkommensgewichtung in Mehrpersonenhaushalten zu klären. Nach Abwägung verschiedener Ansätze zur Ableitung einer Äquivalenzskala wurde eine Präferenz für ein institutionell orientiertes Gewichtungsschema, approximiert durch die alte OECD-Skala, begründet. – Zum anderen wurde der Einfluss der Frauenerwerbsbeteiligung auf die Einkommenssituation von Familien mit Kindern empirisch untersucht. Von prekären Einkommensverhältnissen und Einkommensarmut sind vor allem Familien mit geringfügig beschäftigter oder nichterwerbstätiger Partnerin sowie Alleinerziehende – Letztere wiederum bei fehlender Erwerbstätigkeit besonders stark – betroffen, wobei in den neuen Ländern die Situation wesentlich brisanter ist als in den alten Ländern. Bei politischen Maßnahmen sollten Erwerbswünsche der Frauen und Bedürfnisse der Familien berücksichtigt werden. Von daher sind Transfers im Rahmen des Familienleistungsausgleichs und die öffentliche Förderung von Kinderbetreuungseinrichtungen nicht als konkurrierende, sondern eher als komplementäre Konzepte zu diskutieren.