Refine
Year of publication
Document Type
- Part of Periodical (291)
- Working Paper (190)
- Book (95)
- Report (45)
- Contribution to a Periodical (44)
- Article (43)
- Doctoral Thesis (35)
- diplomthesis (8)
- Periodical (8)
- Conference Proceeding (7)
Language
- German (783) (remove)
Is part of the Bibliography
- no (783) (remove)
Keywords
- Financial Institutions (43)
- Deutschland (40)
- Capital Markets Union (29)
- Financial Markets (26)
- ECB (24)
- Macro Finance (22)
- Banking Regulation (21)
- Banking Supervision (20)
- Banking Union (18)
- Household Finance (18)
Institute
- Wirtschaftswissenschaften (783) (remove)
Im Rahmen eines Börsen-Großexperiments anlässlich der Fußball-WM 1998 untersuchen wir den Einfluss von Aktienbetreuern auf die Marktliquidität. Die Marktformen des kontinuierlichen Handels, eines Systems mit einem monopolistischen Aktienbetreuer und mit konkurrierenden Betreuern wurden durch einen Gruppenvergleich unterschiedlich betreuter Aktien analysiert. Die Liquidität wurde mit Hilfe des bid-ask-Spreads und der inversen Markttiefe gemessen, einer Kenngröße zur Charakterisierung der Preis-Mengen-Relation der Liquidität. Wir finden, dass die betreuten Märkte liquider sind als die unbetreuten, und die konkurrierende Betreuung mehr Liquidität generiert als die eines Monopolisten. Nach kursrelevanten Informationsereignissen kehrten die Spreads in den betreuten Märkten schneller zu ihrem normalen Niveau zurück. Durch Rekonstruktion der nichtanonymen Orderbücher konnte der direkte Einfluß der Betreuer auf die Liquidität von den Beiträgen der übrigen Marktteilnehmer separiert werden. Interessanterweise zeigt sich, dass nur ein Teil der Liquiditätsverbesserung mit den Orders der Betreuer erklärt werden kann. Demnach stünden die Liquiditätsbereitstellung durch Betreuer und die der anderen Marktteilnehmer nicht in einer konkurrierenden, sondern komplementären Beziehung zueinander.
In den letzten Jahren wurden verschiedene Modelle entwickelt, um das Ausfallrisiko von Banken unter Berücksichtigung von Portfolioeffekten zu quantifizieren. Bisher hat sich kein Ansatz als allgemein akzeptierter Standard durchsetzen können. Da die Modelle grundlegende konzeptionelle Unterschiede aufweisen und unterschiedliche empirische Inputdaten verwenden, hat die Auswahl eines Kreditrisikomodells unter Umständen einen erheblichen Einfluß auf die Kreditportfoliosteuerung der Bank. In diesem Beitrag soll deshalb geklärt werden, ob die Modelle systematisch abweichende Value-at-Risk-Werte berechnen und worin die Ursachen für auftretende Abweichungen liegen. Zunächst wird gezeigt, daß die bestehenden Kreditrisikomodelle in zwei grundlegende Klassen eingeteilt werden können: Assetwert-basierte Modelle und auf Ausfallraten basierende Modelle. Am Beispiel eines Musterportfolios von Krediten an deutsche Baufirmen werden zwei Vertreter der Modellklassen (CreditMetrics und CreditRisk+) verglichen und der Effekt der unterschiedlichen empirischen Inputparameter auf die Risikoergebnisse abgeschätzt. Die Analyse zeigt erhebliche Unterschiede zwischen den Modellen. Eine Analyse der Abweichungsursachen ergibt allerdings, daß der Grund für die großen Value-at-Risk-Unterschiede in erster Linie in den unterschiedlichen empirischen Inputdaten liegt, welche zu unterschiedlichen impliziten Korrelationsannahmen führen. Es wird gezeigt, wie die Modellparameter gewählt werden müssen, um identische Korrelationen zu erzeugen. Bei konsistenten Korrelationsannahmen stimmen die Ergebnisse beider Modelle weitgehend überein. Keywords: Credit Risk Models, credit risk correlation
Thesenförmige Zusammenfassung der Untersuchungsergebnisse (1) Der Begriff der Finanzinstrumente untergliedert sich in originäre und derivative Finanzinstrumente und umfaßt somit alle Außenfinanzierungsbeziehungen sowie daraus abgeleitete Geschäfte. (2) Finanzderivate sind im Unternehmen zur Steuerung von Marktrisiken einsetzbar. Schwerpunkte des Einsatzes von Finanzderivaten bilden das Hedging, die Spekulation und die Arbitrage. (3) Zur bilanziellen Abbildung derivativer Finanzinstrumente enthält das deutsche Handelsrecht - von Vorschriften zur Fremdwährungsumrechnung bei Kreditinstituten abgesehen - keine expliziten Regelungen. Die Bilanzierung unternehmerisch eingesetzter Finanzderivate richtet sich daher nach den allgemeinen Bilanzierungsnormen, d.h. nach kodifizierten wie nicht kodifizierten GoB unter Orientierung am Sinn und Zweck des handelsrechtlichen Jahresabschlusses. Dieser besteht in der Ermittlung eines entziehbaren Betrages unter Beachtung der Interessen von Gesellschaftern und Unternehmensgläubigern; der Informationsvermittlung kommt de lege lata nur eine Nebenfunktion zu. (4) Die Bilanzierung spekulativer, d.h. nicht zu Sicherungszwecken eingesetzter Finanzderivate läßt sich innerhalb des GoB-Gefilges prinzipiengerecht lösen: Der Einzelbewertungsgrundsatz gebietet die bilanzielle Isolation von anderen Bilanzierungsobjekten, das Realisationsprinzip untersagt die erfolgswirksame Berücksichtigung festgestellter Marktwerterhöhungen, das Imparitätsprinzip erfordert die aufwandswirksame Antizipation von (Markt-)Bewertungsverlusten. (5) Schwierigkeiten bereitet eine GoB-konforme Bilanzierung sichernder Finanzderivate aufgrund einer offenen Dissonanz zwischen strengem EinzeIbewertungsgrundsatz und dem Prinzip der wirtschaftlichen Betrachtungsweise. Die aktuelle Bilanzierungspraxis sowie der überwiegende Teil des handelsrechtlichen Schrifttums versucht dieses Problem durch Einschaltung bilanzieller Bewertungseinheiten zu lösen. Hierzu werden - je nach verfolgter Bewertungseinheiten-Konzeption - auf unterschiedlichen Aggregationsebenen (Mikro-, Portfolio- oder Makro-Ebene) Finanzinstrumente zu Zwecken der bilanziellen Bewertung zusammengefaßt und saldiert bewertet. Lediglich ein verbleibender Bewertungsverlustüberhang ist gemäß dem Imparitätsprinzip aufwandswirksam zu erfassen; Bewertungsgewinnüberhänge bleiben nach dem Realisationsprinzip unberücksichtigt. Im Falle von Makro-Bewertungseinheiten soll eine Bewertung gänzlich unterbleiben. Um Eingang in eine bilanzielle Bewertungseinheit zu finden, sollen Finanzinstrumente verschiedene objektive und subjektive Anforderungskriterien erfiillen, welche jedoch hinsichtlich Qualität und Quantität innerhalb des Schrifttums in unterschiedlicher Strenge gesehen werden. (6) Sämtliche Bewertungseinheiten sind kritikwürdig auf grund mangelnder konzeptioneller Stringenz sowie aufgrund des großen Spielraums, der dem Bilanzierenden zur Gestaltung des Jahresergebnisses zwar nicht willentlich, jedoch faktisch eingeräumt wird. Die herrschenden Bewertungseinheiten-Konzepte sind de laga lata fragwürdig und teilweise abzulehnen. Sie eignen sich ebenfalls nicht als Ausgangsbasis für eine am Sinn und Zweck des handelsrechtlichen Jahresabschlusses ausgerichtete Bilanzierungsmethode de lege ferenda. (7) Die internationalen Rechnungslegungsstandards US-GAAP und lAS weisen neben Vorschriften bezüglich einer detaillierten Berichterstattung über finanzinstrumentelle Engagements auch explizite Normen zur Bilanzierung von Finanzinstrumenten auf Die Entwicklung bewegt sich hier in Richtung umfassender Vorgaben sowie einer breiten Marktbewertung. Gleichwohl ergeben sich Grenzen durch ein nach wie vor institutionalisiertes Hedge-Accounting und eine an Zwecksetzungen des Bilanzierenden ausgerichtete bilanzielle Vorgehensweise. Aus deutscher Sicht ist den derzeit bestehenden internationalen Standards zur Bilanzierung von Finanzinstrumenten weder de lege lata noch de lege ferenda zu folgen. (8) Hervorgehoben durch ein Diskussionspapier des lASC aus dem Jahre 1997 ergibt sich als stringente Methode zur bilanzielIen Abbildung originärer und derivativer Finanzinstrumente eine vollumfilngliche, ergebniswirksame Marktwertbilanzierung (reine Marktwertbilanzierung). Diese erfordert den BiJanzansatz jedes Finanzinstruments zum aktuellen Marktwert sowie die unmittelbar erfolgswirksame Erfassung festgestellter Bewertungsgewinne und -verluste. Die beachtlichen Vorzüge der reinen Marktwertbilanzierung bestehen in einem gänzlichen Verzicht auf die Bildung von Bewertungseinheiten bzw. auf ein Hedge-Accounting, wodurch bilanzielle Gestaltungsspielräume spürbar eingedämmt werden. Weiterhin zeichnet sich die reine Marktwertbilanzierung durch einen Ansatz aus, welcher originäre und derivative Finanzinstrumente sowohl der Aktiv- als auch der Passivseite gleichermaßen umfaßt, der Methodik der innerbetrieblichen Steuerung und Kontrolle von Finanzinstrumenten entspricht, eine verbesserte Informationsgewährung durch Bilanz und Gewinn- und Verlustrechnung ermöglicht und eine unkomplizierte Umsetzung gewährleistet. (9) Eine Rezeption der reinen Marktwertbilanzierung fiir Finanzinstrumente ist de lege lata aufgrund eindeutig entgegenstehender Gesetzesnormen nicht möglich. Indessen bildet die reine Marktwertbilanzierung eine de lege ferenda interessante Methode zur bilanziellen Abbildung derivativer und originärer Finanzinstrumente. Zur Übernalnne in die handelsrechtliche Rechnungslegung erfordert die reine Marktwertbilanzierung in erster Linie ein geändertes Verständnis des Realisationssowie des Imparitätsprinzips. Dies kann erreicht werden durch die Annalnne der Marktbewertung als Realisationstatbestand, eine ausgeprägte Abschlußstichtagsbetrachtung sowie die Befiirwortung der Eindämmung stiller Reserven. Insgesamt läßt sich zeigen, daß eine reine Marktwertbilanzierung konzeptionell zunächst nicht im Widerspruch zu Gläubiger- oder Gesellschafterinteressen steht. Gleichwohl konkretisieren sich die Schwachpunkte und damit das Scheitern einer reinen Marktwertbilanzierung an maßgeblichen Objektivierungsrestriktionen: Die Existenz eines Marktes für das zu bilanzierende Finanzinstrument, die Bewertbarkeit des Finanzinstruments durch den Markt sowie die sichere Realisierbarkeit festgestellter Bewertungsergebnisse stellen Voraussetzungen dar, welche zwar zu einer erfolgswirksamen Erfassung von Marktbewertungsergebnissen zu fordern sind, in Fällen bestimmter Finanzinstrumente hingegen nicht erfüllt werden. (10) Die streng vorsichtige Marktwertbilanzierung stellt eine Alternativmethode zur bilanziellen Abbildung von Finanzinstrumenten de lege ferenda dar, welche auf der reinen Marktwertbilanzierung autbaut. Kennzeichnend ist bier der Ansatz von Finanzinstrumenten zu ihrem Marktwert und die Erfassung festgestellter Bewertungsergebnisse auf einem bilanziellen Sonderposten zu Zwecken der Wertkompensation. Ein nach Saldierung auf diesem Sonderposten verbleibender Bewertungsverlustüberhang ist aufwandswirksam zu erfassen, während ein Bewertungsgewinnüberschuß erfolgsneutral abgegrenzt wird. Weiterhin sind nicht objektiv bewertbare Finanzinstrumente nach dem bisherigen Verständnis des Vorsichtsprinzips einzeln zu bilanzieren. Diese Bilanzierungsmethode weist gegenüber der überkommenen handelsrechtlichen Bilanzierung im wesentlichen die gleichen Vorteile wie die reine Marktwertbilanzierung auf: ist allerdings der gewachsenen handelsrechtlichen Denkweise eher verwandt. Konzeptionelle Schwächen der streng vorsichtigen Marktwertbilanzierung liegen in geringfiigigen bilanziellen Gestaltungsspielräumen sowie in einer kategorischen Ablehnung der Ertragswirksamkeit sämtlicher überschießenden Bewertungsgewinne. (11) Eine ,,Mischung" aus reiner und streng vorsichtiger Marktwertbilanzierung bildet die gemildert vorsichtige MarktwertbiIanzierung, welche im Rahmen dieser Arbeit als Methode zur Bilanzierung derivativer und originärer Finanzinstrumente de lege ferenda befiirwortet wird. Wesensmerkmal dieser Konzeption ist die an der Bewertungsqualität der zu bilanzierenden Finanzinstrumente ausgerichtete Vorgehensweise. Im Rahmen verschiedener Typisierungen von Anforderungskriterien sowie Ausnahmetatbeständen gestaltet sich die gemildert vorsichtige Marktwertbilanzierung im wesentlichen dreistufig: Finanzinstrumente höchster Bewertungsqualität, i.e. die meisten standardisierten Finanzinstrumente sowie nicht standardisierte Finanzinstrumente, welche unproblematisch duplizierbar (und damit glattstellbar) sind, machen einen Bilanzansatz zu M,arktwerten erforderlich; positive wie negative Marktwertänderungen werden erfolgswirksam erfaßt. Finanzinstrumente, die zwar objektiv bewertbar sind, deren unverzügliche GlattsteIlbarkeit jedoch als nicht gesichert angesehen werden kann, sind zu Marktwerten zu bilanzieren; Bewertungsverluste erlangen Aufwandswirksamkeit, und Bewertungsgewinne sind, soweit sie nach Wertkompensation verbleiben, erfolgsneutral abzugrenzen. Finanzinstrumenten ohne Sekundärmarkt bzw. ohne objektive Bewertbarkeit bleibt eine Marktbewertung verwehrt; diese sind nach dem geltenden Verständnis des Imparitätsprinzips einzeln zu bilanzieren. Die Vorzüge der gemildert vorsichtigen Marktwertbilanzierung für Finanzinstrumente gegenüber den ad legern latam vorgeschlagenen Bilanzierungsmethoden entsprechen grundSätzlich denen der reinen Marktwertbilanzierung, wobei die gemildert vorsichtige Marktwertbilanzierung auf grund ihrer differenzierenden Behandlung die Probleme der reinen Marktwertbilanzierung zusätzlich zu lösen vermag. Der hauptsächliche Nachteil der gemildert vorsichtigen Marktwertbilanzierung besteht in ihrer mitunter komplizierten Umsetzbarkeit. (12) Zinsswaps und Forward Rate Agreements (FRAs) verkörpern finanzwirtschaftlich Zinsderivate mit symmetrischem Risikoprofil und zivilrechtlich synallagmatische, schwebende Geschäfte. Weiterhin sind diese Instrumente anhand verfiigbarer Marktdaten mittels eines finanzwirtschaftlichen Modells objektiv und unkompliziert zu bewerten und zudem unverzüglich glattstellbar. Die Bilanzierung von Zinsswaps und FRAs ergibt sich de lege lata gemäß weitgehend eindeutiger GoB-Ausrichtung. Unter Anwendung der gemildert vorsichtigen Marktwertbilanzierung de lege ferenda ist für beide Finanzinstrumente die uneingeschränkt erfolgswirksame Bi1anzierung zu Marktwerten zu befürworten. (13) Zinsbegrenzungsvereinbarungen stellen optionsbasierte Finanzinstrumente mit einem mithin asymmetrischen Risikoprofil dar. Zu ihrer Bewertung ist ein Optionspreismodell heranzuziehen, welches zwar grundsätzlich eine objektive und marktorientierte Wertermittlung ermöglicht, jedoch einem Bereich noch nicht abgeschlossener finanzwirtschaftlicher Forschung entspringt. Zudem kann eine unverzügliche und unkomplizierte Glattstellbarkeit von Zinsbegrenzungsvereinbarungen nicht als gewährleistet angesehen werden. Die handelsrechtliche Bilanzierung von Zinsbegrenzungsvereinbarungen erfolgt unter weitgehend systematischer GoB-Orientierung. Nach Umsetzung der gemildert vorsichtigen Marktwertbilanzierung ergibt sich die Bilanzierung von Zinsbegrenzungsvereinbarungen zu ihrem modellmäßig ermittelten Marktwert, wobei lediglich Bewertungsverluste vollständige Erfolgswirksamkeit erfahren. Bewertungsgewinne, welche über eine Kompensation mit den Bewertungsverlusten anderer Finanzinstrumente hinausgehen, sind hingegen erfolgsneutral abzugrenzen.
Einkommensverteilung in Deutschland : Strukturanalyse der Ungleichheit nach Einkommenskomponenten
(2000)
Ergebnisse von Verteilungsanalysen fallen je nach der Bezugseinheit - Haushalt oder Person - recht unterschiedlich aus. Dies gilt sowohl für das Niveau von Verteilungsindikatoren und deren Entwicklung im Zeitverlauf, als auch hinsichtlich der Beiträge einzelner Einkommens- und Abgabearten zu der gemessenen Ungleichheit. Auf der Basis der Einkommens- und Verbrauchsstichproben 1988 und 1993 und unter Verwendung der "älteren OECD-Skala" hat sich gezeigt, dass die Ungleichheit der personellen Verteilung der Nettoäquivalenzeinkommen im Beobachtungszeitraum in den alten Ländern zugenommen hat, aber nach wie vor wesentlich gleichmäßiger als die unveränderte Verteilung der Haushaltsnettoeinkommen auf Haushalte ist. In den neuen Ländern ist der Unterschied zwischen der haushaltsbezogenen und der personenbezogenen Einkommensverteilung noch deutlicher bei insgesamt geringerer Ungleichheit als in den alten Ländern. Auch die Zerlegung der aggregierten Ungleichheit nach Einkommenskomponenten führt zu teilweise abweichenden Ergebnissen in Abhängigkeit von der Bezugseinheit, da bei einzelnen Haushaltstypen im Durchschnitt jeweils unterschiedliche Einkommensarten dominieren. Entgegen gängigen Vorstellungen über Verteilungsstrukturen zeigt sich allerdings generell, dass die Verteilungsungleichheit zum größten Teil durch die Bruttoeinkommen aus unselbständiger Arbeit bestimmt wird. Zwar sind die Selbständigen- und Vermögenseinkommen erwartungsgemäß wesentlich ungleicher verteilt, durch ihren vergleichsweise geringen Anteil am Gesamteinkommen ist ihr Einfluss auf die Gesamtverteilung aber - insbesondere in Ostdeutschland, aber auch in Westdeutschland - begrenzt. Dies wird bei der Analyse der personellen Verteilung allerdings weniger deutlich als bei der Bezugnahme auf Haushalte. Wiederum im Gegensatz zu verbreiteten Annahmen wird die Ungleichheit der Verteilung der Haushaltseinkommen durch staatliche Transferzahlungen nicht oder nur unwesentlich gemildert. Dies ist aber nur auf den ersten Blick überraschend, da nur ein geringer Teil der Transfers vorrangig vertikalen, interpersonellen Umverteilungszielen dient. Die Leistungen der Sozialversicherung und vergleichbarer Systeme bezwecken hauptsächlich eine intertemporale Umverteilung und Lebensstandardsicherung bei Eintritt bestimmter Risikotatbestände (Alter, Tod des Ernährers, Unfall, Arbeitslosigkeit, Krankheit), so dass sie die Verteilung der Einkommen aus unselbständiger Arbeit abgeschwächt wiederspiegeln. Demzufolge geht auch von ihnen keine merkliche Verminderung der Ungleichheit der Nettoeinkommensverteilung auf der Haushaltsebene bzw. sogar eine leichte Erhöhung der Ungleichheit der personellen Verteilung der Nettoäquivalenzeinkommen in Westdeutschland aus. Aber selbst von den steuerfinanzierten Transfers geht unter Bezugnahme auf Haushalte insgesamt nur ein sehr geringer nivellierender Effekt aus. Hier wird die konzeptionelle Schwäche des analytischen Ansatzes am ungewichteten Haushaltseinkommen besonders deutlich. Denn mit dem Haushaltseinkommen wird ohne eine Berücksichtigung der Haushaltsgröße und -struktur die Bedarfssituation der Haushaltsmitglieder, die für viele steuerfinanzierte Transfers maßgeblich ist, nur unzureichend erfasst. Dementsprechend erweist sich der ausgleichende Effekt der Transfers der Gebietskörperschaften unter Bezugnahme auf Personen als recht deutlich, wenn auch in Westdeutschland im Vergleich zum Anteil am Einkommensaggregat als unterproportional. Bei einer weiteren Aufspaltung des heterogenen Komplexes der steuerfinanzierten Transfers in das einkommensunabhängige Kindergeld, Einkommensübertragungen mit Entschädigungscharakter und Transfers mit dem vorrangigen Ziel vertikaler Umverteilung zeigt sich aber auch für Westdeutschland eine weit überproportionale Reduzierung der Ungleichheit der Verteilung der Nettoäquivalenzeinkommen durch i. e. S. bedarfsabhängige Transfers. Absolut gesehen macht der ausgleichende Effekt zwar in den alten Ländern weniger als ein Zehntel, in den neuen Ländern ungefähr ein Fünftel der entsprechenden Effekte der persönlichen Steuern aus; unter Berücksichtigung des geringen Volumens der Transfers mit vorwiegend vertikaler Ausrichtung ergibt sich aber eine recht hohe Effizienz. Sie scheint in Westdeutschland zwischen 1988 und 1993 allerdings etwas zurückgegangen zu sein, ähnlich wie der ausgleichende Einfluss der persönlichen Steuern. Schließlich zeigt sich für das Kindergeld eine nur mäßige relative Reduzierung der Ungleichheit der personellen Einkommensverteilung, die 1993 in West- wie in Ostdeutschland nur ungefähr zwei Dritteln des Anteils am Einkommensaggregat entspricht. Dies ist angesichts der horizontalen Ausrichtung des Familienlastenausgleichs in Deutschland nicht verwunderlich, könnte aber für eine Zieldiskussion im Zusammenhang mit Reformüberlegungen Anlass geben.
Empirische Wohlstandsanalysen können prinzipiell anhand dreier Indikatoren durchgeführt werden: Anhand des Privaten Verbrauchs, anhand des verfügbaren Einkommens oder anhand des Nettovermögens.1 Während es für die Definition der Indikatoren des Privaten Verbrauchs und des verfügbaren Einkommens zumindest einigermaßen akzeptierte internationale Konventionen gibt, ist dies bezüglich der Definition des privaten Vermögens nicht annähernd der Fall. Im Unterschied zu den Volkseinkommensrechnungen sind Volksvermögensrechnungen im internationalen Maßstab deutlich weniger gut ausgebaut. Dies mag damit zusammenhängen, daß bei einer Bestandsgröße wie dem privaten Vermögen Aspekte der Verwertung, Nutz-ung, sozialen Absicherung wie auch der Verleihung von Macht2 intensiver zum Tragen kommen als bei einer Stromgröße wie dem privat verfügbaren Haushaltseinkommen. Aus welchen Bestandteilen sich das Gesamtvermögen zusammenzusetzen hat, ist daher einem heftigeren Diskurs als bei den anderen Wohlstandsindikatoren ausgesetzt. Es herrscht beispielsweise Uneinigkeit darüber, ob das Human- oder das Sozialvermögen sinnvolle Vermögenskomponenten sind. Eine eher negative Einschätzung in diesem Zusammenhang wird üblicherweise damit begründet, daß beide potentiellen Gesamtvermögensbestandteile das Kriterium der interpersonellen Veräußerbarkeit nicht bzw. nur unzureichend erfüllen.1 Auch ist die Forschung vor zum Teil schwer überwindbare Bewertungsprobleme einzelner Vermögenskomponenten gestellt, und zwar stärker als bei den beiden anderen Wohlstandsindikatoren, bei denen zumindest die überwiegende Anzahl an Teilelementen mittels nachvollziehbarer Marktpreise vergleichsweise einfach bewertet werden kann. Hinzu kommt die schlechtere Datenlage hinsichtlich der Erfassung privaten Vermögens im Vergleich zum Privaten Verbrauch bzw. verfügbaren Haushaltseinkommen, was nicht zuletzt auf die - in Befragungen - (noch) größere Sensibilität der Interviewten bezüglich der Beantwortung vermögensbezogener Fragen im Vergleich zu den beiden anderen Wohlstandsindikatoren zurückzuführen ist. Alles in allem bleibt festzuhalten, daß allein die Deskription der Höhe und Verteilung privat gehaltenen Vermögens eine höchst komplexe Aufgabe ist. Es ist daher keineswegs unwahrscheinlich, daß verschiedene Vermögensanalysen selbst auf einer einheitlichen Datengrundlage zu zum Teil entgegengesetzten Aussagen gelangen werden. Diesen letztgenannten Gedanken aufgreifend, werden in der vorliegenden Studie in beispielhafter Form drei auf Basis der Einkommens- und Verbrauchsstichprobe (EVS) 1988 durchgeführte Analysen zur bundesdeutschen Vermögensverteilung privater Haushalte einer vergleichenden Betrachtung unterzogen. Es wird gezeigt, an welchen Stellen Abweichungen zwischen den einzelnen Studien auftreten und worauf diese (vermutlich) zurückzuführen sind. Das vorliegende Arbeitspapier ist wie nachfolgend aufgebaut. Kapitel 2 vermittelt einen Eindruck von der Datenbasis, auf der die drei genannten Studien jeweils basieren, Kapitel 3 schildert kurz die Konstruktionselemente der drei behandelten Analysen, und in Kapitel 4 werden in einer Gegenüberstellung der drei Studien Unterschiede kausal herausgearbeitet. Es folgt in Kapitel 5 eine Bewertung der Untersuchungsergebnisse.
Im Mittelpunkt dieses Beitrag stehen Verweildauermodelle und deren Verwendung als Analyseinstrumente für die Bewertung und Berechnung von Kreditausfallrisiken. Verschiedene Möglichkeiten zur Berechnung der Dauer des Nichtausfalls eines Kredites werden dabei vorgestellt. Die hier vorgestellten Verfahren werden auf einen aus Kreditakten von sechs deutschen Universalbanken zusammengestellten Datensatz angewendet. Beispiele und Interpretationshilfen zu den jeweils vorgestellten Methoden erleichtern den Zugang zu diesen Modellen. Es werden zahlreiche Hinweise auf weiterführende Literatur gegeben.
Wenn man untersuchen möchte, ob sich die Finanzsysteme verschiedener Länder im Verlauf der letzten Jahre aneinander angeglichen haben oder demnächst angleichen werden, braucht man ein Konzept zur Beschreibung von Finanzsystemen, durch das wesentliche Strukturen, deren Unterschiede und Veränderungen erkennbar werden, ohne dabei in "Systemgeschwafel" (D. Schneider) abzugleiten. Wir haben dafür das Konzept der Komplementarität als nützlich identifiziert. Der Beitrag stellt dieses Konzept vor und soll und seine Eignung belegen. Letztlich geht es dabei auch um die Frage, ob reale Finanzsysteme konsistente Systeme mit komplementären Elementen darstellen. Nach der Vorstellung der formalen Konzepte der Komplementarität und der Konsistenz wird "das Finanzsystem" auf seine Komple mentarität untersucht. Dazu wird ein Finanzsystem aus der Sicht von Unternehmen des nichtfinanziellen Sektors als ein System gekennzeichnet, das aus drei Teilsystemen besteht. Das erste Teilsystem ist das Finanzierungssystem einschließlich Finanzsektor und Mustern der Unternehmensfinanzierung, das zweite das Corporate Governance-System und das dritte das Unternehmens-Strategie-System. Für alle drei Teilsysteme wird – allgemein und mit Bezug auf die Finanzsysteme Deutschlands, Japans und der USA - gezeigt, inwieweit die Elemente der betreffenden Teilsysteme untereinander komplementär sind, und geprüft, ob sie in ihren Ausprägungen auch konsistent sind, d.h. wirklich "zueinander passen". Untersucht wird auch die Komplementarität und Konsistenz zwischen den Teilsystemen selbst. Der Beitrag endet mit Überlegungen über die Anwendung des Komplementaritätskonzepts. Dass ein Finanzsystem die Eigenschaft der Komplementarität aufweist, hat nicht nur weitreichende Implikationen für die Methodik der Analyse von Finanzsystemen, sondern auch für die Vorhersehbarkeit der Entwicklung von Finanzsystemen und damit für die Wahrscheinlichkeit einer Konvergenz von Finanzsystemen, für deren Effizienzeigenschaften und für die Möglichkeiten, Finanzsysteme durch gestaltende Eingriffe zu verbessern.
Ja, der Ablauf der Lock-up-Frist ist ein kursrelevantes Ereignis. Wir untersuchen Kursreaktionen auf das Ende der Lock-up-Frist bei 142 Unternehmen des Neuen Marktes. Da der Ablauf der Sperrfrist bereits zum Zeitpunkt des Börsengangs bekannt ist, erwarten wir bei einem (semi-)informationseffizienten Kapitalmarkt durchschnittlich keine Kursreaktion. Im Rahmen einer Ereignisstudie zeigen wir aber, dass sich am Ende der Sperrfrist signifikant negative Überrenditen ergeben. Durch eine differenzierte Analyse stellen wir fest, dass firmenspezifische Faktoren (Volatilität, Performance, Free Float) die Kursreaktionen am Ende der Lock-up-Periode beeinflussen. Die Befunde unserer Untersuchung belegen die Notwendigkeit klarer Regeln für mehr Transparenz nach dem Börsengang. Bedeutsam sind die vorliegenden Ergebnisse vor allem vor dem Hintergrund der aktuellen Diskussion um eine Erweiterung der insiderrechtlichen Meldepflichen im Rahmen des 4. Finanzmarktförderungsgesetzes. This paper explores the materiality of expirations of lock-up provisions that prevent insiders from selling their shares after the initial public offering (IPO). We examine 172 lock-up agreements of 142 IPOs floated on Germany’s New Market. Since the date of the lock-up expiration is common knowledge at the IPO, we would not expect to find abnormal returns surrounding the event day, assuming that markets are informationally efficient. However, using an event-study methodology we detect statistically significant negative abnormal returns and a twenty-five percent increase in trading volume surrounding lock-up expiration. The negative abnormal returns are larger for firms with high volatility, superior performance after the IPO, and low free float. The results of our study raise important regulatory issues with respect to disclosure rules of firms going public. We argue that insiders should be legally required to disclose their sell transactions in order to protect new and less informed shareholders.
Entwicklungsfinanzierung
(2000)
Joseph E. Stiglitz (1943 - )
(2000)
Am 24.11.1999 gibt Joseph E. Stiglitz seinen vorzeitigen Rücktritt als Chief Economist und Senior Vice President der Weltbank zum Jahresende bekannt. Er will sich wieder ausschließlich der Forschung und Lehre widmen und kehrt auf seinen Lehrstuhl am Economics Department der Stanford University zurück. Stiglitzs Rückzug aus der aktiven Entwicklungspolitik erfolgt nicht ganz freiwillig. Er selbst kommentiert seinen Entschluß: „It has become obvious to me that it would be difficult to continue to speak out as forcefully and publicly as I have on a variety of issues and still remain as chief economist. Rather than muzzle myself, or be muzzled, I decided to leave.“ (New York Times, 1.12.1999). Seit geraumer Zeit galt seine öffentliche Kritik am Washington Consensus, dem ökonomischen Glaubensbekenntnis, auf das sich die politische Linie des US Treasury genauso stützt wie die Stabilisierungs- und Reformpolitik des IWF, als Dorn im Auge der Vertreter dieser Institutionen. Für sie war Stiglitz - so die Metapher der Financial Times vom 26.11.99 - „a veritable gadfly“, eine wahre Viehbremse, deren lästiges Summen aufgrund von Position und Intellekt nicht einfach ignoriert werden konnte. ...
Im ersten Kapitel wird dabei die "klassische" Theorie des Fiskalföderalismus diskutiert, die von Problemen des politischen Prozesses weitgehend abstrahiert. Das zweite Kapitel bietet dann einen Überblick der Argumente, die Unzulänglichkeiten des politischen Prozesses als Begründung für Dezentralisierung bzw. Zentralisierung heranziehen. Obwohl die allgemeine Theorie des Fiskalföderalismus einige wichtige Anhaltspunkte für die Zentralisierungsentscheidung beinhaltet, ist es unabdingbar, in Abhängigkeit vom konkreten Politikfeld jeweils eine spezielle Bestandsaufnahme bezüglich der einhergehenden Kosten und Nutzen einer verstärkten Zentralisierung anzustellen. Die vorliegende Studie nimmt sich dabei aus der Fülle der möglichen Politikfelder einige wichtige Teilgebiete heraus. Kapitel 3 diskutiert die möglichen Vorteile einer verstärkten außen- und verteidigungspolitischen Zentralisierung in Europa. Vor dem Hintergrund, dass jedes Land in Europa einen Anreiz hat, sich bei der Durchsetzung gemeinsamer Interessen auf die Partnerländer innerhalb der NATO zu verlassen, lässt eine verstärkte Koordinierung der Europäer auf eine Verringerung des Freifahrerproblems hoffen. Allerdings steht zu befürchten, dass die resultierenden Mehranstrengungen der Europäer zu verminderten Anstrengungen der USA führen. Die Lasten der Verteidigungspolitik könnten sich daher verstärkt von den USA auf Europa verschieben. Je größer Europa durch zusätzliche Beitritte wird, desto eher lohnt es sich allerdings wie Kapitel 3 erläutert eine solche Verschiebung der Lasten in Kauf zu nehmen. Kapitel 4 erörtert die europäischen Finanzausgleichsbeziehungen. In einem ersten Schritt werden die existierenden Finanzbeziehungen innerhalb der EU skizziert. In einem zweiten Schritt werden die Grundlagen und Probleme einer erweiterten regionalen Umverteilung zwischen den Mitgliedstaaten diskutiert. Kapitel 5 argumentiert, dass es in dieser institutionellen Situation nicht verwunderlich ist, wenn die einzelnen Mitgliedsländer eine verstärkte Präferenz für rigide Arbeitsmärkte entwickeln. Weil es rigide Arbeitsmärkte für gebietsfremde Outsider schwerer machen dürften, Zugang zum regionalen Arbeitsmarkt zu erhalten, helfen Arbeitsmarktrigiditäten die Mobilität zu verringern. Umverteilungssysteme zu Gunsten von Geringverdienern, die ansonsten durch die Arbeitskräftemobilität erodieren würden, lassen sich so eher bewahren. Kapitel 6 beschäftigt sich mit der Koordinierung bei der Besteuerung von mobilem Kapital.
Zur wissenschaftlichen Evaluation der aktiven Arbeitsmarktpolitik in Deutschland : ein Überblick
(2000)
Dieser Beitrag gibt einen Überblick der neueren wissenschaftlichen Literatur zur Evaluation der Aktiven Arbeitsmarktpolitik (AAMP) in Deutschland. Das Grundproblem mikroökonomischer Evaluation besteht darin, den Vergleichsmaßstab bei Nichtteilnahme zu schätzen, sei es auf Basis einer vergleichbaren Kontrollgruppe von Nichtteilnehmern oder auf Basis der Situation vor Teilnahme. Entscheidend ist hierbei, den potentiellen Selektionsproblemen Rechnung zu tragen. Evaluationsstudien auf der Makroebene müssen zusätzlich auch die indirekten Effkete der AAMP auf den gesamten Arbeitsmarkt berücksichtigen und der möglichen Endogenität der AAMP Rechnung tragen. Die meisten Evaluationsstudien fur Deutschland zeigen keine signifikant positiven Beschäftigungseffekte der AAMP, sind jedoch mit großer statistischer Unsicherheit behaftet. Wir führen letzteres im wesentlichen darauf zurück, daß wegen zu geringen Datenumfangs meist äußerst heterogene Maßnahmen gepoolt werden und daß über Teilnehmer und Nichtteilnehmer zu wenige Hintergrundinformationen verfügbar sind. Aufgrund dieser Datenrestriktionen verbietet sich daher aus Sicht der Autoren ein vorschnelles Verdikt über die ökonomischen Wirkungen der AAMP, obwohl mögliche positive Effekte nicht sehr stark sein können, da sie sonst vermutlich trotz unterschiedlicher Methoden und unzureichender Daten empirisch hätten identifiziert werden können.
Dieser Beitrag stellt verschiedene ökonometrische Methoden zur Bewertung und Berechnung von Kreditausfallrisiken vor und wendet diese auf einen Datensatz sechs deutscher Universalbanken an. Im Mittelpunkt stehen dabei Logit- und Probitmodelle, mit deren Hilfe die Ausfallwahrscheinlichkeit eines Kredites geschätzt werden kann. Dabei werden auch moderne Verfahren zur Analyse von Paneldaten besprochen. Beispiele undInterpretationshilfen zu den jeweils vorgestellten Methoden erleichtern den Zugang zu diesen Modellen. Es werden zahlreiche Hinweise auf weiterführende Literatur gegeben.
Versicherungsunternehmen haben bei der Auswahl ihrer Vermögensanlagen die gesetzlichen Restriktionen des Versicherungsaufsichtsgesetzes einzuhalten. Neben einer strukturierten Darstellung der zahlreichen Regulierungstatbestände werden aus Sicht der Finanzierungstheorie sowie den empirischen Verhältnissen an den Kapitalmärkten die im VAG enthaltenen Rahmenbedingungen einer kritischen Bewertung unterzogen.
Vorgestellt wird eine empirische Studie, welche den Zusammenhang zwischen Rendite und Risiko für ein Sample deutscher Versicherungsaktien im Zeitraum 1975-1998 untersucht. Als Methode wurde ein Multifaktorenmodell mit makroökonomischen Faktoren verwendet. Je nach Untersuchungszeitraum beläuft sich der Anteil der erklärten Varianz auf 9,29% bis 13,62%. Es konnte eine signifikanter negativer Einfluß zwischen der Veränderung des allgemeinen Zinsniveaus und den Risikoprämien von Versicherungsaktien identifiziert werden. Weiterhin ist Wechselkurses der DM zum US-Dollar signifikant.
Der Ansatz des Infrastruktur-Netzwerkes bietet eine Möglichkeit, das Entstehen von Netzwerken und die Abhängigkeit von bestimmten Einflüssen auf die Struktur nachzuvollziehen. Trotz der komplexen Struktur scheinen dezentrale Ansätze ihre Berechtigung zu haben. Das deutlich schlechtere Abschneiden des statischen Ansatzes zeigt, wie wichtig Kommunikation zwischen den Akteuren ist. Da die umfangreiche Kommunikation trotz des recht einfachen Entscheidungsverhaltens gute Ergebnisse erzielt, wäre zu untersuchen, wie weit man bei Einschränkung der Kommunikation durch bessere Entscheidungsregeln ähnlich gute Ergebnisse erzielen kann. Die Frage, wie gut ein statischer Ansatz sein kann, ist sicher nicht endgültig beantwortet. Ob jedoch rein statische Ansätze ein realistisches Szenario darstellen und untersucht werden sollten, ist eine Frage, die hier nicht beantwortet werden kann. Das sehr gute Abschneiden von reinen Verbesserungsverfahren lässt auf eine relativ homogene Nachbarschaftsstruktur schließen. Des weiteren war zu beobachten, dass in größeren Netzen der relative Verlust durch Fehlentscheidungen tendenziell geringer ausfällt. Ein Ursache könnte sein, dass die zunehmende Dichte von Netzwerken zu Bündelungseffekten bezüglich der Transportleistungen führen. In einem nächsten Schritt wäre es interessant, intelligentere Entscheidungsregeln von Agenten in einem solchen Umfeld zu testen. Durch geeigneten Einsatz dieser ’internen Intelligenz’ bei eingeschränkter Kommunikation, ist es vielleicht möglich, zu schnelleren und effizienteren Lösungen zu finden, als es mit diesem Ansatz möglich war.
Es gibt Überlegungen, Kreditinstituten den Besitz der Anteilsmehrheit an Kapitalanlagegesellschaften (KAGs) zu untersagen. Dahinter steht die Vorstellung, daß solche Beteiligungen Gestaltungsspielräume eröffnen, die mißbräuchlich genutzt werden. Die Neuemission von Aktien ist einer der Fälle, die in diesem Zusammenhang erörtert werden. Ziel dieser Arbeit ist es zu prüfen, ob die zum Konzernverbund einer konsortialführenden Bank gehörenden KAGs bei Erstemissionen anders behandelt werden als andere KAGs.
Untersucht werden 46 Neuemissionen der Jahre 1994 bis 1997. Insgesamt deuten die Ergebnisse darauf hin, daß die KAGs in ihren Anlageentscheidungen unabhängig sind, und daß keine mißbräuchliche Nutzung eventuell vorhandener Informationsvorsprünge vorliegt.
Überarbeitete Version des Arbeitspapiers "The dynamics of labour market participation, unemployment and non-participation in Great Britain, Sweden and Germany" / Wolfgang Strengmann-Kuhn. [Johann-Wolfgang-Goethe-Universität Frankfurt am Main, Fachbereich Wirtschaftswissenschaften, Institut für Volkswirtschaftslehre]
In der heutigen Theorie der Optionsbewertung wird davon ausgegangen, daß die Markterwartungen genau berechenbar sind. Die Unsicherheit besteht lediglich darin, welcher Aktienkurs sich letztlich realisiert, die Eintrittswahrscheinlichkeiten sind bekannt. Dabei treten jedoch erhebliche Probleme auf, denn theoretisch erwartete Preise entsprechen oft nicht den am Markt beobachteten. Ziel dieser Arbeit ist es, zu untersuchen, ob auch dann eine Optionsbewertung möglich ist, wenn die Unsicherheit nicht nur auf die Stochastik reduziert wird, sondern wenn zusätzlich angenommen wird, daß Marktteilnehmer nur unscharfes Wissen über künftige Preisentwicklungen haben. Hierbei dient die Fuzzy Set Theorie zur Modellierung der nur größenordnungsmäßig bekannten künftigen Aktienkurse. Es wird in dieser Arbeit zwischen der Optionspreistheorie und der Fuzzy Set Theorie eine Verbindung geschaffen, die es zukünftig erlauben wird, die Unsicherheit im Markt besser zu modellieren, als dies mit heute dominierenden Methoden der Optionsbewertung möglich ist.
Der internen Unternehmensrechnung werden im allgemeinen zwei Funktionen zugeschrieben (Ewert/Wagenhofer (1997), S. 6): Sie soll einerseits Informationen für Planungszwecke bereitstellen, andererseits der Verhaltenssteuerung von Entscheidungsträgern in hierarchischen, dezentralen Organisationen dienen. In der jüngeren Vergangenheit ist die Verhaltenssteuerungsfunktion zunehmend in das Blickfeld theoretischer und praktischer Überlegungen gerückt. Gleichzeitig läßt sich eine verstärkte Marktwertorientierung deutscher Unternehmen in der Unternehmenspolitik wie auch in der internen Unternehmensrechnung beobachten. Die betriebswirtschaftliche Literatur hat darauf mit einer wachsenden Zahl von Beiträgen reagiert, die die Marktwertorientierung der internen Unternehmensrechnung vor dem Hintergrund ihrer Verhaltenssteuerungsfunktion diskutieren.1) Das Interesse dieses Beitrags gilt der Rolle der Periodenerfolgsrechnung als Teil der internen Unternehmensrechnung bei der marktwertorientierten Steuerung von Investitionsentscheidungen über Periodenerfolgsbeteiligungen. Zentrale Bedeutung kommt hierbei dem Residualgewinnkonzept aufgrund seiner Kompatibilität mit dem Marktwertkriterium (vgl. Abschnitt 5.1) zu. Dieses Konzept hat in der Praxis unter dem Namen Economic Value Added zunehmend an Popularität - insbesondere auch als Grundlage für Erfolgsbeteiligungen (vgl. z.B. Stewart (1991), Ehrbar (1998), O'Hanlon/Peasnell (1998) ) - gewonnen. Gezeigt werden soll, welche Vorteile die Periodisierung von Cash Flows im Rahmen einer Periodenerfolgsrechnung auf der Basis des Residualgewinnkonzepts gegenüber einer unbelassenen Cash Flow-Rechnung bei der Steuerung von Investitionsentscheidungen über finanzielle Anreizsysteme bietet. Betrachtet wird eine einfache bilaterale Principal-Agent-Beziehung: Eine delegierende Instanz (Prinzipal) beauftragt einen Entscheidungsträger (Agenten) mit Investitionsentscheidungen und versucht, dessen Investitionsverhalten über eine „Erfolgsbeteiligung“ in ihrem Sinne auf das Ziel der Maximierung des Barwertes aller Cash Flows gerichtet zu beeinflussen. Die Rolle des internen Rechnungswesens ist dabei auf die Bereitstellung der Bemessungsgrundlage für die Erfolgsbeteiligung beschränkt. Es wird gezeigt, daß die Periodisierung von Cash Flows und die Zugrundelegung periodisierter Größen bei der Investitionssteuerung zu besseren Lösungen des Steuerungsproblems des Prinzipals führt als eine reine Cash Flow- Beteiligung. ...
Die Öffnung des deutschen Bilanzrechts bewirkt eine zunehmende Anwendungsbreite von internationalen Rechnunungslegungsnormen (wie insbesondere der US-GAAP und der IAS) für deutsche Rechtsanwender;1 die heterogenen Normtypen und die – damit einhergehend – unterschiedlichen ökonomischen Eigenschaften dieser Normen erfordern für einen sinnvollen Rechnungslegungsvergleich eine komparative Rechnungslegungstheorie. Eine Besinnung auf die ökonomische Theorie ist – auch ausgelöst durch die Internationalisierung der Rechnungslegung – hier grundsätzlich festzustellen,2 wie auch das moderne deutsche Bilanzrecht seine heutige Prägung durch die ökonomische Theorie – und nicht vornehmlich durch die Anwender – erhielt.3 Es ist das Ziel des Aufsatzes, einen Beitrag zu einer institutionenökonomischen Theorie der Rechnungslegung zum Zweck der Bestimmung von Informationsinhalten und Gewinnansprüchen sowie zur vergleichenden Rechnungslegungstheorie zu leisten. In einem ersten Hauptteil (2) wird im folgenden – auf dem institutionenökonomischen Forschungsprogramm aufbauend – skizziert, welche Bedeutung Institutionen im Rahmen des Nutzenkalküls von Entscheidern zuzumessen ist; danach werden die einzelnen für eine vergleichende Rechnungslegung relevanten Institutionsarten typisiert (in formale und informelle Regeln) sowie deren Attribute im individuellen Zielstromkalkül eingeführt (nämlich Prädikate der Manipulationsfreiheit und Prädikate der Entscheidungsverbundenheit). Das Verhältnis der Institutionen zueinander wird im folgenden Abschnitt (3) anhand eines rechtlich geprägten und eines ökonomischen Systemverständnisses entwickelt. Es wird gezeigt, daß beide Systembegriffe auf einer Nichtadditivität der sie konstituierenden Institutionen gründen, die den qualitativen Vergleich unterschiedlicher Systeme erschweren; man überschätzt hingegen die Unterschiede zwischen juristischem und ökonomischem Systemverständnis: beide sind funktionsähnlich. Im letzten Hauptteil (4) werden schließlich vor dem Hintergrund einer gestaltenden Theorie die hierfür relevanten Teilbereiche (Sub-Systeme) der Rechnungslegungsordnung vorgestellt sowie einzelne Publizitätsnormen funktional ausgelegt. Der Beitrag schließt mit zusammenfassenden Thesen (5).
In der Literatur zur Abschlußprüfung ist ein negativer Effekt eines ökonomischen Vorteils aus der wiederholten Mandatsannahme, der aufgrund von Transaktionskosten entsteht, auf die Unabhängigkeit des Abschlußprüfers diskutiert worden. Anders als die bisher vorgestellten Ansätze wird im Rahmen des vorliegenden Modells rationales Verhalten der Kapitalmarktakteure unterstellt, die ihre Ansprüche in Abhängigkeit der Reputation des Prüfers und damit der Glaubwürdigkeit des Testats stellen. Als Ergebnis kann festgehalten werden, daß transaktionskostenbedingte Quasirenten die Urteilsfreiheit nicht gefährden, sondern daß vielmehr Informationsrenten für das Berichtsverhalten des Prüfers ausschlaggebend sind. Auch ergeben sich neue Ansatzpunkte zur Diskussion der externen Pflichtrotation und von Maßnahmen zur Steigerung der Kapitalmarkteffizienz.
Internationale Verkehrsflughäfen sind Einrichtungen, die eine zentrale ökonomische Bedeutung für das regionale Umfeld haben. Zusätzlich zu ihrer eigentlichen Funktion als Anbieter von Flugverkehrsleistungen werden Güter und Dienstleistungen angeboten, die in unterschiedlich starkem Ausmaß an die Verkehrsfunktion gekoppelt sind. Neben der Flughafengesellschaft und den Flugverkehrsgesellschaften tragen beispielsweise gastronomische Einrichtungen, Groß- und Einzelhändler, Luftfrachtspeditionen, Expressdienste, Reiseveranstalter, Flugsicherung, Zoll, Catering-Unternehmen zu den ökonomischen Aktivitäten des Flughafens bei. Die Palette der verkehrsbezogenen Aktivitäten am Flughafen reicht von der Betreuung der Passagiere über Reparatur- und Wartungsarbeiten für die Fluggesellschaften bis hin zur Abwicklung des Frachtverkehrs. ...
Aus dem weiten Spektrum ökonomisch relevanter Fragen, die die europäische Integration und das Gesellschaftsrecht verbinden, soll hier diejenige herausgegriffen werden, ob sich die nationalen Corporate-Governance-Systeme in den großen europäischen Volkswirtschaften Deutschlands, Frankreichs und Großbritanniens unter dem Einfluß der europäischen Integration bereits aneinander angeglichen haben und ob es demnächst zu einer solchen Angleichung kommen wird. Unser Thema deckt nur einen Teil des Gesellschaftsrechts ab und geht zugleich hinsichtlich der angesprochenen rechtlichen Materie über das Gesellschaftsrecht hinaus, denn die Corporate Governance fügt sich nicht einfach in herkömmliche juristische Klassifikationen ein. Unser Vorhaben unterscheidet sich aber vor allem dadurch von einer juristischen Behandlung des Themas, daß primär ökonomische Mechanismen und Zusammenhänge angesprochen werden. Ökonomen betrachten die Corporate Governance im weiteren Kontext des Finanzsystems, denn das Corporate-Governance-System ist ein Teil des Finanzsystems eines Landes. Die Fragen, wie unterschiedlich die nationalen Systeme der Corporate Governance waren, ehe zu Beginn der 80er Jahre der Prozeß der Angleichung in Europa einsetzte, wie unterschiedlich sie heute noch sind, wie sehr sie sich somit bereits angeglichen haben und wie ein möglicher Angleichungsprozeß weitergehen könnte, sind deshalb ein Teil der weiteren Frage nach der Angleichung der Finanzsysteme in Europa. In diesem Beitrag konzentrieren wir uns aber nur auf Entwicklungen der 90er Jahre.
Die Empfehlung, das Shareholder-Value-Konzept zur Grundlage der Unternehmenspolitik zu machen, erscheint um so überzeugender und wird vermutlich um so eher akzeptiert, (1) je lohnender die Shareholder-Value-Orientierung für die Aktionäre ist, (2) je eindeutiger es ist, wie die Empfehlung umgesetzt werden kann und soll, und (3) je problemloser sie aus theoretischen und wohlfahrtsökonomischer Sicht ist. Der Beitrag diskutiert die in Wissenschaft und Praxis verbreiteten Positionen zu diesen drei Aspekten und erläutert, warum sie bzw. die emprischen, praktischen und theoretischen Argumente, durch die sie gestützt werden sollen, auf Mißverständnissen beruhen.
Thema dieses Beitrags ist zum einen eine kritische Würdigung des Flächentarifvertrages (FTV) im Hinblick auf seine Regelungsdichte und zum anderen die theoretische Analyse eines Elements des Flexibilisierungspotentials des FTV, namlich der Öffnungsklausel, unter Berücksichtigung der Insider-Outsider-Problematik. Im Ergebnis kommt dieser Beitrag zu dem Schluß, daß der FTV nicht überholt, wohl aber dringend und umfassend überholungsbedürftig ist. Wichtig erscheint eine differenzierende Betrachtung, denn nicht alle diskutierten Flexibilisierungsmaßnahmen führen notwendigerweise zu Beschäftigungsgewinnen. Die Regelungsdichte des FTV kommt unter anderem zum Tragen, wenn bisher tarifgebundene Unternehmen beispielsweise auf Grund einer überzogenen Lohnpolitik den FTV verlassen wollen. Sie müssen zunächst erhebliche Nachwirkungsfristen des FTV beachten, können aber häufig selbst als nicht (mehr) tarifgebundene Unternehmen keine Lohnabschlüsse mit ihrem Betriebsrat tätigen. Die Regelungsdichte wird zudem durch die Arbeitsgerichtsbarkeit verstärkt, beispielsweise durch das in diesem Beitrag kritisierte Urteil des Bundesarbeitsgerichts, welches unter bestimmten Voraussetzungen eine Verbandsklage als zulässig erklärt. Ein gründlich reformierter FTV, der einer erforderlichen Flexibilität auf der betrieblichen Ebene Rechnung trägt, weist eine Reihe von Vorteilen auf. Denn Lohnverhandlungen ausschließlich auf der betrieblichen Ebene führen dort zu teilweise beachtlichen Transaktionskosten, zwingen die Unternehmensleitung zur Offenlegung der Bücher (gegenüber dem Betriebsrat) und verstärken unter Umständen ein Insider-Outsider-Verhalten. Der Beitrag unternimmt im weiteren eine theoretische Analyse der Beschäftigungswirkungen des FTV und eines Haustarifvertrages (HTV) als mögliche Alternative. Das vorgeschlagene Modell integriert Insider-Outsider-Verhalten und die Möglichkeit einer Tariföffnungsklausel. Das Modell zeigt, daß aus theoretischer Sicht keine eindeutige Rangordnung zwischen HTV und FTV hinsichtlich ihrer Beschäftigungswirkungen besteht. Auch führt eine Tariföffnungsklausel nicht notwendigerweise zu höherer Beschäftigung, da die Gewerkschaften fur die Situationen mit günstigen Güternachfrageschocks einen vergleichsweise hohen Lohn anstreben. Angesichts der theoretisch unklaren Ergebnisse plädiert die Arbeit fur eine Reform des FTV anstelle eines drastischen Systemwechsels hin zu HTV.
Die neoklassische Arbitragetheorie setzt voraus, daß alle Marktteilnehmer identische Erwartungen bezüglich der künftigen zustandsabhängigen Auszahlungen von risikobehafteten Wertpapieren bilden. Die Unsicherheit besteht dann im Eintritt des Zustandes selber, jedoch nicht in dessen Ausprägung.
In diesem Artikel wird untersucht, wie eine zusätzliche Unsicherheit in Form des Unwissens über die genaue Ausprägung eines Umweltzustandes modelliert werden kann. Dazu werden die klassischen Finanzwirtschaftstheorien mit der Fuzzy Set Theorie (Theorie unscharfer Mengen) verbunden.
Ziel ist es, sowohl eine einperiodige als auch eine mehrperiodige Arbitragebewertung so zu modifizieren, daß vage Erwartungen der Marktteilnehmer unterstellt werden können.
Kursänderungen auf Aktienmärkten können informationsinduziert durch neu zu verarbeitende Informationen oder liquiditätsinduziert durch kurzfristige Angebots- bzw. Nachfrageüberhänge auftreten. Diese zwei so unterschiedlich verursachten Kursreaktionen sind in empirischen Untersuchungen nur schwer zu trennen. Das Modell von Easley, Kiefer, O’Hara und Paperman (1996) bietet eine theoretische Basis zur separaten Erfassung von liquiditätsorientiertem und informationsbasiertem Handel und eröffnet darüber hinaus auch einen Weg zur empirischen Quantifizierung dieser Größen.
In der vorliegenden Untersuchung nutzen wir diesen Ansatz zur Analyse des Handels deutscher Aktien über das Computerhandelssystem IBIS. Dabei zeigt sich, daß innerhalb der DAX-Werte Informationsereignisse bei den sehr stark gehandelten Aktien nicht häufiger als bei weniger oft gehandelten Werten auftreten. Die Unterschiede im Handelsvolumen sind auf unterschiedlich starke Handelsaktivität sowohl informierter als auch uninformierter Marktteilnehmer zurückzuführen. Weiterhin zeigt sich, daß das Risiko, mit informierten Marktteilnehmern zu handeln, bei den sehr umsatzstarken Aktien am geringsten ist.
In Einklang mit dem sogenannten Montagseffekt ist die Wahrscheinlichkeit für das Auftreten von negativen Informationsereignissen zu Wochenanfang besonders groß. Dieses Ergebnis könnte durch eine Tendenz von Managern erklärt werden, negative Informationen freitags nach Börsenschluß zu veröffentlichen. Eine getrennte Untersuchung für Handelstage mit niedriger und solche mit hoher Volatilität zeigt, daß an Handelstagen mit höherer Volatilität die Handelsintensität sowohl informierter als auch uninformierter Investoren größer ist. Auch die Wahrscheinlichkeit, an solchen Tagen mit besser informierten Marktteilnehmern zu handeln, steigt. Dieser Anstieg ist allerdings nicht statistisch signifikant.
Die Neue Institutionenökonomie beschäftigt sich mit der Erklärung institutioneller Gegebenheiten wie Vertrags- und Organisationsformen und versucht, eine Begründung für die Existenz von Unternehmen zu finden. Ein Bestandteil der Neuen Institutionenökonomie ist, neben der Principal- Agent- und der Property-Rights-Theorie, die hier näher zu erörternde Transaktionskostentheorie. Entstanden ist die Transaktionskostentheorie aus der Kritik an der Neoklassik, insbesondere an den dieser zugrunde liegenden Annahmen. Innerhalb der neoklassischen Theorie wird der Preismechanismus als das zentrale Instrument zur Koordination von wirtschaftlichen Aktivitäten betrachtet. Die Wirtschaftssubjekte handeln in einem Markt unter vollständiger Konkurrenz, in dem sich ohne Verursachung von Kosten ein Gleichgewichtspreis bildet. Sie verhalten sich daher als Mengenanpasser, die aufgrund dieses vorgegebenen Preises ihren Gewinn maximieren. Im Gegensatz dazu wird in der Transaktionskostentheorie davon ausgegangen, daß die Bildung des Preises bzw. die Nutzung des Marktmechanismus nicht kostenlos genutzt werden kann. Aus der Annahme der Neoklassik, daß der Preis die operativen Entscheidungen der Wirtschaftssubjekte determiniert und zu einer effizienten Allokation der Produktionsfaktoren führt,6 stellt sich weiterhin die Frage nach dem Grund für die Existenz von Unternehmungen, welche mit Hilfe der Transaktionskostentheorie beantwortet wird. Wäre der Marktmechanismus tatsächlich in der Lage alle wirtschaftlichen Aktivitäten effizient zu koordinieren, so bestünde keine Notwendigkeit für die Bildung von Institutionen. Die Entstehung von Unternehmen ist daher auf ein Versagen des Preismechanismus aufgrund von Transaktionskosten zurückzuführen....
Das vorliegende Arbeitspapier ist die unveränderte Fassung einer Diplomarbeit, die von Michael Grimm während einer Dauer von vier Monaten am Institut für Konjunktur, Wachstum und Verteilung der Universität Frankfurt a. M. geschrieben wurde. Die Ergebnisse der Analyse halte ich für so interessant, daß mir eine Veröffentlichung als Arbeitspapier im Rahmen des von mir geleiteten EVS-Projektes, dessen Daten die Grundlage der Arbeit bilden, als lohnend erscheint. Dadurch kann sichergestellt werden, daß die Untersuchungsergebnisse Interessierten zur weiteren Nutzung, sei es als reine Informationsgrundlage oder als Ausgangspunkt weiterer Analysen, zur Verfügung stehen. Die Studie beleuchtet die Verteilung von Geld- und Grundvermögen auf sozioökonomische Gruppen in der Bundesrepublik Deutschland. Als Datenbasis wurde eine Datenbank mit (anonymisierten) Individualdaten der Einkommens- und Verbrauchsstichprobe 1988 der Universität Frankfurt a. M. genutzt. Anknüpfend an frühere Arbeiten, die zu diesem Themenkomplex im Rahmen des Sonderforschungsbereichs 3 "Mikroanalytische Grundlagen der Gesellschaftspolitik" angefertigt wurden sowie durch Berücksichtigung von Daten zur EVS 1993, die zum Untersuchungszeitpunkt allerdings nur in tabellierter Form vorlagen, skizziert die Analyse eindrucksvoll die Entwicklung der Vermögensverteilung bis in die neunziger Jahre hinein. Dabei zeigt sich, daß die Verteilung des Vermögens, im Vergleich zur Verteilung der Einkommen, einen weiterhin sehr hohen Konzentrationsgrad aufweist. Insbesondere auf der Personenebene hat sich der Grad der Konzentration im Laufe der achtziger Jahre sogar noch verstärkt. Auch die Betrachtung der Verteilung auf sozio-ökonomische Gruppen zeigt viele interessante und neue Ergebnisse, so daß die Analyse ein echter Erkenntnisfortschritt ist. Es bleibt zu hoffen, daß weitere Arbeiten auf Basis der Einkommens- und Verbrauchs stichproben 1993 und 1998 sich der Entwicklung der Vermögensverteilung, insbesondere auch in den neuen Bundesländern, widmen und so eine langfristige Informationsgrundlage für Wirtschafts- und Sozialpolitik schaffen. Frankfurt am Main, im März 1998 (Richard Hauser)
Dieser Beitrag vergleicht mit einheitlicher Methodik die Mobilität des individuellen Bruttoarbeitseinkommens, des Bruttoäquivalenzeinkommens und des Nettoäquivalenzeinkommens in Westdeutschland, Ostdeutschland, Großbritannien, den USA und Ungarn mit Panel-Daten dieser Länder aus dem Zeitraum 1989-1995. Die Mobilität ist in Ostdeutschland bei allen Einkommenskonzepten wesentlich höher als in Westdeutschland, nähert sich aber im Zeitablauf und insbesondere beim Nettoäquivalenzeinkommen dem westdeutschen Niveau an. Die Mobilität des Bruttoäquivalenzeinkommens ist in Westdeutschland größer, die des Nettoäquivalenzeinkommens kleiner als in Großbritannien. Die Mobilität des individuellen Bruttoarbeitseinkommens und des Bruttoäquivalenzeinkommens ist in Westdeutschland höher, die des Nettoäquivalenzeinkommens niedriger als in den USA. Die Mobilität des Nettoäquivalenzeinkommens ist in Ungarn deutlich höher als in Ostdeutschland. Diese Ergebnisse zeigen eine im internationalen Vergleich unerwartet hohe Flexibilität des deutschen Arbeitsmarkts, wobei jedoch die Verweildauer in der Arbeitslosigkeit in Deutschland länger ist als in den USA und Großbritannien, wo viele Arbeitslose schnell in schlecht bezahlte Jobs wechseln. Ferner zeigt sich, daß das Steuer- und Transfersystem in keiner anderen Volkswirtschaft die Mobilität der Bruttoäquivalenzeinkommen stärker reduziert als in Deutschland.
Wie können nun die vielfältigen Ergebnisse zur Einkommens- und Vermögensverteilung im Hinblick auf die Frage, ob es eine soziale Polarisierungstendenz gibt, zusammengefaßt werden? Angesichts des unklaren Begriffs der Polarisierung und der begrenzten Aussagekraft des Datenmaterials ist dies schwierig, zumal die empirische Analyse nicht nur Fragen beantwortet, sondern auch neue Fragen aufgeworfen hat und die vorliegenden Daten nicht sehr zeitnah sind. Trotz aller Einschränkungen lassen sich aber vielfältige Anzeichen einer Auseinanderentwicklung der Lebensverhältnisse einzelner Bevölkerungsgruppen feststellen. Diese äußern sich weniger in zusammenfassenden Verteilungsmaßen wie beispielsweise dem Gini-Koeffizienten als vielmehr in disaggregierten Betrachtungsweisen. So hat in Westdeutschland zwischen 1978 und 1993 sowohl der Bevölkerungsanteil, der in relativer Einkommensarmut lebt, als auch der Anteil der Reichen zugenommen. Dies könnte man als Polarisierungstendenz bezeichnen, wenn man Polarisierung allgemein als Prozeß der Herausbildung bzw. Vergrößerung von zwei weit auseinanderliegenden Einkommensgruppen versteht.32 Von der zunehmenden relativen Verarmung sind hauptsächlich Arbeitslosenhaushalte sowie Familien mit Kindern, insbesondere Alleinerziehende, betroffen, steigende gruppenspezifische Reichtumsquoten sind vorwiegend bei Selbständigen-, Angestellten- und Beamtenhaushalten sowie bei Paaren ohne Kinder zu beobachten. Die Gruppen der Alleinstehenden sind sehr heterogen, da sich hier sowohl überdurchschnittliche Armuts- als auch - mit Ausnahme der alleinstehenden älteren Frauen - überdurchschnittliche Reichtumsquoten zeigen; die Armutsquoten der jüngeren Alleinstehenden, insbesondere der Frauen, sind im Beobachtungszeitraum aber drastisch gestiegen, die Reichtumsquoten bei allen Alleinstehenden tendenziell gesunken. Neben diesen Tendenzen beinhaltet das nach wie vor starke West-Ost-Gefälle im Lebensstandard ein nicht zu unterschätzendes gesellschaftliches Spannungs- und Spaltungspotential. Die große Ungleichheit in der Einkommensverteilung wird von der Vermögensverteilung bei weitem übertroffen. Wenn man sich auf das Nettogrund- und Nettogeldvermögen (ausschließlich Zeitwerte der Kapitalversicherungsguthaben) beschränkt, verfügten 1988 die obersten 10% der Haushalte über fast die Hälfte des Gesamtvermögens, während die untere Hälfte der Haushalte weniger als 4% des Gesamtvermögens besaß. Diese krassen Gegensätze zeigen sich, obwohl die reichsten Haushalte in der Datenbasis nicht erfaßt sind. Für die Entwicklung der Konzentration der Vermögen zeigt sich im Zeitablauf keine eindeutige Tendenz. Die Ergebnisse für einzelne Jahre sind wegen unterschiedlicher Begriffsabgrenzungen nicht unmittelbar vergleichbar, die Erfassung des Vermögens ist generell unvollständig. In der Literatur wird eher von einer zunehmenden denn von einer abnehmenden Konzentration ausgegangen. Die bisher vorliegenden empirischen Verteilungsergebnisse decken allenfalls den Zeitraum bis 1993 ab. Seither hat sich die gesamtwirtschaftliche Situation aber deutlich verschlechtert. Die andauernden Arbeitsmarktprobleme und Kürzungen im Sozialleistungsbereich einerseits sowie "explodierende" Aktienkurse andererseits bergen zunehmende Gefahren einer nachhaltigen Spaltung der Gesellschaft. Es ist zu befürchten, daß unstetige Erwerbsverläufe mit der Folge unzureichender Sozialversicherungsansprüche künftig noch häufiger vorkommen werden und daß die Ungleichheit der Arbeitnehmereinkommen - auch durch die beobachtbare Zunahme untertariflicher Bezahlungen - steigen wird mit der Folge einer weiteren Verarmung insbesondere von Familien mit Kindern. Hinzu kommt, daß die von längerer Arbeitslosigkeit betroffenen Haushalte ihre Vermögensbestände aufzehren müssen oder sich gar verschulden, so daß ein Wiederaufstieg deutlich erschwert wird und auch die Vermögensverteilung noch ungleichmäßiger werden dürfte. Der Verteilungskonflikt wird sich darüber hinaus durch die in Gegenwart und Zukunft zu erwartenden Vererbungsvorgänge verschärfen. Hiervon profitieren nicht alle Haushalte gleichermaßen. Aufgrund sinkender Kinderzahlen ist mit einer Kumulierung von Vermögenswerten zu rechnen.33 Die in einigen politischen Kreisen befürwortete stärkere Einbeziehung der privaten Vermögensbestände zur Risikovorsorge, insbesondere für das Alter, ist angesichts der starken Vermögenskonzentration für den größten Teil der Bevölkerung wohl kaum eine realistische Alternative.
Seit zwanzig Jahren befaßt sich die Finanzmarktforschung einerseits mit Fragen der Bewertung und des Managements von Finanztiteln auf effizienten Kapitalmärkten und mit Fragen der Managementkontrolle auf unvollkommenen Märkten. Der folgende selektive Überblick konzentriert sich auf zentrale Aspekte der Theorie und Empirie der Managementkontrolle bei asymmetrischer Information. Ziel ist die Auseinandersetzung mit der unlängst vorgetragenen These zu den Mythen der Unternehmenskontrolle (Martin Hellwig 1997). Der aktuelle Überblick wird entwickelt vor dem Hintergrund der Gutenberg’schen Position eines eigenständigen Unternehmensinteresses, losgelöst von den Interessen der shareholder oder anderer stakeholder. Diese Position von Gutenberg verbindet sich im dritten Band der „Grundlagen der BWL: Die Finanzen“ von 1969 mit der Forderung nach Einhaltung eines sog. finanziellen Gleichgewichts. Erst in jüngster Zeit werden auch kapitalmarkttheoretisch fundierte Modelle entwickelt, die auch Raum bieten für eine Autonomie des Managements gegenüber dessen stakeholders.
Nationale rechtliche Rahmenbedingungen beeinflussen die Möglichkeiten für wirtschaftliche Aktivitäten multinationaler Unternehmen (MNU) in einem Gastland und der Koordination zwischen den Unternehmensteilen in verschiedenen Ländern. Sie sind damit wichtige Bestimmungsfaktoren für Standortentscheidungen von MNU. Die Bedeutung von Recht und Standortwahl unterscheidet sich aber je nach verfolgter MNUStrategie. Seit etwa 10 Jahren verändern MNU ihre strategische Ausrichtung. Gleichzeitig gab es wesentliche Fortschritte bei der Forschung über Geschäftsfeld- und Gesamt-unternehmensstrategien von MNU. Aufbauend auf diesen beiden Entwicklungen wird in diesem Aufsatz die These vertreten, daß heute - im Zeitalter integrierter MNU-Strategien - Einfachheit, Flexibilität und Verläßlichkeit des relevanten nationalen Rechts in einem Land und seine Ähnlichkeiten mit dem Recht anderer Länder eine zentrale Bedeutung erlangt haben. Dies stellt einen wesentlichen Unterschied zu einer – allerdings noch nicht gänzlich überwundenen – Situation dar, in der MNU mehr an einer rechtlichen Situation interessiert sind, die ihnen eine maximale Anpassung an die jeweiligen lokalen Umstände der einzelnen Gastländer erlaubt, worin der Kern von ”multi-domestic” MNU-Strategien besteht. Die Veränderung von MNU-Strategien bietet auch eine Erklärung für die in jüngster Zeit zu beobachtende Veränderung der Lobbyingaktivitäten von MNU bezüglich der rechtlichen Rahmenbedingungen in ihren jeweiligen Gastländern.
Der Eisenbahngüterverkehr verliert weiterhin Marktanteile an den Straßengüterverkehr. Dies ist nicht nur eine Folge der Tatsache, daß sich die geringeren externen Effekte der Bahn nicht genügend "auszahlen", die Bahn weist bei ihrer jetzigen Betriebsweise auch systembedingte Nachteile auf. Für den immer bedeutsameren Transport von Nicht-Massengütern in kleinen Mengen ist wohl der LKW als wesentlich kleinere Einheit als der Eisenbahnzug geeigneter. Eine Möglichkeit für die Bahn, diesem Problem zu begegnen, besteht in der Einführung einer neuen Transporttechnologie, die auf einzeln angetriebenen Güterwagen basiert, die ohne Fahrer automatisch gesteuert ihren Weg vom Start- zum Zielort selbsttätig finden. Die gesellschaftliche Erwünschtheit von mehr Schienengüterverkehr wird zu einem Gutteil mit der größeren Umweltfreundlichkeit, den geringeren externen Effekten der Eisenbahn begründet. Ob allerdings dieser Vorteil der Bahn erhalten bleibt, wenn versucht wird, die Vorteile eines dezentral gesteuerten automatischen Fahrens zu realisieren, stand bisher nicht fest. Die Arbeit untersucht diese Fragestellung durch die Rückführung externer Effekte auf naturwissenschaftlich-technische Grundlagen und kommt zu dem Ergebnis, daß 1. externe Nutzen in nennenswertem Umfang nicht einzuberechnen sind - weder im üblichen Sinne als statische technologische externe Effekte noch unter Berücksichtigung evolutionärer, dynamischer Aspekte; daß weiterhin 2. eine Einführung eines automatisierten und dezentralisierten Eisenbahngüterverkehrs eine deutliche Reduzierung der externen Effekte des Verkehrs erwarten läßt, und daß dabei 3. die Luftverschmutzung durch Abgase etwa "in der Mitte" zwischen heutigem Straßen- und Schienenverkehr liegt, Stau- und Unfallkosten jedoch im wesentlichen weiterhin den günstigeren Werten der Bahn entsprechen. Die Arbeit zeigt insgesamt, daß entgegen der ursprünglichen Befürchtung die externen Kosten eines automatisierten und dezentralisierten Schienengüterverkehrs dicht bei denen der bisherigen Bahn liegen. Trotzdem sind externe Kosten zu internalisieren, wo dies möglich scheint - nicht zuletzt, weil Ausmaß und Richtung des technischen Fortschritts durch Signale über die wirklichen Knappheiten gelenkt werden müssen. Die praktische Durchführbarkeit eines Schienengütertransports mit dezentral gesteuerten fahrerlosen Gütertriebwagen müßte in einem nächsten Schritt in der Praxis erprobt werden, weiterer Forschungsbedarf bleibt auch bei der Frage der Unfallsicherheit eines solchen Systems bestehen.
"Ich möchte in diesem Vortrag Beziehungen zwischen Gutenbergs Theorie der Unternehmung, die in seiner Habilitationsschrift angelegt und in den "Grundlagen der Betriebswirtschaftslehre" entfaltet ist, und aktuellen Entwicklungen in der Theorie der Unternehmung herstellen. Obwohl der Anlaß für diesen Vortrag das Thema hinreichend rechtfertigt, stellt sich die Frage, ob mein Vorhaben ein wissenschaftlich sinnvolles Unterfangen darstellt: Kann Gutenbergs Theorie der Unternehmung noch aktuell sein?"
Beitrag fur das 27. Wirtschaftswissenschaftliche Seminar Ottobeuren 14.- 17.9.1997). Dieser Beitrag nimmt aus theoretischer und ökonometrischer Sicht zu der Kontroverse über die Bedeutung der qualifikatorischen Lohnstruktur zur Erklärung der Beschäftigungsstruktur Stellung. Basierend auf einer Einteilung in drei Qualifikationsgruppen zeigt sich empirisch, daß die Entlohnung der mittleren Gruppe relativ zur unteren und oberen weniger stark ansteigt, während ein kontinuierlicher Trend zur Höherqualifikation der Beschäftigten besteht. Es werden eine Translog-Kostenfunktion und Anteilsgleichungen ökonometrisch geschätzt, um den Einfluß der Lohnstruktur auf die Beschäftigungsstruktur zu erfassen. Bei allen Vorbehalten aufgrund verschiedener Probleme der Schätzungen implizieren die Ergebnisse einen signifikanten Einfluß der qualifikatorischen Struktur der mittleren Löhne auf die Beschäftigungsstruktur wie auch eine die relative Beschäftigung steigernde Wirkung einer erhöhten Lohndispersion innerhalb der Qualifikationsgruppen. Damit besteht die Möglichkeit, daß mit einer größeren Lohnspreizung die Lastverteilung der Arbeitslosigkeit bei gegebenem Output, Kapitaleinsatz und technischem Fortschritt in Form einer Erhöhung der Beschäftigung von gering qualifizierten Arbeitnehmern angeglichen werden kann.
Der vorliegende Beitrag führt eine detaillierte empirische Untersuchung über die Rolle der amtlichen Kursmakler an der Frankfurter Wertpapierbörse durch. Der verwendete Datensatz erlaubt eine Analyse des Einflusses der Maklertätigkeit auf Liquidität und Volatilität sowie eine Beurteilung der Profitabilität der Eigengeschäfte.
Die Beteiligung der Makler am Präsenzhandel ist erheblich. Ihre Eigengeschäfte machen über 20% des Handelsvolumens zu gerechneten Kursen und über 40% des Handelsvolumens im variablen Handel aus. Für letzteren wird zudem dokumentiert, daß die Tätigkeit der Makler zu einer deutlichen Reduktion der Geld-Brief-Spannen beiträgt. Die letztendlich gezahlte effektive Spanne beträgt im Durchschnitt weniger als ein Drittel der Spanne, die sich aus dem Orderbuch ergibt.
Für den Handel zu gerechneten Kursen wird gezeigt, daß die Preisfeststellung durch die Makler zu einer Verringerung der Volatilität führt. Eine Beurteilung des Einflusses der Makler auf die Volatilität im fortlaufenden Handel scheitert daran, daß das hierfür teilweise verwendete Maß, die Stabilisierungsrate, nach unserer Einschätzung keine aussagekräftigen Resultate liefert.
Die Makler erzielten während unseres Untersuchungszeitraums im Durchschnitt keinen Gewinn aus ihren Eigengeschäften. Eine Zerlegung der Gewinne in zwei Komponenten zeigt, daß positive Spannengewinne im Aggregat nicht für entstehende Positionierungsverluste kompensieren können.
Insgesamt zeigt unsere Untersuchung, daß die Kursmakler an den deutschen Wertpapierbörsen einen Beitrag zur Sicherung der Marktqualität leisten. Die Konsequenzen dieser Resultate für die Organisation des Aktienhandels in Deutschland werden diskutiert.
Die mit unterschiedlichen Organisationsformen des Wertpapierhandels einhergehende Liquidität und ihre Messung ist eine der zentralen Fragen im Zusammenhang mit der Gestaltung von Wertpapiermärkten. Zunächst wird die Eignung verschiedener in der Literatur vorgeschlagener Liquiditätsmaße diskutiert. Anhand einer Serie von Marktexperimenten wird dann die Liquidität der grundsätzlichen Ausgestaltungsformen des Wertpapierhandels - Gesamtkursermittlung, kontinuierliche Auktion und Market-Maker-System - miteinander verglichen.
Sowohl das Handelsvolumen als auch das von ROLL (1984) vorgeschlagene Maß sind offenbar für den Vergleich der Liquidität unterschiedlich organisierter Wertpapiermärkte nicht geeignet. Eine aufgrund theoretischer Überlegungen prognostizierte Überschätzung der Transaktionskosten bei der Gesamtkursermittlung kann empirisch bestätigt werden.
Die explizite Geld-Brief-Spanne ist dagegen grundsätzlich ein geeignetes Liquiditätsmaß. Mit den Daten der experimentellen Märkte läßt sich auch für die Gesamtkursermittlung eine solche Spanne ermitteln. Sie erweist sich als niedriger als die Spanne in der kontinuierlichen Auktion und dem Market-Maker-Markt. Jedoch ist auch die Geld-Brief-Spanne mit Vorsicht zu interpretieren. Es wird gezeigt, daß unter bestimmten Umständen systematische Verzerrungen existieren können. In den hier untersuchten experimentellen Märkten ließen sich diese identifizieren. Bei Untersuchungen anhand von Felddaten ist dies jedoch nicht ohne weiteres möglich, so daß hier die Gefahr von Verzerrungen durchaus real ist.
Der Neue Markt soll wachstumsorientierten Unternehmen den Zugang zur Börse eröffnen. Die für dieses Marktsegment neu geschaffene Institution des Betreuers soll Vorbildcharakter für andere Marktsegmente haben. In der vorliegenden Arbeit werden Vor- und Nachteile des Betreuer-Konzeptes erarbeitet. Die daraus abgeleiteten Fragen werden empirisch untersucht. Dabei zeigt sich, daß der Neue Markt eine hohe Handelsintensität und niedrige Geld-BriefSpannen aufweist. Auch eine schriftliche Befragung der notierten Unternehmen ergab eine positive Einschätzung des neuen Marktsegments.
Überlegungen zur Profitabilität der Betreuer-Funktion deuten darauf hin, daß diese nicht an sich profitabel ist. Es findet offenbar eine Quersubventionierung aus Erträgen des Emissionsgeschäftes statt. Diese Abhängigkeit sollte berücksichtigt werden, wenn die Übertragung des Betreuerkonzepts auf andere Marktsegmente diskutiert wird.
Die langfristige Entwicklung der personellen Einkommensverteilung in der Bundesrepublik Deutschland
(1998)
Wir verwenden eine neue, auf der Burr-Verteilung basierende Spezifikation aus der Familie der Autoregressive Conditional Duration (ACD) Modelle zur ökonometrischen Analyse der Transaktionsintensitäten während der Börseneinführung (IPO) der Deutsche Telekom Aktie. In diesem Fallbeispiel wird die Leistungsfähigkeit des neu entwickelten Burr-ACD-Modells mit den Standardmodellen von Engle und Russell verglichen, die im Burr-ACD Modell als Spezialfälle enthalten sind. Wir diskutieren außerdem alternative Möglichkeiten, Intra- Tagessaisonalitäten der Handelsintensität in ACD Modellen zu berücksichtigen.
Die Verteilungssituation in Deutschland ist durch ein zunehmendes Maß an Ungleichheit gekennzeichnet. Das Wohlstandsgefälle zwischen West- und Ostdeutschland - 1993 lag das durchschnittliche Nettoäquivalenzeinkommen in den neuen Ländern nach Kaufkraftbereinigung um ca. ein Viertel unter dem Westniveau - birgt sozialen Sprengstoff. Hinzu kommt eine Verschärfung des Verteilungsproblems auch innerhalb der alten Bundesländer. So ist der Anteil der Personen (in Haushalten mit deutscher Bezugsperson) mit weniger als der Hälfte des im Westen erreichten durchschnittlichen Nettoäquivalenzeinkommens von 1988 bis 1993 um 1,7 Prozentpunkte auf 10,5% gestiegen. Die Dynamik in der Verteilungsentwicklung hat sich gegenüber dem vorangegangenen Fünfjahreszeitraum (1983 bis 1988) verstärkt. Angesichts einer weiter gestiegenen Arbeitslosigkeit, Einschränkungen bei den Lohnersatzleistungen und Arbeitsförderungsmaßnahmen sowie ausbleibender Anpassungen von Wohngeld und Sozialhilfe an die Preisentwicklung muß davon ausgegangen werden, daß sich die Verteilungssituation für einen weiten Bevölkerungskreis seit 1993 noch zugespitzt hat. Dies sollte bei allen Überlegungen zu steuer- und sozialpolitischen Reformen berücksichtigt werden.
Die traditionelle Begründung der Bankenregulierung basiert auf der Vorstellung, daß regulatorische Vorschriften in erster Linie dem Schutz der Bankeinlagen und der Vermeidung von Bankkonkursen dienen. In Kapitel 2 wurde argumentiert, daß diese Begründung nicht den Kern des Regulierungsproblems trifft. Der einzige letztlich überzeugende Grund für die Regulierung der Eigenkapitalausstattung von Banken ist in Externalitäten zu sehen, die aus den derzeit praktizierten Einlagensicherungssystemen bzw. der impliziten Einlagensicherung durch den Staat resultieren. Diese Begründung für die Bankenregulierung führt dazu, daß die Aktiva der Bank ins Zentrum der Betrachtung rücken: Die Bankenregulierung muß danach dafür sorgen, daß die von Banken getroffenen Entscheidungen in bezug auf die Übernahme von Risiken in einem wohlfahrtstheoretisch effizienten Sinn getroffen werden. Wenn die Verminderung des Konkursrisikos die alleinige Zielgröße der Regulierung darstellen würde, müßte man schlußfolgern, daß ein einfaches Verbot riskanter Geschäftsaktivitäten die Erreichung des Regulierungsziels sicherstellt. Dies kann natürlich keine ernstzunehmende Option sein. Das Geschäft der Banken besteht in der Evaluierung und dem Management von Risiken. Die Regulierung muß dafür sorgen, daß Banken diese Funktion trotz bestehender Externalitäten in einer wohlfahrtstheoretisch effizienten Weise erfüllen. Um die Frage der Effizienz von Risikoentscheidungen in einem formalen Modellrahmen analysieren zu können, wurde in Kapitel 4.2.4 ein neuer Optionsbewertungsansatz für das Eigenkapital der Bank entwickelt. Dies war erforderlich, da sich die bisher in der Literatur verwendeten Ansätze nicht zur Beurteilung dieser Frage eignen. Im μ-σ-Rahmen kann zwar analysiert werden, ob die Bank ein effizientes Portfolio wählt. Der Modellansatz basiert aber auf der kritischen Annahme normalverteilter Renditen. Da die beschränkte Haftung der Eigenkapitalgeber aber eine untere Schranke der Eigenkapitalrendite bewirkt, ist diese Annahme zur Analyse der Risikowahl problematisch. Das in Kapitel 4.2.1 vorgestellte Optionsbewertungsmodell von Merton berücksichtigt zwar die beschränkte Haftung der Eigenkapitalgeber, eignet sich aber nicht zur Analyse der Effizienz der Risikowahl, weil die Wahl des Anlagerisikos irrelevant für die erreichbare Wohlfahrt ist. Als problemadäquater Modellrahmen wurde ein Modell mit risikoabhängiger Rendite von Bankanlagen entwickelt. Dieser Ansatz beruht auf der Idee, daß Banken in Spezialbereichen über superiore Informationen verfügen, die sie zur Erzielung von über den Kapitalkosten liegenden Renditen einsetzen können. Da die Bank aber nur über begrenzte Informationen verfügt, ist die Anzahl der verfügbaren Anlagen mit positivem Kapitalwert begrenzt und definiert so das effiziente Maß der Risikoübernahme. Die Analyse der Auswirkungen der Eigenkapitalregulierung zeigt, daß die risikoabhängige Eigenkapitalregulierung zwar der einfachen Verschuldungsgradregulierung überlegen ist, das Risikoanreizproblem der Banken aber nicht vollständig lösen kann. Sie stellt aber im Vergleich zu den anderen in dieser Arbeit diskutierten Regulierungsansätzen die robusteste Lösung des Problems dar. Nach weitverbreiteter Ansicht leisten Wettbewerbsbeschränkungen einen wichtigen Beitrag zur Behebung des Risikoanreizproblems, weil eine Bank bei Erhöhung des Anlagerisikos den Verlust der Monopolrente (Charterwert ) im Konkurs befürchten muß. Es wurde aber gezeigt, daß diese Kraft nur für unplausibel hohe Monopolrenten stark genug ist, um die aus der Einlagensicherung resultierenden Anreize zu kompensieren. Auch der in Kapitel 4.5 analysierte Vorschlag von John, John und Senbet (1991) einer Nutzung des Steuersystems zur Korrektur des Risikoanreizproblems erweist sich bei näherer Analyse für praktische Regulierungszwecke als unbrauchbar, da hierfür ein marginaler Steuersatz auf die Investitionsrückflüsse in der Größenordnung von 90% notwendig ist. Schließlich erweist sich auch die in Kapitel 4.4 und 4.6.1 untersuchte Idee, durch Einsatz von sicheren Reserven den Effekt einer Erhöhung der Anlagerisiken zu kompensieren, als wenig sinnvoll. Der das Merton-Modell treibende Effekt einer Anlagersikoerhöhung kann durch diese Regulierungsform erfolgreich ausgeschaltet werden. An seine Stelle treten aber unerwünschte Nebeneffekte, die im Ergebnis nach wie vor zu einer nicht effizienten Risikowahl führen. Die Nebeneffekte können nur durch einen Verzicht auf eine Eigenkapitalunterlegung ausgeschaltet werden. Obwohl prinzipiell auch ohne Eigenkapitalunterlegung die Stabilität von Banken durch entsprechend hohe sichere Reservehaltung gewährleistet werden kann, ist eine solche Regulierung aufgrund des enormen Bedarfs an sicheren Reserveanlagen nicht praktikabel. Eine Regulierungsform, die theoretisch in der Lage ist, die wohlfahrtseffiziente Risi kowahl zu implementieren, ist ein Einlagensicherungssystem mit "fair" berechneter risikoabhängiger Prämienkalkulation. Ein solches Einlagensicherungssystem verhindert effektiv jegliche Externalitäten der Risikoentscheidung der Bank auf die Einlagensicherung und führt damit automatisch zur effizienten Wahl des Anlagerisikos. Angesichts dieses Ergebnisses überrascht die Tatsache, daß sich die Aufsichtsbehörden fast vollständig auf das Instrument der Eigenkapitalregulierung konzentrieren. In Kapitel 4.6.2.2 wurden argumentiert, daß die Gründe dafür in den politischen und praktischen Problemen der Umsetzung von risikoabhängigen Einlagensicherungsprämien liegen. Da die Einlagensicherungsprämie nur in diskreten Zeitabständen fällig wird, hat eine eigenkapitalschwache Bank nach wie vor einen starken Anreiz, nach Zahlung der Prämie ihr Anlagerisiko zu erhöhen. Daneben zeigen die Erfahrungen der Savings & Loan-Krise, daß die Einlagensicherung mit erheblichen Agency-Kosten verbunden ist, weil die Mitarbeiter der Einlagensicherungsbehörde dazu neigen, notwendige Liquidationen von Banken zu unterlassen oder hinauszuzögern. In Kapitel 5 wurde das Zusammenwirken von Einlagensicherung und Eigenkapitalregulierung untersucht. Dazu wurde ein Modell verwendet, in dem eine optimale Kapitalstruktur von Banken existiert, die sich aus einem Trade Off zwischen Finanzierungskostenvorteilen der Einlagenfinanzierung und Liquidationskosten im Insolvenzfall ergibt. Das Modell zeigt, daß die Kombination einer risikoabhängigen Eigenkapitalregulierung mit einer traditionellen volumenabhängigen Einlagensicherungsprämie zwar die effiziente Stabilität von Banken, nicht dagegen effiziente Anlageentscheidungen erreicht. Wenn alternativ eine traditionelle Verschuldungsgradregulierung mit einer risikoabhängigen Einlagensicherungsprämie kombiniert wird, resultieren effiziente Anlageentscheidungen, die Bank operiert jedoch nicht im Kapitalkostenminimum. Erst die Kombination von risikoabhängiger Eigenkapitalregulierung und risikoabhängiger Einlagensicherungsprämie führt dazu, daß das insgesamt wohlfahrtsoptimale Marktergebnis implementiert wird. Die risikoabhängige Kapitalregulierung steht danach in einem komplementären Verhältnis zum risikoabhängigen Einlagensicherungssystem. Entgegen der teilweise geäußerten Warnung vor einer "doppelten" Bestrafung der Risikoübernahme durch Eigenkapitalregulierung und Einlagensicherung führt allein die Risikoabhängigkeit bei der Regulierungen zu effizienten Marktergebnissen. In Kapitel 6 wurde argumentiert, daß auch die Berücksichtigung der Interessendivergenz zwischen Kapitalgebern und Managern nichts an der Beurteilung der risikoabhängigen Eigenkapitalregulierung ändert. Die Eigeninteressen von Managern können zwar zu einer Abweichung der tatsächlich verfolgten Risikopolitik von der durch die Eigenkapitalgeber bevorzugten Risikopolitik führen. Allerdings können die Eigeninteressen des Managements in nicht prognostizierbarer Weise sowohl risikoerhöhende als auch risikosenkende Wirkung haben. Aus Sicht der Aufsichtsbehörden erscheint daher die Orientierung an Modellen sinnyoll, die ein marktwertmaximierendes Verhalten der Bank unterstellen. Schließlich zeigt die Analyse der Wechselwirkungen von Eigenkapitalregulierung und den Arbeitsanreizen des Managements, daß die risikobasierte Eigenkapitalregulierung auch im Hinblick auf diesen Agency-Konflikt positive Wirkungen entfaltet. Wenn die Drohung des Konkurses ein Motivationsinstrument für Manager darstellt. dann ist es aus Sicht der Kapitalgeber unter plausiblen Annahmen sinnvoll, auch im Hinblick auf die Auswirkung auf die Anreizsituation des Managements bei hohen Anlagerisiken eine höhere Eigenkapitalquote zu wählen. Die risikoabhängige Eigenkapitalregulierung kann allerdings den Agency-Konflikt auch verstärken, wenn die Aufsichtsbehörde ein zu hohes Konfidenzniveau vorgibt. Dann versagt die Anreizwirkung der Konkursdrohung, weil Konkurse auch bei "Fehlverhalten" des Managements so unwahrscheinlich sind, daß die Konkursdrohung keinen Einfluß auf das Verhalten von Managern hat. Zusammenfassend kann festgestellt werden, daß die risikoabhängige Eigenkapitalregulierung von Banken nicht nur die Sorgen der Aufsichtsbehörden verringert, sondern auch auf einem soliden theoretischen Fundament steht. Sie stellt die notwendige Antwort auf die durch die Einlagensicherung generierten Fehlanreize zur Übernahme exzessiver Risiken dar und leistet damit einen wichtigen Beitrag für die Funktionsfähigkeit der Kapitalmärkte. Gleichzeitig zeigt die Analyse aber auch, daß überzogenes Stabilitätsdenken der Aufsichtsbehörden nicht angebracht ist. Gerade im Fall von Banken verfügen Manager über ausgesprochen große Verhaltensspielräume und Eigenkapitalgeber über wenige Instrumente, um eine Geschäftspolitik im Sinne der Kapitalgeber durchzusetzen. Die Konkursdrohung stellt in dieser Situation ein wichtiges Instrument zur Durchsetzung des Interessengleichlaufs zwischen Management und Kapitalgebern dar. Die Bankenregulierung darf daher die Konkurswahrscheinlichkeit von Banken nicht so stark senken, daß die Drohung des Konkurses seine positive Anreizwirkung verliert.
Performance fees for portfolio managers are designed to align the managers' goals with those of the investors and to motivate managers to aquire "superior" information and to make better investment decisions. A part of the literature analyzes performance fees on the basis of market valuation. In this article it is shown that market valuation faces a dilemma: on the one hand, the conditions which allow for market valuation imply that the portfolio manager perfectly hedges the performance fee. This in turn implies severe restrictions on the incentive effects of the performance fee. In particular, the fee does not motivate the manager to use superior information for investment decisions concerning the managed portfolio. On the other hand, better incentives can only be generated under conditions which exclude market valuation. In this case, the analysis has to be based on expected utility valuation. Keywords: performance fees, portfolio managers, "superior" information, market valuation, incentive effects
Die soziale Dimension des europäischen Einigungsprozesses steht derzeit, nicht zuletzt wegen der geplanten Währungsunion im Rahmen der Europäischen Union, im Brennpunkt einer kontroversen Diskussion.Im Rahmen dieses Beitrags sollen Probleme der sozialen Sicherungsysteme erörtert werden, die sich explizit aus dem Verlauf des Integrationsprozesses ergeben könnten. Es wird zunächst ein knapper Überblick über die seit Gründung der Europäischen Gemeinschaften erfolgten Maßnahmen im Bereich der Sozialpolitik gegeben. Daran schließt sich eine Typologisierung der sozialen Sicherungssysteme in den Mitgliedstaaten an und eine zusammenfassende Darstellung der beiden grundlegenden ordnungspolitischen Konzeptionen für den europäischen Integrationsprozeß, des Wettbewerbskonzeptes einerseits und des Harmonisierungskonzeptes andereseits, an. Während das Wettbewerbskonzept von vielen, meist eher neoliberal orientierten Ökonomen als das prinzipiell überlegenere ordnungspolitische Paradigma angesehen wird, mehren sich die kritischen Stimmen, die das Wettbewerbskonzept zwar nicht unbedingt prinzipiell ablehnen, jedoch auf Schwächen einer zu starr an der neoliberalen Interpretation des Wettbewerbskonzeptes orientierten Umsetzung hinweisen. Im Bereich der Sozialpolitik wird vor allem von Seiten der Gewerkschaften vor einem „Sozialdumping“ gewarnt. Eine weitere Ineffizienz des Wettbewerbskonzeptes, wird in der Möglichkeit eines sog. „race to the bottom“ gesehen, dem bei einer Anwendung des Subsidiaritätsprinzips drohenden, ruinösen Wettbewerb der europäischen Sozialstaaten. Die theoretische und empirische Relevanz der Thesen vom „Sozialdumping“ und des „race to the bottom“ wird diskutiert. Abschließend wird ein Ausblick auf die künftige Entwicklung gewagt und es werden Lösungskonzepte für die befürchteten Fehlentwicklungen erörtert.
Die externe Performance-Messung beurteilt auf Basis öffentlich verfügbarer Daten die Leistung des Fondsmanagements. Es wird zunächst geprüft, inwieweit die für die Beurteilung von Aktienfonds entwickelten Maße auf Rentenfonds anwendbar sind. Anschließend wird die Performance einer Stichprobe deutscher Rentenfonds untersucht. Es zeigt sich, daß die risikoadjustierte Rendite in den meisten Fällen nicht über der eines geeigneten Marktindex liegt. Einige Fonds weisen ein signifikantes Aktien-Exposure auf. Ein systematischer Zusammenhang zwischen der Nettorendite und der Gebührenhöhe kann nicht nachgewiesen werden.
Das Niedrigeinkommenssegment steht im Zentrum der Kontroversen um eine Reform des Sozialstaats. Die Kenntnis seiner soziodemographischen Zusammensetzung ist daher unabdingbar, um in der betreffenden Diskussion gehaltvoll Position beziehen zu können. Besonders interessieren in diesem Zusammenhang Zeitvergleiche. In diesem Sinne wird in der vorliegenden Studie die Veränderung der Struktur des Niedrigeinkommensbereiches in der Bundesrepublik anhand einer Abfolge mehrerer Querschnitte, welche die Jahre 1962/63 bis 1988 umfaßt, analysiert. Dem Niedrigeinkommensbereich werden - in Anlehnung an neuere Ergebnisse in der Literatur über „prekären Wohlstand“ und über Abstiegsrisiken - diejenigen Personen zugerechnet, die nicht mehr als 80 v. H. des durchschnittlichen Nettoäquivalenzeinkommens zur Verfügung haben. Zur vertieften Analyse wird der Niedrigeinkommensbereich nochmals in vier Teilsegmente unterteilt. Entsprechend den relativen Besetzungshäufigkeiten zeigt sich beim Vergleich mit dem oberen Einkommensbereich für spezifische Personengruppen eine Überrepräsentation im Niedrigeinkommensbereich bzw. in seinen vier Teilsegmenten. Hierbei ergeben sich im Zeitablauf einige aufschlußreiche Trends. So erhöhte sich von 1962 bis 1988 beispielsweise für Alleinstehende, für Personen in Alleinerziehenden-, in Nichterwerbstätigenhaushalten sowie für Personen in Haushalten mit einer weiblichen Bezugsperson der Grad der Überrepräsentation im Niedrigeinkommensbereich. Gleiches gilt für Personen in Haushalten mit einem hohen Mietanteil am Haushaltsnettoeinkommen bzw. generell für Personen in Nichteigentümerhaushalten. Demgegenüber verringerte sich insbesondere für Personen im Haushaltstyp einer vollständigen Familie mit vier Kindern oder für Personen in Landwirte- und Arbeiterhaushalten von 1962 bis 1988 das Ausmaß der Überrepräsentation im Niedrigeinkommenssegment.
Die Untersuchungen auf der Basis der Einkommens- und Verbrauchs stichproben haben ergeben, daß sich hinter der für die "alte" Bundesrepublik festgestellten weitgehenden Stabilität der Verteilung der Nettoäquivalenzeinkommen deutliche Veränderungen auf den vorgelagerten Stufen des Verteilungsprozesses verbergen. Bei den individuellen Erwerbseinkommen sowie bei den individuellen Faktoreinkommen (nur Bezieher) sind zwischen 1973 und 1988 die hier einbezogenen aggregierten Ungleichheitsmaße zwar kaum gestiegen; Kernel Density-Schätzungen zeigen aber einen leichten Polarisierungstrend der bimodalen Verteilung, da die Dichte in den Randbereichen der Verteilung zugenommen hat und das Dichtetal zwischen den beiden Gipfeln sich gesenkt hat. Unter Berücksichtigung des Haushaltszusammenhangs - durch Zusammenfassung individueller Faktoreinkommen auf Haushaltsebene und Gewichtung mit einer Äquivalenzskala - erweisen sich die Verteilungsänderungen als noch gravierender. Die aggregierten Ungleichheitsmaße sind stark gestiegen, und das Verhältnis der beiden Modi der zweigipfligen Verteilung hat sich umgekehrt: lag 1973 der erste Gipfel im Bereich der geringfügigen Faktoräquivalenzeinkommen noch deutlich unter dem zweiten, knapp unterhalb des Durchschnitts gelegenen Gipfel, so war 1988 der erste Gipfel deutlich höher als der zweite. Die relative Häufigkeit marginaler Faktoräquivalenzeinkommen hat im Zeitablauf also eindeutig zugenommen, ebenso wie die im oberen Einkommensbereich. Dennoch kann man von Polarisierung nur in einem weiteren Sinn sprechen, da das Dichtetal zwischen den Modi 1988 höher als 1973 liegt. Es mag beruhigend wirken, daß - zumindest in der Zeit vor der Wiedervereinigung - das Abgaben- und Transfersystem die zunehmende Disparität der Faktoreinkommensverteilung insoweit kompensieren konnte, als die relative Häufigkeit des Niedrigeinkommensbereichs - hier abgegrenzt mit 50% des durchschnittlichen Nettoäquivalenzeinkommens - vergleichsweise mäßig zugenommen hat. Dieser Eindruck ist allerdings im Hinblick auf die eingangs erwähnten Einschränkungen der Datenbasis zu relativieren. Die unzureichende Erfassung des oberen und des unteren Randbereichs der Einkommensverteilung läßt vermuten, daß der tatsächliche Trend zunehmender Ungleichheit und Polarisierung durch unsere Analysen unterschätzt wird.
Der vorliegende Beitrag beschäftigt sich mit Problemen der Messung individueller Wohlfahrt und ihrer Verteilung. Dabei wird versucht, eine Brücke zwischen ökonomischen und soziologischen Ansätzen zu schlagen. In einern ersten Teil werden Probleme der Nutzenmessung diskutiert. Für die Nutzenmessung gibt es weder einen natürlichen Nullpunkt noch eine natürliche Maßeinheit, so daß es deren Bestimmung durch Konventionen bedarf. Selbst die dabei einzubeziehende Palette objektiver und subjektiver Wohlfahrtskomponenten ist nicht vorgegeben. Ausgehend von dem soziologischen Ansatz, sowohl "welfare" als auch "happiness" zu berücksichtigen, wird ein differenziertes Schema wohlfahrtsrelevanter Bedürfnisse erarbeitet, deren Messung teilweise "objektiv unter Annahmen" - dies betrifft alle Besitzbedürfnisse -, überwiegend aber "subjektiv durch Einschätzung" möglich ist (Zugehörigkeitsbedürfnisse, Bedürfnisse nach Selbstverwirklichung, gesellschaftsbezogene Bedürfnisse). Die Bedingtheit empirischer Wohlfahrtsanalysen wird offensichtlich, da die unvermeidlichen normativen Hypothesen einer wissenschaftlichen Beweisführung nicht zugänglich sind. Dies gilt auch, wenn man sich auf die in Geldeinheiten direkt bewertbaren Bedürfnisbefriedigungsmittel beschränkt; denn die daraus resultierende Wohlfahrt hängt von den individuellen Nutzenfunktionen ab. Hinzu kommen Probleme bei der Zusammenfassung von Einkommens-, Vermögens- und Absicherungsindikatoren zu einem individuellen Gesamtwohlfahrtsmaß, um einem eindimensionale Wohlfahrtsverteilung unter allen Gesellschaftsmitgliedern ermitteln zu können. Schließlich bedarf es auch bei der Zurechnung der in einern Haushalt vorhandenen Bedürfnisbefriedigungsmittel auf die einzelnen Haushaltsmitglieder normativer Setzungen, die sich in verschiedenen Äquivalenzskaien niederschlagen. In einem zweiten Teil werden - nach der grundsätzlichen Erörterung von Schwierigkeiten bei der Operationalisierung und Messung von Nutzen - einige Ungleichheitsmaße dargestellt und hinsichtlich ihrer normativen Implikationen diskutiert. Alle Verteilungsindikatoren basieren auf der Philosophie des individualistischen Utilitarismus und gehen von Gleichverteilung als Referenzpunkt aus. Die Frage nach dem Einfluß der Wohlfahrt anderer Gesellschaftsmitglieder auf den individuellen Nutzen bleibt also ebenso ausgeklammert wie die nach einem gerechten Maß an Ungleichheit als Vergleichspunkt zur gegebenen Ungleichheit. Abschließend wird die Entwicklung einiger Verteilungsindikatoren in der Bundesrepublik Deutschland von 1962/63 bis 1988 dargestellt. Dabei zeigt sich eine weitgehende Stabilität der Verteilung der Nettoäquivalenzeinkommen, die allerdings nicht mit der Verteilung individueller Wohlfahrt gleichzusetzen ist.
Enthält die 2 Vorträge: Die Entwicklung der Einkommensverteilung und der Einkommensarmut in den alten Bundesländern von 1962 bis 1988 / Irene Becker, Universität Frankfurt/Main Vergleichende Analyse der Einkommensverteilung und der Einkommensarmut in den alten und neuen Bundesländern von 1990 bis 1995 / Richard Hauser, Universität Frankfurt a.M.
Ziel der hier vorgestellten Arbeit ist es, einen Eindruck über die Größenordnung der Kosten eines Bürgergeldmodells als alternatives Grundsicherungssystem zu gewinnen. Dazu wurde eine formale („impact“-) Partialinzidenzanalyse mit Hilfe einer statischen Simulation auf der Basis von Mikrodaten der Einkommens- und Verbrauchsstichproben 1983 und 1988 durchgeführt. Die Ergebnisse können nur als ungefähre Orientierungspunkte interpretiert werden, zumal sie sich auf den Transferbereich beschränken. Bei der Konkretisierung des sozio-kulturellen Existenzminimums wurde im wesentlichen an das bestehende Sozialhilferecht angeknüpft, und für das anzurechnende Einkommen wurde schwerpunktmäßig ein Transferentzugssatz von 50% unterstellt. Die Berechnungen führen zu erheblichen Mehrkosten des Bürgergeldmodells gegenüber dem gegenwärtigen Nebeneinander verschiedener Mindestsicherungsleistungen (mit deutlich höheren Transferentzugssätzen), die z. gr. T. durch die auch oberhalb des Existenzminimums (bis zu dessen doppeltem Betrag) bestehenden potentiellen Ansprüche bedingt sind. Die Nettokosten hätten 1988 fast ein Drittel des Aufkommens der Lohn- und Einkommensteuer ausgemacht, so daß die hier vorgestellte Reformvariante als kaum finanzierbar bezeichnet werden kann. Es wäre wohl utopisch anzunehmen, daß die möglichen positiven Anreizeffekte des verminderten Transferentzugssatzes zu einer Senkung des Bürgergeldvolumens in ähnlicher Größenordnung führen würde. Mit Blick auf die Gegenwart ist zudem zu bedenken, daß seit der Wiedervereinigung das Transfervolumen im Falle der Einführung eines Bürgergeldes wesentlich höher als in der hier präsentierten Simulationsrechnung ausfallen dürfte, und zwar auch in Relation zum Volkseinkommen. Denn die schrittweise Angleichung der Einkommen in Ostdeutschland an das westdeutsche Niveau bewirkt, daß in der Übergangszeit die Haushaltseinkommen in den neuen Bundesländern vergleichsweise häufiger und tendenziell stärker unterhalb des Existenzminimums liegen als in Westdeutschland - es sei denn, für Ostdeutschland würde das relevante Existenzminimum deutlich niedriger als hier vorgeschlagen definiert; dies wäre aber nicht sinnvoll und politisch kaum tragbar. Eine Reform der sozialen Mindestsicherung nach dem Muster einer Negativen Einkommensteuer würde also zu erheblichen Mehrkosten führen. Bei allen Vorteilen, die ein Bürgergeldsystem mit 50%igem Transferentzugssatz haben mag, ist die Finanzierungsfrage völlig offen; bei höherem Transferentzugssatz wäre das Problem zwar weniger gravierend, aber nicht gelöst.
Die Analyse von Entwicklungstendenzen der personellen Einkommensverteilung in der Bundesrepublik Deutschland hat ein hohes Maß an Stabilität ergeben. Trotz vielfältiger gesamtwirtschaftlicher und sozialer Wandlungsprozesse während des einbezogenen Vierteljahrhunderts (1962/63 bis 1988) deuten aggregierte Verteilungsmaße auf der Basis von Mikrodaten der Einkommens- und Verbrauchsstichproben (EVS) sehr mäßige Veränderungen der Verteilung der Nettoäquivalenzeinkommen an. Der sich zunächst abzeichnende leichte Trend zu verminderter Ungleichverteilung kehrte sich im letzten Jahrzehnt des Beobachtungszeitraums wieder um, so daß die meisten Verteilungsindikatoren 1988 wieder nahe den Werten zu Beginn der siebziger Jahre lagen. Zwischen 1978 und 1983 scheint sich insbesondere die Situation der untersten Schichten verschlechtert zu haben, wie die Entwicklung des Atkinson-Index bei hoher Ungleichheitsaversion, des Theil-Index und der Armutsquote - bei einer relativen Armutsgrenze von 50% des durchschnittlichen Nettoäquivalenzeinkommens - belegen. Ein Vergleich der Verteilungsentwicklung auf verschiedenen Stufen des Verteilungsprozesses zeigt, daß sich die primäre und die sekundäre Verteilung tendenziell auseinanderentwickelt haben. Beispielsweise ist der Gini-Koeffizient der Faktoräquivalenzeinkommen im Untersuchungszeitraum um 7% gestiegen, der der Nettoäquivalenzeinkommen um 11% gesunken. Das soziale Sicherungssystem scheint sich im Untersuchungszeitraum also im großen und ganzen bewährt zu haben. Dennoch deuten sich neuerdings wieder zunehmende Verteilungsprobleme und sozialpolitische Problemfelder an. Abgesehen von dem allgemeinen Anstieg der Armutsquote in den achtziger Jahren und der nach wie vor ungünstigen Position der (vollständigen) Familien mit mehreren Kindern zeigt sich insbesondere bei den Alleinerziehenden eine alarmierende Entwicklung. Ihre durchschnittliche Wohlstandsposition erreichte 1988 nur noch ca. vier Fünftel (Alleinerziehende mit einem Kind) bzw. drei Fünftel (Alleinerziehende mit mehreren Kindern) des durchschnittlichen Nettoäquivalenzeinkommens insgesamt. Die relativen Positionen der anderen Haushalts- bzw. Familientypen haben sich im Zeitablauf tendenziell eher dem Gesamtdurchschnitt angenähert, so daß eine Dekomposition von Verteilungsindikatoren eine eindeutige und anhaltende Dominanz der Intra-Gruppen-Ungleichheit gegenüber der Ungleichverteilung zwischen den Haushaltstypen ergibt (ca. 90% der insgesamt gemessenen Ungleichheit). Auch in der Differenzierung nach der sozialen Stellung des Haushaltsvorstands überwiegt die Intra-Gruppen-Ungleichheit die Inter-Gruppen-Komponente der Einkommensungleichverteilung um ein Vielfaches, und zwar in deutlich zunehmendem Maß. Eine zielgerichtete Sozial- und Verteilungspolitik sollte also nicht an traditionellen Kategorien bzw. Schichtmerkmalen - z.B. Arbeiterschicht versus Unternehmerschicht - anknüpfen, sondern die komplexen Einflußfaktoren, die die materielle Situation von Haushalten determinieren, und damit die Heterogenität von eindimensional abgegrenzten Gruppen berücksichtigen. Darüber hinaus hat die Untersuchung auf der Basis der EVS-Datenbank gezeigt, daß sich hinter einer insgesamt recht stabilen Einkommensverteilung vielfältige, sich kompensierende Einzelentwicklungen verbergen, die in der Sozial- und Familienpolitik beachtet werden sollten.
Gegenstand der Untersuchung ist die Veränderung der Struktur der personellen Einkom-mensverteilung in der Bundesrepublik Deutschland. Die Grundlage der Analyse sind die vom Statistischen Bundesamt erhobenen Einkommens- und Verbrauchsstichproben (EVS) der Jahre 1962/63, 1969, 1973, 1978 sowie 1983. Um zwischen Alters-, Perioden- und Ko-horteneffekten differenzieren zu können, wurden die Daten der einzelnen Querschnittser-hebungen verkettet und mit Hilfe der so gebildeten Zeitreihen, sogenannten „Repeated Cross-Section“-Daten (RCS-Daten), die Entwicklung und Strukturveränderungen der Ein-kommen geburtskohortenspezifisch untersucht. Es zeigt sich, daß die Struktur der Einkommen während der jeweiligen Zeit der Erwerbstätigkeit, d. h. bis zum 60. Lebensjahr, relativ beständig bleibt. Erst der Übergang in die Nacherwerbsphase führt zu einem Bedeutungswandel: die „Einkommen aus öffentlichen Transferzahlungen“ werden zu einer relevanten Einkunftsart. Verursacht wird dies vor allem durch Leistungen aus staatlichen Alterssicherungssystemen. Eine analoge Zunahme der Bedeutung von „Einkünften aus Vermögen“ im Alter, wie sie z. T. in der ökonomischen Theorie sowie von Sozialpolitikern unterstellt wird, kann nicht bestätigt werden. Zusätzlich zu den, getrennt für die Ein- und Zweipersonenhaushalte durchgeführten Analysen wurde ein Vergleich der Wohlstandspositionen zwischen diesen beiden Haushaltsgrößen mittels Äquivalenzeinkommenswerten vorgenommen. Als grundlegendes Resultat ergibt sich, daß die Zweipersonenhaushalte im Hinblick auf die „ausgabefähigen Einkommen und Einnahmen“ grundsätzlich eine höhere Position als die Einpersonenhaushalte innehaben. Darüber hinaus wurden ansatzweise die mit einer Haushaltsänderung einhergehenden Einkommensveränderungen untersucht. Hierbei zeigt sich, daß der Übergang von einem „Zweipersonen-Durchschnittshaushalt“ mit einer männlichen Bezugsperson zu einem „Einpersonen-Durchschnittshaushalt“ mit einer verwitweten Frau als Bezugsperson zu einer erheblichen Verringerung der Wohlstandsposition der verwitweten Frau führt.
In diesem Arbeitspapier werden Veränderungen der Wohlstandsverteilung während der Periode 1972 bis 1991 vor dem Hintergrund der ökonomischen und demographischen Entwicklung in Westdeutschland skizziert und die Wohlstandsverteilungen in Ostdeutschland vor und nach der Wiedervereinigung verglichen. Dabei beziehen wir uns auf das Äquivalenzeinkommen von Personen zur Erfassung individuellen Wohlstands. Die Analyse bezieht sich zum einen auf Ergebnisse des Statistischen Bundesamtes, die auf einem mittleren Aggregationsniveau durchschnittliche Äquivalenzeinkommen nach sozio-ökonomischen Gruppen ausweisen. Zum anderen werden verschiedene Verteilungsmaße auf der Basis von Mikrodaten berechnet, wobei uns zwei Datenquellen zur Verfügung standen: die offiziellen Einkommens- und Verbrauchsstichproben (1973, 1978 und 1983) und das Sozio-ökonomische Panel (1983 bis 1990 für Westdeutschland, 1990, 1991 für Ostdeutschland). Auf mittlerem Aggregationsniveau zeigen sich wesentliche Änderungen in den relativen Wohlstandspositionen der zehn unterschiedenen sozio-ökonomischen Gruppen, aber eine nahezu unveränderte Rangfolge der Gruppen während des gesamten Beobachtungszeitraums. Auf der Mikroebene zeigt sich eine leichte Zunahme der Ungleichheit der Wohlstandsverteilung, die am Äquivalenzeinkommen der Personen gemessen wurde. Die Veränderungen sind allerdings sehr gering und weisen teilweise in den beiden Dekaden entgegengesetzte Richtungen auf. Aus der Dekomposition der mit dem Theil-Maß ermittelten Verteilungsungleichheit nach der sozialen Stellung des Haushaltsvorstands ergibt sich, daß mehr als 80% der Ungleichheit insgesamt auf Intra-Gruppen-Ungleichverteilungen zurückzuführen ist, und zwar mit steigender Tendenz. Dieses Ergebnis wird etwas gemildert, wenn man die sehr heterogene Gruppe der Nichterwerbstätigenhaushalte nach der überwiegenden Einkommensart des Haushalts disaggregiert.
Im vorliegenden Arbeitspapier werden alternative normative Grundpositionen der Familienpolitik diskutiert und die Entwicklung der relativen Verteilungspositionen von Haushalten unterschiedlicher Größe bzw. von Familien mit und ohne Kinder untersucht. Die empirische Analyse stützt sich zum einen auf veröffentlichte Tabellen des Statistischen Bundesamtes und zum anderen auf eigene Auswertungen der Einkommens- und Verbrauchsstichproben 1973, 1978 und 1983 sowie des Sozio-ökonomischen Panels für einzelne Stichjahre der späteren Periode und insbesondere für die Ausgangssituation und die bisherigen Veränderungen in den neuen Bundesländern. Als Indikator für die Einkommenslage von Personen wird ein Äquivalenzeinkommen in Relation zum jeweiligen Gruppen- oder Gesamtdurchschnitt, die sogenannte Wohlstandsposition, herangezogen. Personen in Haushalten mit drei oder mehr Personen - das sind hauptsächlich Familien mit Kindern - schneiden erwartungsgemäß im Durchschnitt schlechter ab als Personen in kleineren Haushalten. Allerdings sind die Diskrepanzen innerhalb der Gruppen, die überwiegend von Transfers leben, mäßiger als innerhalb der Gruppen mit erwerbstätigem Haushaltsvorstand; anscheinend wirkt der Familienlastenausgleich in den sozial schwächeren Gruppen stärker. Zwischen 1972 und 1992 (Westdeutschland) hat sich die relative Position der größeren Haushalte allerdings tendenziell etwas verschlechtert. Die Verteilungsanalyse auf der Basis der erwähnten Mikrodaten zeigt zudem, daß Familien mit Kindern wesentlich häufiger unterhalb der durchschnittlichen Wohlstandsposition und unterhalb der relativen Armutslinie von 50 % einzuordnen sind als (Ehe-)Paare ohne Kinder. Besonders ungünstig sieht die Situation bei den Alleinerziehenden aus; die Armutsquote dieser Gruppe schwankt zwischen einem Fünftel und einem Viertel. In der ehemaligen DDR scheint die relative Position der Familien mit Kindern überwiegend besser gewesen zu sein; die Strukturen in den neuen Bundesländern haben sich aber bereits denen in Westdeutschland angenähert.
"Verhaltenswissenschaftliche Theorien oder mikroökonomische Theorie?" - das ist nicht die Frage, wenn es um die Erklärung menschlichen Verhaltens in Organisationengeht. Sie schließen sich nämlich nicht gegenseitig aus, sondern ergänzen sich. Deshalb sollten sie gemeinsam, und zwar in einem integrativen und nicht in einem additiven Sinne zumbesseren Verständnis und zur wirksameren Beeinflussung menschlicher Handlungen in Organisationen genutzt werden. Der vorliegende Aufsatz will dazu und zur Vermeidung bzw. Überwindung verfehlter Frontbildungen einen Beitrag leisten. Die ökonomische Effizienz von Anreizsystemen, die in der Regel nicht direkt beurteilt werden kann, sondern indirekt über adäquate Ersatzkriterien oder -wie hier- über plausible Bedingungen, ist, wie sich schnell erkennenläßt, ein besonders treffliches Objektfürderartige Bemühungen unter marktwirtschaftichen Bedingungen.
Gegenstand dieser Arbeit ist das Entropiegesetz und seine Bedeutung für die Umweltökonomie. Das Grundgesetz vom Niedergang , wie Schütze es genannt hat, trifft in seiner ursprünglichen Bedeutung Aussagen über die Umwandlung von verschiedenen Formen von Energie bzw. über ihre Nutzbarkeit u.a. für menschliche Belange. So ist zu erklären, daß die stärkste Beschäftigung der Ökonomen mit dem Entropiegesetz in der Folge der sog. Ölkrise und der Studie Grenzen des Wachstums stattfand, da zu dieser Zeit der Gedanke einer plötzlichen Erschöpfbarkeit der Energiequellen um so stärker in den Vordergrund drang, wie es in der Zeit davor normal erschien, daß sich der Energieverbrauch regelmäßig verdoppelte. Das Thema physikalische Grenzen des wirtschaftlichen Wachstums ist in der öffentlichen wie auch in der (wirtschafts-) wissenschaftlichen Diskussion durch aktuellere und akutere Probleme in den Hintergrund gedrängt worden und mit ihm auch der Begriff Entropie. Diese akuteren Probleme sind vor allem im Zusammenhang mit Stoffen zu sehen, die den Bereich des menschlichen Wirtschaftens verlassen. Die zunehmende Umweltverschmutzung stellt sich in den letzten Jahren als das vordringliche Problemfeld für die Umweltökonomie dar. Zu erinnern wäre hier beispielhaft einerseits an die Unfälle bei Sandoz in Basel und des Kernkraftwerks in Tschernobyl sowie die Havarie des Tankers Exxon Valdez in Alaska. Andererseits ist aber auch der Normalbetrieb mit Problematiken wie der u.a. durch FCKWs zunehmenden Zerstörung der Ozonschicht oder auch dem übermäßigen Auftreten von Ozon in Bodennähe im Zusammenhang mit dem photochemischen Smog verbunden...
Schon im ersten Weltkrieg, besonders aber seit dem Ausbruch der Weltwirtschaftskrise und erst recht im zweiten Weltkrieg hat der öffentliche Kredit in finanz- und wirtschaftspolitischer Hinsicht eine Bedeutung erlangt, wie nie zuvor. Er, der ehedem fast nur ein außerordentliches Mittel zur Überwindung vorübergehender finanzieller Schwierigkeiten des Staates gewesen war, entwickelte sich in dieser Zeit zu einem wirtschaftspolitischen Faktor ersten Ranges, ohne dessen Mitwirkung eine erfolgreiche Finanz- und Wirtschaftspolitik heute kaum denkbar ist. Besonders die durch den zweiten Weltkrieg geschaffene Zwangslage nötigte die einzelnen Volkswirtschaften, die durch ihn gebotenen finanz- und wirtschaftspolitischen Möglichkeiten in jeder Weise bis zur Grenze des absolut Möglichen auszuprobieren. Die konjunkturaktive öffentliche Kreditpolitik jener Zeit war von Anfang an kein einheitliches Ganzes, sondern entwickelte sich zu einem geschlossenen wirtschafts- und finanzpolitischen System erst allmählich aus verschiedenen wirtschafts- und finanzpolitischen Einzelmaßnahmen. Sinn und Zweck dieser Arbeit ist es nun, rückschauend auf diese Entwicklung das Grundsätzliche dieser Politik herauszuarbeiten. Ihr besonderer Schwerpunkt liegt dabei auf der Beantwortung der Fragen, inwieweit eine staatliche konjunkturaktive Kreditpolitik ein Heilmittel ist, um einen wirtschaftlichen Schrumpfungsprozess zum Stillstand zu bringen, inwieweit ein Reizmittel, um die wirtschaftliche Entwicklung voranzutreiben und inwieweit ein Gift, das schließlich den Ruin von Marktwirtschaft und Finanzwirtschaft herbeiführt.
Die deutschen Hohlglashütten wurden im August 1933 zu einem Zwangskartell zusammengeschlossen . Die dabei zu überwindenden Schwierigkeiten bestanden vornehmlich in der Verschiedenartigkeit der erstellten Erzeugnisse und in dem besonders ausgeprägten Hang zur Selbständigkeit der in diesem Industriezweig weitaus überwiegenden Mittelbetriebe. Darüber hinaus stieß die Durchführung der Preisordnung infolge der Rückständigkeit des Rechnungswesens der einzelnen Hütten auf nahezu unüberwindbar erscheinende Widerstände. Es mangelte und mangelt noch heute durchweg an brauchbaren Kalkulationsunterlagen und damit an der Möglichkeit einer einwandfreien Ermittlung des Erfolges bzw . Verlustes und seiner Quellen...
Das Stapelrecht in Mainz
(1925)
Intelligenz ist einer der stärksten Einzelprädikatoren für berufliche Leistungen. Hochintelligente Personen, sogenannte Hochbegabte, müssten daher generell hohe berufliche Leistungen erbringen. Dies steht jedoch im Widerspruch zu Darstellungen von Schwierigkeiten Hochbegabter im Beruf. Sollten die negativen Stereotype zutreffen, wäre dies aus ressourcenorientierter Sicht problematisch, da Organisationen das der Hochbegabung zugrunde liegende Potenzial der Mitarbeiter*innen nicht hinreichend nutzen. Die vorliegende Arbeit leistet einen Beitrag dazu, diese Diskrepanz aufzuklären, indem sie untersucht wie Hochbegabte ihre berufliche Situation (erfolgreich) gestalten. Nach einer Begriffsklärung und Darstellung des Zusammenhangs von Intelligenz und Beruf wird im ersten Beitrag der internationale Forschungsstand mithilfe eines Literature Reviews systematisiert. Aufbauend darauf werden im zweiten Beitrag mithilfe einer Fragebogenerhebung die überwiegend internationalen Beiträge durch eine deutsche Stichprobe und die bisher wenig betrachtete Gruppe von Hochbegabten gemäß Kompetenzdefinition ergänzt. Schließlich fokussiert der dritte Beitrag den Widerspruch, dass Hochbegabte generell erfolgreich und zufrieden im Beruf sind, jedoch individuell von Schwierigkeiten berichten. Dazu werden teilstrukturierte Interviews durchgeführt, um ein tieferes Verständnis für den Einfluss der Hochbegabung auf den Beruf sowie etwaige bestehende Unterschiede zu nicht-hochbegabten Personen zu gewinnen. Zudem werden Strategien erfasst, die Hochbegabte nutzen, um Unterschiede und eventuell daraus resultierende Schwierigkeiten zu bewältigen. Abschließend werden Implikationen für die Berufspraxis und Forschung diskutiert.