Refine
Year of publication
- 2017 (70)
- 2020 (62)
- 2021 (49)
- 2018 (45)
- 2022 (43)
- 2019 (40)
- 2023 (36)
- 2015 (35)
- 2011 (34)
- 2014 (33)
- 2012 (30)
- 2016 (30)
- 2010 (28)
- 2024 (28)
- 2013 (27)
- 2007 (20)
- 2004 (19)
- 2000 (18)
- 2001 (17)
- 2003 (16)
- 1998 (15)
- 2002 (15)
- 1999 (14)
- 2009 (14)
- 2006 (9)
- 1997 (8)
- 2005 (7)
- 2008 (6)
- 1923 (4)
- 1994 (4)
- 1920 (2)
- 1927 (2)
- 1995 (2)
- 1996 (2)
- 1899 (1)
- 1910 (1)
- 1917 (1)
- 1924 (1)
- 1925 (1)
- 1934 (1)
- 1935 (1)
- 1938 (1)
- 1948 (1)
- 1990 (1)
Document Type
- Part of Periodical (300)
- Working Paper (192)
- Book (95)
- Contribution to a Periodical (45)
- Report (45)
- Article (43)
- Doctoral Thesis (35)
- diplomthesis (8)
- Periodical (8)
- Conference Proceeding (7)
Language
- German (795) (remove)
Is part of the Bibliography
- no (795)
Keywords
- Financial Institutions (45)
- Deutschland (40)
- Capital Markets Union (30)
- Financial Markets (27)
- ECB (25)
- Banking Regulation (23)
- Macro Finance (22)
- Banking Supervision (20)
- Banking Union (19)
- Household Finance (19)
Institute
- Wirtschaftswissenschaften (795) (remove)
Das Firmenkundensegment und die Präsenz auf den internationalen Märkten für gewerblichen Hypothekarkredit und der Finanzierung öffentlicher Haushalte gewinnen für die deutschen Hypothekenbanken bis zum Jahr 2007 erheblich an Bedeutung, so das Ergebnis eines Forschungsprojekts der Goethe-Universität Frankfurt. Die Immobilienfinanziers werden ihre Geschäftsbeziehungen zu Unternehmen in den nächsten fünf Jahren sowohl qualitativ als auch räumlich ausbauen. Real Estate Investment Banking und Expansion ins Ausland stehen auf der strategischen Agenda der Hypothekenbanken ganz oben.
Der Bestimmung risikoadäquater Diskontierungssätze kommt bei der Unternehmensbedeutung eine zentrale Bedeutung zu. Wird zu deren Bestimmung in der praktischen Anwendung das CAPM verwendet, gilt es dabei, risikolose Zinssätze und Risikoprämien zu bestimmen, für die erwartete Renditen des Marktportfeuilles und Beta-Faktoren als Maßgrößen für das systematische Risiko benötigt werden. Passend zu den zu bewertenden erwarteten Überschussgrößen sollten auch die zur Diskontierung verwendeten Renditeforderungen die im Bewertungszeitpunkt erwarteten künftigen Renditen vergleichbarer Anlagen widerspiegeln. Die weitaus meisten Beiträge zur Operationalisierung des CAPM leiten die Renditeforderungen jedoch aus historischen Kapitalmarktrenditen ab. Wir zeigen in diesem Beitrag auf, wie erwartete künftige Renditen aus beobachtbaren Größen, vor allen den Zinsstrukturkurven und den beobachtbaren Analystenprognosen, zukunftsorientiert abgeleitet werden können. Damit wird eine konzeptionell schlüssigere Bewertung der im Bewertungszeitpunkt erwarteten künftigen Überschüsse mit den zeitgleich erwarteten künftigen Renditen ermöglicht.
Mängel bei der Abschlußprüfung : Tatsachenberichte und Analysen aus betriebswirtschaftlicher Sicht
(2001)
Unternehmenskrisen, „überraschende“ zumal, standen am Anfang der gesetzlichen Normierung der Abschlußprüfung in Deutschland. Es entspricht daher einem legitimen Anliegen von Öffentlichkeit und Fachwelt, die herrschende Maßstäblichkeit der Qualität von Abschlußprüfungen und die Glaubwürdigkeit4 von Abschlußprüfern insbesondere dann in gesteigertem Maße als Problem zu begreifen, wenn den gesetzlichen Schutzzwecken und Schutznormen der etablierten Abschlußprüfung zum Trotz Unternehmen in eine Krise geraten: Denn innerhalb der institutionellen Mechanismen ihrer Früherkennung – eines funktionalen Teils des deutschen Systems von corporate governance – gilt die Pflichtprüfung mit Recht als pivotales Element. Vieles an festzustellender Kritik mag hierbei einem der Komplexität der zu verhandelnden Sachzusammenhänge unüberbrückbaren Laienverständnis geschuldet sein; manches aber ist sicherlich erklärlich durch verbesserbare gesetzliche Vorschriften, zu lösende theoretische (ökonomische und rechtswissenschaftliche) Problemstellungen und eine zu fördernde gute Berufspraxis. Jüngste fragliche Mängel der Abschlußprüfung geben den Anlaß zu vorliegenden Tatsachenberichten und betriebswirtschaftlichen Analysen. Die getroffene Auswahl der Unternehmen ist hierbei ebenso willkürlich wie die der betroffenen Wirtschaftsprüfungsgesellschaften – nicht zufällig ist indes die Auswahl der betriebswirtschaftlichen Grundprobleme: Betreffen diese doch wesentliche Erwartungen an die Abschlußprüfung, die offenbar so regelmäßig enttäuscht wurden, daß selbst in Regierungsbegründungen von Gesetzesvorlagen nunmehr eine „sog. Erwartungslücke“5 bemüht wird. Die Erwartungslücken ergeben sich hierbei insbesondere aus der Vorstellung, daß (a) der gesetzliche Pflichtprüfer bei einer ordnungsmäßigen Prüfung zwingend doloses Handeln aufzudecken habe, daß (b) bilanzielle Wertansätze hinreichend zuverlässige Größen bilden, die über die Vermögenslage des Unternehmens berichten und schließlich (c) die Prüfung der tatsächlichen wirtschaftlichen Lage des Unternehmens und die Unterrichtung hiervon in Prüfungsbericht und Bestätigungsvermerk eine Selbstverständlichkeit der Pflichtprüfung sei. Diesen Erwartungen folgt der Gang der Untersuchung.
Die Öffnung des deutschen Bilanzrechts bewirkt eine zunehmende Anwendungsbreite von internationalen Rechnunungslegungsnormen (wie insbesondere der US-GAAP und der IAS) für deutsche Rechtsanwender;1 die heterogenen Normtypen und die – damit einhergehend – unterschiedlichen ökonomischen Eigenschaften dieser Normen erfordern für einen sinnvollen Rechnungslegungsvergleich eine komparative Rechnungslegungstheorie. Eine Besinnung auf die ökonomische Theorie ist – auch ausgelöst durch die Internationalisierung der Rechnungslegung – hier grundsätzlich festzustellen,2 wie auch das moderne deutsche Bilanzrecht seine heutige Prägung durch die ökonomische Theorie – und nicht vornehmlich durch die Anwender – erhielt.3 Es ist das Ziel des Aufsatzes, einen Beitrag zu einer institutionenökonomischen Theorie der Rechnungslegung zum Zweck der Bestimmung von Informationsinhalten und Gewinnansprüchen sowie zur vergleichenden Rechnungslegungstheorie zu leisten. In einem ersten Hauptteil (2) wird im folgenden – auf dem institutionenökonomischen Forschungsprogramm aufbauend – skizziert, welche Bedeutung Institutionen im Rahmen des Nutzenkalküls von Entscheidern zuzumessen ist; danach werden die einzelnen für eine vergleichende Rechnungslegung relevanten Institutionsarten typisiert (in formale und informelle Regeln) sowie deren Attribute im individuellen Zielstromkalkül eingeführt (nämlich Prädikate der Manipulationsfreiheit und Prädikate der Entscheidungsverbundenheit). Das Verhältnis der Institutionen zueinander wird im folgenden Abschnitt (3) anhand eines rechtlich geprägten und eines ökonomischen Systemverständnisses entwickelt. Es wird gezeigt, daß beide Systembegriffe auf einer Nichtadditivität der sie konstituierenden Institutionen gründen, die den qualitativen Vergleich unterschiedlicher Systeme erschweren; man überschätzt hingegen die Unterschiede zwischen juristischem und ökonomischem Systemverständnis: beide sind funktionsähnlich. Im letzten Hauptteil (4) werden schließlich vor dem Hintergrund einer gestaltenden Theorie die hierfür relevanten Teilbereiche (Sub-Systeme) der Rechnungslegungsordnung vorgestellt sowie einzelne Publizitätsnormen funktional ausgelegt. Der Beitrag schließt mit zusammenfassenden Thesen (5).
In der Literatur zur Abschlußprüfung ist ein negativer Effekt eines ökonomischen Vorteils aus der wiederholten Mandatsannahme, der aufgrund von Transaktionskosten entsteht, auf die Unabhängigkeit des Abschlußprüfers diskutiert worden. Anders als die bisher vorgestellten Ansätze wird im Rahmen des vorliegenden Modells rationales Verhalten der Kapitalmarktakteure unterstellt, die ihre Ansprüche in Abhängigkeit der Reputation des Prüfers und damit der Glaubwürdigkeit des Testats stellen. Als Ergebnis kann festgehalten werden, daß transaktionskostenbedingte Quasirenten die Urteilsfreiheit nicht gefährden, sondern daß vielmehr Informationsrenten für das Berichtsverhalten des Prüfers ausschlaggebend sind. Auch ergeben sich neue Ansatzpunkte zur Diskussion der externen Pflichtrotation und von Maßnahmen zur Steigerung der Kapitalmarkteffizienz.
Seit der Einführung des Deutschen Corporate Governance Kodex (Kodex) im Jahr 2002 sind deutsche börsennotierte Unternehmen zur Abgabe der Entsprechenserklärung gemäß § 161 AktG verpflichtet (Comply-or-Explain-Prinzip). Auf der Basis dieser Information soll durch den Druck des Kapitalmarkts die Einhaltung des Kodex überwacht und gegebenenfalls sanktioniert werden. Dabei wird regelmäßig postuliert, dass bei überdurchschnittlicher Befolgung bzw. Nichtbefolgung der Kodex-Empfehlungen eine Belohnung durch Kurszuschläge bzw. eine Sanktionierung durch Kursabschläge erfolgt. Die Ergebnisse einer Ereignisstudie zeigen, dass die Abgabe der Entsprechenserklärung keine erhebliche Kursbeeinflussung auslöst und die für das Enforcement des Kodex angenommene (und erforderliche) Selbstregulierung durch den Kapitalmarkt nicht stattfindet. Es wird daher kritisch hinterfragt, ob der für den Kodex gewählte und grundsätzlich zu begrüßende flexible Regulierungsansatz im System des zwingenden deutschen Gesellschaftsrechts einen geeigneten Enforcement-Mechanismus darstellt. This paper studies the short-run announcement effects of compliance with the German Corporate Governance Code (‘the Code’) on firm value. Event study results suggest that firm value is unaffected by the announcement, although such market reactions to the first time disclosure of the declaration of conformity were widely assumed by the private and public promoters of the Code. This result from acceptance of the German Code add evidence to the hypothesis that regulatory corporate governance initiatives that rely on mandatory disclosure without monitoring and enforcement are ineffective in civil law countries.
Die Altersvorsorge in Russland - Theoretische Analyse, aktuelle Rahmenbedingungen und ihre Umsetzung
(2005)
Das russische Rentenversicherungssystem befindet sich in der Krise. Wie in einer Vielzahl entwickelter Staaten auch, erodiert die Basis des umlagefinanzierten Rentensystems („Generationenvertrag“) auf Grund des demografischen Wandels. Dies wird verstärkt durch die mangelnde Wirtschaftskraft Russlands. Ausgangspunkt der Diskussion des russischen Rentenmodells in diesem Artikel ist die Darstellung der theoretischen Grundannahmen, die Analyse der aktuellen und zukünftigen Rahmenbedingungen sowie eine Prognose der natürlichen und räumlichen Bevölkerungsbewegung in Russland. Hierauf folgt die Präsentation der gegenwärtigen Situation einschließlich der bereits erfolgten ersten Schritte zu einer umfassenden Neuordnung des Rentenversicherungssystems sowie die Darstellung von „hot steps“ auf dem Weg zu einer nachhaltigen Alterssicherung.
Während sich die Entwicklungsfinanzierung in Theorie und Praxis generell mit dem Finanzwesen in Entwicklungs- und Transformationsländern befasst, steht im Teilgebiet der Microfinance die Frage im Vordergrund, wie in diesen Ländern der Zugang ärmerer Bevölkerungsgruppen und speziell von Klein- und Kleinstunternehmer(innen), Kleinbauern und sonstigen wirtschaftlich Selbständigen aus eher niedrigen sozialen Schichten zu Kredit und anderen Finanzdiensleistungen verbessert werden kann. Obwohl es einige Vorläufer gibt, die schon früh die allgemeine Politik der Entwicklungsländer bezüglich ihrer Finanzsektoren und ebenso die dazu passende Entwicklungshilfe-Politik der Industrieländer der 60er und 70er Jahre mit ökonomisch-theoretischen Argumenten scharf kritisiert haben,1 waren in der Vergangenheit weder Entwicklungsfinanzierung im allgemeinen noch Microfinance im besonderen ein wirklich ernst genommener Gegenstand der ökonomischen Literatur, die man zum mainstream rechnen kann. Dem entspricht es, dass sich auch die Praxis der Entwicklungsfinanzierung sehr lange weitgehend unabhängig von ökonomisch- theoretischen Überlegungen vollzogen hat. Diese Situation hat sich seit mehr als einem Jahrzehnt grundlegend verändert. Dies hat einen wesentlichen Grund darin, dass sich in der entwicklungspolitischen Praxis auf dem Gebiet der Finanzierung von Klein- und Kleinstbetrieben, eben Microfinance, Erfolge erzielen ließen, die vorher unvorstellbar waren. Mit einer deutlichen commercial orientation und einer Ausrichtung auf die genuinen Probleme des financial institution building konnte erreicht werden, dass es inzwischen einige Dutzend Finanzinstitutionen in Entwicklungs- und Transformationsländern gibt, die ökonomisch stabil und sogar profitabel sind und mit ihrem Leistungsangebot eine große Anzahl von "armen" Kunden erreichen, die bei den Kreditabteilungen der herkömmlichen Banken kaum über die Schwelle gelassen würden.2 Dies hat die Aufmerksamkeit von Forschern aus dem mainstream erweckt. Mindestens ebenso wichtig sind aber die immanenten Entwicklungen innerhalb der ökonomischen Theorie. Mit ihrer Hinwendung zum institutionalistischen Denkansatz hat die Wirtschaftstheorie auf einmal eine neue Aufmerksamkeit für die Phänomene entwickelt, die für die Praktiker der Entwicklungsfinanzierung seit langem von zentraler Bedeutung sind: Inzwischen kann man theoretisch nachweisen, dass es in der Tat Zugangsprobleme zu Kredit für "kleine Leute" gibt, dass das Angebot von Kredit für sie beschränkt ist und dass es nicht genügt, einfach nur staatlich auferlegte Restriktionen – die so genannte financial repression – zu beseitigen, um ....
Die durch jahrzehntelange Planwirtschaft geprägten Strukturen sind in Russland noch fest verwurzelt. Dementsprechend ist das Bankensystem auch zwölf Jahre nach dem Ende des kommunistischen Regimes unterentwickelt. Die markantesten Merkmale der Finanzwirtschaft sind die ungewöhnliche Größenstruktur der Banken; deren Schwierigkeiten, die rapide zunehmende Zahl kleinster, kleiner und mittlerer Unternehmen mit Finanzdienstleistungen zu versorgen sowie die geringe Rolle ausländischer Banken. Überdies sind die weiterhin bestehenden Systemrisiken nicht zu unterschätzen.
Der folgende Beitrag geht der Frage nach, wie die Verteilung von Entscheidungs- und Handlungsrechten in Unternehmen im Rahmen der Corporate Governance ausgestaltet werden kann. Im Zentrum der Überlegungen steht die Frage, welcher der am Unternehmen beteiligten Interessengruppen diese Rechte sinnvollerweise zukommen sollten. Insbesondere die beiden polaren Systeme - das auf dem Shareholder-Value-Primat aufbauende System einer ausschließlich im Interesse der Aktionäre geführten Unternehmung auf der eine Seite - und einem Corporate Governance-System, das die Interessen aller am Unternehmen beteiligten Stakeholder berücksichtigt, auf der anderen Seite - werden geschildert und mit den Mitteln der ökonomischen Theorie bewertet. Spezifische Investitionen möglicher Stakeholder und die Institutionen und Mechanismen, die eine Absicherung der daraus entstehenden ökonomischen Renten für die jeweiligen Stakeholder erlauben, sind damit wichtige Bestimmungsparameter für die Unternehmensverfassung. Insbesondere die Existenz und Güte von Märkten innerhalb des Finanzsystems, in dem ein Unternehmen tätig ist, lassen das ein oder das andere Corporate Governance-System vorteilhafter erscheinen. Überlegungen zu anderen möglichen Mechanismen, die auf der internen Organisation von Unternehmungen basieren und dadurch eine Feinsteuerung von Entscheidungs- und Handlungsrechten - und der damit verbundenen Machtverteilung zwischen den Interessengruppen im Unternehmen - erlaubt, schließen die Arbeit ab.
"Ich möchte in diesem Vortrag Beziehungen zwischen Gutenbergs Theorie der Unternehmung, die in seiner Habilitationsschrift angelegt und in den "Grundlagen der Betriebswirtschaftslehre" entfaltet ist, und aktuellen Entwicklungen in der Theorie der Unternehmung herstellen. Obwohl der Anlaß für diesen Vortrag das Thema hinreichend rechtfertigt, stellt sich die Frage, ob mein Vorhaben ein wissenschaftlich sinnvolles Unterfangen darstellt: Kann Gutenbergs Theorie der Unternehmung noch aktuell sein?"
„Bedeutende Finanzplätze“ oder Finanzzentren sind eng abgegrenzte Orte mit einer beträchtlichen Konzentration wichtiger professioneller Aktivitäten aus dem Finanzdienstleistungsbereich und der entsprechenden Institutionen. Allerdings: „Finance is a footloose industry“: Die Finanzbranche kann abwandern, ein Finanzzentrum kann sich verlagern, möglicherweise auch einfach auflösen. Die Möglichkeit der Auflösung und der Abwanderung stellt eine Bedrohung dar, die in der Zeit der Globalisierung und der rasanten Fortschritte der Transport- und der Informations- und Kommunikationstechnik ausgeprägter sein dürfte, als sie je war. Frankfurt ist zweifellos ein „bedeutender Finanzplatz“, und manchen gilt er auch als bedroht. Allein deshalb ist unser Thema wichtig; und auch wenn die Einschätzungen von Bedeutung und Bedrohtheit keineswegs neu sind, ist es doch aktuell. Der Aspekt der Bedrohtheit prägt, wie wir die Frage im Titel verstehen und diskutieren möchten. Was ist ein „bedeutender Finanzplatz“? Selbst wenn man das Attribut „bedeutend“ erst einmal beiseite lässt, ist die Frage keineswegs trivial. Sie zielt ja nicht nur auf eine Begriffsklärung, eine Sprachregelung ab. Hinter dem Begriff steht oft auch eine Vorstellung vom „Wesen“ dessen, was ein Begriff bezeichnet. Also: Was macht einen Finanzplatz aus? Und weiter: Warum gibt es überhaupt Finanzplätze als beträchtliche Konzentrationen von bestimmten wichtigen Aktivitäten und Institutionen? Welche Kräfte führen - oder zumindest führten - zu der räumlichen Konzentration der Aktivitäten und Institutionen, wie wirken diese Kräfte, und wie ändern sie sich gegebenenfalls? Diesen Fragen ist dieser Beitrag im Wesentlichen gewidmet, und sie prägen seinen Aufbau. Im Abschnitt II wird diskutiert, was ein „bedeutender Finanzplatz“ ist oder woran man ihn erkennt und „was er braucht“. Im Abschnitt III gehen wir zuerst auf die Frage nach der in letzter Zeit unter dem Stichwort „the end of geography“ heftig diskutierten Vorstellung einer Auflösung oder Virtualisierung der Finanzplätze ein – nicht weil dies die wichtigere Bedrohung wäre, sondern weil es die grundlegendere Frage darstellt. Dann diskutieren wir den Wettbewerb von Finanzplätzen in Europa. Den Abschluss bilden Überlegungen zu den Perspektiven des Finanzplatzes Frankfurt und der möglichen Förderung seiner Entwicklung.
Aus dem weiten Spektrum ökonomisch relevanter Fragen, die die europäische Integration und das Gesellschaftsrecht verbinden, soll hier diejenige herausgegriffen werden, ob sich die nationalen Corporate-Governance-Systeme in den großen europäischen Volkswirtschaften Deutschlands, Frankreichs und Großbritanniens unter dem Einfluß der europäischen Integration bereits aneinander angeglichen haben und ob es demnächst zu einer solchen Angleichung kommen wird. Unser Thema deckt nur einen Teil des Gesellschaftsrechts ab und geht zugleich hinsichtlich der angesprochenen rechtlichen Materie über das Gesellschaftsrecht hinaus, denn die Corporate Governance fügt sich nicht einfach in herkömmliche juristische Klassifikationen ein. Unser Vorhaben unterscheidet sich aber vor allem dadurch von einer juristischen Behandlung des Themas, daß primär ökonomische Mechanismen und Zusammenhänge angesprochen werden. Ökonomen betrachten die Corporate Governance im weiteren Kontext des Finanzsystems, denn das Corporate-Governance-System ist ein Teil des Finanzsystems eines Landes. Die Fragen, wie unterschiedlich die nationalen Systeme der Corporate Governance waren, ehe zu Beginn der 80er Jahre der Prozeß der Angleichung in Europa einsetzte, wie unterschiedlich sie heute noch sind, wie sehr sie sich somit bereits angeglichen haben und wie ein möglicher Angleichungsprozeß weitergehen könnte, sind deshalb ein Teil der weiteren Frage nach der Angleichung der Finanzsysteme in Europa. In diesem Beitrag konzentrieren wir uns aber nur auf Entwicklungen der 90er Jahre.
Die Empfehlung, das Shareholder-Value-Konzept zur Grundlage der Unternehmenspolitik zu machen, erscheint um so überzeugender und wird vermutlich um so eher akzeptiert, (1) je lohnender die Shareholder-Value-Orientierung für die Aktionäre ist, (2) je eindeutiger es ist, wie die Empfehlung umgesetzt werden kann und soll, und (3) je problemloser sie aus theoretischen und wohlfahrtsökonomischer Sicht ist. Der Beitrag diskutiert die in Wissenschaft und Praxis verbreiteten Positionen zu diesen drei Aspekten und erläutert, warum sie bzw. die emprischen, praktischen und theoretischen Argumente, durch die sie gestützt werden sollen, auf Mißverständnissen beruhen.
Im Rahmen wertorientierter Unternehmensführung gewinnen Erfolgsbeteiligungen immer größere Verbreitung. Besonders populär ist das EVA-Bonussystem, das auf dem Erfolgskonzept "Economic Value Added" von STERN STEWART & Co. beruht. In der vorliegenden Arbeit wird gezeigt, daß dieses Bonussystem gegen die Bedingung der Anreizkompatibilität verstößt: Der Entscheidungsträger kann finanzielle Vorteile erzielen, indem er Investitionsentscheidungen trifft, die aus Sicht der Anteilseigner nachteilig sind. Insbesondere besteht die Tendenz zur Unterinvestition. Die Darstellungen beruhen auf der Annahme, daß nicht nur die Anteilseigner zukünftige Einkünfte (bzw. Überschüsse) mit einem risikoangepaßten Zinssatz diskontieren, sondern auch der Entscheidungsträger. Zunächst werden die theoretischen Grundlagen dargestellt. Wenn bei gegebener Risikoklasse der Entscheidungsträger erwartete Prämien mit dem Kalkulationszinsfuß k +D diskontiert und die Anteilseigner erwartete Überschüsse des Leistungsbereichs mit k diskontieren, besteht bei einem im Zeitablauf konstanten Prämiensatz f und Überschußbeteiligung nur dann Anreizkompatibilität, wenn D= 0 gilt. Für D> 0 besteht die Tendenz zur Unterinvestition. Sie ist um so größer, je höher D ist und je später die potentiellen Projektüberschüsse anfallen. Bei Beteiligung am Residualgewinn ergeben sich dieselben Anreizwirkungen wie bei Überschußbeteiligung, sofern die kalkulatorischen Zinsen mit dem risikolosen Zinssatz r ermittelt werden. Werden sie mit k ermittelt, so wird (für k>r ) im Vergleich zu einer Überschußbeteiligung die Tendenz zur Unterinvestition ausgelöst (sofern D= 0) oder verstärkt (sofern D> 0). Die Tendenz zur Unterinvestition ist jeweils um so gravierender, je später aktivierte Anschaffungsauszahlungen als Abschreibungen zu verrechnen sind und je höher der für die Ermittlung der kalkulatorischen Zinsen auf die (Rest-)Buchwerte maßgebliche Zinssatz k ist. Der Economic Value Added stellt eine Konkretisierung des Residualgewinns dar. Auch bei dem darauf aufbauenden (EVA-)Bonussystem besteht die Tendenz zu Fehlentscheidungen (insbesondere zur Unterinvestition). Sie resultiert vor allem aus der Ermittlung der kalkulatorischen Zinsen mit dem risikoangepaßten Zinssatz k, den geforderten "Bereinigungen" bei der Ermittlung des investierten Kapitals bzw. des Periodenerfolges und gegebenenfalls der Wahl der Erfolgsänderung gegenüber dem Vorjahr als Bemessungsgrundlage.
Vor dem Hintergrund allgemeiner Bedingungen der Anreizkompatibilität wird für verschiedenen Kapitalmarktmodelle untersucht, ob zwischen den Anteilseignern eines Unternehmens Einmütigkeit besteht und, wenn ja, mit welchem Unternehmensziel der finanzielle Nutzen der Anteilseigner maximiert wird. Von besonderer Bedeutung für die Anreizkompatibilität der üblichen linearen Erfolgsteilung ist die Bedingung pareto-effizienter Risikoteilung. Sind für den Erfolg des Unternehmens spezifische Störterme relevant und soll der Entscheidungsträger in relativ starkem Umfang am Erfolg beteiligt werden, ist die Risikoteilung zwischen ihm und den (anderen) Anteilseignern pareto-inferior. Anreizkompatible erfolgsorientierte Belohnungs- bzw. Prämienfunktionen für den Entscheidungsträger sind dann konvex und zustandsabhängig. Aktienoptionsprogramme können als Approximationen an solche Prämienfunktionen interpretiert werden.
Ziel dieser Präsentation (anlässlich des Seminars „Die Auswirkungen von Asset Securitisation auf die Stabilität des Finanzmarktes“ Österreichische Nationalbank (ÖNB), Wien 1. Oktober 2003) ist es, eine Verbindung zwischen Verbriefung und Finanzmarkstabilität unter Berücksichtigung veränderter Finanzintermediation herzustellen. In der folgenden Abhandlung soll nun zunächst auf die Natur der Verbriefung per se eingegangen werden, um sodann anhand theoretischer Überlegungen und empirischer Beobachtungen mögliche Quelle systemischen Risikos in der Kreditverbriefung aufzuzeigen. In diesem Fall handelt es sich um die Informationsasymmetrien und die durch Handelbarkeit von Kreditrisiko bestimmte Transaktionsstruktur („security design“), die bei regulatorischer Nichtberücksichtigung eine destabilisierende Wirkung nicht nur im Bereich der Verbriefung, sondern auch hinsichtlich der gegenseitigen Zahlungsverpflichtungen von Finanzintermediären begründen könnte.
Durch die stetig zunehmende Implementierung von Informationssystemen in verschiedene Gesellschaftsbereiche gibt es in der Menschheitsgeschichte eine bisher noch nie dagewesene Entwicklung: ‚Kognitive Last’ kann dem Menschen durch technische ‚Denkzeuge’ sehr effektiv und effizient abgenommen werden. Dadurch können „typisch menschliche Bereiche wie Kreativität, Solidarität, Innovationsfähigkeit, Mitmenschlichkeit, Kommunikationsfähigkeit“ beim Einzelnen gefördert und entwickelt werden, wie es bisher nur bei ganz wenigen Menschen in einer Gesellschaft möglich war. „D. h. das Gehirn gewinnt - zumindest im Prinzip - völlig neue Freiheiten, nachdem es die kognitive Last abgeworfen und an die Computer übergeben hat. Diese Freiheit gilt es - insbesondere im Bildungswesen - zu nutzen!" Doch wird in der heutigen deutschen Schule und Hochschule nicht ‚Homo sapiens informaticus’ qualifiziert, „sondern den auf Abwicklung aller kognitiven Tätigkeiten im Gehirn trainierten Homo sapiens sapiens“. Früher oder später sieht dieser viele der mühsam erlernten kognitiven Leistungen durch technische Produkte in der realen Welt erfüllt (z.B. durch Arithmetik-Software), an die er sich nach seiner Ausbildung durch Fortbildung oder ‚learning by doing’ anzupassen versucht. In der Informationsgesellschaft wird der kompetente Umgang mit Neuen Medien als Schlüsselqualifikation gesehen, die es in jeglicher Ausbildung zu erwerben gilt. Um diese zu entwickeln reicht es jedoch nicht aus, Schulen mit entsprechender Technik auszustatten. Medienkompetente Schüler setzen den medienkompetenten Lehrer voraus. Aus diesem Grund wird einer entsprechenden Lehrerbildung eine Schlüsselrolle zur frühen und breiten Vermittlung von Medienkompetenz in der Gesellschaft zugeschrieben. Dazu müssen wiederum die Ausbilder der Lehrer selbst medienkompetent und die Bildungseinrichtungen mit Neuen Medien ausgestattet sein. Mit vorliegender Arbeit soll die von verschiedenen Bereichen der Gesellschaft gestellte Forderung, Neue Medien in der Bildung einzusetzen, nachvollzogen und auf ihre tatsächliche Implementierung in der derzeitigen Lehrerbildung untersucht werden. Dazu werden exemplarisch die Ergebnisse der Befragung einer kleinen Gruppe kaufmännischer Referendare herangezogen. Im Rahmen dieser Arbeit wird darauf verzichtet, eine ausführliche Darstellung unterschiedlicher Formen des multimedialen und telekommunikativen Lernens (Teleteaching, Lernsoftware etc.) vorzunehmen. Auf lernformenspezifische Aspekte wird, falls notwendig, an entsprechender Stelle eingegangen. Wirkungen, die Neue Medien auf Schulentwicklung, Bildungsinstitutionen als Kompetenzzentren und einhergehende Aspekte der Personalentwicklung haben, werden nicht systematisch untersucht.
Diese Arbeit hat einen Überblick über das IMS Learning Design und die damit verbundenen Spezifikationen gegeben und aktuelle Bestrebungen einer Adaption untersucht. Das IMS Learning Design bietet die Grundlage für die Gestaltung pädagogischer Frameworks für die Wiederverwendung von einzelnen Aktivitäten bis hin zu ganzen Kursen. Einmal erstellter Content kann auf diese Weise für unterschiedliche Zielgruppen und Lernumgebungen angeboten werden (create once deliver many times). Vgl. Hummel, H. (2004), S. 111. Gleichzeitig kann durch die didaktische Gestaltung von Lehr-/ Lerneinheiten der Mehrwert eines Lernszenarios für die Teilnehmer erhöht werden, da eine teilnehmerfokussierte Wissensübermittlung möglich gemacht wird. Dies beruht jedoch prinzipiell auf den pädagogischen Fähigkeiten des Autors eines Kurses. Im Forschungsbereich Geisteswissenschaften wird zu diesem Thema noch einiges zu untersuchen sein, was die Gestaltung pädagogischer Lehr-/ Lerneinheiten betrifft, da e-Learning-Kurse aus pädagogischer Sicht nicht mit Präsenzveranstaltungen gleichzusetzen sind. Die Verwendung von Standards im Bereich e-Learning ist sowohl für Kunden als auch für die Anbieter von Learning Management Systemen profitabel. Während Kunden die Möglichkeit bekommen aus einer Vielzahl von Anbietern zu wählen, die Standardschnittstellen anbieten, wächst für Anbieter der Kundenkreis, an den ihre Produkte verkauft werden können. Der Adaptionsprozess und die Forschung bezüglich des IMS LD steckt aber noch in den Anfängen. In diesem Zusammenhang wird eine verstärkte Öffentlichkeitsarbeit notwendig sein, um die Potentiale und das Know How bezüglich dieser Spezifikation zu vermitteln, und so den Adaptionsprozess voranzutreiben. Die Integration des Learning Designs in bestehende Spezifikationspakete wie z.B. SCORM würde die Akzeptanz und die Adaption auf dem Markt für e-Learning-Produkte möglicherweise erhöhen, vernachlässigt jedoch die Auseinandersetzung mit der eigentlichen Spezifikation. Die Integration weiterer Spezifikationen in das Learning Design ist derzeit noch problematisch, da hierfür einerseits rechtliche Grundlagen ungeklärt sind (IMS LIP, PAPI) und anderseits das technische Zusammenspiel der Interpreter noch nicht realisiert wurde. Das IMS LD ist eine große Chance für die Durchsetzung einheitlicher e-Learning- Konzepte. Es bietet einen Ansatz für die standardisierte Gestaltung von e-Learning-Systemen, der bis dato häufig nur durch Customizing (create one deliver once) gelöst werden konnte.
Eine spieltheoretische Analyse von Zulieferer-Abnehmer-Beziehungen auf Basis des JELS-Modells
(2001)
Die zunehmende Monopolisierung auf dem Markt für Informationsressourcen im akademischen Sektor führte in den vergangenen Jahren zu einer verstärkten Bildung von Bibliothekskonsortien auf der Abnehmerseite, die einen Gegenpol in Form einer Einkaufsgenossenschaft darstellen sollten [McCa02]. Diese Tendenzen lassen sich in verschiedenen Ländern wie etwa in Deutschland, England, der Schweiz und der Niederlande beobachten [Okerso]. In den USA sind Konsortien eher selten zu finden; das größte Konsortium ist hier OHIO-Link (http://www.lib.ohio-state.edu/). In Deutschland richten sich die meisten Konsortien wegen der föderalen Finanzierungsstrukturen regional aus; überregionale bzw. deutschlandweite Konsortien sind derzeit noch selten. Ein Zusammenschluss auf thematischer Grundlage findet derzeit so gut wie gar nicht statt, vielmehr werden möglichst viele Bibliotheken in Konsortien unabhängig von den an den jeweiligen Standorten betriebenen Forschungsschwerpunkten eingebunden [AnDe02]....
Elektronische (digitale) Zeitschriften spielen seit mehreren Jahren eine zunehmend wichtigere Rolle in der Informationsversorgung von Wissenschaft und Forschung. Während jedoch die Nutzungsformen sich so gut wie vollständig an den Standards des www mit all seinen Vorzügen orientieren, sind die Preisbildungsmechanismen noch stark an der Welt der gedruckten Zeitschriften orientiert. Sie unterliegen allerdings zur Zeit einem erheblichen Wandel, ohne dass erkennbar wäre, welche Preisstrukturen zukünftig den Markt bestimmen werden. Das seit November 2001 laufende DFG-Projekt "Perspektiven für den Bezug elektronischer Informationsressourcen in der Bundesrepublik Deutschland" hat sich zum Ziel gesetzt, die Marktsituation für elektronische Informationsversorgung im hochschulischen Bereich zu analysieren und davon ausgehend Perspektiven abzuleiten. In einer ersten Phase sollen zunächst die Nutzungsgewohnheiten seitens der Wissenschaftler und Studierenden untersucht werden. Die Ergebnisse werden in der vorliegenden Arbeit exemplarisch aufgezeigt, eine detaillierte Nutzungsanalyse wird zu einem späteren Zeitpunkt veröffentlicht.
Eine bedeutende Stelle der betrieblichen Funktionen nimmt die Beschaffung der Ware am Markt ein. Die Organisation des Beschaffungswesens ist dabei integraler Bestandteil der Unternehmensstrategie und führung. Die Beschaffung im engeren Sinne umfasst dabei den Einkauf von Anlagegütern, Roh-, Hilfs- und Betriebsstoffen, Fertigwaren sowie von Dienstleistungen (z. B. Transportleistungen) und Rechten (z. B. Lizenzen aus Patenten). Die Beschaffung ist neben der Produktions- und Absatzfunktion einer der Hauptbereiche betrieblicher Planung und Leistungserstellung [Bichler/Krohn 2001]. Die Hauptaufgabe des Einkaufs im Industrieunternehmen besteht in der Beschaffung von Materialen und Teilen nach den von den zuständigen Fachabteilungen vorgegebenen Qualitätsvorschriften, zu günstigen Konditionen und zum richtigen Zeitpunkt, wodurch die termingerechte Produktion sicher gestellt werden kann. Eine weiterführende Aufgabe des Einkaufs besteht in einer Analyse des Beschaffungsmarktes sowie in der Aufbereitung und Weitergabe von Informationen an den Vertrieb. Es sind die Hersteller auf dem Markt zu suchen und zu katalogisieren, welche die entsprechenden Materialien in gleich bleibender Qualität und zu günstigen Preisen liefern können [Bichler/Krohn 2001]. Die Organisation des Einkaufsprozesses stellt einen bedeutenden Problemfokus für die Unternehmensleitung dar. Gegenstand dieser Untersuchung ist die Fragestellung, wie sich Einkaufgenossenschaften im Bibliothekswesen optimal bilden sollen. Die Frage der Optimalität muss dazu zunächst präzisiert werden und wird vor dem Hintergrund verschiedener Zielsetzungen näher diskutiert. Einkaufsgenossenschaften und verbünde finden sich in der Praxis immer häufiger und stellen probate Mittel dar, die Kosten für den Bezug von nötigen Betriebsmaterialen nachhaltig zu senken. Im Sektor der wissenschaftlichen Informationsversorgung können seit einigen Jahren im Bereich der elektronischen Informationsressourcen ebenfalls Einkaufsverbünde in Form von Bibliothekskonsortien beobachtet werden. Ziel dieser Genossenschaften ist es, gemeinsam Lizenzen für elektronische Informationen zu erwerben. Die derzeitige Bezugspraxis zeigt, dass Konsortien überwiegend regional ausgerichtet sind und weniger auf thematischer Ebene agieren. Auch die Größe sowie Nachfragestruktur und intensität finden weitestgehend noch keine Beachtung. Diese Arbeit untersucht Vor- und Nachteile von Einkaufgenossenschaften und diskutiert verschiedene Entscheidungsmodelle zur Bestimmung einer optimalen Konsortialstruktur vor dem Hintergrund der derzeitig gegebenen Marktstrukturen im Sektor der wissenschaftlichen Informationsversorgung.
Elektronische Informationsressourcen, wie beispielsweise elektronische Zeitschriften und Datenbanken, gewannen in den letzten Jahren zunehmend an Bedeutung im Feld der akademischen Literaturversorgung. Mit diesem Trend einhergehend konnten Veränderungen der Bezugspraxis bei Bibliotheken einerseits und neue Preis- und Geschäftsmodelle bei Verlagen andererseits beobachtet werden. Neben der bequemeren Nutzbarkeit für die Leser bietet das neue Medium auch neue Formen des Kostencontrollings und der Optimierung für die Abnehmer. Dieser Workshop soll sich mit der Frage der Kostenrechnung und -verteilung für Konsortien für elektronische Informationsressourcen insbesondere eJournals beschäftigen. Dabei werden die neuen Möglichkeiten der Nutzungsmessung besonders berücksichtigt. Neben den theoretischen Ansätzen werden auch konkrete Beispielrechnungen durchgeführt und die Praktikabilität für die Umsetzung in der Praxis im besonderen Maße diskutiert.
Der Eisenbahngüterverkehr verliert weiterhin Marktanteile an den Straßengüterverkehr. Dies ist nicht nur eine Folge der Tatsache, daß sich die geringeren externen Effekte der Bahn nicht genügend "auszahlen", die Bahn weist bei ihrer jetzigen Betriebsweise auch systembedingte Nachteile auf. Für den immer bedeutsameren Transport von Nicht-Massengütern in kleinen Mengen ist wohl der LKW als wesentlich kleinere Einheit als der Eisenbahnzug geeigneter. Eine Möglichkeit für die Bahn, diesem Problem zu begegnen, besteht in der Einführung einer neuen Transporttechnologie, die auf einzeln angetriebenen Güterwagen basiert, die ohne Fahrer automatisch gesteuert ihren Weg vom Start- zum Zielort selbsttätig finden. Die gesellschaftliche Erwünschtheit von mehr Schienengüterverkehr wird zu einem Gutteil mit der größeren Umweltfreundlichkeit, den geringeren externen Effekten der Eisenbahn begründet. Ob allerdings dieser Vorteil der Bahn erhalten bleibt, wenn versucht wird, die Vorteile eines dezentral gesteuerten automatischen Fahrens zu realisieren, stand bisher nicht fest. Die Arbeit untersucht diese Fragestellung durch die Rückführung externer Effekte auf naturwissenschaftlich-technische Grundlagen und kommt zu dem Ergebnis, daß 1. externe Nutzen in nennenswertem Umfang nicht einzuberechnen sind - weder im üblichen Sinne als statische technologische externe Effekte noch unter Berücksichtigung evolutionärer, dynamischer Aspekte; daß weiterhin 2. eine Einführung eines automatisierten und dezentralisierten Eisenbahngüterverkehrs eine deutliche Reduzierung der externen Effekte des Verkehrs erwarten läßt, und daß dabei 3. die Luftverschmutzung durch Abgase etwa "in der Mitte" zwischen heutigem Straßen- und Schienenverkehr liegt, Stau- und Unfallkosten jedoch im wesentlichen weiterhin den günstigeren Werten der Bahn entsprechen. Die Arbeit zeigt insgesamt, daß entgegen der ursprünglichen Befürchtung die externen Kosten eines automatisierten und dezentralisierten Schienengüterverkehrs dicht bei denen der bisherigen Bahn liegen. Trotzdem sind externe Kosten zu internalisieren, wo dies möglich scheint - nicht zuletzt, weil Ausmaß und Richtung des technischen Fortschritts durch Signale über die wirklichen Knappheiten gelenkt werden müssen. Die praktische Durchführbarkeit eines Schienengütertransports mit dezentral gesteuerten fahrerlosen Gütertriebwagen müßte in einem nächsten Schritt in der Praxis erprobt werden, weiterer Forschungsbedarf bleibt auch bei der Frage der Unfallsicherheit eines solchen Systems bestehen.
Gegenstand dieser Arbeit ist das Entropiegesetz und seine Bedeutung für die Umweltökonomie. Das Grundgesetz vom Niedergang , wie Schütze es genannt hat, trifft in seiner ursprünglichen Bedeutung Aussagen über die Umwandlung von verschiedenen Formen von Energie bzw. über ihre Nutzbarkeit u.a. für menschliche Belange. So ist zu erklären, daß die stärkste Beschäftigung der Ökonomen mit dem Entropiegesetz in der Folge der sog. Ölkrise und der Studie Grenzen des Wachstums stattfand, da zu dieser Zeit der Gedanke einer plötzlichen Erschöpfbarkeit der Energiequellen um so stärker in den Vordergrund drang, wie es in der Zeit davor normal erschien, daß sich der Energieverbrauch regelmäßig verdoppelte. Das Thema physikalische Grenzen des wirtschaftlichen Wachstums ist in der öffentlichen wie auch in der (wirtschafts-) wissenschaftlichen Diskussion durch aktuellere und akutere Probleme in den Hintergrund gedrängt worden und mit ihm auch der Begriff Entropie. Diese akuteren Probleme sind vor allem im Zusammenhang mit Stoffen zu sehen, die den Bereich des menschlichen Wirtschaftens verlassen. Die zunehmende Umweltverschmutzung stellt sich in den letzten Jahren als das vordringliche Problemfeld für die Umweltökonomie dar. Zu erinnern wäre hier beispielhaft einerseits an die Unfälle bei Sandoz in Basel und des Kernkraftwerks in Tschernobyl sowie die Havarie des Tankers Exxon Valdez in Alaska. Andererseits ist aber auch der Normalbetrieb mit Problematiken wie der u.a. durch FCKWs zunehmenden Zerstörung der Ozonschicht oder auch dem übermäßigen Auftreten von Ozon in Bodennähe im Zusammenhang mit dem photochemischen Smog verbunden...
Im Zentrum des Schwerpunktes stehen die Beschreibung, Erklärung und Gestaltung von Informationserstellungs- und -verarbeitungsprozessen, insbesondere soweit sie durch moderne Informations- und Kommunikationstechniken unterstützt werden. Diese Prozesse dienen zum einen der unmittelbaren Bedürfnisbefriedigung durch Information sowie zum anderen der Koordination physischer Wertschöpfung. Die schnelle Fortentwicklung der IuK-Systeme sowie die rasante Verbreitung ihrer Nutzung führen vielfach zu tief greifenden Veränderungen der Geschäftsabläufe und darüber hinaus des gesellschaftlichen Lebens. Aufgabe des Schwerpunktes ist hierbei, die Nutzenpotenziale neuer Informations- und Kommunikationstechniken sowie deren Anwendung insbesondere in Wirtschaft und Verwaltung zu analysieren und eigene Gestaltungsvorschläge zu unterbreiten. Dies gilt auch für die Gestaltung und Auswahl der institutionellen Rahmenbedingungen von Informationserstellungs- und - verarbeitungsprozessen.
Thema dieses Beitrags ist zum einen eine kritische Würdigung des Flächentarifvertrages (FTV) im Hinblick auf seine Regelungsdichte und zum anderen die theoretische Analyse eines Elements des Flexibilisierungspotentials des FTV, namlich der Öffnungsklausel, unter Berücksichtigung der Insider-Outsider-Problematik. Im Ergebnis kommt dieser Beitrag zu dem Schluß, daß der FTV nicht überholt, wohl aber dringend und umfassend überholungsbedürftig ist. Wichtig erscheint eine differenzierende Betrachtung, denn nicht alle diskutierten Flexibilisierungsmaßnahmen führen notwendigerweise zu Beschäftigungsgewinnen. Die Regelungsdichte des FTV kommt unter anderem zum Tragen, wenn bisher tarifgebundene Unternehmen beispielsweise auf Grund einer überzogenen Lohnpolitik den FTV verlassen wollen. Sie müssen zunächst erhebliche Nachwirkungsfristen des FTV beachten, können aber häufig selbst als nicht (mehr) tarifgebundene Unternehmen keine Lohnabschlüsse mit ihrem Betriebsrat tätigen. Die Regelungsdichte wird zudem durch die Arbeitsgerichtsbarkeit verstärkt, beispielsweise durch das in diesem Beitrag kritisierte Urteil des Bundesarbeitsgerichts, welches unter bestimmten Voraussetzungen eine Verbandsklage als zulässig erklärt. Ein gründlich reformierter FTV, der einer erforderlichen Flexibilität auf der betrieblichen Ebene Rechnung trägt, weist eine Reihe von Vorteilen auf. Denn Lohnverhandlungen ausschließlich auf der betrieblichen Ebene führen dort zu teilweise beachtlichen Transaktionskosten, zwingen die Unternehmensleitung zur Offenlegung der Bücher (gegenüber dem Betriebsrat) und verstärken unter Umständen ein Insider-Outsider-Verhalten. Der Beitrag unternimmt im weiteren eine theoretische Analyse der Beschäftigungswirkungen des FTV und eines Haustarifvertrages (HTV) als mögliche Alternative. Das vorgeschlagene Modell integriert Insider-Outsider-Verhalten und die Möglichkeit einer Tariföffnungsklausel. Das Modell zeigt, daß aus theoretischer Sicht keine eindeutige Rangordnung zwischen HTV und FTV hinsichtlich ihrer Beschäftigungswirkungen besteht. Auch führt eine Tariföffnungsklausel nicht notwendigerweise zu höherer Beschäftigung, da die Gewerkschaften fur die Situationen mit günstigen Güternachfrageschocks einen vergleichsweise hohen Lohn anstreben. Angesichts der theoretisch unklaren Ergebnisse plädiert die Arbeit fur eine Reform des FTV anstelle eines drastischen Systemwechsels hin zu HTV.
Diese Arbeit untersucht empirisch den Zusammenhang von Beschäftigung und Lohnstrukturen zwischen sowie innerhalb von Qualifikations- und Altersgruppen. Zunächst werden Substitutionselastizitäten zwischen Qualifikations- und Altersgruppen geschätzt und die Lohnveränderungen bestimmt, die notwendig gewesen wären, um im Jahre 1997 die qualifikationsspezifischen Arbeitslosenquoten zu halbieren. Die geschätzten Substitutionselastizitäten sind sehr hoch. Die notwendige Lohnreduktion liegt nominal zwischen 9% und 10,6% und fällt umso höher aus, je geringer die Qualifikation der Arbeitnehmergruppe ist. Der zweite Teil der Arbeit befasst sich mit dem Zusammenhang zwischen residualer Lohnungleichheit und Beschäftigungsdynamik. Es werden konkurrierende Implikationen aus der Theorie der Grenzproduktivitätsentlohnung und der Suchtheorie abgeleitet und empirisch untersucht. Die Ergebnisse sind für keine der beiden Theorien überzeugend. Das robuste Ergebnis einer signifikant positiven Korrelation zwischen dem Niveau der Arbeitslosenquote und der residualen Lohnungleichheit legt allerdings nahe, dass Suchfriktionen zur Erklärung der residualen Lohndispersion beitragen können. JEL - Klassifikation: J31 , J21 , E24 , J64
Differenzierte Verdienststrukturen, wie zum Beispiel qualifikatorische Verdienstunterschiede, tragen der Heterogenität am Arbeitsmarkt und somit auch einer notwendigen Flexibilität der Löhne Rechnung. Trotz dieser bedeutenden Rolle der Lohnstruktur für den Arbeitsmarkt gibt es relativ wenig detaillierte empirische Evidenz zu deren Ausgestaltung und Dynamik für Westdeutschland. In dieser Arbeit werden auf Basis der Gehalts- und Lohnstrukturerhebungen für die Jahre 1990 und 1995 sowohl die Lohndispersion innerhalb bestimmter Erwerbsgruppen („Within-Dispersion“) als auch zwischen diesen Gruppen („Between-Dispersion“) untersucht. Im Fokus der Analysen steht dabei der Vergleich zwischen den Erwerbsgruppen der vollzeitbeschäftigten Männer, der vollzeitbeschäftigten Frauen und der teilzeitbeschäftigten Frauen nach den Qualifikationsniveaus: ohne Berufsabschluss, mit Berufsabschluss und mit Hochschulabschluss. Dichteschätzungen des Bruttotageslohns zeigen, dass vollzeiterwerbstätige Männer über die gesamte Verteilung den höchsten Verdienst aufweisen. Weiterhin deuten die Dichteschätzungen darauf hin, dass die geschlechtsspezifischen Lohndifferentiale mit zunehmendem Verdienst steigen. Der selbe Sachverhalt findet sich auch für die qualifikatorischen Verdienstunterschiede. Mit steigendem Qualifikationsniveau steigt sowohl der Lohn als auch die Dispersion. Besonders ausgeprägt ist die qualifikatorische Dispersion für Männer. Eine Analyse der Lohndifferentiale sowohl innerhalb der Erwerbsgruppen als auch zwischen Männern und Frauen weist darauf hin, dass in der Gruppe der teilzeiterwerbstätigen Frauen die größte Lohndispersion vorzufinden ist und dass diese im Zeitablauf zugenommen hat. Ferner sind die Lohndifferentiale im unteren Bereich der Verteilung kleiner als im oberen. Die weitere Disaggregation nach dem Qualifikationsniveau reduziert die Within-Dispersion, wobei die Lohnunterschiede innerhalb der Erwerbsgruppen mit steigendem Qualifikationsniveau tendenziell zunehmen. Schließlich nimmt die Within-Dispersion für vollzeitbeschäftigte Hochschulabsolventinnen im Zeitablauf zu, während sie für die Teilzeitbeschäftigten sinkt. Betrachtet man die Qualifikations- und die Verteilungsdimension, zeigt sich, dass in beiden Jahren lediglich für vollzeiterwerbstätige Frauen ohne Berufsabschluss bzw. mit Hochschulabschluss das geschlechtsspezifische Differential über die Verteilung hinweg steigt. Für alle anderen Gruppen geht es über die Verteilung hinweg zurück. Die Lohndifferentiale zwischen Männern und Frauen haben im Zeitablauf abgenommen. Das mittlere Reallohnwachstum zwischen 1990 und 1995 ist für teilzeiterwerbstätige Frauen mit 6,8% am höchsten und für vollzeiterwerbstätige Männer mit 0,7% am geringsten. Die Reduktion der geschlechtsspezifischen Unterschiede im Zeitablauf ist unter Berücksichtigung des Qualifikationsniveaus noch ausgeprägter. Dies gilt vor allem für teilzeiterwerbstätige Frauen ohne Berufsabschluss und mit Hochschulabschluss. Für teilzeiterwerbstätige Frauen und für vollzeiterwerbstätige Männer findet sich im Zeitablauf eine zunehmende Lohnspreizung, während für vollzeiterwerbstätige Frauen die Verteilung konstant bleibt. Eine Zunahme der Lohnspreizung ist dabei insbesondere bei Hochschulabsolventen festzustellen, sowohl für vollzeiterwerbstätige Männer wie Frauen. Im Unterschied dazu hat für diese Erwerbsgruppen die Lohndispersion bei den Mittelqualifizierten in den 90er Jahren abgenommen.
Diese Arbeit vergleicht die Verdienststrukturen in Westdeutschland für die Jahre 1990 und 1995 basierend auf der Gehalts- und Lohnstrukturerhebung und der IAB—Beschäftigtenstichprobe. Wir betrachten Verdienstunterschiede im Hinblick auf die berufliche Qualifikation, das Geschlecht, den Erwerbsstatus, die Branchenzugehörigkeit und das Alter. Die Analyse verwendet die Methode der Quantilsregressionen und ist rein deskriptiver Natur. Die beiden Datensätze unterscheiden sich teilweise in der Stichprobenzusammensetzung und es finden sich zum Teil Unterschiede in den geschätzten Verdienstrelationen. Qualitativ stimmen die Ergebnisse vor allem für Männer relativ gut überein. Die Verdienststrukturen erweisen sich als sehr differenziert, beispielsweise nehmen geschlechtsspezifische und qualifikatorische Verdienstunterschiede wie auch die Verdienstdispersion innerhalb einer Arbeitnehmergruppe typischerweise mit dem Alter zu. JEL - Klassifikation: C14 , J31 , C80
Beitrag fur das 27. Wirtschaftswissenschaftliche Seminar Ottobeuren 14.- 17.9.1997). Dieser Beitrag nimmt aus theoretischer und ökonometrischer Sicht zu der Kontroverse über die Bedeutung der qualifikatorischen Lohnstruktur zur Erklärung der Beschäftigungsstruktur Stellung. Basierend auf einer Einteilung in drei Qualifikationsgruppen zeigt sich empirisch, daß die Entlohnung der mittleren Gruppe relativ zur unteren und oberen weniger stark ansteigt, während ein kontinuierlicher Trend zur Höherqualifikation der Beschäftigten besteht. Es werden eine Translog-Kostenfunktion und Anteilsgleichungen ökonometrisch geschätzt, um den Einfluß der Lohnstruktur auf die Beschäftigungsstruktur zu erfassen. Bei allen Vorbehalten aufgrund verschiedener Probleme der Schätzungen implizieren die Ergebnisse einen signifikanten Einfluß der qualifikatorischen Struktur der mittleren Löhne auf die Beschäftigungsstruktur wie auch eine die relative Beschäftigung steigernde Wirkung einer erhöhten Lohndispersion innerhalb der Qualifikationsgruppen. Damit besteht die Möglichkeit, daß mit einer größeren Lohnspreizung die Lastverteilung der Arbeitslosigkeit bei gegebenem Output, Kapitaleinsatz und technischem Fortschritt in Form einer Erhöhung der Beschäftigung von gering qualifizierten Arbeitnehmern angeglichen werden kann.
Zur wissenschaftlichen Evaluation der aktiven Arbeitsmarktpolitik in Deutschland : ein Überblick
(2000)
Dieser Beitrag gibt einen Überblick der neueren wissenschaftlichen Literatur zur Evaluation der Aktiven Arbeitsmarktpolitik (AAMP) in Deutschland. Das Grundproblem mikroökonomischer Evaluation besteht darin, den Vergleichsmaßstab bei Nichtteilnahme zu schätzen, sei es auf Basis einer vergleichbaren Kontrollgruppe von Nichtteilnehmern oder auf Basis der Situation vor Teilnahme. Entscheidend ist hierbei, den potentiellen Selektionsproblemen Rechnung zu tragen. Evaluationsstudien auf der Makroebene müssen zusätzlich auch die indirekten Effkete der AAMP auf den gesamten Arbeitsmarkt berücksichtigen und der möglichen Endogenität der AAMP Rechnung tragen. Die meisten Evaluationsstudien fur Deutschland zeigen keine signifikant positiven Beschäftigungseffekte der AAMP, sind jedoch mit großer statistischer Unsicherheit behaftet. Wir führen letzteres im wesentlichen darauf zurück, daß wegen zu geringen Datenumfangs meist äußerst heterogene Maßnahmen gepoolt werden und daß über Teilnehmer und Nichtteilnehmer zu wenige Hintergrundinformationen verfügbar sind. Aufgrund dieser Datenrestriktionen verbietet sich daher aus Sicht der Autoren ein vorschnelles Verdikt über die ökonomischen Wirkungen der AAMP, obwohl mögliche positive Effekte nicht sehr stark sein können, da sie sonst vermutlich trotz unterschiedlicher Methoden und unzureichender Daten empirisch hätten identifiziert werden können.
Unter dem Stichwort "Patchwork-Biografien" wird die Tatsache, dass ein großer Teil der abhängig Beschäftigten ihren erlernten Beruf nicht mehr ausüben, in jüngster Zeit viel diskutiert. Diese Studie liefert einen empirischen Beitrag zur Anatomie der Berufswechsel für westdeutsche Männer auf Basis der BIBB/IABDaten 1998/1999. Als Grundlage für die empirische Analyse wird ein theoretisches Modell der Wahl zwischen horizontal differenzierten Berufen entwickelt. Die wichtigsten Ergebnisse sind: Ex post beobachtete Berufswechsel hängen negativ vom Durchschnittslohn im Ausbildungsberuf und positiv vom Durchschnittslohn im Erwerbsberuf ab. Der deskriptiv beobachtete durchschnittliche Entlohnungseffekt eines Berufswechsels ist signifikant positiv, verstärkt sich noch, wenn für den Ausbildungsberuf kontrolliert wird, und ist demgegenüber signifikant negativ, wenn für den Erwerbsberuf kontrolliert wird. Der geschätzte kausale durchschnittliche Entlohnungseffekt ist positiv. Die Ergebnisse sind insgesamt damit konsistent, dass Berufswechsel vor allem damit zusammenhängen, dass Beschäftigte im neuen Erwerbsberuf größere Verdienst- und Karrierechancen wahrnehmen können. JEL - Klassifikation: J62 , J31 , J24 , C21
Thema dieser Arbeit ist eine ökonomische Einordnung der Förderung der beruflichen Weiterbildung (FbW) als Teil der Aktiven Arbeitsmarktpolitik in Deutschland. Die Analyse erfolgt im Lichte des sektoralen Wandel, der Verschiebung der qualifikatorischen Arbeitsnachfrage und der vorrauszusehenden Produktivitätseffekte im Zusammenhang mit einer alternden Gesellschaft. Auf Basis der Humankapitaltheorie wird zunächst theoretisch erörtert, inwieweit sich FbW als Teil der Aktiven Arbeitsmarktpolitik aus Effizienz- und Verteiliungsgesichtspunkten rechtfertigen lässt und in welcher Form FbW sinnvoll sein kann.
Über die Wirkung der Förderung der beruflichen Weiterbildung in Ostdeutschland sind in den letzten Jahren zahlreiche empirische Studien durchgeführt worden, die auf den methodischen Fortschritten der Evaluationsforschung aufbauen. Dieser Beitrag stellt die empirische Evidenz im Kontext der institutionellen Regelungen und der methodischen Probleme einer angemessenen mikro- oder makroökonomischen Evaluation dar. Insbesondere behandeln wir die im ostdeutschen Kontext wichtigen Probleme der Mehrfachteilnahmen und der Reduktion der Beschäftigungsquoten für die Teilnehmer kurz vor einer Weiterbildung ("Ashenfelters Tal"), die bislang in empirischen Analysen kaum Berücksichtigung finden. Die durchgeführten mikroökonomischen Evaluationsstudien basieren auf Umfragedaten mit kleinen Teilnehmerzahlen. Die erzielten Evaluationsergebnisse ergeben ein ernüchterndes Bild der Wirkung geförderter Weiterbildung: Es zeigen sich eher negative als positive Maßnahmeneffekte auf die Beschäftigung. Aufgrund der schwachen Datenbasis und verbleibender methodischer Probleme erlaubt die bisherige Evidenz jedoch noch keine wirtschaftspolitischen Schlussfolgerungen. Stattdessen sollten die eher negativen Ergebnisse von der politischen Seite zum Anlass genommen werden, die Voraussetzungen für eine angemessene und kontinuierliche Evaluation der aktiven Arbeitsmarktpolitik zu schaffen.
Im Rahmen des Value Based Managements sollen alle Manahmen der Unternehmensfhrung auf die Steigerung des intrinsischen Marktwertes des Eigenkapitals ausgerichtet werden. Hauptanwendungsbereiche des Value Based Managements sind die Planung, Performancemessung, Managemententlohnung sowie die Bereichssteuerung. Eine konsequente shareholder-orientierte Steuerung beinhaltet eine adquate Ermittlung von Wertbeitrgen in den einzelnen Anwendungsbereichen. Hierzu dienen insbesondere absolute Wertbeitragskennzahlen in Form von Residualgewinnen. Residualgewinne sind dadurch gekennzeichnet, dass der Gewinn um eine auf das Gesamtkapital bezogene Capital bzw. Interest Charge reduziert wird. Der magebliche Gewinn sowie das Gesamtkapital ergeben sich, indem die handelsrechtlichen Gren durch mehr oder minder weitreichende Modifikationen angepasst werden. Die Berechnung der Interest Charge erfolgt entweder auf Basis eines risikoangepassten Zinssatzes oder auf Basis eines risikofreien Zinssatzes. In der Praxis finden sich zahlreiche unterschiedliche Residualgewinnkonzepte, die sich insbesondere durch die jeweils charakteristischen Modifikationen und durch den verwendeten Zinssatz zur Berechnung der Kapitalkosten unterscheiden.1) Herkmmliche Konzepte zeichnen sich dadurch aus, dass die Interest Charge auf Basis eines risikoangepassten Zinssatzes berechnet wird. Das in Velthuis (2003c) theoretisch entworfene und von der KPMG in der Praxis umgesetzte Konzept Earnings less Riskfree Interest Charge, ERIC , ist hingegen dadurch charakterisiert, dass zur Berechnung der Interest Charge ein risikofreier Zinssatz verwendet wird. Ferner werden Modifikationen nur insofern vorgenommen, als dass eine vollstndige Bercksichtigung aller Erfolgskomponenten gewhrleistet wird. Glaubt man den Vertretern herkmmlicher Konzepte, basieren diese Konzepte auf einer hinreichenden theoretischen Fundierung. Diesem Anspruch gengen solche Konzepte tatschlich jedoch nicht, sie zeichnen sich gerade durch eine mangelnde theoretische Fundierung aus.2) In Velthuis (2003c) wird verdeutlicht, dass die in der Praxis verbreitete Vorgehensweise gerade zum Ausweis von Wertbeitrgen fhrt, die inkonsistent mit der Zielsetzung der Shareholder sind. In allen Anwendungsbereichen des VBM zeigt sich nmlich aus theoretischer Sicht die Problematik der VerIm Rahmen des Value Based Managements sollen alle Maßnahmen der Unternehmensführung auf die Steigerung des intrinsischen Marktwertes des Eigenkapitals ausgerichtet werden. Hauptanwendungsbereiche des Value Based Managements sind die Planung, Performancemessung, Managemententlohnung sowie die Bereichssteuerung. Eine konsequente shareholder-orientierte Steuerung beinhaltet eine adäquate Ermittlung von Wertbeiträgen in den einzelnen Anwendungsbereichen. Hierzu dienen insbesondere absolute Wertbeitragskennzahlen in Form von Residualgewinnen. Residualgewinne sind dadurch gekennzeichnet, dass der Gewinn um eine auf das Gesamtkapital bezogene Capital bzw. Interest Charge reduziert wird. Der maßgebliche Gewinn sowie das Gesamtkapital ergeben sich, indem die handelsrechtlichen Größen durch mehr oder minder weitreichende Modifikationen angepasst werden. Die Berechnung der Interest Charge erfolgt entweder auf Basis eines risikoangepassten Zinssatzes oder auf Basis eines risikofreien Zinssatzes. In der Praxis finden sich zahlreiche unterschiedliche Residualgewinnkonzepte, die sich insbesondere durch die jeweils charakteristischen Modifikationen und durch den verwendeten Zinssatz zur Berechnung der Kapitalkosten unterscheiden.1) Herkömmliche Konzepte zeichnen sich dadurch aus, dass die Interest Charge auf Basis eines risikoangepassten Zinssatzes berechnet wird. Das in Velthuis (2003c) theoretisch entworfene und von der KPMG in der Praxis umgesetzte Konzept Earnings less Riskfree Interest Charge, ERIC Ò , ist hingegen dadurch charakterisiert, dass zur Berechnung der Interest Charge ein risikofreier Zinssatz verwendet wird. Ferner werden Modifikationen nur insofern vorgenommen, als dass eine vollständige Berücksichtigung aller Erfolgskomponenten gewährleistet wird. Glaubt man den Vertretern herkömmlicher Konzepte, basieren diese Konzepte auf einer hinreichenden theoretischen Fundierung. Diesem Anspruch genügen solche Konzepte tatsächlich jedoch nicht, sie zeichnen sich gerade durch eine mangelnde theoretische Fundierung aus.2) In Velthuis (2003c) wird verdeutlicht, dass die in der Praxis verbreitete Vorgehensweise gerade zum Ausweis von Wertbeiträgen führt, die inkonsistent mit der Zielsetzung der Shareholder sind. In allen Anwendungsbereichen des VBM zeigt sich nämlich aus theoretischer Sicht die Problematik der Verwendung eines risikoangepassten Zinssatzes zur Berechnung von Kapitalkosten: Schon die Verwendung eines risikoangepassten Kapitalkostensatzes im Rahmen der Planung kann problematisch sein. Die Verwendung risikoangepasster Kapitalkosten als Benchmark bei der Performancemessung ist sogar ganz abzulehnen, und bei der Managemententlohnung ist die Verrechnung von risikoangepassten Kapitalkosten zwingend mit Fehlanreizen verbunden. Aber auch praxisübliche Modifikationen erweisen sich als problematisch, da Erfolgskomponenten nicht bzw. nicht vollständig berücksichtigt werden. Im Gegensatz zu herkömmlichen Konzepten weist das VBM-Konzept ERIC eine tatsächliche theoretische Fundierung auf. In Velthuis (2003c) werden grundlegende theoretische und praktische Anforderungen für die einzelnen Anwendungsbereiche herausgearbeitet und es wird gezeigt, dass ein integriertes VBM-Konzept auf Basis des Residualgewinns ERIC diese Anforderungen stets erfüllt. Ziel dieses Aufsatzes ist es, die Grundkonzeption von ERIC theoretisch weiter zu entwickeln. Während in Velthuis (2003c) stets von einer sehr einfachen Idealwelt ausgegangen wird, soll hier zum einen verdeutlicht werden, wie ein erfolgreiches Value Based Management auf Basis von ERIC in komplexeren und realitätsnäheren Situationen erfolgen kann. Zum anderen gilt es, zusätzliche praktische Problembereiche zu erkennen und Lösungsmöglichkeiten aufzuzeigen. Der Aufsatz ist wie folgt aufgebaut: Zunächst wird gezeigt, wie der Residualgewinn ERIC zu berechnen ist, und es wird ein Überblick über die Anwendungsbereiche gegeben. Anschließend wird die grundlegende Entscheidungssituation für die späteren Darstellungen erörtert und es werden fundamentale Prinzipien des Value Based Managements und ihre Bedeutung für die einzelnen Anwendungsbereichen erläutert. Sodann wird für die einzelnen Bereichen des Value Based Managements, der Planung, Performancemessung, Managemententlohnung und der Bereichssteuerung gezeigt, wie ERIC anzuwenden ist, damit eine tatsächliche Shareholder-Orientierung gewährleistet wird. Die Darstellungen erfolgen dabei jeweils zunächst vor dem Hintergrund einer Idealwelt. In einem zweiten Schritt wird die Entscheidungssituation jeweils modifiziert, um der Realität ein Stück näher zu kommen.
Im Rahmen einer Ereignisstudie am deutschen Kapitalmarkt wird untersucht, ob Adhoc- Mitteilungen korrekt eingesetzt werden. Die Ergebnisse belegen, daß Nemax-50-Unternehmen die Veröffentlichung potentiell positiver Meldungsinhalte bevorzugen und die Bekanntmachung negativer Mitteilungen verzögern. Außerdem veröffentlichen Nemax-50-Werte in positiven Marktphasen besonders viele Mitteilungen und einen besonders hohen Anteil an positiven Meldungsinhalten, um von der positiven Stimmung der Marktteilnehmer zu profitieren. Dax-30-Werte verhalten sich dagegen regelgerecht. Die Befunde belegen die Notwendigkeit einer stärkeren Überwachung des Veröffentlichungsverhaltens der Emittenten, die in 2002 am Neuen Markt gelistet waren.
Im ersten Kapitel wird dabei die "klassische" Theorie des Fiskalföderalismus diskutiert, die von Problemen des politischen Prozesses weitgehend abstrahiert. Das zweite Kapitel bietet dann einen Überblick der Argumente, die Unzulänglichkeiten des politischen Prozesses als Begründung für Dezentralisierung bzw. Zentralisierung heranziehen. Obwohl die allgemeine Theorie des Fiskalföderalismus einige wichtige Anhaltspunkte für die Zentralisierungsentscheidung beinhaltet, ist es unabdingbar, in Abhängigkeit vom konkreten Politikfeld jeweils eine spezielle Bestandsaufnahme bezüglich der einhergehenden Kosten und Nutzen einer verstärkten Zentralisierung anzustellen. Die vorliegende Studie nimmt sich dabei aus der Fülle der möglichen Politikfelder einige wichtige Teilgebiete heraus. Kapitel 3 diskutiert die möglichen Vorteile einer verstärkten außen- und verteidigungspolitischen Zentralisierung in Europa. Vor dem Hintergrund, dass jedes Land in Europa einen Anreiz hat, sich bei der Durchsetzung gemeinsamer Interessen auf die Partnerländer innerhalb der NATO zu verlassen, lässt eine verstärkte Koordinierung der Europäer auf eine Verringerung des Freifahrerproblems hoffen. Allerdings steht zu befürchten, dass die resultierenden Mehranstrengungen der Europäer zu verminderten Anstrengungen der USA führen. Die Lasten der Verteidigungspolitik könnten sich daher verstärkt von den USA auf Europa verschieben. Je größer Europa durch zusätzliche Beitritte wird, desto eher lohnt es sich allerdings wie Kapitel 3 erläutert eine solche Verschiebung der Lasten in Kauf zu nehmen. Kapitel 4 erörtert die europäischen Finanzausgleichsbeziehungen. In einem ersten Schritt werden die existierenden Finanzbeziehungen innerhalb der EU skizziert. In einem zweiten Schritt werden die Grundlagen und Probleme einer erweiterten regionalen Umverteilung zwischen den Mitgliedstaaten diskutiert. Kapitel 5 argumentiert, dass es in dieser institutionellen Situation nicht verwunderlich ist, wenn die einzelnen Mitgliedsländer eine verstärkte Präferenz für rigide Arbeitsmärkte entwickeln. Weil es rigide Arbeitsmärkte für gebietsfremde Outsider schwerer machen dürften, Zugang zum regionalen Arbeitsmarkt zu erhalten, helfen Arbeitsmarktrigiditäten die Mobilität zu verringern. Umverteilungssysteme zu Gunsten von Geringverdienern, die ansonsten durch die Arbeitskräftemobilität erodieren würden, lassen sich so eher bewahren. Kapitel 6 beschäftigt sich mit der Koordinierung bei der Besteuerung von mobilem Kapital.
Motivation der Arbeit Die Motivation zur vorliegenden Arbeit beruht auf zwei herausragenden Charakteristika des deutschen Kapitalstocks. Dieser ist zum einen durch ein hohen Anteil der Wohnbauten gekennzeichnet. Wohnbauten unterscheiden sich in einiger Hinsicht deutlich von den Ausrüstungen sowie den übrigen Bauten und machen daher eine eigenständige Analyse ihrer Bestimmungsgründe erforderlich. Zum anderen fällt auf, daß die meisten Wohnungen Mietwohnungen sind und Deutschland damit im Vergleich mit westlichen Industrienationen eine geringe Eigentümerquote aufweist. Es soll daher die Besitzwahlentscheidung der Haushalte unter besonderer Berücksichtigung der Kosten unterschiedlicher Besitzformen untersucht werden. Längerfristige makroökonomische Entwicklung des Wohnungsbestandes In langer Sicht zeigt sich, daß die seit 1950 entstandenen Wohnungen nur zum Teil durch eine wachsende Bevölkerung erklärt werden können. Bedeutender sind hier veränderte Wohngewohnheiten, die einen höheren Wohnungsbestand erforderlich machen. Zum einen ist hier die Verringerung der Zahl der Haushalte zu nennen, die sich eine Wohnung teilen. Dieser Rückgang war besonders in der unmittelbaren Nachkriegszeit markant, setzte sich aber auch bis in die Gegenwart fort. Zum anderen hat sich die Haushaltsgröße von 3 Personen je Haushalt im Jahre 1950 auf 2,18 Personen im Jahre 1998 verringert. Mittelfristige regionale Entwicklung des Wohnungsbestandes Auffälligste Entwicklung der letzten Jahrzehnte ist der deutliche Rückgang fertiggestellter Wohnungen seit den 1970er Jahren bis 1987 und der danach beobachtbare Wiederanstieg. Zur Untersuchung der konjunkturellen Bestimmungsgründe dieser Entwicklung werden Längsschnitts-Querschnitts-Bauinvestitionsfunktionen für Bundesländer mit Methoden der Panelanalyse geschätzt. Als Investitionsindikator werden die realen Baugenehmigungen (in Kubikmetern umbauten Raums) pro Kopf der Bevölkerung herangezogen. Im Vergleich zu Spezifikationen, die den mit Tobins Q vergleichbaren Renditequotient als Exogene enthalten, zeigen sich hierbei Modelle, die stattdessen die Realzinsen berücksichtigen, im Hinblick auf die Anpassungsgüte ebenbürtig. Neben einem signifikanten Einfluß des Prokopfeinkommens zeigt sich ein signifikant negativer Einfluß der Bevölkerungsdichte und ein signifikanter Einfluß der geographischen Nord-Süd-Lage, mit höherer durchschnittlicher Investitionsaktivität der südlichen Bundesländer. Hierin kommt die besondere Lageabhängigkeit der Bauinvestitionen zum Ausdruck. Ferner zeigt sich, daß der Einkommenseinfluß signifikant von der Vermögensstruktur der untersuchten Einheiten abhängt: Je höher der Anteil des Finanzvermögens im Vergleich zum Wohnungsvermögen ist, umso geringer ist der Einfluß des Einkommens auf die Investitionsaktivität. Je liquider also die Vermögensstruktur der Einheiten ist, umso weniger ist ihre Investitionsaktivität vom laufenden Einkommen abhängig. Da das Einkommen als Indikator des Zustroms liquider Mittel gesehen werden kann, bestätigen sich damit für das Investitionsverhalten von Produktionsunternehmen vorliegende Befunde einer Liquiditätsabhängigkeit der Investitionen auch für die Wohnungsbautätigkeit. Das spricht auch dafür, daß der signifikante Einkommenseinfluß - zumindest nicht ausschließlich - Ausdruck eines Einkommenseffektes bei der Nachfrage nach dem Konsumgut Wohnung ist. Da allerdings daneben auch der Zinseinfluß bzw. der Einfluß des Renditequotienten bei den liquiden Einheiten geringer ausfällt, gewinnen in dieser Gruppe andere, einheitenspezifische und nicht explizit erfaßte Determinanten an Bedeutung. Diese Determinanten sind möglicherweise auch mit einem mesoökonomischen Modell nicht zu erfassen. Zusammenhänge zwischen dem verwendeten Investitionsindikator und der wohnungspolitisch relevanten Zahl neuer Wohnungen werden im Anschluß untersucht. Dabei zeigt sich zwar eine weitgehend gleichläufige Entwicklung beider Größen. Da jedoch einer gegebenen Menge umbauten Raumes sowohl im Zeit- als auch im Ländervergleich eine unterschiedliche Zahl neuer Wohnungen gegenübersteht, ist dieser Zusammenhang durch den Einfluß sich unterscheidender Baukonventionen überlagert. So gibt es etwa - besonders für die Aufschwungphase von 1987 bis 1994 - Hinweise auf "sparsameres" Bauen, wie etwa Einsparen von Nebenflächen und Verringerung der Wohnungsgrößen. Da die berechneten Effekte zudem in den Bundesländern mit unterschiedlichem Gewicht in Erscheinung treten, tragen diese nicht nur zu einer qualitativen Veränderung des Wohnungsbestandes im Zeitablauf, sondern auch zu einer qualitativen Differenzierung des regionalen Wohnungsbestandes bei. Wohnkosten und Besitzformwahl Im nächsten Abschnitt wird der Frage nachgegangen, welchen Einfluß die Kosten der Besitzformen Miete und Eigentum auf die individuelle Besitzformwahl der Haushalte haben. Datenbasis ist die Einkommens- und Verbrauchsstichprobe des Jahres 1993, die eine Fülle von haushalts- und wohnungsindividuellen Informationen enthält. Hierzu werden Mietkosten und Selbstnutzungskosten (ermittelt als Kapitalkosten des gebundenen Vermögens, haushaltsindividuellem Steuervorteil und Erhaltungsaufwand) gegenübergestellt. Für diese Gegenüberstellung ist es erforderlich, für Mieter hypothetische Selbstnutzungskosten, hier für den Fall des Kaufs der aktuell bewohnten Wohnung zu bestimmen. Für Eigentümer sind hypothetische Mietkosten für den Fall zu ermitteln, daß sie die eigene Wohnung mieteten. Es werden durchweg kalkulatorische Werte verwendet, was die Vergleichbarkeit von Mieter und Eigentümerhaushalten gewährleistet und auf beobachtete marktpreisbestimmende Faktoren abstellt. Mit befriedigender Anpassungsgüte werden hierzu mit einem Regressionsansatz, in den Lage- und Ausstattungsmerkmale der Wohnungen eingehen, ein deutschlandweiter Miet- und Verkehrswertspiegel geschätzt. Mit diesen läßt sich eine kalkulatorische Miete und das in der Wohnung gebundene Vermögen (kalkulatorischer Verkehrswert) sowohl für Mieter- als auch für Eigentümerhaushalte abschätzen. Bei der Berechnung der Kosten des gebundenen Eigen- und Fremdkapitals und des Steuervorteils kann auf die individuellen Angaben der Haushalte zugegriffen werden. Die Gegenüberstellung von Mietkosten und Selbstnutzungskosten für beide Haushaltsgruppen ergibt eine Kostendifferenz, die einer Rendite vor Wertsteigerungen entspricht. Deskriptive Analysen für Bundesländer und Einkommensgruppen zeigen, daß im Allgemeinen eine höhere Kostendifferenz mit einer höheren Eigentümerquote einhergeht. Dieser positive Zusammenhang bestätigt sich in einem Logit-Modell, in dem die Kostendifferenz eine gute Klassifikation von Mieter- und Eigentümerhaushalten ermöglicht. Auch nach Aufnahme weiterer in der Literatur berücksichtigter Variablen wie Haushaltsnettoeinkommen und soziodemographischen Variablen bleibt die Kostendifferenz die erklärungskräftigste Variable. Offenbar dienen diese Variablen bei weniger haushaltsindividueller Berechnung der Kosten- bzw. Rentabilitätsvariable auch als Proxies für bestimmte Kosten- bzw. Rentabilitätskomponenten. Eine nach Bundesländern und Einkommensgruppen disaggregierte Analyse der Modellergebnisse bestätigt die gute Klassifikationsgüte, weist aber auch auf noch fehlende Informationen zu den Motiven der Besitzwahlentscheidung hin. Steuerpolitische Implikationen einer unterschiedlichen Wohneigentumsförderung Die Steuervorteile aus der Nutzung selbstgenutzten Wohneigentums sind eine wichtige Komponente der berechneten Kostendifferenz. Um Erkenntnisse über den Einfluß unterschiedlicher steuerlicher Regelungen selbstgenutzten Wohnraums zu gewinnen, werden mikroökonomische Besteuerungsszenarien durchgeführt. Der im Jahre 1993 gültigen Regelung, die Abschreibungen im Rahmen von Höchstbeträgen und ein Baukindergeld vorsieht, werden folgende drei alternative Regelungen gegenübergestellt: (1) Die seit 1996 praktizierte Eigenheimzulage mit einer einkommensunabhängigen Förderung und einem Baukindergeld. (2) Die Gewährung eines Schuldzinsabzugs vom zu versteuernden Einkommen. (3) Die sogenannte Investitionsgutlösung, die auf einer Gewinn- und Verlustrechnung des Wohnungseigentümers beruht. Für jeden Haushalt der Datenbasis werden aufgrund seiner individuellen Situation die Steuervorteile und die Kostendifferenz berechnet, die er bei Gültigkeit der alternativen Regelung aufweisen würde. Mit dem oben geschätzten Logit-Modell wird die Besitzform bei Gültigkeit der alternativen Regelung vorhergesagt. Fehlklassifizierte Mieter, die zudem gemäß verschiedener Variablen als nicht kaufrestringiert eingeschätzt werden, gelten als potentielle Neueigentümer. Gemessen an der Zahl potentieller Neueigentümer erweist sich die Eigenheimzulage als am wohnungspolitisch effektivsten, hätte aber auch den höchsten fiskalischen Aufwand zur Folge. Da die Gewährung eines Schuldzinsabzuges und die Investitionsgutlösung eine geringere Zahl potentieller Neueigentümern mit sich bringen würden, dürfen diese Varianten in der hier unterstellten Ausgestaltung als wohnungspolitisch unergiebig eingestuft werden. Da von der Investitionsgutlösung auch die Alteigentümer betroffen wären, ist bei der hier untersuchten Ausgestaltung mit einer gegenüber dem Status Quo zusätzlichen Subventionierung dieser Gruppe in Höhe von 2,62 Mrd. DM zu rechnen, was wohnungspolitisch nicht zu rechtfertigen ist. Im Hinblick auf die Verteilung der potentiellen Neueigentümer zeigt sich in allen Szenarien, daß diese überwiegend den oberen Einkommensdezilen angehören. Im Vergleich mit den anderen Szenarien führt die Gewährung einer Eigenheimzulage in den unteren Einkommensdezilen, die eine geringe Eigentümerquote aufweisen, noch zur höchsten Zahl potentieller Eigentümer. Die Eigenheimzulage würde hier mit Abstand zur höchsten potentiellen Fördersumme in den unteren fünf Einkommensdezilen beitragen. In den östlichen Flächenstaaten reagiert die Anzahl potentieller Neueigentümer und der durchschnittliche Förderbetrag besonders deutlich auf die unterstellte Fördervariante. Die Eigenheimzulage führt hier zum höchsten Anteil potentieller Neueigentümer, was angesichts der dort niedrigen Eigentümerquote positiv zu beurteilen ist. In den westlichen Flächenstaaten dagegen führen alle betrachteten Fördervarianten der Tendenz nach zu einem hohen Anteil potentieller Neueigentümer in Ländern mit einer niedrigen Eigentümerquote. Im Hinblick auf die Wohnlagen findet der Tendenz nach bei allen Varianten eine stärkere Förderung von Zentren und zentrumsnahen Lagen mit bis zu 25 km Großstadtentfernung statt. Auch gemessen an diesem Verteilungskriterium führt die Eigenheimzulage zu einer geringsten Ausprägung des geschilderten Zentrum-Peripherie-Gefälles. Steuerpolitische Implikationen einer Kombination wohnungspolitischer Instrumente Zunächst zeigt sich, daß reine Begrenzungen des Schuldzinsabzuges wohnungspolitisch nicht effektiv sind. Erst durch eine Kombination mit einer Option auf eine einkommensunabhängige Mindestförderung (ähnlich der Eigenheimzulage, aber ohne Baukindergeld) erlangt die Gewährung eines Schuldzinsabzuges eine wohnungspolitische Effektivität. Die Zahl potentieller Neukäufer ließe sich bei jeweils gleichem fiskalischen Aufwand mit Mindestfördersätzen von knapp 3 Prozent gegenüber dem Status Quo und mit Mindestfördersätzen von rund 3,5 Prozent gegenüber der Eigenheimzulage erhöhen. Die Investitionsgutlösung wird durch das Instrument eines begrenzten Schuldzinsabzuges bzw. eines weiteren Mietzinszuschlages, jeweils kombiniert mit einem Mietgewinnfreibetrag variiert. Zur Erreichung von Aufkommensneutralität bei den Alteigentümern müßte der Schuldzinsabzug drastisch reduziert werden. Mit Mietzinszuschlägen gelangt man ohne Gewährung eines Mietgewinnfreibetrages bei einem Zuschlagsatz von 0,9 Prozentpunkten und bei Gewährung eines Freibetrages von 5.000 DM p.a. bei einem Zuschlag von etwa 2,5 Prozentpunkten zu einer aufkommensneutralen Position der Alteigentümer. Die Investitionsgutlösung wird sodann so ausgestaltet, daß sie für Alteigentümer aufkommensneutral ist. Hierzu wird auf die obigen Erkenntnisse zurückgegriffen und es werden drei verschiedene aufkommensneutrale Kombinationspunkte von Mietzinszuschlag und Mietgewinnfreibetrag gewählt. Potentielle Neueigentümer können auf Ansatz ihres (negativen) Mietgewinnes oder auf die Mindestförderung optieren. Eine gleiche Zahl potentieller Neueigentümer wie im Status Quo würde sich - bei niedrigerer potentieller Fördersumme - bei einem Mindestfördersatz von 2,8 Prozent ergeben. Die schon hohe Zahl potentieller Neueigentümer in der Eigenheimzulage ließe sich - wiederum bei niedrigerer potentieller Fördersumme - bei einem Mindestfördersatz von 3,4 Prozent erreichen und gleichzeitig ein höheres Maß an Gleichheit bei der Verteilung der Fördersummen über die Einkommensdezile erreichen. Bei derart hohen Mindestfördersätzen würde allerdings die größte Zahl potentieller Neueigentümer auf die Mindestförderung optieren, so daß hier praktisch nicht mehr von einer Investitionsgutlösung gesprochen werden kann. Belastet man die Alteigentümer mit per Saldo 2 Mrd. DM so ergeben sich vergleichbare Ergebnisse. Der Fiskus wird dann aber in die Lage versetzt, bei Aufkommensneutralität insgesamt höhere Fördersätze zu gewähren. Resümee Bei der Eigenheimförderung steht das eigenständige wohnungspolitische Ziel einer hohen Eigentümerquote klar im Vordergrund, da andere Zielsetzungen schwierig zu begründen sind. Die durchgeführten Szenarien geben Hinweise darauf, daß mit einer einkommensunabhängigen Förderung dieses Ziel am effektivsten erreicht werden kann. Eine vollständige Verteilungsgleichheit läßt sich allerdings nicht herstellen. In allen Szenarien bleiben die Bezieher höherer Einkommen bevorteilt, wenn auch das Ausmaß der Ungleichheit zwischen den gerechneten Varianten erheblich variiert. Auch hier kommt eine einkommensunabhängige Mindestförderung zu günstigen Ergebnissen und würde zudem die Chance bieten, die seit Jahrzehnten bestehende deutliche Konzentration der Fördermittel auf die oberen Einkommensgruppen abzuschwächen. Eine eindeutige wohnungspolitische Ausrichtung würde zudem den Verzicht auf die familienpolitische Komponente eines Baukindergeldes nahelegen, das Bestandteil der derzeit praktizierten und fast aller vorherigen Förderarten war. Aus den Szenarien gibt es Hinweise darauf, daß einem Verzicht auf diese Komponente bei gleicher wohnungspolitischer Effektivität ein reduzierter fiskalischer Aufwand gegenübersteht. Dagegen stehen allerdings die offenbar mit der Wohnungspolitik immer fest verknüpften familienpolitischen Überlegungen. Bei alledem ist die Stärkung der Nachfrage nach selbstgenutztem Wohnraum vor dem Hintergrund der im ersten Teil der Arbeit aufgezeigten lang- und mittelfristigen, demographischen, ökonomischen und regionalen Rahmenbedingungen der Wohnungsbauaktivität nicht unproblematisch. Stößt diese zusätzliche Nachfrage auf ein starres Angebot, resultieren allenfalls Preissteigerungen, die wiederum eine Erhöhung der Eigentümerquote im Wege stehen und auch aus verteilungspolitischer Sicht nicht wünschenswert sind.