Refine
Year of publication
Document Type
- Part of Periodical (300)
- Working Paper (192)
- Book (95)
- Contribution to a Periodical (45)
- Report (45)
- Article (43)
- Doctoral Thesis (35)
- diplomthesis (8)
- Periodical (8)
- Conference Proceeding (7)
Language
- German (795) (remove)
Is part of the Bibliography
- no (795)
Keywords
- Financial Institutions (45)
- Deutschland (40)
- Capital Markets Union (30)
- Financial Markets (27)
- ECB (25)
- Banking Regulation (23)
- Macro Finance (22)
- Banking Supervision (20)
- Banking Union (19)
- Household Finance (19)
Institute
- Wirtschaftswissenschaften (795) (remove)
Empirische Wohlstandsanalysen können prinzipiell anhand dreier Indikatoren durchgeführt werden: Anhand des Privaten Verbrauchs, anhand des verfügbaren Einkommens oder anhand des Nettovermögens.1 Während es für die Definition der Indikatoren des Privaten Verbrauchs und des verfügbaren Einkommens zumindest einigermaßen akzeptierte internationale Konventionen gibt, ist dies bezüglich der Definition des privaten Vermögens nicht annähernd der Fall. Im Unterschied zu den Volkseinkommensrechnungen sind Volksvermögensrechnungen im internationalen Maßstab deutlich weniger gut ausgebaut. Dies mag damit zusammenhängen, daß bei einer Bestandsgröße wie dem privaten Vermögen Aspekte der Verwertung, Nutz-ung, sozialen Absicherung wie auch der Verleihung von Macht2 intensiver zum Tragen kommen als bei einer Stromgröße wie dem privat verfügbaren Haushaltseinkommen. Aus welchen Bestandteilen sich das Gesamtvermögen zusammenzusetzen hat, ist daher einem heftigeren Diskurs als bei den anderen Wohlstandsindikatoren ausgesetzt. Es herrscht beispielsweise Uneinigkeit darüber, ob das Human- oder das Sozialvermögen sinnvolle Vermögenskomponenten sind. Eine eher negative Einschätzung in diesem Zusammenhang wird üblicherweise damit begründet, daß beide potentiellen Gesamtvermögensbestandteile das Kriterium der interpersonellen Veräußerbarkeit nicht bzw. nur unzureichend erfüllen.1 Auch ist die Forschung vor zum Teil schwer überwindbare Bewertungsprobleme einzelner Vermögenskomponenten gestellt, und zwar stärker als bei den beiden anderen Wohlstandsindikatoren, bei denen zumindest die überwiegende Anzahl an Teilelementen mittels nachvollziehbarer Marktpreise vergleichsweise einfach bewertet werden kann. Hinzu kommt die schlechtere Datenlage hinsichtlich der Erfassung privaten Vermögens im Vergleich zum Privaten Verbrauch bzw. verfügbaren Haushaltseinkommen, was nicht zuletzt auf die - in Befragungen - (noch) größere Sensibilität der Interviewten bezüglich der Beantwortung vermögensbezogener Fragen im Vergleich zu den beiden anderen Wohlstandsindikatoren zurückzuführen ist. Alles in allem bleibt festzuhalten, daß allein die Deskription der Höhe und Verteilung privat gehaltenen Vermögens eine höchst komplexe Aufgabe ist. Es ist daher keineswegs unwahrscheinlich, daß verschiedene Vermögensanalysen selbst auf einer einheitlichen Datengrundlage zu zum Teil entgegengesetzten Aussagen gelangen werden. Diesen letztgenannten Gedanken aufgreifend, werden in der vorliegenden Studie in beispielhafter Form drei auf Basis der Einkommens- und Verbrauchsstichprobe (EVS) 1988 durchgeführte Analysen zur bundesdeutschen Vermögensverteilung privater Haushalte einer vergleichenden Betrachtung unterzogen. Es wird gezeigt, an welchen Stellen Abweichungen zwischen den einzelnen Studien auftreten und worauf diese (vermutlich) zurückzuführen sind. Das vorliegende Arbeitspapier ist wie nachfolgend aufgebaut. Kapitel 2 vermittelt einen Eindruck von der Datenbasis, auf der die drei genannten Studien jeweils basieren, Kapitel 3 schildert kurz die Konstruktionselemente der drei behandelten Analysen, und in Kapitel 4 werden in einer Gegenüberstellung der drei Studien Unterschiede kausal herausgearbeitet. Es folgt in Kapitel 5 eine Bewertung der Untersuchungsergebnisse.
Die Struktur der Gesetzlichen Rentenversicherung (GRV) in der Bundesrepublik Deutschland ist grundsätzlich geändert worden. Die Bundesregierung hat die Einführung einer zusätzlichen privaten Alterssicherung auf freiwilliger Basis beschlossen. Hierdurch soll ein Kapitalstock gebildet werden, der die Leistungen der GRV ergänzt. Zur Förderung dieser Systemänderung der Alterssicherung werden umfangreiche fiskalische Unterstützungsmaßnahmen eingeführt. Im Rahmen des hier vorliegenden Beitrags wird auf die besondere Situation der Familien mit Kindern eingegangen. Im zweiten Abschnitt wird untersucht, inwieweit Familien mit Kindern in den letzten zehn Jahren in Deutschland in der Lage waren, privates Vermögen aufzubauen. Im dritten Abschnitt werden die beabsichtigten Änderungen des Systems der gesetzlichen Rentenversicherung in den Grundzügen dargestellt, und es wird ein Überblick über die geplanten fiskalischen Fördermaßnahmen gegeben. Im abschließenden vierten Abschnitt wird eine Bewertung der Änderungen vor allem in Bezug auf die Situation von Familien versucht.
Die Entwicklung des aggregierten Privatvermögens und seine Verteilung in Deutschland seit 1970
(2002)
Die hier vorgestellte Untersuchung des Vermögens privater Haushalte als ein möglicher Indikator für den Wohlstand einer Gesellschaft hat für die Bundesrepublik Deutschland einen starken Anstieg der Vermögen seit 1970 aufgezeigt. Dies gilt sowohl für die makroökonomischen Resultate der Finanzierungsrechnung der Deutschen Bundesbank als auch für die mikroökonomischen Ergebnisse der Einkommens- und Verbrauchsstichproben des Statistischen Bundesamts. Allerdings werden auch wesentliche Unterschiede im Aussagegehalt der einzelnen Datensätze deutlich. Während die Finanzierungsrechnung eine Steigerung des Nettovermögens um 808 Prozent in 27 Jahren aufweist (von 1,3 Billionen DM im Jahr 1970 auf 12,1 Billionen DM im Jahr 1997) lautet der entsprechende Prozentwert auf der Berechnungsbasis der Einkommens- und Verbrauchsstichproben nur 280 Prozent in 25 Jahren bei einer wesentlich niedrigeren Gesamthöhe in späteren Untersuchungen (von 2,2 Billionen DM im Jahr 1973 auf nur 8,3 Billionen DM im Jahr 1998). Die Untersuchung der Daten der EVS hat aufgezeigt, welch große Bedeutung das Immobilienvermögen für die Vermögenssituation der privaten Haushalte hat. Allerdings ist es nicht so, dass alle Haushalte über Eigentum an Grund- und Hausbesitz verfügen. In Westdeutschland hat es zwar eine starke Steigerungen der Eigentümerquote seit 1961 gegeben. Seit 1993 ist jedoch eine Stagnation bei etwa 50 Prozent zu konstatieren. Die Analyse der Vermögensverteilung nur bezogen auf die westdeutschen Haushalte hat im Zeitraum von 1973 bis 1993 eine abnehmende Konzentration sowohl bei der Betrachtung der Anteile einzelner Haushaltsquintile am Nettogesamtvermögen als auch bei der Analyse des Gini-Koeffizienten ergeben. Allerdings hat sich dieser Trend in den Jahren bis 1998 nicht weiter fortgeführt. Für das Jahr 1998 ist in Westdeutschland feststellbar, dass die unteren 40 Prozent der Haushalte über praktisch kein Vermögen verfügen, während das oberste Quintil über 60 Prozent des Gesamtvermögens aufweisen kann. Für Ostdeutschland sind starke Anpassungstendenzen hin zu den Werten der westdeutschen Bundesländer festzustellen. Dies betrifft einerseits die absolute Höhe der Vermögenswerte, auch wenn diese bisher nur 38 Prozent des entsprechenden Wertes westdeutscher Haushalte bei einer Betrachtung der Durchschnittswerte je Haushalte im Jahr 1998 erreichen. Andererseits ist auch die Eigentümerquote an Haus- und Grundbesitz nach der Wiedervereinigung stark angestiegen. Durch dieses Immobilieneigentum auf breiterer Basis wird die Ungleichheit der Vermögensverteilung in Ostdeutschland im Zeitablauf etwas verringert, so dass der Gini-Koeffizient in den Jahren von 1993 zu 1998 leicht gesunken ist. Jedoch kann auch für die neuen Bundesländer festgestellt werden, dass die unteren 40 Prozent der Haushalte über praktisch kein Vermögen verfügen, während das oberste Quintil ostdeutscher Haushalte sogar über 70 Prozent des Gesamtvermögens aufweisen kann. Feststellbar ist weiterhin eine hohe Übereinstimmung der Vermögensverteilung in Ost- und Westdeutschland. Sowohl die Vermögensverteilung auf der Basis der Quintilswerte als auch die Resultate der Gini-Koeffizienten weisen ähnliche Ergebnisse auf, wobei eine starke Angleichungstendenz zwischen beiden Landesteilen gegeben ist. Diese Ähnlichkeit der Ergebnisse kann nur als erstaunlich bezeichnet werden, wenn man bedenkt, dass beide Landesteile für über 40 Jahre unterschiedlichen wirtschaftspolitischen Leitbildern gefolgt sind – die Bundesrepublik Deutschland der sozialen Marktwirtschaft und die Deutsche Demokratische Republik der sozialistischen Planwirtschaft.
Einkommensverteilung in Deutschland : Strukturanalyse der Ungleichheit nach Einkommenskomponenten
(2000)
Ergebnisse von Verteilungsanalysen fallen je nach der Bezugseinheit - Haushalt oder Person - recht unterschiedlich aus. Dies gilt sowohl für das Niveau von Verteilungsindikatoren und deren Entwicklung im Zeitverlauf, als auch hinsichtlich der Beiträge einzelner Einkommens- und Abgabearten zu der gemessenen Ungleichheit. Auf der Basis der Einkommens- und Verbrauchsstichproben 1988 und 1993 und unter Verwendung der "älteren OECD-Skala" hat sich gezeigt, dass die Ungleichheit der personellen Verteilung der Nettoäquivalenzeinkommen im Beobachtungszeitraum in den alten Ländern zugenommen hat, aber nach wie vor wesentlich gleichmäßiger als die unveränderte Verteilung der Haushaltsnettoeinkommen auf Haushalte ist. In den neuen Ländern ist der Unterschied zwischen der haushaltsbezogenen und der personenbezogenen Einkommensverteilung noch deutlicher bei insgesamt geringerer Ungleichheit als in den alten Ländern. Auch die Zerlegung der aggregierten Ungleichheit nach Einkommenskomponenten führt zu teilweise abweichenden Ergebnissen in Abhängigkeit von der Bezugseinheit, da bei einzelnen Haushaltstypen im Durchschnitt jeweils unterschiedliche Einkommensarten dominieren. Entgegen gängigen Vorstellungen über Verteilungsstrukturen zeigt sich allerdings generell, dass die Verteilungsungleichheit zum größten Teil durch die Bruttoeinkommen aus unselbständiger Arbeit bestimmt wird. Zwar sind die Selbständigen- und Vermögenseinkommen erwartungsgemäß wesentlich ungleicher verteilt, durch ihren vergleichsweise geringen Anteil am Gesamteinkommen ist ihr Einfluss auf die Gesamtverteilung aber - insbesondere in Ostdeutschland, aber auch in Westdeutschland - begrenzt. Dies wird bei der Analyse der personellen Verteilung allerdings weniger deutlich als bei der Bezugnahme auf Haushalte. Wiederum im Gegensatz zu verbreiteten Annahmen wird die Ungleichheit der Verteilung der Haushaltseinkommen durch staatliche Transferzahlungen nicht oder nur unwesentlich gemildert. Dies ist aber nur auf den ersten Blick überraschend, da nur ein geringer Teil der Transfers vorrangig vertikalen, interpersonellen Umverteilungszielen dient. Die Leistungen der Sozialversicherung und vergleichbarer Systeme bezwecken hauptsächlich eine intertemporale Umverteilung und Lebensstandardsicherung bei Eintritt bestimmter Risikotatbestände (Alter, Tod des Ernährers, Unfall, Arbeitslosigkeit, Krankheit), so dass sie die Verteilung der Einkommen aus unselbständiger Arbeit abgeschwächt wiederspiegeln. Demzufolge geht auch von ihnen keine merkliche Verminderung der Ungleichheit der Nettoeinkommensverteilung auf der Haushaltsebene bzw. sogar eine leichte Erhöhung der Ungleichheit der personellen Verteilung der Nettoäquivalenzeinkommen in Westdeutschland aus. Aber selbst von den steuerfinanzierten Transfers geht unter Bezugnahme auf Haushalte insgesamt nur ein sehr geringer nivellierender Effekt aus. Hier wird die konzeptionelle Schwäche des analytischen Ansatzes am ungewichteten Haushaltseinkommen besonders deutlich. Denn mit dem Haushaltseinkommen wird ohne eine Berücksichtigung der Haushaltsgröße und -struktur die Bedarfssituation der Haushaltsmitglieder, die für viele steuerfinanzierte Transfers maßgeblich ist, nur unzureichend erfasst. Dementsprechend erweist sich der ausgleichende Effekt der Transfers der Gebietskörperschaften unter Bezugnahme auf Personen als recht deutlich, wenn auch in Westdeutschland im Vergleich zum Anteil am Einkommensaggregat als unterproportional. Bei einer weiteren Aufspaltung des heterogenen Komplexes der steuerfinanzierten Transfers in das einkommensunabhängige Kindergeld, Einkommensübertragungen mit Entschädigungscharakter und Transfers mit dem vorrangigen Ziel vertikaler Umverteilung zeigt sich aber auch für Westdeutschland eine weit überproportionale Reduzierung der Ungleichheit der Verteilung der Nettoäquivalenzeinkommen durch i. e. S. bedarfsabhängige Transfers. Absolut gesehen macht der ausgleichende Effekt zwar in den alten Ländern weniger als ein Zehntel, in den neuen Ländern ungefähr ein Fünftel der entsprechenden Effekte der persönlichen Steuern aus; unter Berücksichtigung des geringen Volumens der Transfers mit vorwiegend vertikaler Ausrichtung ergibt sich aber eine recht hohe Effizienz. Sie scheint in Westdeutschland zwischen 1988 und 1993 allerdings etwas zurückgegangen zu sein, ähnlich wie der ausgleichende Einfluss der persönlichen Steuern. Schließlich zeigt sich für das Kindergeld eine nur mäßige relative Reduzierung der Ungleichheit der personellen Einkommensverteilung, die 1993 in West- wie in Ostdeutschland nur ungefähr zwei Dritteln des Anteils am Einkommensaggregat entspricht. Dies ist angesichts der horizontalen Ausrichtung des Familienlastenausgleichs in Deutschland nicht verwunderlich, könnte aber für eine Zieldiskussion im Zusammenhang mit Reformüberlegungen Anlass geben.
Ziel der hier vorgestellten Arbeit ist es, einen Eindruck über die Größenordnung der Kosten eines Bürgergeldmodells als alternatives Grundsicherungssystem zu gewinnen. Dazu wurde eine formale („impact“-) Partialinzidenzanalyse mit Hilfe einer statischen Simulation auf der Basis von Mikrodaten der Einkommens- und Verbrauchsstichproben 1983 und 1988 durchgeführt. Die Ergebnisse können nur als ungefähre Orientierungspunkte interpretiert werden, zumal sie sich auf den Transferbereich beschränken. Bei der Konkretisierung des sozio-kulturellen Existenzminimums wurde im wesentlichen an das bestehende Sozialhilferecht angeknüpft, und für das anzurechnende Einkommen wurde schwerpunktmäßig ein Transferentzugssatz von 50% unterstellt. Die Berechnungen führen zu erheblichen Mehrkosten des Bürgergeldmodells gegenüber dem gegenwärtigen Nebeneinander verschiedener Mindestsicherungsleistungen (mit deutlich höheren Transferentzugssätzen), die z. gr. T. durch die auch oberhalb des Existenzminimums (bis zu dessen doppeltem Betrag) bestehenden potentiellen Ansprüche bedingt sind. Die Nettokosten hätten 1988 fast ein Drittel des Aufkommens der Lohn- und Einkommensteuer ausgemacht, so daß die hier vorgestellte Reformvariante als kaum finanzierbar bezeichnet werden kann. Es wäre wohl utopisch anzunehmen, daß die möglichen positiven Anreizeffekte des verminderten Transferentzugssatzes zu einer Senkung des Bürgergeldvolumens in ähnlicher Größenordnung führen würde. Mit Blick auf die Gegenwart ist zudem zu bedenken, daß seit der Wiedervereinigung das Transfervolumen im Falle der Einführung eines Bürgergeldes wesentlich höher als in der hier präsentierten Simulationsrechnung ausfallen dürfte, und zwar auch in Relation zum Volkseinkommen. Denn die schrittweise Angleichung der Einkommen in Ostdeutschland an das westdeutsche Niveau bewirkt, daß in der Übergangszeit die Haushaltseinkommen in den neuen Bundesländern vergleichsweise häufiger und tendenziell stärker unterhalb des Existenzminimums liegen als in Westdeutschland - es sei denn, für Ostdeutschland würde das relevante Existenzminimum deutlich niedriger als hier vorgeschlagen definiert; dies wäre aber nicht sinnvoll und politisch kaum tragbar. Eine Reform der sozialen Mindestsicherung nach dem Muster einer Negativen Einkommensteuer würde also zu erheblichen Mehrkosten führen. Bei allen Vorteilen, die ein Bürgergeldsystem mit 50%igem Transferentzugssatz haben mag, ist die Finanzierungsfrage völlig offen; bei höherem Transferentzugssatz wäre das Problem zwar weniger gravierend, aber nicht gelöst.
Die langfristige Entwicklung der personellen Einkommensverteilung in der Bundesrepublik Deutschland
(1998)
In diesem Beitrag zur Frage nach dem Ausmaß von Einkommensarmut von Familien stehen zwei Aspekte im Mittelpunkt. – Zum einen ist im Vorfeld von Verteilungsanalysen die Art der Einkommensgewichtung in Mehrpersonenhaushalten zu klären. Nach Abwägung verschiedener Ansätze zur Ableitung einer Äquivalenzskala wurde eine Präferenz für ein institutionell orientiertes Gewichtungsschema, approximiert durch die alte OECD-Skala, begründet. – Zum anderen wurde der Einfluss der Frauenerwerbsbeteiligung auf die Einkommenssituation von Familien mit Kindern empirisch untersucht. Von prekären Einkommensverhältnissen und Einkommensarmut sind vor allem Familien mit geringfügig beschäftigter oder nichterwerbstätiger Partnerin sowie Alleinerziehende – Letztere wiederum bei fehlender Erwerbstätigkeit besonders stark – betroffen, wobei in den neuen Ländern die Situation wesentlich brisanter ist als in den alten Ländern. Bei politischen Maßnahmen sollten Erwerbswünsche der Frauen und Bedürfnisse der Familien berücksichtigt werden. Von daher sind Transfers im Rahmen des Familienleistungsausgleichs und die öffentliche Förderung von Kinderbetreuungseinrichtungen nicht als konkurrierende, sondern eher als komplementäre Konzepte zu diskutieren.
Es gehört zu den Mindestansprüchen des Sozialstaats, bedürftigen Personen ein soziokulturelles Existenzminimum zu sichern. In Deutschland sollen gegenwärtig insbesondere die Leistungen der Sozialhilfe und der Grundsicherung für Arbeitsuchende dafür sorgen, dass dieses Minimalziel erreicht wird. Ob dies gelingt, ist jedoch fraglich, da erhebliche Teile der Bedürftigen ihnen zustehende Leistungen nicht in Anspruch nehmen. Die Statistiken über Leistungsempfänger/innen geben also nur "die halbe Wahrheit" über Bedürftigkeit in Deutschland wieder. Vor der Hartz-IV-Reform kamen auf drei Grundsicherungsempfänger/innen mindestens zwei, eher drei weitere Berechtigte, die von ihrem Anspruch keinen Gebrauch machten. Dabei waren einige gesellschaftliche Gruppen von verdeckter Armut besonders stark betroffen: alleinstehende Frauen, Paarhaushalte mit erwerbstätigem Haushaltsvorstand und Altenhaushalte. Die Einführung des Arbeitslosengeldes (Alg) II im Zuge der Hartz-IV-Reform konnte zwar die verdeckte Armut von früheren Arbeitslosenhilfebeziehenden vermindern. Doch andere Bedürftige, insbesondere Erwerbstätigenhaushalte mit geringem Einkommen, nehmen offensichtlich ihnen zustehende Leistungen nach wie vor häufig nicht in Anspruch. Die Gründe für das Phänomen der verdeckten Armut sind vielfältig. Wesentliche Ursachen sind offenbar, dass viele Bedürftige die relevanten gesetzlichen Regelungen nicht kennen oder mit der Inanspruchnahme staatlicher Hilfeleistungen Stigmatisierungsängste verbinden. Dem könnte entgegengewirkt werden, indem offensiv über bestehende Ansprüche informiert und ein vorurteils- und diskriminierungsfreies Klima im Umgang mit Hilfebedürftigen gefördert wird.
Im vorliegenden Papier werden drei Ansätze zur Reform des Familienleistungsausgleichs (FLA) mit jeweils zwei Varianten dargestellt und hinsichtlich ihrer fiskalischen Effekte und Wirkungen in verschiedenen Segmenten der Einkommensverteilung systematisch verglichen. – Mit dem weitestgehenden Konzept, der Kindergrundsicherung, wird ein Existenz sicherndes und zu versteuerndes Kindergeld in Höhe von monatlich 502 Euro bzw. 454 Euro pro Kind vorgeschlagen. Die bisherigen kindbedingten Freibeträge und mehrere Sozialleis-tungen könnten entfallen bzw. reduziert werden. – Daneben werden Kindergelderhöhungen auf einheitlich 238 Euro bzw. 328 Euro pro Kind und Monat, die allen Kindern – auch denen im SGB II-Leistungsbezug – zugute kommen sollen, untersucht. Das Kindergeld wäre wie bisher nicht zu versteuern, die bisherigen kindbedingten Freibeträge würden aber entfallen. – Schließlich wird der Vorschlag einer deutlichen Erhöhung des Kinderzuschlags bei reduzierter Mindesteinkommensgrenze und Wegfall der Höchsteinkommensgrenze erörtert. Zudem ist bei diesem Ansatz ein nochmals erhöhter Kinderzuschlag bei Alleinerziehenden – analog zum Mehrbedarfszuschlag nach dem SGFB II – (erste Variante) oder eine Herabsetzung der Transferentzugsrate auf Nichterwerbseinkommen von 100% auf 70% (zweite Variante) vorgesehen. Die zu erwartenden fiskalischen Belastungen der einfachen Kindergelderhöhung (ohne Be-steuerung) können ohne Weiteres hochgerechnet werden (16 bzw. 35 Mrd. Euro p. a.), die der anderen Reformmodelle sind aber ohne mikroanalytische Fundierung unter Berücksichtigung der Einkommensverteilung kaum abschätzbar. Zwar lassen sich auch die Bruttokosten der Kindergrundsicherung auf einfachem Wege ermitteln (Multiplikation der Kindergeld-Kinder mit der Betragshöhe), die Aggregate der davon abzusetzenden zahlreichen Einsparungen bei anderen Sozialleistungen und insbesondere der Steuermehreinnahmen sind allerdings nicht offensichtlich. Eine erste Überschlagsrechnung hat ergeben, dass die Nettokosten der ersten „großzügigen“ Variante der Kindergrundsicherung (502 Euro) denen der Kindergelderhöhung auf das sächliche Existenzminimum (322 Euro) ohne Besteuerung ungefähr gleich sind (in der Größenordnung von 35 Mrd. Euro). Eine genauere Quantifizierung kann aber nur auf der Ba-sis repräsentativer Mikrodaten und eines Simulationsmodells erfolgen, da insbesondere der Besteuerungseffekt der Kindergrundsicherung von der faktischen Einkommensverteilung abhängt. Auch eine Kostenschätzung für die Kinderzuschlagsreform bedarf mikroanalytischer Verfahren; ungeachtet dessen würde diese auf einen begrenzten Einkommensbereich gerichte-te Reform aber eindeutig die geringsten Kosten verursachen. Für einen systematischen Vergleich der Verteilungswirkungen der Reformvorschläge werden in der vorliegenden Arbeit Modellrechnungen für zwei ausgewählte Haushaltstypen präsen-tiert. Dabei wird deutlich, dass mit dem vergleichsweise begrenzten Konzept der Ausweitung des Kinderzuschlags die Situation von Familien in prekären Einkommensverhältnissen bis zu Familien der unteren Mittelschicht deutlich verbessert werden könnte. Inwieweit dieser Effekt eintreten würde, hängt allerdings auch vom Inanspruchnahmeverhalten ab; bisher ist die Nicht-Inanspruchnahme von Kinderzuschlag und Wohngeld weit verbreitet. Zudem würde sich die Situation der ärmsten Familien, die auf SGB II-Leistungen angewiesen sind, nicht verbessern, und am oberen Rand würden die Entlastungseffekte des FLA als Folge der kind-bedingten Freibeträge weiterhin mit dem elterlichen Einkommen zunehmen. Demgegenüber würden sich bei den Varianten der Kindergelderhöhung (ohne Besteuerung) die deutlichen Verbesserungen gegenüber dem Status quo gleichmäßig über das Einkommensspektrum vom Niedriglohnsegment – bei unverändert problematischen Effekten des Kinderzuschlags (Ein-kommensbruchstelle bei Höchsteinkommensgrenze) – bis in obere Schichten verteilen und erst am oberen Rand mit steigendem Einkommen sinken (infolge des Wegfalls der bisherigen kindbedingten Freibeträge). Die Förderungen durch die Kindergrundsicherung schließlich würden am stärksten im unteren und unteren Mittelbereich ausfallen und – im Gegensatz zu anderen Konzepten – insbesondere verdeckte Armut systembedingt, also quasi „automatisch“, weitgehend abbauen. Im oberen Mittelbereich und hauptsächlich in höheren Schichten würden die Transfers dagegen mit zunehmendem Einkommen kontinuierlich abnehmen. Insgesamt würde dies zu einem vergleichsweise stetig steigenden Verlauf des verfügbaren Familieneinkommens führen; die wegen der hohen Transferentzugsraten des Kinderzuschlags – gegebenenfalls in Kombination mit Wohngeld – häufigen Befürchtungen negativer Arbeitsanreize im unteren Einkommensbereich wären gegenstandslos. Inwieweit die hier diskutierten Reformkonzepte zu einem Abbau von Kinder- und Familien-armut und zu weniger Ungleichheit der personellen Einkommensverteilung führen können, lässt sich allein auf der Basis von Modellrechnungen allerdings nicht absehen. Dazu bedarf es detaillierter Analysen auf der Basis von repräsentativen Mikrodaten, die die faktische Ein-kommensverteilung abbilden und Simulationsrechnungen zur Quantifizierung der Effekte der Reformvarianten – unter Einbeziehung der Finanzierung der jeweiligen Nettokosten – ermöglichen. Daran wird im Projekt „Vom Kindergeld zu einer Grundsicherung für Kinder“ auf Basis der Daten des Sozio-ökonomischen Panels (SOEP) 2007 gearbeitet; die Repräsentativität des Datensatzes hinsichtlich des Nachweises von Einkommens-, insbesondere Transferar-ten wurde bereits geprüft – mit gutem Ergebnis.
Vom Kinderzuschlag zum Kindergeldzuschlag : ein Reformvorschlag zur Bekämpfung von Kinderarmut
(2007)
Ausgehend von einer kritischen Analyse des im Zuge der Hartz IV-Reform 2005 eingeführten Kinderzuschlags wird in der vorliegenden Studie ein Reformkonzept zur Bekämpfung von Kinderarmut entwickelt und eine quantitative Abschätzung der unmittelbaren Reformwirkungen vorgenommen. Bei der Gestaltung des Reformvorschlags wurde an Grundprinzipien des allgemeinen Familienleistungsausgleichs angeknüpft. Dieser sollte unabhängig von der jeweiligen Armutsursache das Existenzminimum des Kindes nicht nur von der Steuer freistellen, sondern im Bedarfsfall durch positive Transfers – mit einem Kindergeldzuschlag – gewährleisten. Dies erfordert a) die Aufstockung des Kindergeldes durch einen Zuschlag auf die Höhe des sächlichen Existenzminimums, also um maximal 150 Euro auf 304 Euro – bei Alleinerziehenden wegen besonderer Mehrbedarfe für das erste Kind um maximal 250 Euro auf 404 Euro; b) den Verzicht auf eine zeitliche Befristung des Kindergeldzuschlags; c) die Berücksichtigung des Familieneinkommen nach Abzug eines Freibetrages in Höhe des pauschalisierten Existenzminimums der Eltern bzw. des Elternteils (1.238 Euro bzw. 860 Euro); d) eine mäßige (mit Besteuerungsgrundsätzen vereinbare) Anrechnung des zu berücksichtigenden Einkommens – wir schlagen eine Transferentzugsrate von 50% vor; e) den Verzicht auf eine Berücksichtigung des Vermögens. Wesentliche Unterschiede des Reformkonzepts gegenüber dem derzeitigen Kinderzuschlag liegen in der Ersetzung der „spitzen“ Berechnung des elterlichen Existenzminimums durch eine Pauschale und in dem Verzicht zum Einen auf eine explizite Höchsteinkommensgrenze – aus der Transferentzugsrate ergibt sich freilich eine implizite Höchsteinkommensgrenze – und zum Anderen auf eine Mindesteinkommensgrenze. Es bleibt den Eltern also unbenommen, den Kindergeldzuschlag in Anspruch zu nehmen, selbst wenn ihre Einkommensverhältnisse und individuellen Wohnkosten auf einen höheren ALG II-Anspruch schließen lassen, den sie aber nicht wahrnehmen – sei es aus Stigmatisierungsangst, aus Unwissenheit, weil sie den Verweis auf kleine Ersparnisse befürchten oder sich von dem bürokratischen Aufwand abschrecken lassen. Aus vorliegenden Schätzungen geht hervor, dass aus den genannten Grün den das Ausmaß verdeckter Armut groß ist. Dem könnte durch einen vergleichsweise unbürokratischen Kindergeldzuschlag entgegengewirkt werden, insbesondere wenn der Leistungsträger, also die Familienkasse, verpflichtet wird, bei sehr geringem Einkommen des Antragstellers diesen auf möglicherweise bestehende höhere ALG II-Ansprüche hinzuweisen. Zur Abschätzung der unmittelbaren Reformwirkungen wurde ein Mikrosimulationsmodell entwickelt und mit den Daten des Sozio-ökonomischen Panels 2006 in mehreren Varianten gerechnet. Auf der Basis einer bereinigten Stichprobe ergeben sich – je nach Reformvariante – 3 Mio. bis 3,6 Mio. potenziell begünstigte Kinder, was etwa einem Sechstel bzw. einem Fünftel aller Kinder, für die Kindergeld bezogen wird, entspricht. Unter den Kindern von Alleinerziehenden würde die Empfängerquote mit gut einem Drittel weit überdurchschnittlich ausfallen. Die fiskalischen Bruttokosten des Reformmodells würden sich auf 3,7 Mrd. bzw. 4,5 Mrd. Euro jährlich (11% bzw. 13% der derzeitigen Kindergeldausgaben) belaufen; sie würden durch einige Einsparungen beim nachrangigen Wohngeld, bei ausbildungsbedingten Transfers sowie beim ALG II – sofern einige Anspruchsberechtigte den Bezug des Kindergeldzuschlags vorziehen – etwas vermindert werden. Der durchschnittliche Zahlbetrag pro Bedarfsgemeinschaft mit Anspruch auf Kindergeldzuschlag liegt bei 190 Euro p. M., der Median bei 150 Euro. Mit dem insgesamt begrenzten Mittelaufwand kann eine erhebliche Verminderung relativer Einkommensarmut von Familien erreicht werden. Die derzeit bei etwa 18% liegende Armutsquote von Kindern, für die Kindergeld bezogen wird, würde nach Einführung des Kindergeldzuschlags um etwa vier Prozentpunkte zurückgehen, die aller Mitglieder in den Familien von 16% um drei Prozentpunkte. Mit etwa zwei Dritteln lebt der größte Teil der potenziellen Anspruchsberechtigten in erwerbstätigen Familien, und die relative stärkste Verminderung der Armutsquote ergibt sich bei Familien mit Vollzeiterwerbstätigkeit. Die mit dem Kindergeldzuschlag zu bewirkende Verminderung von Kinderarmut würde wegen der hohen Erwerbsquote von Familien also mit einem Abbau von Armut trotz Arbeit einhergehen. Besonders große Reformwirkungen zeigen sich bei den Alleinerziehenden, für welche die Simulation eine Reduzierung der derzeit bei 40% liegenden Armutsquote um etwa acht Prozentpunkte ergibt. Dennoch verbliebe die Armutsquote auch nach Einführung des Kindergeldzuschlags auf einem bedrückend hohen Niveau. Dies ist ganz überwiegend auf die große Zahl der Alleinerziehenden mit Bezug von ALG II und Sozialgeld bzw. Sozialhilfe zurückzuführen, die annahmegemäß nach der Reform im Grundsicherungsbezug verbleiben, den vorrangigen Kindergeldzuschlag also nicht in Anspruch nehmen. Bei den Paarfamilien zeigt sich – relativ gesehen – ein ähnlicher Effekt des Kindergeldzuschlags wie bei den Alleinerziehenden; die Armutsquote von derzeit 12,5% würde um ein Fünftel auf 10% zurückgehen. Dabei fällt die Reformwirkung umso größer aus, je mehr Kinder in der Familie leben. Bei den trotz Einführung des Kindergeldzuschlags unter der relativen Armutsgrenze verbleibenden Paarfamilien handelt es sich zu einem geringeren Teil als bei den Alleinerziehenden um Empfänger von nachrangigen allgemeinen Grundsicherungsleistungen und zu einem größeren Teil um Fälle, bei denen auch das um den Kindergeldzuschlag erhöhte Einkommen die Armutsgrenze nicht erreicht. Ihre Situation würde sich dennoch durch die Reform erheblich verbessern, da die relative Armutslücke im Durchschnitt von 21% auf 14% zurückgehen würde; dies entspricht einer Einkommenserhöhung von durchschnittlich 267 Euro. Abschließend bleibt darauf hinzuweisen, dass der hier vorgestellte Reformvorschlag lediglich als erster Schritt zu einer allgemeinen Grundsicherung für Kinder zu verstehen ist. Er wurde unter dem Aspekt einer schnellen Umsetzbarkeit entwickelt, sollte aber weiter reichende Überlegungen nicht verdrängen. Diese haben nicht nur das sächliche Existenzminimum des Kindes, sondern darüber hinaus den verfassungsgerichtlich festgestellten Betreuungs- und Erziehungs- oder Ausbildungsbedarf (BEA) in den Blick zu nehmen. Er wird im Rahmen der Einkommensbesteuerung durch einen Freibetrag berücksichtigt (§ 32 Abs. 6 EStG), ist in die Bemessung des hier vorgestellten Kindergeldzuschlags aber nicht eingegangen. Eine systematische Weiterentwicklung des Familienleistungsausgleichs im Steuerrecht würde die Einführung eines einheitlichen (Brutto-) Kindergeldes zur Abdeckung von sächlichem Existenzminimum und BEA erfordern, das entsprechend der Leistungsfähigkeit der Eltern, also nach dem allgemeinen Einkommensteuertarif, zu versteuern wäre (Lenze 2007).
Die Auswertungen der EVS 2003 zur Höhe und Struktur der Konsumausgaben der Paarhaushalte mit einem Kind im unteren Einkommensbereich erfolgten vorrangig mit dem Ziel, Anhaltspunkte zur Beurteilung des gegenwärtigen Niveaus der mit Arbeitslosengeld II und Sozialgeld gegebenen Grundsicherung von Familien zu erarbeiten. Die Ergebnisse vermitteln einen ersten Eindruck über die insgesamt stark eingeschränkten Teilhabemöglichkeiten von Familien mit Bezug von Grundsicherungsleistungen. ...
Die vorliegende Untersuchung der effektiven Stundenlöhne in Deutschland erfolgte im Hin-blick auf die Frage nach der Ungleichheit ihrer Verteilung und der Einhaltung eines Kriteri-ums minimaler Leistungsgerechtigkeit. Ausgangspunkt ist die Annahme eines komplexen Gerechtigkeitsempfindens in der Gesellschaft, das neben dem Marktmechanismus als einem Motor für Leistung und leistungsabhängige Einkommen auch individuelle Anstrengungen sowie die Folgen faktischer Marktunvollkommenheiten bzw. faktischen Marktversagens berücksichtigt. Zur Approximation der ergänzenden Aspekte von Leistungsgerechtigkeit wird an relative Lohnpositionen angeknüpft: Lohneinkommen, die einen gesellschaftlichen Mittelwert sehr weit – bezogen auf den Durchschnitt um mehr als die Hälfte, und alternativ bezogen auf den Median um mehr als ein Drittel – unterschreiten, gelten als Indikator für Zielabweichungen. Implizit wird damit unterstellt, dass individuelle Leistungsunterschiede begrenzt, die aus dem Marktmechanismus folgende Differenzierungen aber grenzenlos sind. Die sich aus dem hier gewählten Kriterium ergebenden Niedriglohngrenzen entsprechen ungefähr alternativ abgeleiteten Grenzwerten, die aus der Norm folgen, dass eine Vollzeiterwerbstätigkeit mindestens das eigene sozio-kulturelle Existenzminimum zuzüglich einer Leistungskomponente sichern sollte. Neben dem Aspekt minimaler Leistungsgerechtigkeit für den unteren Rand der Verteilung werden keine weiteren konkreten Normen zur Beurteilung der Zielangemessenheit der beobachteten Verteilung der Lohnsätze gesetzt. Dies würde den Rahmen dieser Untersuchung sprengen. Die empirische Analyse auf Basis des Sozio-ökonomischen Panels (SOEP) und der Einkommens- und Verbrauchsstichprobe (EVS) konzentriert sich auf das Jahr 2003 und wird ergänzt um einige Auswertungen für 1998, die allerdings nur mit dem SOEP durchgeführt werden können. Obwohl aus dem SOEP generell eine größere Ungleichheit der Verteilung resultiert, halten sich die Unterschiede zwischen den Ergebnissen beider Datenquellen in Grenzen. ...
Zusammenfassung und Schlussfolgerungen Die verschiedenen Alternativrechnungen zur Bemessung des Eckregelsatzes auf Basis der Daten der EVS 2003 und der normativen Setzungen der derzeit gültigen Regelsatzverordnung (RSV) haben zu Beträgen leicht über (Variante 1b) bis mäßig unter (Variante 4b) dem gegenwärtigen Satz von 345 Euro geführt. Da sich aus einer kritischen Betrachtung der grundlegenden Vorentscheidungen, auf denen die RSV aufbaut, einige fragwürdige bzw. nicht konsistente Einzelregelungen ergeben haben, erscheint das seit 2005 gültige Niveau des gesetzlich anerkannten Existenzminimums als tendenziell zu gering, zumal der Eckregelsatz auch für den Leistungsanspruch von Familien mit Kindern maßgeblich ist. Darüber hinaus ist zu bedenken, dass die Herausnahme der Sozialhilfebezieher aus der Referenzgruppe gemäß RSV unter theoretischen Gesichtspunkten nicht hinreichend ist, um Zirkelschlüsse - vom Ausgabeverhalten der Hilfebedürftigen auf deren Existenzminimum - zu vermeiden. Denn nur etwa die Hälfte bis drei Fünftel der Bedürftigen nehmen ihre HLu-Ansprüche wahr, die weiteren Anspruchsberechtigten leben in verdeckter Armut. Die Referenzgruppe zur Ermittlung des sozio-kulturellen Existenzminimums müsste also auch um die so genannte Dunkelziffer der Armut (Personen in verdeckter Armut) bereinigt werden, was vermutlich zu einem leicht erhöhten (regelsatzrelevanten) Ausgabenniveau führen und Forderungen nach einer moderaten Anhebung des Eckregelsatzes unterstreichen würde. Abschließend soll der letztlich normative Charakter jeglicher Definition des Existenzmi-nimums nochmals verdeutlicht werden, aus dem die Notwendigkeit einer gesellschaftspoliti-schen Diskussion dessen, was ein menschenwürdiges Dasein und Chancengerechtigkeit - nicht nur im formalen, sondern im materiellen Sinne - ermöglicht, folgt. Dass mit dem so genannten Statistik-Modell der Regelsatzbemessung keineswegs Objektivität bzw. Wertur-teilsfreiheit, eher nur Überprüfbarkeit oder Nachvollziehbarkeit erreicht wird, haben die An-merkungen zu den regelsatzrelevanten Anteilssätzen einzelner Ausgabenpositionen in Kapitel 3.2 gezeigt. Wie stark der Einfluss normativer Vorentscheidungen auf das Niveau des sozio-kulturellen Existenzminimums ist, zeigt sich aber bereits in der Auswahl der Alleinstehenden als Referenzgruppe. Damit wird bei der Analyse des regelsatzrelevanten Ausgabeverhaltens auf eine Gruppe Bezug genommen, die überdurchschnittlich von relativer Einkommensarmut betroffen ist.13 Alternativ könnten auch die Paarhaushalte ohne Kinder mit ihrem vergleichs-weise geringen Armutsrisiko als Referenzgruppe definiert werden. Nach einer ersten Abschätzung ergibt sich für das unterste Quintil von Paaren ohne Kind ein regelsatzrelevanter Konsum in Höhe von gut 700 Euro; bei gegebenen Regelsatzproportionen folgt daraus ein Existenzminimum (ohne Kosten für Unterkunft und Heizung) von gut 390 Euro gegenüber derzeit 345 Euro bei Alleinstehenden und von etwa 1.130 Euro gegenüber 828 Euro bei Paa-ren mit einem Kind. Mit diesem Beispiel ist nicht die Empfehlung einer entsprechend starken Leistungsanhebung verbunden, sondern lediglich ein Hinweis darauf, dass das derzeitige Ver-fahren der Regelsatzbemessung restriktiv angelegt ist und mit aktuellen Daten eher eine Er-höhung als eine Absenkung des Niveaus des Existenzminimums begründet werden kann.
Sozialpolitische Auseinandersetzungen kursieren gegenwärtig verschärft um die Gestaltung der Sicherung des sozio-kulturellen Existenzminimums, um eine angebliche "Kostenexplosion" bei der Grundsicherung für Arbeitsuchende und um Vermutungen über verbreiteten Leistungsmissbrauch. Der Blick ist also stark auf die staatlicherseits auf Basis des Sozialgesetzbuches (SGB) über Transfers "zu bekämpfende" und "bekämpfte" Armut gerichtet. Vor diesem Hintergrund sollen die auf relative Grenzen – 50% des arithmetischen Mittels oder 60% des Medians der Nettoäquivalenzeinkommen – bezogenen Studien über Armut in Deutschland um eine Armutsanalyse ergänzt werden, die den Einkommensbereich unterhalb des gesetzlichen Existenzminimums in den Fokus nimmt. In der folgenden Untersuchung geht es nicht nur um die Größe der edürftigenBevölkerungsgruppe insgesamt, sondern darüber hinaus um die Bedeutung von Ursachen der Hilfebedürftigkeit – Arbeitslosigkeit, Teilzeiterwerbstätigkeit, niedriges Erwerbseinkommen, Alter –, um geschlechtsspezifische Unterschiede und um die Betroffenheit von Kindern. Hier fehlt es bisher an zeitnahen empirischen Informationen. Daten über die Zahl und Struktur der Empfänger von Grundsicherungsleistungen – also von Arbeitslosengeld II (Alg II) bzw. Sozialgeld, Grundsicherung im Alter und bei Erwerbsminderung oder Hilfe zum Lebensunterhalt (HLu) der Sozialhilfe – vermitteln nur die "halbe Wahrheit". ...
In der Arbeit wird Fuzzy-Regression als mögliche ökonometrische Analysemethode bei fehlerbehafteten Daten modelliert und erprobt. Dazu ist die interpretatorische Lücke zu schließen, die einerseits zwischen den Datenproblemen in empirischen Datensätzen und ihrer Modellierung als Fuzzy-Daten und andererseits zwischen der Modellierung der Fehlereinflüsse in den Fuzzy-Daten und den Aussagen und Analysen besteht, die auf der Basis einer Fuzzy-Regression über die vorliegenden Daten getroffen werden können. Da bereits eine Vielzahl von Ansätzen zur Fuzzy-Regression entwickelt wurden, wird als das Hauptproblem nicht die Modellierung der Fuzzy-Methoden als solcher gesehen, sondern vielmehr die fehlende Vorstellung über die mögliche Bedeutung der Fuzzy-Modellierungen im konkreten Anwendungsfall. Die Arbeit vollzieht deshalb im Sinne einer Machbarkeitsstudie die verschiedenen Schritte von den Fehlereinflüssen in wirtschaftsbezogenen Datensätzen und deren Modellierung als Fuzzy-Daten bis hin zur explorativen Analyse mit Fuzzy-Regression nach. Dabei werden für jeden der Schritte exemplarische Beispiele ausgewählt, um die Denkweise der Fuzzy-Modellierung auszuarbeiten und die Möglichkeiten und Grenzen der Methoden aufzuzeigen. Die Untersuchungen zeigen, dass vor allem die Fuzzy-Modellierung von Fehlereinflüssen in den Merkmalsdaten und die Beschreibung von gleichförmigen Strukturen in den Fehlereinflüssen durch Fehlerszenarien als Analyseinstrumente geeignet sind, da sie eine Grundlage für eine weitergehende Untersuchung der Fehlereinflüsse bilden. Als Ausblick auf ein Schätzmodell für Fuzzy-Regression bei Fehlern in den Daten werden abschließend einige Ansätze für die Einbettung des Regressionsproblems für Fuzzy-Merkmalsvariablen in die Verteilungsmodelle für Fuzzy-Zufallsvariablen vorgestellt, die auf der Konstruktion der Fehlerszenarien basieren.
Die vorliegende Arbeit beleuchtete ein bisher in der Finanzwissenschaft weitgehend unbeachtetes Thema.: die Ausgaben für staatliches Personal. Der Fokus lag dabei auf den von den acht westdeutschen Flächenländern getätigten Ausgaben. Ziel war es, Gemeinsamkeiten und Unterschiede in der Entwicklung, der Höhe und der Struktur der Personalausgaben über einen Zeitraum von 26 Jahren, von 1970 bis 1996, herauszuarbeiten. Weiterhin wurden die insbesondere seit Mitte der neunziger Jahre verstärkten Aktivitäten der Länder zur Begrenzung bzw. dem effizienteren Einsatz der Personalausgaben untersucht. ...
Trotz der Potenziale, die der Einsatz von E-Learning-Angeboten in der Hochschullehre bietet, werden diese häufig noch immer in Eigeninitiative einiger weniger Lehrender eingesetzt, so dass es zu keiner flächendeckenden Bereitstellung der Angebote kommt. Die Erkenntnisse zahlreicher Förderprojekte gingen auf diese Weise in der Vergangenheit verloren. Der Aspekt der Nachhaltigkeit von E-Learning-Angeboten spielt daher in der aktuellen wissenschaftlichen Diskussion eine zentrale Rolle. Nur wenn die Nachhaltigkeit des Einsatzes der E-Learning-Angebote sichergestellt werden kann, werden sich diese auf Dauer etablieren können. Darüber hinaus stellt die nicht hierarchische Organisationsstruktur deutscher Hochschulen für die Implementierung von E-Learning-Angeboten eine besondere Herausforderung dar. In der Arbeit werden Faktoren ermittelt, die eine nachhaltige Implementierung der E-Learning-Angebote in nicht hierarchisch strukturierten Organisationen fördern. Hierzu werden durch eine Literaturrecherche die allgemein diskutierten Erfolgsfaktoren der Implementierung von E-Learning-Angeboten identifiziert und dargestellt. Ein zentraler Erfolgsfaktor wird anschließend sowohl theoriebasiert als auch empirisch analysiert. Während die theoriebasierte Analyse auf sprachkritische und managementkybernetische Grundlagen zurückgreift, wird zur empirischen Analyse eine Multiple Case Study an der Goethe-Universität Frankfurt am Main durchgeführt. Alle drei Ansätze untermauern die besondere Bedeutung dieses Erfolgsfaktors in nicht hierarchischen Organisationen. Mit diesen Ergebnissen können für zukünftige E-Learning-Initiativen Handlungsempfehlungen abgegeben werden, die einen nachhaltigen Einsatz der E-Learning-Angebote unterstützen.
Thesenförmige Zusammenfassung der Untersuchungsergebnisse (1) Der Begriff der Finanzinstrumente untergliedert sich in originäre und derivative Finanzinstrumente und umfaßt somit alle Außenfinanzierungsbeziehungen sowie daraus abgeleitete Geschäfte. (2) Finanzderivate sind im Unternehmen zur Steuerung von Marktrisiken einsetzbar. Schwerpunkte des Einsatzes von Finanzderivaten bilden das Hedging, die Spekulation und die Arbitrage. (3) Zur bilanziellen Abbildung derivativer Finanzinstrumente enthält das deutsche Handelsrecht - von Vorschriften zur Fremdwährungsumrechnung bei Kreditinstituten abgesehen - keine expliziten Regelungen. Die Bilanzierung unternehmerisch eingesetzter Finanzderivate richtet sich daher nach den allgemeinen Bilanzierungsnormen, d.h. nach kodifizierten wie nicht kodifizierten GoB unter Orientierung am Sinn und Zweck des handelsrechtlichen Jahresabschlusses. Dieser besteht in der Ermittlung eines entziehbaren Betrages unter Beachtung der Interessen von Gesellschaftern und Unternehmensgläubigern; der Informationsvermittlung kommt de lege lata nur eine Nebenfunktion zu. (4) Die Bilanzierung spekulativer, d.h. nicht zu Sicherungszwecken eingesetzter Finanzderivate läßt sich innerhalb des GoB-Gefilges prinzipiengerecht lösen: Der Einzelbewertungsgrundsatz gebietet die bilanzielle Isolation von anderen Bilanzierungsobjekten, das Realisationsprinzip untersagt die erfolgswirksame Berücksichtigung festgestellter Marktwerterhöhungen, das Imparitätsprinzip erfordert die aufwandswirksame Antizipation von (Markt-)Bewertungsverlusten. (5) Schwierigkeiten bereitet eine GoB-konforme Bilanzierung sichernder Finanzderivate aufgrund einer offenen Dissonanz zwischen strengem EinzeIbewertungsgrundsatz und dem Prinzip der wirtschaftlichen Betrachtungsweise. Die aktuelle Bilanzierungspraxis sowie der überwiegende Teil des handelsrechtlichen Schrifttums versucht dieses Problem durch Einschaltung bilanzieller Bewertungseinheiten zu lösen. Hierzu werden - je nach verfolgter Bewertungseinheiten-Konzeption - auf unterschiedlichen Aggregationsebenen (Mikro-, Portfolio- oder Makro-Ebene) Finanzinstrumente zu Zwecken der bilanziellen Bewertung zusammengefaßt und saldiert bewertet. Lediglich ein verbleibender Bewertungsverlustüberhang ist gemäß dem Imparitätsprinzip aufwandswirksam zu erfassen; Bewertungsgewinnüberhänge bleiben nach dem Realisationsprinzip unberücksichtigt. Im Falle von Makro-Bewertungseinheiten soll eine Bewertung gänzlich unterbleiben. Um Eingang in eine bilanzielle Bewertungseinheit zu finden, sollen Finanzinstrumente verschiedene objektive und subjektive Anforderungskriterien erfiillen, welche jedoch hinsichtlich Qualität und Quantität innerhalb des Schrifttums in unterschiedlicher Strenge gesehen werden. (6) Sämtliche Bewertungseinheiten sind kritikwürdig auf grund mangelnder konzeptioneller Stringenz sowie aufgrund des großen Spielraums, der dem Bilanzierenden zur Gestaltung des Jahresergebnisses zwar nicht willentlich, jedoch faktisch eingeräumt wird. Die herrschenden Bewertungseinheiten-Konzepte sind de laga lata fragwürdig und teilweise abzulehnen. Sie eignen sich ebenfalls nicht als Ausgangsbasis für eine am Sinn und Zweck des handelsrechtlichen Jahresabschlusses ausgerichtete Bilanzierungsmethode de lege ferenda. (7) Die internationalen Rechnungslegungsstandards US-GAAP und lAS weisen neben Vorschriften bezüglich einer detaillierten Berichterstattung über finanzinstrumentelle Engagements auch explizite Normen zur Bilanzierung von Finanzinstrumenten auf Die Entwicklung bewegt sich hier in Richtung umfassender Vorgaben sowie einer breiten Marktbewertung. Gleichwohl ergeben sich Grenzen durch ein nach wie vor institutionalisiertes Hedge-Accounting und eine an Zwecksetzungen des Bilanzierenden ausgerichtete bilanzielle Vorgehensweise. Aus deutscher Sicht ist den derzeit bestehenden internationalen Standards zur Bilanzierung von Finanzinstrumenten weder de lege lata noch de lege ferenda zu folgen. (8) Hervorgehoben durch ein Diskussionspapier des lASC aus dem Jahre 1997 ergibt sich als stringente Methode zur bilanzielIen Abbildung originärer und derivativer Finanzinstrumente eine vollumfilngliche, ergebniswirksame Marktwertbilanzierung (reine Marktwertbilanzierung). Diese erfordert den BiJanzansatz jedes Finanzinstruments zum aktuellen Marktwert sowie die unmittelbar erfolgswirksame Erfassung festgestellter Bewertungsgewinne und -verluste. Die beachtlichen Vorzüge der reinen Marktwertbilanzierung bestehen in einem gänzlichen Verzicht auf die Bildung von Bewertungseinheiten bzw. auf ein Hedge-Accounting, wodurch bilanzielle Gestaltungsspielräume spürbar eingedämmt werden. Weiterhin zeichnet sich die reine Marktwertbilanzierung durch einen Ansatz aus, welcher originäre und derivative Finanzinstrumente sowohl der Aktiv- als auch der Passivseite gleichermaßen umfaßt, der Methodik der innerbetrieblichen Steuerung und Kontrolle von Finanzinstrumenten entspricht, eine verbesserte Informationsgewährung durch Bilanz und Gewinn- und Verlustrechnung ermöglicht und eine unkomplizierte Umsetzung gewährleistet. (9) Eine Rezeption der reinen Marktwertbilanzierung fiir Finanzinstrumente ist de lege lata aufgrund eindeutig entgegenstehender Gesetzesnormen nicht möglich. Indessen bildet die reine Marktwertbilanzierung eine de lege ferenda interessante Methode zur bilanziellen Abbildung derivativer und originärer Finanzinstrumente. Zur Übernalnne in die handelsrechtliche Rechnungslegung erfordert die reine Marktwertbilanzierung in erster Linie ein geändertes Verständnis des Realisationssowie des Imparitätsprinzips. Dies kann erreicht werden durch die Annalnne der Marktbewertung als Realisationstatbestand, eine ausgeprägte Abschlußstichtagsbetrachtung sowie die Befiirwortung der Eindämmung stiller Reserven. Insgesamt läßt sich zeigen, daß eine reine Marktwertbilanzierung konzeptionell zunächst nicht im Widerspruch zu Gläubiger- oder Gesellschafterinteressen steht. Gleichwohl konkretisieren sich die Schwachpunkte und damit das Scheitern einer reinen Marktwertbilanzierung an maßgeblichen Objektivierungsrestriktionen: Die Existenz eines Marktes für das zu bilanzierende Finanzinstrument, die Bewertbarkeit des Finanzinstruments durch den Markt sowie die sichere Realisierbarkeit festgestellter Bewertungsergebnisse stellen Voraussetzungen dar, welche zwar zu einer erfolgswirksamen Erfassung von Marktbewertungsergebnissen zu fordern sind, in Fällen bestimmter Finanzinstrumente hingegen nicht erfüllt werden. (10) Die streng vorsichtige Marktwertbilanzierung stellt eine Alternativmethode zur bilanziellen Abbildung von Finanzinstrumenten de lege ferenda dar, welche auf der reinen Marktwertbilanzierung autbaut. Kennzeichnend ist bier der Ansatz von Finanzinstrumenten zu ihrem Marktwert und die Erfassung festgestellter Bewertungsergebnisse auf einem bilanziellen Sonderposten zu Zwecken der Wertkompensation. Ein nach Saldierung auf diesem Sonderposten verbleibender Bewertungsverlustüberhang ist aufwandswirksam zu erfassen, während ein Bewertungsgewinnüberschuß erfolgsneutral abgegrenzt wird. Weiterhin sind nicht objektiv bewertbare Finanzinstrumente nach dem bisherigen Verständnis des Vorsichtsprinzips einzeln zu bilanzieren. Diese Bilanzierungsmethode weist gegenüber der überkommenen handelsrechtlichen Bilanzierung im wesentlichen die gleichen Vorteile wie die reine Marktwertbilanzierung auf: ist allerdings der gewachsenen handelsrechtlichen Denkweise eher verwandt. Konzeptionelle Schwächen der streng vorsichtigen Marktwertbilanzierung liegen in geringfiigigen bilanziellen Gestaltungsspielräumen sowie in einer kategorischen Ablehnung der Ertragswirksamkeit sämtlicher überschießenden Bewertungsgewinne. (11) Eine ,,Mischung" aus reiner und streng vorsichtiger Marktwertbilanzierung bildet die gemildert vorsichtige MarktwertbiIanzierung, welche im Rahmen dieser Arbeit als Methode zur Bilanzierung derivativer und originärer Finanzinstrumente de lege ferenda befiirwortet wird. Wesensmerkmal dieser Konzeption ist die an der Bewertungsqualität der zu bilanzierenden Finanzinstrumente ausgerichtete Vorgehensweise. Im Rahmen verschiedener Typisierungen von Anforderungskriterien sowie Ausnahmetatbeständen gestaltet sich die gemildert vorsichtige Marktwertbilanzierung im wesentlichen dreistufig: Finanzinstrumente höchster Bewertungsqualität, i.e. die meisten standardisierten Finanzinstrumente sowie nicht standardisierte Finanzinstrumente, welche unproblematisch duplizierbar (und damit glattstellbar) sind, machen einen Bilanzansatz zu M,arktwerten erforderlich; positive wie negative Marktwertänderungen werden erfolgswirksam erfaßt. Finanzinstrumente, die zwar objektiv bewertbar sind, deren unverzügliche GlattsteIlbarkeit jedoch als nicht gesichert angesehen werden kann, sind zu Marktwerten zu bilanzieren; Bewertungsverluste erlangen Aufwandswirksamkeit, und Bewertungsgewinne sind, soweit sie nach Wertkompensation verbleiben, erfolgsneutral abzugrenzen. Finanzinstrumenten ohne Sekundärmarkt bzw. ohne objektive Bewertbarkeit bleibt eine Marktbewertung verwehrt; diese sind nach dem geltenden Verständnis des Imparitätsprinzips einzeln zu bilanzieren. Die Vorzüge der gemildert vorsichtigen Marktwertbilanzierung für Finanzinstrumente gegenüber den ad legern latam vorgeschlagenen Bilanzierungsmethoden entsprechen grundSätzlich denen der reinen Marktwertbilanzierung, wobei die gemildert vorsichtige Marktwertbilanzierung auf grund ihrer differenzierenden Behandlung die Probleme der reinen Marktwertbilanzierung zusätzlich zu lösen vermag. Der hauptsächliche Nachteil der gemildert vorsichtigen Marktwertbilanzierung besteht in ihrer mitunter komplizierten Umsetzbarkeit. (12) Zinsswaps und Forward Rate Agreements (FRAs) verkörpern finanzwirtschaftlich Zinsderivate mit symmetrischem Risikoprofil und zivilrechtlich synallagmatische, schwebende Geschäfte. Weiterhin sind diese Instrumente anhand verfiigbarer Marktdaten mittels eines finanzwirtschaftlichen Modells objektiv und unkompliziert zu bewerten und zudem unverzüglich glattstellbar. Die Bilanzierung von Zinsswaps und FRAs ergibt sich de lege lata gemäß weitgehend eindeutiger GoB-Ausrichtung. Unter Anwendung der gemildert vorsichtigen Marktwertbilanzierung de lege ferenda ist für beide Finanzinstrumente die uneingeschränkt erfolgswirksame Bi1anzierung zu Marktwerten zu befürworten. (13) Zinsbegrenzungsvereinbarungen stellen optionsbasierte Finanzinstrumente mit einem mithin asymmetrischen Risikoprofil dar. Zu ihrer Bewertung ist ein Optionspreismodell heranzuziehen, welches zwar grundsätzlich eine objektive und marktorientierte Wertermittlung ermöglicht, jedoch einem Bereich noch nicht abgeschlossener finanzwirtschaftlicher Forschung entspringt. Zudem kann eine unverzügliche und unkomplizierte Glattstellbarkeit von Zinsbegrenzungsvereinbarungen nicht als gewährleistet angesehen werden. Die handelsrechtliche Bilanzierung von Zinsbegrenzungsvereinbarungen erfolgt unter weitgehend systematischer GoB-Orientierung. Nach Umsetzung der gemildert vorsichtigen Marktwertbilanzierung ergibt sich die Bilanzierung von Zinsbegrenzungsvereinbarungen zu ihrem modellmäßig ermittelten Marktwert, wobei lediglich Bewertungsverluste vollständige Erfolgswirksamkeit erfahren. Bewertungsgewinne, welche über eine Kompensation mit den Bewertungsverlusten anderer Finanzinstrumente hinausgehen, sind hingegen erfolgsneutral abzugrenzen.
"Verhaltenswissenschaftliche Theorien oder mikroökonomische Theorie?" - das ist nicht die Frage, wenn es um die Erklärung menschlichen Verhaltens in Organisationengeht. Sie schließen sich nämlich nicht gegenseitig aus, sondern ergänzen sich. Deshalb sollten sie gemeinsam, und zwar in einem integrativen und nicht in einem additiven Sinne zumbesseren Verständnis und zur wirksameren Beeinflussung menschlicher Handlungen in Organisationen genutzt werden. Der vorliegende Aufsatz will dazu und zur Vermeidung bzw. Überwindung verfehlter Frontbildungen einen Beitrag leisten. Die ökonomische Effizienz von Anreizsystemen, die in der Regel nicht direkt beurteilt werden kann, sondern indirekt über adäquate Ersatzkriterien oder -wie hier- über plausible Bedingungen, ist, wie sich schnell erkennenläßt, ein besonders treffliches Objektfürderartige Bemühungen unter marktwirtschaftichen Bedingungen.
Im Rahmen eines Börsen-Großexperiments anlässlich der Fußball-WM 1998 untersuchen wir den Einfluss von Aktienbetreuern auf die Marktliquidität. Die Marktformen des kontinuierlichen Handels, eines Systems mit einem monopolistischen Aktienbetreuer und mit konkurrierenden Betreuern wurden durch einen Gruppenvergleich unterschiedlich betreuter Aktien analysiert. Die Liquidität wurde mit Hilfe des bid-ask-Spreads und der inversen Markttiefe gemessen, einer Kenngröße zur Charakterisierung der Preis-Mengen-Relation der Liquidität. Wir finden, dass die betreuten Märkte liquider sind als die unbetreuten, und die konkurrierende Betreuung mehr Liquidität generiert als die eines Monopolisten. Nach kursrelevanten Informationsereignissen kehrten die Spreads in den betreuten Märkten schneller zu ihrem normalen Niveau zurück. Durch Rekonstruktion der nichtanonymen Orderbücher konnte der direkte Einfluß der Betreuer auf die Liquidität von den Beiträgen der übrigen Marktteilnehmer separiert werden. Interessanterweise zeigt sich, dass nur ein Teil der Liquiditätsverbesserung mit den Orders der Betreuer erklärt werden kann. Demnach stünden die Liquiditätsbereitstellung durch Betreuer und die der anderen Marktteilnehmer nicht in einer konkurrierenden, sondern komplementären Beziehung zueinander.
Performance fees for portfolio managers are designed to align the managers' goals with those of the investors and to motivate managers to aquire "superior" information and to make better investment decisions. A part of the literature analyzes performance fees on the basis of market valuation. In this article it is shown that market valuation faces a dilemma: on the one hand, the conditions which allow for market valuation imply that the portfolio manager perfectly hedges the performance fee. This in turn implies severe restrictions on the incentive effects of the performance fee. In particular, the fee does not motivate the manager to use superior information for investment decisions concerning the managed portfolio. On the other hand, better incentives can only be generated under conditions which exclude market valuation. In this case, the analysis has to be based on expected utility valuation. Keywords: performance fees, portfolio managers, "superior" information, market valuation, incentive effects
In den letzten Jahren wurden verschiedene Modelle entwickelt, um das Ausfallrisiko von Banken unter Berücksichtigung von Portfolioeffekten zu quantifizieren. Bisher hat sich kein Ansatz als allgemein akzeptierter Standard durchsetzen können. Da die Modelle grundlegende konzeptionelle Unterschiede aufweisen und unterschiedliche empirische Inputdaten verwenden, hat die Auswahl eines Kreditrisikomodells unter Umständen einen erheblichen Einfluß auf die Kreditportfoliosteuerung der Bank. In diesem Beitrag soll deshalb geklärt werden, ob die Modelle systematisch abweichende Value-at-Risk-Werte berechnen und worin die Ursachen für auftretende Abweichungen liegen. Zunächst wird gezeigt, daß die bestehenden Kreditrisikomodelle in zwei grundlegende Klassen eingeteilt werden können: Assetwert-basierte Modelle und auf Ausfallraten basierende Modelle. Am Beispiel eines Musterportfolios von Krediten an deutsche Baufirmen werden zwei Vertreter der Modellklassen (CreditMetrics und CreditRisk+) verglichen und der Effekt der unterschiedlichen empirischen Inputparameter auf die Risikoergebnisse abgeschätzt. Die Analyse zeigt erhebliche Unterschiede zwischen den Modellen. Eine Analyse der Abweichungsursachen ergibt allerdings, daß der Grund für die großen Value-at-Risk-Unterschiede in erster Linie in den unterschiedlichen empirischen Inputdaten liegt, welche zu unterschiedlichen impliziten Korrelationsannahmen führen. Es wird gezeigt, wie die Modellparameter gewählt werden müssen, um identische Korrelationen zu erzeugen. Bei konsistenten Korrelationsannahmen stimmen die Ergebnisse beider Modelle weitgehend überein. Keywords: Credit Risk Models, credit risk correlation
Die traditionelle Begründung der Bankenregulierung basiert auf der Vorstellung, daß regulatorische Vorschriften in erster Linie dem Schutz der Bankeinlagen und der Vermeidung von Bankkonkursen dienen. In Kapitel 2 wurde argumentiert, daß diese Begründung nicht den Kern des Regulierungsproblems trifft. Der einzige letztlich überzeugende Grund für die Regulierung der Eigenkapitalausstattung von Banken ist in Externalitäten zu sehen, die aus den derzeit praktizierten Einlagensicherungssystemen bzw. der impliziten Einlagensicherung durch den Staat resultieren. Diese Begründung für die Bankenregulierung führt dazu, daß die Aktiva der Bank ins Zentrum der Betrachtung rücken: Die Bankenregulierung muß danach dafür sorgen, daß die von Banken getroffenen Entscheidungen in bezug auf die Übernahme von Risiken in einem wohlfahrtstheoretisch effizienten Sinn getroffen werden. Wenn die Verminderung des Konkursrisikos die alleinige Zielgröße der Regulierung darstellen würde, müßte man schlußfolgern, daß ein einfaches Verbot riskanter Geschäftsaktivitäten die Erreichung des Regulierungsziels sicherstellt. Dies kann natürlich keine ernstzunehmende Option sein. Das Geschäft der Banken besteht in der Evaluierung und dem Management von Risiken. Die Regulierung muß dafür sorgen, daß Banken diese Funktion trotz bestehender Externalitäten in einer wohlfahrtstheoretisch effizienten Weise erfüllen. Um die Frage der Effizienz von Risikoentscheidungen in einem formalen Modellrahmen analysieren zu können, wurde in Kapitel 4.2.4 ein neuer Optionsbewertungsansatz für das Eigenkapital der Bank entwickelt. Dies war erforderlich, da sich die bisher in der Literatur verwendeten Ansätze nicht zur Beurteilung dieser Frage eignen. Im μ-σ-Rahmen kann zwar analysiert werden, ob die Bank ein effizientes Portfolio wählt. Der Modellansatz basiert aber auf der kritischen Annahme normalverteilter Renditen. Da die beschränkte Haftung der Eigenkapitalgeber aber eine untere Schranke der Eigenkapitalrendite bewirkt, ist diese Annahme zur Analyse der Risikowahl problematisch. Das in Kapitel 4.2.1 vorgestellte Optionsbewertungsmodell von Merton berücksichtigt zwar die beschränkte Haftung der Eigenkapitalgeber, eignet sich aber nicht zur Analyse der Effizienz der Risikowahl, weil die Wahl des Anlagerisikos irrelevant für die erreichbare Wohlfahrt ist. Als problemadäquater Modellrahmen wurde ein Modell mit risikoabhängiger Rendite von Bankanlagen entwickelt. Dieser Ansatz beruht auf der Idee, daß Banken in Spezialbereichen über superiore Informationen verfügen, die sie zur Erzielung von über den Kapitalkosten liegenden Renditen einsetzen können. Da die Bank aber nur über begrenzte Informationen verfügt, ist die Anzahl der verfügbaren Anlagen mit positivem Kapitalwert begrenzt und definiert so das effiziente Maß der Risikoübernahme. Die Analyse der Auswirkungen der Eigenkapitalregulierung zeigt, daß die risikoabhängige Eigenkapitalregulierung zwar der einfachen Verschuldungsgradregulierung überlegen ist, das Risikoanreizproblem der Banken aber nicht vollständig lösen kann. Sie stellt aber im Vergleich zu den anderen in dieser Arbeit diskutierten Regulierungsansätzen die robusteste Lösung des Problems dar. Nach weitverbreiteter Ansicht leisten Wettbewerbsbeschränkungen einen wichtigen Beitrag zur Behebung des Risikoanreizproblems, weil eine Bank bei Erhöhung des Anlagerisikos den Verlust der Monopolrente (Charterwert ) im Konkurs befürchten muß. Es wurde aber gezeigt, daß diese Kraft nur für unplausibel hohe Monopolrenten stark genug ist, um die aus der Einlagensicherung resultierenden Anreize zu kompensieren. Auch der in Kapitel 4.5 analysierte Vorschlag von John, John und Senbet (1991) einer Nutzung des Steuersystems zur Korrektur des Risikoanreizproblems erweist sich bei näherer Analyse für praktische Regulierungszwecke als unbrauchbar, da hierfür ein marginaler Steuersatz auf die Investitionsrückflüsse in der Größenordnung von 90% notwendig ist. Schließlich erweist sich auch die in Kapitel 4.4 und 4.6.1 untersuchte Idee, durch Einsatz von sicheren Reserven den Effekt einer Erhöhung der Anlagerisiken zu kompensieren, als wenig sinnvoll. Der das Merton-Modell treibende Effekt einer Anlagersikoerhöhung kann durch diese Regulierungsform erfolgreich ausgeschaltet werden. An seine Stelle treten aber unerwünschte Nebeneffekte, die im Ergebnis nach wie vor zu einer nicht effizienten Risikowahl führen. Die Nebeneffekte können nur durch einen Verzicht auf eine Eigenkapitalunterlegung ausgeschaltet werden. Obwohl prinzipiell auch ohne Eigenkapitalunterlegung die Stabilität von Banken durch entsprechend hohe sichere Reservehaltung gewährleistet werden kann, ist eine solche Regulierung aufgrund des enormen Bedarfs an sicheren Reserveanlagen nicht praktikabel. Eine Regulierungsform, die theoretisch in der Lage ist, die wohlfahrtseffiziente Risi kowahl zu implementieren, ist ein Einlagensicherungssystem mit "fair" berechneter risikoabhängiger Prämienkalkulation. Ein solches Einlagensicherungssystem verhindert effektiv jegliche Externalitäten der Risikoentscheidung der Bank auf die Einlagensicherung und führt damit automatisch zur effizienten Wahl des Anlagerisikos. Angesichts dieses Ergebnisses überrascht die Tatsache, daß sich die Aufsichtsbehörden fast vollständig auf das Instrument der Eigenkapitalregulierung konzentrieren. In Kapitel 4.6.2.2 wurden argumentiert, daß die Gründe dafür in den politischen und praktischen Problemen der Umsetzung von risikoabhängigen Einlagensicherungsprämien liegen. Da die Einlagensicherungsprämie nur in diskreten Zeitabständen fällig wird, hat eine eigenkapitalschwache Bank nach wie vor einen starken Anreiz, nach Zahlung der Prämie ihr Anlagerisiko zu erhöhen. Daneben zeigen die Erfahrungen der Savings & Loan-Krise, daß die Einlagensicherung mit erheblichen Agency-Kosten verbunden ist, weil die Mitarbeiter der Einlagensicherungsbehörde dazu neigen, notwendige Liquidationen von Banken zu unterlassen oder hinauszuzögern. In Kapitel 5 wurde das Zusammenwirken von Einlagensicherung und Eigenkapitalregulierung untersucht. Dazu wurde ein Modell verwendet, in dem eine optimale Kapitalstruktur von Banken existiert, die sich aus einem Trade Off zwischen Finanzierungskostenvorteilen der Einlagenfinanzierung und Liquidationskosten im Insolvenzfall ergibt. Das Modell zeigt, daß die Kombination einer risikoabhängigen Eigenkapitalregulierung mit einer traditionellen volumenabhängigen Einlagensicherungsprämie zwar die effiziente Stabilität von Banken, nicht dagegen effiziente Anlageentscheidungen erreicht. Wenn alternativ eine traditionelle Verschuldungsgradregulierung mit einer risikoabhängigen Einlagensicherungsprämie kombiniert wird, resultieren effiziente Anlageentscheidungen, die Bank operiert jedoch nicht im Kapitalkostenminimum. Erst die Kombination von risikoabhängiger Eigenkapitalregulierung und risikoabhängiger Einlagensicherungsprämie führt dazu, daß das insgesamt wohlfahrtsoptimale Marktergebnis implementiert wird. Die risikoabhängige Kapitalregulierung steht danach in einem komplementären Verhältnis zum risikoabhängigen Einlagensicherungssystem. Entgegen der teilweise geäußerten Warnung vor einer "doppelten" Bestrafung der Risikoübernahme durch Eigenkapitalregulierung und Einlagensicherung führt allein die Risikoabhängigkeit bei der Regulierungen zu effizienten Marktergebnissen. In Kapitel 6 wurde argumentiert, daß auch die Berücksichtigung der Interessendivergenz zwischen Kapitalgebern und Managern nichts an der Beurteilung der risikoabhängigen Eigenkapitalregulierung ändert. Die Eigeninteressen von Managern können zwar zu einer Abweichung der tatsächlich verfolgten Risikopolitik von der durch die Eigenkapitalgeber bevorzugten Risikopolitik führen. Allerdings können die Eigeninteressen des Managements in nicht prognostizierbarer Weise sowohl risikoerhöhende als auch risikosenkende Wirkung haben. Aus Sicht der Aufsichtsbehörden erscheint daher die Orientierung an Modellen sinnyoll, die ein marktwertmaximierendes Verhalten der Bank unterstellen. Schließlich zeigt die Analyse der Wechselwirkungen von Eigenkapitalregulierung und den Arbeitsanreizen des Managements, daß die risikobasierte Eigenkapitalregulierung auch im Hinblick auf diesen Agency-Konflikt positive Wirkungen entfaltet. Wenn die Drohung des Konkurses ein Motivationsinstrument für Manager darstellt. dann ist es aus Sicht der Kapitalgeber unter plausiblen Annahmen sinnvoll, auch im Hinblick auf die Auswirkung auf die Anreizsituation des Managements bei hohen Anlagerisiken eine höhere Eigenkapitalquote zu wählen. Die risikoabhängige Eigenkapitalregulierung kann allerdings den Agency-Konflikt auch verstärken, wenn die Aufsichtsbehörde ein zu hohes Konfidenzniveau vorgibt. Dann versagt die Anreizwirkung der Konkursdrohung, weil Konkurse auch bei "Fehlverhalten" des Managements so unwahrscheinlich sind, daß die Konkursdrohung keinen Einfluß auf das Verhalten von Managern hat. Zusammenfassend kann festgestellt werden, daß die risikoabhängige Eigenkapitalregulierung von Banken nicht nur die Sorgen der Aufsichtsbehörden verringert, sondern auch auf einem soliden theoretischen Fundament steht. Sie stellt die notwendige Antwort auf die durch die Einlagensicherung generierten Fehlanreize zur Übernahme exzessiver Risiken dar und leistet damit einen wichtigen Beitrag für die Funktionsfähigkeit der Kapitalmärkte. Gleichzeitig zeigt die Analyse aber auch, daß überzogenes Stabilitätsdenken der Aufsichtsbehörden nicht angebracht ist. Gerade im Fall von Banken verfügen Manager über ausgesprochen große Verhaltensspielräume und Eigenkapitalgeber über wenige Instrumente, um eine Geschäftspolitik im Sinne der Kapitalgeber durchzusetzen. Die Konkursdrohung stellt in dieser Situation ein wichtiges Instrument zur Durchsetzung des Interessengleichlaufs zwischen Management und Kapitalgebern dar. Die Bankenregulierung darf daher die Konkurswahrscheinlichkeit von Banken nicht so stark senken, daß die Drohung des Konkurses seine positive Anreizwirkung verliert.
Inflation hat in den letzten Jahren weltweit erheblich an Popularität eingebüßt. Galten noch in den 1960er und 1970er Jahren moderate Inflationsraten von 5 bis 10 Prozent als wachstums- und beschäftigungsfördernd, so ist es mittlerweile in Politik und Wissenschaft nahezu unstrittig, dass Inflation vor allem volkswirtschaftliche Kosten verursacht und deshalb Preisstabilität das vorrangige Ziel moderner Geldpolitik sein muss. So sieht insbesondere die in Frankfurt ansässige Europäische Zentralbank (EZB) ihre Hauptaufgabe darin, die jährliche Inflationsrate in der Eurozone unter 2 Prozent zu halten. Klettert die Inflationsrate nur wenige Dezimalpunkte über diesen Zielwert, muss mit Zinserhöhungen und einer restriktiven Geldpolitik der Zentralbank gerechnet werden. Diese Geldpolitik i s t gerechtfertigt, wenn bereits niedrige Inflationsraten messbare realwirtschaftliche Effekte besitzen. Eine Studie der Professur für Empirische Makroökonomie untersucht deshalb den Einfluss von Inflation auf die Variabilität der relativen Preise.
Das Stapelrecht in Mainz
(1925)
Wie können Unternehmen bei der Auswahl von Bewerbern zukünftig besser zwischen Quantität und Qualität abwägen? Welche Wege sollten Kandidaten bei der Suche nach ihrem Wunscharbeitgeber einschlagen? Fragen, mit denen sich die Frankfurter Wirtschaftsinformatiker beschäftigen. Das Internet hat in den letzten Jahren die Personalbeschaffung erobert: Viele große und mittlere Unternehmen suchen ihr neues Personal inzwischen überwiegend auf elektronischem Weg. So lassen sich nicht nur die Kosten für das Personalmarketing deutlich reduzieren, auch die Rekrutierungszeiten werden kürzer. Doch gleichzeitig sehen sich die Unternehmen einer wachsenden Flut von Bewerbern gegenüber: Stellensuchende nutzen – verstärkt durch den Druck des Arbeitsmarkts – zunehmend die Chance, ihre Bewerbung über das Internet schnell, kostengünstig und an mehrere Unternehmen gleichzeitig elektronisch zu versenden. Um schnell die relevantesten Bewerber für ausgeschriebene Stellen zu identifizieren, benötigen die Unternehmen entsprechende Tools. Das Team um Wolfgang König und Tobias Keim erforscht innovative Lösungen.
Soll Wissen nur wirtschaftliches Wachstum fördern? : Umdenken: Innovation als sozialer Prozess
(2009)
Wissenschaftliche Erkenntnisse sollen sich schnell und gewinnbringend in technologische Neuerungen umsetzen lassen, so dass Wirtschaft und Gesellschaft gleichermaßen davon profitieren können. So lässt sich das vorrangige Ziel der Innovations- und Wissenschaftspolitik umschreiben, wie sie beispielsweise von der Europäischen Union betrieben wird. Doch ist diese lineare Betrachtungsweise überhaupt noch zeitgemäß? Zeigen nicht neue Theorien der Ökonomie, dass dieses einfache Fortschrittsverständnis zu kurz greift? Wie müssen sich die herkömmlichen Politikmuster verändern, um Innovation als sozialen Prozess zu verstehen? Wie könnte eine Innovationspolitik aussehen, die Bildung und Wissenschaft nicht nur als Mittel zum ökonomischen Fortschritt instrumentalisiert? Diese und ähnliche aktuelle Fragen wirft unser Forschungsprojekt "Der Beitrag der Neuen Wachstumstheorie zur Koevolution von Wissenskultur und technischem Fortschritt" im Forschungskolleg "Wissenskultur und gesellschaftlicher Wandel" auf.
Schon im ersten Weltkrieg, besonders aber seit dem Ausbruch der Weltwirtschaftskrise und erst recht im zweiten Weltkrieg hat der öffentliche Kredit in finanz- und wirtschaftspolitischer Hinsicht eine Bedeutung erlangt, wie nie zuvor. Er, der ehedem fast nur ein außerordentliches Mittel zur Überwindung vorübergehender finanzieller Schwierigkeiten des Staates gewesen war, entwickelte sich in dieser Zeit zu einem wirtschaftspolitischen Faktor ersten Ranges, ohne dessen Mitwirkung eine erfolgreiche Finanz- und Wirtschaftspolitik heute kaum denkbar ist. Besonders die durch den zweiten Weltkrieg geschaffene Zwangslage nötigte die einzelnen Volkswirtschaften, die durch ihn gebotenen finanz- und wirtschaftspolitischen Möglichkeiten in jeder Weise bis zur Grenze des absolut Möglichen auszuprobieren. Die konjunkturaktive öffentliche Kreditpolitik jener Zeit war von Anfang an kein einheitliches Ganzes, sondern entwickelte sich zu einem geschlossenen wirtschafts- und finanzpolitischen System erst allmählich aus verschiedenen wirtschafts- und finanzpolitischen Einzelmaßnahmen. Sinn und Zweck dieser Arbeit ist es nun, rückschauend auf diese Entwicklung das Grundsätzliche dieser Politik herauszuarbeiten. Ihr besonderer Schwerpunkt liegt dabei auf der Beantwortung der Fragen, inwieweit eine staatliche konjunkturaktive Kreditpolitik ein Heilmittel ist, um einen wirtschaftlichen Schrumpfungsprozess zum Stillstand zu bringen, inwieweit ein Reizmittel, um die wirtschaftliche Entwicklung voranzutreiben und inwieweit ein Gift, das schließlich den Ruin von Marktwirtschaft und Finanzwirtschaft herbeiführt.
Der bevorstehende Beitritt Sloweniens in die OECD1 (Organisation for Economic Cooperation and Development), die jüngste Bewertung des BTI-Status-Index 2008 (Bertelsmann-Transformation-Index) auf dem 2. Platz, der Ratsvorsitz der EU (Europäische Union) im 1. Halbjahr 2008, die Mitgliedschaft zum Schengen-Raum und die Einführung des Euro, sind nur die jüngsten Meilensteine der erfolgreichen und nachhaltigen Transformation in ein demokratisches System und die Festlegung auf eine marktwirtschaftliche Ordnung. Die Geschichte Sloweniens stand lange Zeit im Schatten der Geschichte Österreichs und Jugoslawiens. Als eine Nation in einem eigenen Staat sieht sich Slowenien seit dem Zerfall Jugoslawiens in einer gänzlich neuen Rolle. Das Erbe der früheren Abhängigkeiten ist einem neuen Selbstbewusstsein gewichen. Die graduelle Transformation Sloweniens während der 1990er Jahre in einen völkerrechtlich unabhängigen Staat, eine politische Demokratie und eine freie Marktwirtschaft erscheint im europäischen Kontext „…only [as] a chapter in the larger tale of the democratic wave that rather unexpectedly swept across Central, Eastern, and Southeastern Europe during the last years of the twentieth century.“ In Reflexion der historischen Ereignisse beurteilt Kornai die Transformation am Ende des letzten Jahrhunderts in Europa „…in spite of serious problems and anomalies …[as] a success story.“ Im Rahmen des Transformationsprozesses konnte sich Slowenien als „politischer und ökonomischer Zwerg“ als unabhängiger Staat in das demokratische Europa und die Europäische Union integrieren und fest verankern. Um Gründe und Faktoren dieses Prozesses zu identifizieren, ist eine Betrachtung der Entwicklungen in den 1980er Jahren, die zur Auflösung des blockfreien sozialistischen Jugoslawiens und zur Selbstständigkeit Sloweniens geführt haben, notwendig. Jede der konstituierenden Teilrepubliken und Regionen Jugoslawiens blickt zurück auf eine eigene historische, religiöse und sprachliche Tradition mit individuellen Erfahrungen und spezifischen Spannungen innerhalb und außerhalb der gemeinsamen Föderation. Sloweniens Weg in die politische, ökonomische und demokratische Unabhängigkeit war ein individueller nationaler Differenzierungs- und Umgestaltungsprozess und Ergebnis vielfältiger mehrdimensionaler Konflikte. Unerwartet und plötzlich war der Bruch und die Herauslösung aus dem Staatenbund Jugoslawiens am 25. Juni 1991 nicht. Die Gründung und der Niedergang eines Staates sind schwierig zu erklärende und komplexe Phänomene. Die Triebkräfte der auflösenden gesellschaftlichen Prozesse im Jugoslawien der 1980er Jahre ausschließlich auf die Nationalitätenfrage zu reduzieren, bewertet Weißenbacher als eine zu enge Fokussierung der Darstellung und Begründung auf die ethnischen Spannungen innerhalb des Vielvölkerstaates. Er argumentiert: „Die Wurzeln der Desintegration des sozialistischen Jugoslawiens in alten ethnischen Feindseligkeiten zu suchen, hieße die ökonomischen, sozialen und politischen Prozesse zu ignorieren….“ Die zunehmenden regionalen Inkompatibilitäten Jugoslawiens in den 1980er Jahren verdeutlichen in Betrachtung des spezifischen Entwicklungspfads der Teilrepublik Slowenien, dass die politisch-gesellschaftlichen, kulturellen und die sozioökonomischen Strukturen letztendlich nicht dauerhaft mit den Strukturen anderer jugoslawischer Teilrepubliken vereinbar waren. Die politische und wirtschaftliche Instabilität Jugoslawiens und der frühzeitige Wandel innerhalb der slowenischen Gesellschaft und der Kommunistischen Partei in den 1980er Jahren führten durch politischen Reformdruck und makroökonomische Ungleichgewichte zum Kollaps des jugoslawischen Staatenbundes. Mencinger betont, dass die tiefe Krise Jugoslawiens letzten Endes ohne einen radikalen Systembruch und Sturkurwandel von politischer und ökonomischer Machtverteilung nicht zu überwinden gewesen wäre. Der vorliegende Beitrag greift die Rahmenbedingungen, Entwicklungen, Konflikte und Ziele auf und zeichnet die wesentlichen politischen und wirtschaftlichen Geschehnisse nach, denen sich die slowenische Bevölkerung und Politik in den Jahren vor der Loslösung gegenübersahen und die zur Gründung des unabhängigen Staates geführt haben.
Der Beitritt zur Europäischen Union (EU) war seit Beginn der Transformation in Osteuropa eines der wichtigsten politischen Ziele der neu gewählten Regierungen. Im Mittelpunkt der öffentlichen Diskussion stand dabei weniger die Frage nach möglichen nationalen Opfern einer schnellen EU-Integration, sondern der Wunsch, die nach dem zweiten Weltkrieg erfolgte Teilung Europas endgültig zu überwinden. Nach über zehn Jahren Transformation und Privatisierung ist jedoch vielerorts Ernüchterung eingekehrt. Die politische Debatte um die EU-Integration der osteuropäischen Beitrittskandidaten wird zunehmend von den Kandidaten selbst kritisch geführt, und die Frage nach den nationalen Lasten eines EU-Beitritts gewinnt an Bedeutung. Je näher der Beitritt der osteuropäischen Staaten zur EU rückt, desto nachdrücklicher wird dort gefragt, ob die Mitgliedschaft in der Union ein Gewinn sein wird. Die Beitrittskandidaten befürchten u.a., dass die eigene Wirtschaft und ganze Berufsgruppen, wie z.B. die Bauern, dem EU-Wettbewerbsdruck nicht standhalten werden können. Auf der anderen Seite bremsen eigennützige Ansprüche der Altmitglieder die Osterweiterung der EU. Noch ist bei anstehenden Abstimmungen in den mittel- und osteuropäischen Ländern (MOEL) über den Beitritt überall eine Mehrheit dafür zu erwarten, doch die Euroskepsis wächst und die Europa-Kritiker gewinnen an politischem Einfluss. Die vorliegende Arbeit soll einen Beitrag zur Versachlichung der EU-Erweiterungsdiskussion leisten und die Zusammenhänge zwischen dem Transformationsprozess der MOEL und deren EU-Integration verdeutlichen. Eine sachliche Diskussion kann nur dann geführt werden, wenn dabei die Besonderheiten, die Gemeinsamkeiten und die Interdependenzen von Transformations- und Integrationsprozess berücksichtigt werden. Wir gehen dazu wie folgt vor. Zunächst beschreiben wir en Transformationsprozess aus ökonomischer Sicht (2.). Neben den wirtschaftlichen und sozialen Folgen der Transformation, soll die historische Pfadabhängigkeit verschiedener Transformationsergebnisse gezeigt und deren Bedeutung für die EU-Integrationsfähigkeit der MOEL diskutiert werden. Im Anschluss daran erläutern wir die Voraussetzungen einer EU-Osterweiterung aus Sicht der Beitrittskandidaten (Beitrittskriterien von Kopenhagen) und aus Sicht der Europäischen Union. Wir zeigen die aus einem Integrationsprozess resultierenden wirtschaftlichen, sozialen und politischen Folgen für Neu- und Altmitglieder auf und stellen den aktuellen Stand der EU-Beitrittsverhandlungen vor (3.). Die Arbeit endet mit der Darstellung alternativer Entwicklungen und einem Fazit (4.).
Im Rahmen der Arbeit wird empirisch untersucht, welche Reaktionen die Veröffentlichung von Periodenergebnissen als Teil der Unternehmenspublizität am deutschen Kapitalmarkt auslöst, welches die Bestimmungsfaktoren für das Ausmaß der Kapitalmarktreaktionen sind und ob Unternehmen in der Lage sind, durch ihre Publizitätsentscheidungen die Kapitalmarktreaktionen auf die Veröffentlichung von Periodenergebnissen zu beeinflussen. Kapitalmarktreaktionen auf die Veröffentlichung von Periodenergebnissen werden im Rahmen dieser Arbeit anhand von Aktienkursen und Handelsvolumen (Informationsgehalt) sowie anhand von Geld-Brief-Spannen (Informationsasymmetrie) gemessen. Als Ergebnis kann ein erhöhtes Ausmaß an abnormalen Renditen und Handelsvolumen am Tag der Ergebnisankündigung festgestellt werden, was darauf hinweist, dass Ergebnisankündigungen Informationsgehalt besitzen. Weiterhin kann festgestellt werden, dass durch Ergebnisankündigungen anhand von Geld-Brief-Spannen gemessene Informationsasymmetrien sinken. Weiterhin zeigt sich, dass die Kapitalmarktreaktion umso stärker ist, je mehr zusätzliche Informationen zusammen mit dem Periodenergebnis veröffentlicht werden. In diesem Zusammenhang kann auch gezeigt werden, dass sowohl Aktienkurs- und Handelsvolumenreaktionen als auch Geld-Brief-Spannen bei Anwendung international anerkannter Rechnungslegungsgrundsätze größer sind als bei Anwendung handelsrechtlicher Grundsätze. Dabei zeigt sich, dass Aktienkursreaktionen und Geld-Brief-Spannen über den Untersuchungszeitraum, der als Gewöhnungsphase an international anerkannte Rechnungslegungsgrundsätze angesehen werden kann, sinken und das Handelsvolumen steigt. Darüber hinaus kann gezeigt werden, dass die Kapitalmarktreaktion umso geringer ausfällt, je mehr oder je qualitativ hochwertiger die Unternehmenspublizität vor der Ergebnisankündigung ausfällt.
Do we measure what we get?
(2008)
Performance measures shall enhance the performance of companies by directing the attention of decision makers towards the achievement of organizational goals. Therefore, goal congruence is regarded in literature as a major factor in the quality of such measures. As reality is affected by many variables, in practice one has tried to achieve a high degree of goal congruence by incorporating an increasing number of these variables into performance measures. However, a goal congruent measure does not lead automatically to superior decisions, because decision makers’ restricted cognitive abilities can counteract the intended effects. This paper addresses the interplay between goal congruence and complexity of performance measures considering cognitively-restricted decision makers. Two types of decision quality are derived which allow a differentiated view on the influence of this interplay on decision quality and learning. The simulation experiments based on this differentiation provide results which allow a critical reflection on costs and benefits of goal congruence and the assumptions regarding the goal congruence of incentive systems.
Sowohl die Diversifikation als auch die Fokussierung von Unternehmensaktivitäten werden häufig mit der Maximierung des Unternehmenswertes begründet. Wir untersuchen die Auswirkungen auf den Aktienkurs für 184 Akquisitionen sowie 139 Desinvestitionen deutscher Konzerne im Zeitraum von 1996-2005. Unternehmensdiversifikationen üben, entgegen der oft geäußerten Kritik, keinen signifikant negativen Einfluss auf den Marktwert aus. Fokussierende Unternehmensakquisitionen hingegen sind mit einem signifikanten Wertaufschlag verbunden. Der Verkauf von Unternehmensteilen führt generell zu einer Marktwertsteigerung. Dabei führen Abspaltungen außerhalb des Kerngeschäfts zu einer – allerdings insignifikant – höheren Wertsteigerung als Desinvestitionen von Kerngeschäftsaktivitäten. Statt eines systematischen Diversifikationsabschlags finden wir somit einen „Fokussierungsaufschlag“ für den deutschen Markt.
Private Equity ist außerhalb des Fachpublikums von vielen Mythen und Missverständnissen umgeben. Dies fängt bereits bei der Funktionsweise und Größe des Sektors an, aber auch über die Profitabilität und die Gebührenstruktur von Private Equity Gesellschaften gibt es falsche Vorstellungen. Zudem werden immer wieder Vorwürfe laut, dass Private Equity zu massivem Arbeitsplatzabbau, einer hohen Anzahl von Konkursen und dem Unterlassen von langfristigen Investitionen führt. Dennoch wird Private Equity als wichtiges Instrument zur Finanzierung des deutschen Mittelstandes angeführt. Dieser Essay stellt den gängigen Vorurteilen zu Private Equity die neuesten Forschungsergebnisse gegenüber und versucht so, ein ausgewogenes Bild sowohl der Chancen und Risiken als auch des Einsatzgebiets von Private Equity zu zeichnen.
Ist der Pflegenotstand unabwendbar? : Über die Zukunft der Pflegeversicherung: Defizite und Lösungen
(2007)
Über die gesetzliche Pflegeversicherung wird seit der Verabschiedung des Gesetzes zur sozialen Absicherung des Risikos der Pflegebedürftigkeit (PflegeVersG oder SGB XI) im April 1994 kontrovers diskutiert. Ganz oben auf der politischen Agenda steht dieses Thema wieder seit der jüngsten Debatte zur Gesundheitsreform. Während die CDU/CSU-regierten Länder für eine private, kapitalgedeckte Zusatzversicherung eintreten, favorisieren SPDLänder eine »Bürgerversicherung« auch für die Pflegeversicherung. ...
Wenn Angehörige die Pflege übernehmen : von Kosten und Nutzen intrafamiliärer Pflegevereinbarungen
(2007)
Ob ein Angehöriger im Alter zu Hause von der Familie versorgt werden kann, hängt von vielen Faktoren ab, nicht nur davon, ob die Familienmitglieder über die nötigen Pflegekenntnisse verfügen, motiviert sind oder ob sie sich moralisch verpflichtet fühlen. Bei der Frage nach den Möglichkeiten der Pflege in der Familie, man spricht auch von »intrafamiliären Pflegearrangements«, müssen auch ökonomische Gesichtspunkte berücksichtigt werden: Wer sich als Pflegebedürftiger entscheidet, keinen ambulanten Pflegedienst zu engagieren oder nicht ins Heim zu gehen, der bevorzugt – ökonomisch gesprochen – die Eigenproduktion in Form der Familienpflege gegenüber dem Kauf professioneller Pflegedienstleistungen von externen Märkten. Welche Gründe haben Familien für die Bevorzugung der intrafamiliären Pflege, welchen Nutzen und welche Kosten berücksichtigen sie bei ihrer (Pflege-)Entscheidung? Um die beobachtbare Stabilität und die möglichen Vorteile der Pflege in Familien und Privathaushalten zu erklären, kann die ökonomische Sicht interessante Aspekte erhellen. Letztere werden in diesem Beitrag mit den Ergebnissen einer schriftlichen Befragung zu den Auswirkungen der Gesetzlichen Pflegeversicherung in Hessen konfrontiert.
Seit Jahren wird von einem Krieg der Generationen fabuliert, der in den kommenden Jahrzehnten ausbrechen werde. Von einer Kündigung des Generationenvertrags in der Gesetzlichen Rentenversicherung ist die Rede, nach dem bisher die laufenden Renten aus den gleichzeitig gezahlten Beiträgen ohne Bildung eines Kapitalstocks finanziert werden (Umlageverfahren). Die Menschen werden zunehmend unsicherer, ob sie noch ein Alterseinkommen erwarten können, das einen Ruhestand ohne große finanzielle Sorgen erlaubt und das sie vor Armut im Alter bewahrt. Gleichzeitig spricht man aber von der Generation der Erben, die in den nächsten ein oder zwei Jahrzehnten Erbschaften in bisher nie gekannter Höhe erhalten werden. Diese Gemengelage bedarf der genaueren Durchleuchtung, um echte von vermeintlichen Problemen unterscheiden zu können.
Die Entscheidung, die »Regelaltersgrenze« von derzeit 65 auf 67 Jahre anzuheben, hat erneut der Debatte Auftrieb verschafft, wie der Übergang von der Erwerbsphase in den Ruhestand sinnvoll zu gestalten ist. Sind die betroffenen Altersjahrgänge noch leistungsfähig genug, um weiter berufstätig zu sein? Wie schätzen Arbeitgeber die Einsatzmöglichkeit älterer Arbeitnehmerinnen und Arbeitnehmer ein? Gibt es genügend Arbeitsplätze, um eine erweiterte Zahl von älteren Erwerbstätigen aufzunehmen? Mindert der spätere Ausstieg der Älteren die Einstiegschancen der Jüngeren? Ist der geplante Aufschub der Regelaltersgrenze lediglich ein »Trick«, um die Rentenabschläge hochzuschrauben?
Mit dieser Arbeit ist gezeigt worden, wie vielfältig die Produkte bzw. Dienste im Mobilfunkbereich sind. Der eigentliche Schwerpunkt lag auf der Fragestellung, wie die Mobilfunk-Dienste im Internet bepreist werden. Die Untersuchung der verschiedenen Mobilfunktarife im Internet hatte das Ziel, die grundlegenden Preisparameter für diese Tarife zu identifizieren, zu diskutieren und zu modellieren. Das oberste Ziel bei der Modellierung war die Erstellung eines flexiblen Tarif- und Abrechnungsmodells. Zu diesem Zweck wurden die Vorteile, die XML-Schema und XML-Netze bieten, zum Ausdruck gebracht. Dabei wurde das methodische Vorgehen in den Vordergrund gestellt und nicht die Abbildung des tatsächlichen Marktgeschehens. Zunächst wurde in dieser Arbeit kurz das Internet und die speziellen Eigenschaften des Internets behandelt. Dabei wurde festgestellt, dass sich das Internet auf Grund seiner Eigenschaften besonderes für digitale Produkte eignet. Die digitalen Produkte und deren Eigenschaften wurden untersucht und daraus ergab sich, dass die digitalen Produkte eine vorteilhafte Kostenstruktur aufweisen; nämlich vernachlässigbar niedrige Reproduktionskosten. Unter anderem ist festgestellt worden, dass für die Nutzung der digitalen Produkte für Konsumenten deren Verbreitungsgrad wichtig ist. Gerade hier kann das Internet dank seiner Eigenschaften diese Anforderung besser als ein anderer Vertriebskanal unterstützen. Schließlich lassen sich aus dem Zusammenspiel der Interneteigenschaften und der Merkmale der digitalen Güter gewisse ökonomische Gesetzmäßigkeiten ableiten. Diese verschaffen einem Unternehmen langfristig Vorteile gegenüber der Konkurrenz. Der Schwerpunkt dieser Arbeit liegt aber bei einer speziellen Gruppe der digitalen Produkte, nämlich der Produkte bzw. Dienste im Mobilfunkbereich. Mobilfunk ist eine wichtige und weitverbreitete Art der Mobilkommunikation. Auf dem deutschen Mobilfunkmarkt wurde gerade die 4. Generation der Mobilfunkstandards – UMTS - eingeführt. Allerdings wird UMTS noch einige Zeit brauchen, um sich auf dem Markt richtig zu etablieren. Damit bleibt der GPRS immer noch der führende Standard auf diesem Markt. Der meist genutzte Dienst im Mobilfunk ist immer noch der „Sprach-Dienst“. Der Mobilfunk bietet neben der „Sprache“ eine ganze Reihe weiterer Dienste an. Durch die neuen Technologien ist der Trend in Richtung Datenübertragung über Mobilfunk stark am Aufholen. Die zur Verfügung stehenden Dienste hängen mit den Mobilfunkstandards zusammen. Daher ist es möglich, dass bei der Änderung der Standards auch die zur Verfügung stehenden Dienste angepasst werden. Ein wichtiger Punkt am Bespiel von Mobilfunk als digitales Produkt bzw. Dienstleistung war die Wahl der richtigen Preisstrategie. Die meisten Netzbetreiber entschieden sich für die Strategie differenzierter Preise. Damit können sie unterschiedliche Zahlungsbereitschaften ihrer Kunden relativ gut ausschöpfen. Hierzu wurden die Vielfältigkeit der Möglichkeiten und die Vorteile, die die Preisdifferenzierungsstrategie anbietet, dargestellt. Der sich anschließende Hauptteil dieser Arbeit ist die Parametrisierung und die Modellierung des Mobilfunktarifs und dessen Abrechnungssystems. Zur Modellierung wurden XML-Schema und XML-Netze gewählt. Das XML-Schema ermöglicht flexible Erstellung, Anpassung und Erweiterung von Tarifelementen. Außerdem ermöglicht XML Datenaustausch über Plattform unabhängige Protokolle. Die XML-Netze bieten durch ihre graphische Darstellung die Visualisierung der Abläufe und der ablaufrelevanten Daten. Die aktuellen Zustände können aufgezeigt, simuliert und analysiert werden. Außerdem ermöglichen sie die gute Umstrukturierung, Anpassung und Erweiterung des Abrechnungsprozesses. Bei der Erstellung des Abrechnungsmodells wurde von den Hauptbestandteilen eines beliebigen Abrechnungsmodells ausgegangen. Anschließend sind diese Bestandteile an die Anforderungen des Abrechnungsmodells für Mobilfunkverträge angepasst worden. Die jeweiligen Abrechnungsparameter wurden, wie z.B. Tarifdaten, mit der modifizierten XMLSchema dargestellt. Die Tarifdaten stellen die Vielfältigkeit der Parameter dar, die die Preise eines Mobilfunktarifes beeinflussen. Die Preisparameter wurden nach eingehender Untersuchung verschiedener Tarife181 der vier Netzbetreiber identifiziert. Dabei fiel auf, dass die Netzbetreiber in der Regel von vergleichsweise ähnlichen Parametern ausgingen. Damit haben auch die Tarife ähnliche Strukturen. Weiterhin führen stark differenziert Preise dazu, dass man nicht vom „schlechtesten“ oder vom „besten“ Tarif sprechen kann. Im Prinzip gibt es nur den „besten“ Tarif für ein bestimmtes Nutzungsverhalten. Außer Sprachkommunikation wurden in der Arbeit auch andere Kommunikationsarten vorgestellt. Dabei wurde eine neue Art des Bepreisens angesprochen, nämlich das Bepreisen nach Dienstqualität. Die darauf basierenden Preisstrukturen werden zukünftig sicherlich eine große Rolle spielen, da sie sich insbesondere für Dienste eignen, die vom UMTS unterstütz werden.
Die Unternehmensbesteuerung ist eines der Instrumentarien das im Wettbewerb um den mobilen Faktor Kapital von den Industriestaaten eingesetzt wird. Hinsichtlich der wissenschaftlichen Forschung, die den Zusammenhang zwischen der Unternehmensbesteuerung und dem unternehmerischen Kapitalstock untersucht, ist mittlerweile eine beträchtliche Zahl von Literatur entstanden. Aus der vorhandenen Literatur sind jedoch zwei Schwächen zu erkennen. Erstens basieren viele der empirischen Analysen auf makroökonomischen Zeitreihendaten und zweitens finden vor allem Reduzierte-Form-Modelle Anwendung. Die vorliegende Dissertation gliedert sich in die Reihe empirischer Arbeiten unter Verwendung von Mikrodaten ein, die Aspekte der Unternehmensbesteuerung untersuchen. Die Arbeiten liefern einen Beitrag zum tieferen Verständnis aus den Teilbereichen der Finanzierunkstruktur, der gemeinsamen Bemessungsgrundlage sowie der Messung der marginalen Steuerbelastung. Dabei konzentrieren sich die Analysen auf die Aktivitäten deutscher Unternehmen im In- und Ausland sowie ausländischer Unternehmen in Deutschland. Grundlage der empirischen Untersuchungen sind vor allem vertrauliche Mikrodaten der Deutschen Bundesbank. Im Rahmen der deskriptiven und multivariaten Analyse werden Hinweise für den Zusammenhang zwischen der Besteuerung und dem unternehmerischen verhalten nachgewiesen. Damit dienen die Resultate auch als Diskussionsgrundlage für die Ausgestaltung künftiger Steuerpolitik in Deutschland und der EU.
Dynamische Aspekte im Kaufverhalten : die Determinanten von Kaufzeitpunkt, Marken- und Mengenwahl
(2007)
Die vorliegende Arbeit untersucht das Wahlverhalten von Konsumenten in differenzierten Produktkategorien des Konsumgütermarktes. Ausgangspunkt ist die Beobachtung, dass ein Marketing-Mix nicht nur die aktuellen Reaktionen der Konsumenten, sondern auch die resultierenden Konsequenzen für die Zukunft berücksichtigen muss. So führen insbesondere Preispromotions, welche den größten Anteil des Marketing-Budgets bei Konsumgütern in Anspruch nehmen, oft lediglich zu einer Vorverlagerung der Käufe statt zu einem Mehrabsatz durch Markenwechsel und sind daher durchaus kritisch zu bewerten. Anhand von Haushaltspaneldaten zweier Produktkategorien wird der Einfluss dynamischer Aspekte im Rahmen der Konsumentenentscheidungen hinsichtlich Kaufzeitpunkt, Marken- und Mengenwahl untersucht. Auf Grund kontroverser Diskussionen in der Marketing-Forschung bezüglich der korrekten Modellierung der drei Entscheidungen, steht diese neben der expliziten Spezifikation der Dynamiken im Fokus der Betrachtungen. Die empirischen Analysen sowie die anschließenden Simulationen von Marktszenarien zeigen zunächst die Überlegenheit einer getrennten gegenüber einer gemeinsamen Nutzenfunktion bei der Modellierung der drei Entscheidungen auf. Des Weiteren findet sich in einer Produktkategorie die Abhängigkeit der Preissensitivität der Konsumenten von der in der Vergangenheit beobachteten Häufigkeit von Preispromotions. Die Preissensitivität in der Mengenwahl ist dabei von dieser Häufigkeit wesentlich stärker betroffen als die der Markenwahl, was als Erklärungsansatz für die empirisch beobachtete Vorverlagerung von Käufen gewertet werden kann.
Wir untersuchen, in welchem Ausmaß die Aktien deutscher Unternehmen im Zeitverlauf an ausländischen Börsen gehandelt werden. Es zeigt sich – nach anfänglich bedeutsamer Handelsaktivität im Ausland – ein ausgeprägter Rückfluss-Effekt nach Deutschland. Zweitnotierungen an ausländischen Börsen dienen der Verbreiterung der Aktionärsbasis und somit der Senkung der Kapitalkosten und letztendlich der Steigerung des Unternehmenswertes. Dazu ist ein ausreichendes Handelsvolumen an der ausländischen Börse unabdinglich. Daran gemessen sind die Auslandsnotierungen deutscher Unternehmen nicht erfolgreich. Dies ist jedoch nicht im gleichen Ausmaß für alle Unternehmen der Fall. Kleinere, wachsende Unternehmen und Unternehmen mit höherem Anteil des Auslandsumsatzes am Gesamtumsatz werden relativ stärker im Ausland gehandelt.
This paper provides new insights into the nature of loan securitization. We analyze the use of collateralized loan obligation (CLO) transactions by European banks from 1997 to 2004 andtry to identify the influence that various firm-specific and macroeconomic factors may have on an institution's securitization decision. We find that not only regulatory capital arbitrage under Basel I has been driving the market. Rather, our results suggest that loan securitization is an appropriate funding tool for banks with high risk and low liquidity. It may also have been used by commercial banks to indirectly access investment-bank activities and the associated gains.
Despite a legal framework being in place for several years, the market share of qualified electronic signatures is disappointingly low. Mobile Signatures provide a new and promising opportunity for the deployment of an infrastructure for qualified electronic signatures. We analyzed two possible signing approaches (server based and client based signatures) and conclude that SIM-based signatures are the most secure and convenient solution. However, using the SIM-card as a secure signature creation device (SSCD) raises new challenges, because it would contain the user’s private key as well as the subscriber identification. Combining both functions in one card raises the question who will have the control over the keys and certificates. We propose a protocol called Certification on Demand (COD) that separates certification services from subscriber identification information and allows consumers to choose their appropriate certification services and service providers based on their needs. We also present some of the constraints that still have to be addressed before qualified mobile signatures are possible.
Die Dissertation verfolgt zwei Ziele: (1) Detaillierte Analyse der Zusammenhänge zwischen Kundenkenngrößen, Erfolgsmaßen des wertbasierten Kundenmanagements und insbesondere dem Unternehmenswert, (2) Entwicklung eines Ansatzes zur externen Berichterstattung der Kundenkenngrößen sowie Erfolgsmaße des wertbasierten Kundenmanagements, der die Kriterien der Finanzberichterstattung erfüllt.
Der vorliegende Beitrag zeigt auf, wie hedonische Preisindizes für Immobilien auf der Basis von Transaktionen berechnet werden können. Der Heterogenität der Immobilien wird dabei durch ein ökonometrisches Modell Rechnung getragen, wobei in dieser Arbeit das Problem der Wahl einer geeigneten Funktionsform durch eine Transformation nach dem Ansatz von Box/Cox (1964) explizit berücksichtigt wird. Die Datenbasis deckt etwa 65% der Transaktionen des Wohnungsmarktes im Zeitraum 1990-1999 ab. Die Korrektur aufgrund unvollständiger Angaben führt zu einem Datensatz von 84 686 Transaktionen. Dieser Datensatz ist ein Vielfaches dessen, was bisher vergleichbaren Studien zugrunde lag und stellt damit eine international einmalige Datengrundlage dar.
Rentenreform in Russland : heutiger Stand und Entwicklungsperspektiven im internationalen Vergleich
(2006)
Das Rentensystem ist ein wichtiges Element jeder modernen Volkswirtschaft. Heutzutage werden Rentenreformen sowohl in den Industriestaaten als auch in den Transformationsländern diskutiert und praktisch umgesetzt. Jedoch sind die Ursachen bzw. Ziele der Rentenreformen in einzelnen Regionen zu unterscheiden. Während der demographische Wandel in den Industriestaaten zur Notwendigkeit der Erhöhung der Einnahmen bzw. Kürzung der Ausgaben der Rentensysteme geführt hat, kämpfen die Transformationsländer mit den Folgen des sozialistischen Systems der Alterssicherung und den Problemen des Transformationsprozesses. Vor diesem Hintergrund diskutiert diese Arbeit die Notwendigkeit sowie die ersten Schritte der Umsetzung der Rentenreform in Russland, setzt diese in Relation zu den Reformschritten in Lateinamerika und Osteuropa und analysiert die Perspektiven zukünftiger Reformen in Russland.
Stakeholderorientierung, Systemhaftigkeit und Stabilität der Corporate Governance in Deutschland
(2006)
Since the time of Germany’s belated industrialisation, corporate governance in Germany has been stakeholder oriented in the dual sense of attaching importance to the interests of stakeholders who are not at the same time shareholders, and of providing certain opportunities for these stakeholders to influence corporate decisions. Corporate governance is also systemic. It is a system of elements that are complementary to each other, and also consistent. In other word, it is composed of elements for which it is important that they fit together well, and in the German case these elements did fit together well until quite recently. Corporate governance as a system is itself an element of the German bank-based financial system at large and possibly even of the entire German business and economic system. Stakeholder orientation of governance is consistent with the general structure this system, and even represents one of its central elements. In retrospect, German corporate governance has also proved to be surprisingly stable. Its fundamental traits date back to the turn from the 19th to the 20th century. There are strong reasons to assume that the systemic features, that is, its complementarity and consistency, have greatly contributed to its past stability. Since about ten years now, there are growing tendencies to question the viability and stability of the German corporate governance system and even the financial system as a whole. One of the central topics in the new debate concerns the stakeholder orientation of the system, which some observers and critics consider as the main weakness of the “German model” under the increasing pressures of globalisation and European integration. As far as their development over time is concerned, systems of complementarity elements exhibit certain peculiarities: (1) They do not adjust easily to changing circumstances. (2) Changes concerning important individual elements, such as the stakeholder orientation of governance, tend to jeopardize the viability and the stability of the entire system. (3) While they appear to be stable, systems shaped by complementary may simply be rigid and tend to break under strong external pressure. “Breaking” means that a system undergoes a fundamental transformation. It seems plausible to assume that the German financial system is already in the middle of such a transformation. It is yet another consequence of its systemic character that this transformation is not likely to be a smooth and gradual process and that it will not lead to a “mixed model” but rather to the adoption of a capital market-based financial system as it prevails in the Anglo-Saxon countries. In such a system, corporate governance cannot be geared to catering to the interests of stakeholders, and an active role for them would not even make any economic sense.
Kapitalmarktorientierte Risikosteuerung in Banken : Marktwertsteuerung statt Marktzinsmethode
(2005)
In diesem Beitrag wird das Konzept der Marktzinsmethode als Grundlage der dualen Risikosteuerung von Kredit- und Marktpreisrisiken in Frage gestellt. Die Kreditrisiken einer Bank implizieren bonitätsinduzierte Marktpreisrisiken und bankspezifische Refinanzierungskosten. Während die bonitätsinduzierten Marktpreisrisiken in der dualen Risikosteuerung keine Berücksichtigung finden, werden die bankspezifischen Refinanzierungskosten zwar erkannt, aber bankintern nicht verursachungsgerecht zugeordnet. Das Grundmodell der Marktzinsmethode bietet keine Lösungsansätze zur Behebung dieser Probleme. Demgegenüber lassen sich die Fehlsteuerungsimpulse von vornherein durch eine konsequente Marktbewertung (Mark to Market) aller Finanzinstrumente vermeiden. Als Ausblick werden erste Überlegungen zur Implementierung einer umfassenden Marktwertsteuerung in Banken entwickelt und exemplarisch ein hierfür geeignetes Bewertungsmodell vorgestellt.
Die Konvergenz von Medien, Telekommunikation sowie Informationstechnologie führt zu einer gesteigerten Interaktion zwischen den Computergeräten dieser drei Wirtschaftssektoren. Zugleich steigt die Anzahl mutierender Würmer, Viren und Trojanische Pferde, wie z.B. Varianten der Bagle- und Sober-Würmer oder der Netsky- und MyDoom-Viren, im Tagesrhythmus und bedrohen die Sicherheit von Computerplattformen. Die Daten der Systeme sind daher potenziellen Risiken ausgesetzt. Um dieser steigenden Bedrohung zu entgegnen, entwickelt die industrielle Initiative „Trusted Computing Group“ (TCG), ehemals „Trusted Computing Platform Alliance“ (TCPA), einen Standard, welcher die Sicherheit der verschiedenen Gerätetypen verbessern soll. Abbildung 1 dokumentiert dabei die Sicherheitsmängel, welche durch die verschiedenen Typen der Attacken oder den entdeckten Missbrauch veranschaulicht werden. Speziell Viren und der Missbrauch der Netzwerkzugänge innerhalb des Unternehmens können aus der Abbildung 1 als häufigste Ursache entnommen werden. Verlust des Laptops, nicht autorisierte Zugriffe durch Insider und Denial of Service Angriffe folgen auf den weiteren Plätzen. Die Gesamtkosten der Computerkriminalität sind zwar unter das Niveau vom Jahre 2000 gefallen, speziell von 2002 auf 2003 haben sich diese mehr als halbiert, obwohl seit 1999 besonders die Urheberrechtsverletzungen proprietärer Informationen stetig angestiegen sind. Der Verlust proprietärer Informationen steht mit 21 Prozent nicht direkt im Vordergrund der obigen Abbildung. Allerdings schlägt der Diebstahl von proprietären Informationen mit 35 Prozent der Gesamtkosten der Computerkriminalität zu buche und führt damit die geschätzten Verluste aus Abbildung 2 an. Auf Platz zwei folgen Denial of Service Angriffe, die Kosten von ca. 65,6 Millionen Dollar verursachen. Viren, Missbrauch des Netzes durch Insider sowie finanzieller Betrug folgen auf weiteren Plätzen. In der Studie vom Computer Security Institute werden die Bestrebungen der TCG, vertrauenswürdige Plattformen herzustellen, als mögliche Lösung des Problems des Diebstahls von proprietären Informationen betrachtet. Deren Effekte werden sich voraussichtlich in fünf bis zehn Jahren auf die Computersicherheit bemerkbar machen. Auch das „Federal Bureau of Investigation“ (FBI) hat mittlerweile eine Initiative zusammen mit der Entertainment- und Softwareindustrie gegen den Diebstahl von urheberrechtlich geschütztem Material abgeschlossen, da die Verluste in der Summe mehrere Billionen Dollar verursachen. Die beiden ersten Abbildungen in Verbindung mit dem dazugehörigen Zahlenmaterial belegen die Diskrepanz der TCG. Dazu stützt sich die TCG auf die steigende Anzahl an Attacken und Missbräuche, ohne die geschätzten Verluste der einzelnen Attacken zu berücksichtigen. Gerade die enorme wirtschaftliche Bedeutung von Information und deren Missbrauch offenbart allerdings einen möglichen Antrieb, die Sicherheit bestehender Rechnersysteme zu verbessern. Diese Erkenntnis ist jedoch nicht übereinstimmend mit der Triebkraft der TCG, die ihre Initiative auf die steigende Anzahl an Schwachstellen stützt, um vermutlich ihre eigentlichen Beweggründe zu verschleiern. Ziel dieser Arbeit ist zum einen den technischen Standard der TCG sowie mögliche Umsetzungen vorzustellen und zum anderen die Standardisierung unter ökonomischen Ansichten zu untersuchen, um sie anschließend zu bewerten. Dazu wird im zweiten Kapitel ein erster Einblick über das Standardisierungsgremium, deren Beweggründe sowie den historischen Kontext zwischen TCPA und TCG gegeben. Das dritte Kapitel dient als Grundlage und Einführung in die Informationsökonomie, um die Komplexität und Zusammenhänge hinsichtlich der Standardisierung und abschließenden Bewertung in den folgenden Kapiteln besser zu erfassen. Neben der Technologie und Information spielt die Auswahl der Erlöse in Verbindung mit der Preisdiskriminierung eine wichtige Rolle. Bezüglich der Standardisierung und Bewertung haben Lock-in sowie Wechselkosten erhebliche Auswirkungen auf die Kon-sumenten. Das gilt ebenfalls für die Größenvorteile, vor allem auf die Netzwerkexternalitäten. Die Standardisierung der TCG wird im vierten Kapitel ausführlicher behandelt, wobei Standards definiert, abgegrenzt und klassifiziert werden. Zudem wird die koope-rative Standardisierung in Form einer Allianz sowie die daraus folgende Problematik des Umgangs mit geistigem Eigentum eingegangen. Das fünfte Kapitel geht direkt auf die technischen Spezifikationen der TCG ein, erklärt das Grundkonzept vertrauenswürdiger Plattformen und behandelt als Schwerpunkt die Komponente des „Trusted Platform Modules“ (TPM) sowie dessen Implementierung in einen Computer. Im Anschluss daran werden im sechsten Abschnitt technischen Umsetzungen auf praktische Anwendungen und Szenarien vorgestellt. Dazu werden als Erstes verfügbare Umsetzungen sowie die Hardwarearchitektur am Beispiel von Intel LaGrande dargestellt, worauf die anschließenden Softwareanwendungen unter den beiden Betriebssystemen Windows und Linux aufbauen. Das siebte Kapitel behandelt die Bewertung der kooperativen Standardisierung und zeigt die Zusammenhänge zwischen Hardwarekompatibilität und Netzwerkexternalitäten auf. Darüber hinaus wird die Adoption dieser neuen Technologie unter statischen und dynamischen Ansätzen berechnet und abschließend die Schwächen und Risiken dieser neuen Technologie erläutert.
Durch Prozessverbesserungen ist es möglich, den Ressourcenverbrauch einer Unternehmung zu reduzieren, ohne an den Eigenschaften des erstellten Gutes Abstriche vornehmen zu müssen. Intuitiv ist ersichtlich, dass eine bessere Ausnutzung der vorhandenen Ressourcen vorteilhaft für die Unternehmung ist. Mit dem Übergang zur Informationsgesellschaft stellt sich die Frage, inwiefern traditionelle Verfahren zur Prozessverbesserung sich auf die immer bedeutender werdende Ressource „Wissen“ anwenden lassen. Hat Wissen in Verfahren zur Erstellung physischer Güter noch eine nur unterstützende Funktion, so stellt es in Branchen, deren Focus in der Entwicklung von Wissen liegt, den wichtigsten „Produktionsfaktor“ dar. In vorliegendem Text wird der Versuch unternommen, bekannte Verfahren zur Qualitätsverbesserung von Prozessen dahingehend zu betrachten, inwieweit sie für eine Anwendung auf den Umgang mit Wissen geeignet sind. Dazu erfolgt eine Darstellung grundlegender Begriffe, gefolgt von Kriterien, anhand derer die Qualität von Wissensprozessen beurteilt werden kann. Danach werden verschiedene Qualitätsverbesserungsverfahren dargestellt und ihre Eignung zur Anwendung auf Wissensprozesse beurteilt. Abschließend findet sich ein Ausblick darauf, in welchen Gebieten weitere Überlegungen zu diesem Thema angebracht sind. Hingewiesen werden muss auf dem Umstand, dass vorliegende Arbeit aus Platzgründen einige mehr oder minder starke Reduzierungen enthält. Bekannte Qualitätsverbesserungsverfahren wurden in verschiedene Kategorien eingeteilt, aus diesen Kategorien wurden dann exemplarisch einige Verfahren für die nähere Betrachtung ausgewählt. Einen Anspruch auf Vollständigkeit erhebt der vorliegende Text somit nicht. Auch die Kategorisierung kann nicht als allgemeingültig angesehen werden, da die meisten Qualitätsverbesserungsverfahren starke Unterschiede aufweisen und somit das Einordnen in ein einheitliches Schema erschweren. Dennoch wurden gemeinsame Merkmale identifiziert und zur Bildung von Kategorien verwandt.
Die Neue Institutionenökonomie beschäftigt sich mit der Erklärung institutioneller Gegebenheiten wie Vertrags- und Organisationsformen und versucht, eine Begründung für die Existenz von Unternehmen zu finden. Ein Bestandteil der Neuen Institutionenökonomie ist, neben der Principal- Agent- und der Property-Rights-Theorie, die hier näher zu erörternde Transaktionskostentheorie. Entstanden ist die Transaktionskostentheorie aus der Kritik an der Neoklassik, insbesondere an den dieser zugrunde liegenden Annahmen. Innerhalb der neoklassischen Theorie wird der Preismechanismus als das zentrale Instrument zur Koordination von wirtschaftlichen Aktivitäten betrachtet. Die Wirtschaftssubjekte handeln in einem Markt unter vollständiger Konkurrenz, in dem sich ohne Verursachung von Kosten ein Gleichgewichtspreis bildet. Sie verhalten sich daher als Mengenanpasser, die aufgrund dieses vorgegebenen Preises ihren Gewinn maximieren. Im Gegensatz dazu wird in der Transaktionskostentheorie davon ausgegangen, daß die Bildung des Preises bzw. die Nutzung des Marktmechanismus nicht kostenlos genutzt werden kann. Aus der Annahme der Neoklassik, daß der Preis die operativen Entscheidungen der Wirtschaftssubjekte determiniert und zu einer effizienten Allokation der Produktionsfaktoren führt,6 stellt sich weiterhin die Frage nach dem Grund für die Existenz von Unternehmungen, welche mit Hilfe der Transaktionskostentheorie beantwortet wird. Wäre der Marktmechanismus tatsächlich in der Lage alle wirtschaftlichen Aktivitäten effizient zu koordinieren, so bestünde keine Notwendigkeit für die Bildung von Institutionen. Die Entstehung von Unternehmen ist daher auf ein Versagen des Preismechanismus aufgrund von Transaktionskosten zurückzuführen....
Der Ansatz des Infrastruktur-Netzwerkes bietet eine Möglichkeit, das Entstehen von Netzwerken und die Abhängigkeit von bestimmten Einflüssen auf die Struktur nachzuvollziehen. Trotz der komplexen Struktur scheinen dezentrale Ansätze ihre Berechtigung zu haben. Das deutlich schlechtere Abschneiden des statischen Ansatzes zeigt, wie wichtig Kommunikation zwischen den Akteuren ist. Da die umfangreiche Kommunikation trotz des recht einfachen Entscheidungsverhaltens gute Ergebnisse erzielt, wäre zu untersuchen, wie weit man bei Einschränkung der Kommunikation durch bessere Entscheidungsregeln ähnlich gute Ergebnisse erzielen kann. Die Frage, wie gut ein statischer Ansatz sein kann, ist sicher nicht endgültig beantwortet. Ob jedoch rein statische Ansätze ein realistisches Szenario darstellen und untersucht werden sollten, ist eine Frage, die hier nicht beantwortet werden kann. Das sehr gute Abschneiden von reinen Verbesserungsverfahren lässt auf eine relativ homogene Nachbarschaftsstruktur schließen. Des weiteren war zu beobachten, dass in größeren Netzen der relative Verlust durch Fehlentscheidungen tendenziell geringer ausfällt. Ein Ursache könnte sein, dass die zunehmende Dichte von Netzwerken zu Bündelungseffekten bezüglich der Transportleistungen führen. In einem nächsten Schritt wäre es interessant, intelligentere Entscheidungsregeln von Agenten in einem solchen Umfeld zu testen. Durch geeigneten Einsatz dieser ’internen Intelligenz’ bei eingeschränkter Kommunikation, ist es vielleicht möglich, zu schnelleren und effizienteren Lösungen zu finden, als es mit diesem Ansatz möglich war.
Unter Berücksichtigung der implementationsanalytischen und kausalen Analysen für die Einführungsphase der Vermittlungsgutscheine kommen die Autoren zu dem Schluss, dass die Erprobungsphase dieses arbeitsmarktpolitischen Instruments fortgesetzt werden sollte. Aus der Implementationsanalyse zeigt sich, dass der Verbreitungsgrad des Instruments auch nach 27 Monaten Erprobungsphase sehr gering ist. Die kausalen Analysen beziehen sich aufgrund begrenzter Datenverfügbarkeit lediglich auf zwei Ausgabemonate ein Jahr nach Einführung des Instruments (Mai und Juni 2003) und zeigen geringe positive Beschäftigungseffekte auf der Mikro-Ebene. Ob dadurch die Kosten der Vermittlungsgutscheine gerechtfertigt sind, lässt sich derzeit noch nicht abschließend beurteilen. Anzeichen für Mitnahmeeffekte und/oder Missbrauch existieren. Auch haben erfolgreiche Vermittlungen durch Gutscheine die Beschäftigungschancen in anderen Gruppen geschmälert. Deshalb werden verschiedene Vorschläge für eine kosteneffizientere Ausgestaltung der Vermittlungsgutscheine dargestellt und diskutiert. Insbesondere wird auf die Vorschläge des Bundeskabinetts vom 01.09.2004 eingegangen.
In dieser Studie werden die Wirkungen von Arbeitsbeschaffungsmaßnahmen (ABM) in Deutschland auf die individuellen Eingliederungswahrscheinlichkeiten der Teilnehmer in reguläre Beschäftigung evaluiert. Für die Untersuchung wird ein umfangreicher und informativer Datensatz aus den Datenquellen der Bundesagentur für Arbeit (BA) verwendet, der es ermöglicht, die Wirkungen der Programme differenziert nach individuellen Unterschieden der Teilnehmer und mit Berücksichtigung der heterogenen Arbeitsmarktstruktur zu untersuchen. Der Datensatz enthält Informationen zu allen Teilnehmern in ABM, die ihre Maßnahmen im Februar 2000 begonnen haben, und zu einer Kontrollgruppe von Nichtteilnehmern, die im Januar 2000 arbeitslos waren und im Februar 2000 nicht in die Programme eingetreten sind. Mit Hilfe der Informationen der Beschäftigtenstatistik ist es hierbei erstmals möglich, den Abgang in reguläre Beschäftigung auf Grundlage administrativer Daten zu untersuchen. Der vorliegende Verbleibszeitraum reicht bis Dezember 2002. Unter Verwendung von Matching-Methoden auf dem Ansatz potenzieller Ergebnisse werden die Effekte von ABM mit regionaler Unterscheidung und für besondere Problem- und Zielgruppen des Arbeitsmarktes geschätzt. Die Ergebnisse zeigen zwar deutliche Unterschiede in den Effekten für Subgruppen, insgesamt weisen die empirischen Befunde jedoch darauf hin, dass das Ziel der Eingliederung in reguläre ungeförderte Beschäftigung durch ABM weitgehend nicht realisiert werden konnte. JEL: C40 , C13 , J64 , H43 , J68
Diese Arbeit gibt einen Überblick der Konzeption und der Evaluation der Aktiven Arbeitsmarktpolitik (AAMP) in Deutschland. Die rechtliche Grundlage der AAMP stellte von 1969 bis 1997 das Arbeitsförderungsgesetz (AFG) dar. 1998 wurde dieses durch das Sozialgesetzbuch (SGB) III abgelöst. Während das AFG noch unter Bedingungen der Vollbeschäftigung eingeführt wurde und auch eine generelle Verbesserung der Funktionsweise des Arbeitsmarktes vorsah, erfolgte im Zeitablauf eine stärkere Ausrichtung der AAMP auf die Wiedereingliederung von Problemgruppen in den Arbeitsmarkt. Das SGB III stellt die Eingliederung von Arbeitslosen in reguläre Beschäftigung in den Mittelpunkt. Obwohl das SGB III in Ansätzen eine Erfolgskontrolle der AAMP vorsieht und trotz der hohen fiskalischen Kosten (43 Mrd. DM im Jahr 2001) fehlt bisher eine umfassende Evaluation der Wirkungen der AAMP unter Berücksichtigung der Kosten. Die Arbeit stellt die grundlegenden methodischen Probleme einer aussagekräftigen Evaluation dar. Die mikroökonomische Evaluation untersucht, ob die Teilnahme an einem arbeitsmarktpolitischen Programm zu einem Erfolg im Hinblick auf individuelle Zielgrößen wie Beschäftigung oder Verdienst führt.
In dieser Studie werden die Wirkungen von Arbeitsbeschaffungsmaßnahmen (ABM) in Deutschland auf die individuellen Eingliederungswahrscheinlichkeiten der Teilnehmer in reguläre Beschäftigung evaluiert. Für die Untersuchung wird ein umfangreicher und informativer Datensatz aus den Datenquellen der Bundesagentur für Arbeit (BA) verwendet, der es ermöglicht, die Wirkungen der Programme differenziert nach individuellen Unterschieden der Teilnehmer und mit Berücksichtigung der heterogenen Arbeitsmarktstruktur zu untersuchen. Der Datensatz enthält Informationen zu allen Teilnehmern in ABM, die ihre Maßnahmen im Februar 2000 begonnen haben, und zu einer Kontrollgruppe von Nichtteilnehmern, die im Januar 2000 arbeitslos waren und im Februar 2000 nicht in die Programme eingetreten sind. Mit Hilfe der Informationen der Beschäftigtenstatistik ist es hierbei erstmals möglich, den Abgang in reguläre Beschäftigung auf Grundlage administrativer Daten zu untersuchen. Der vorliegende Verbleibszeitraum reicht bis Dezember 2002. Unter Verwendung von Matching-Methoden auf dem Ansatz potenzieller Ergebnisse werden die Effekte von ABM mit regionaler Unterscheidung und für besondere Problem- und Zielgruppen des Arbeitsmarktes geschätzt. Die Ergebnisse zeigen zwar deutliche Unterschiede in den Effekten für Subgruppen, insgesamt weisen die empirischen Befunde jedoch darauf hin, dass das Ziel der Eingliederung in reguläre ungeförderte Beschäftigung durch ABM weitgehend nicht realisiert werden konnte. JEL: C40 , C13 , J64 , H43 , J68
Internationale Verkehrsflughäfen sind Einrichtungen, die eine zentrale ökonomische Bedeutung für das regionale Umfeld haben. Zusätzlich zu ihrer eigentlichen Funktion als Anbieter von Flugverkehrsleistungen werden Güter und Dienstleistungen angeboten, die in unterschiedlich starkem Ausmaß an die Verkehrsfunktion gekoppelt sind. Neben der Flughafengesellschaft und den Flugverkehrsgesellschaften tragen beispielsweise gastronomische Einrichtungen, Groß- und Einzelhändler, Luftfrachtspeditionen, Expressdienste, Reiseveranstalter, Flugsicherung, Zoll, Catering-Unternehmen zu den ökonomischen Aktivitäten des Flughafens bei. Die Palette der verkehrsbezogenen Aktivitäten am Flughafen reicht von der Betreuung der Passagiere über Reparatur- und Wartungsarbeiten für die Fluggesellschaften bis hin zur Abwicklung des Frachtverkehrs. ...
Die soziale Dimension des europäischen Einigungsprozesses steht derzeit, nicht zuletzt wegen der geplanten Währungsunion im Rahmen der Europäischen Union, im Brennpunkt einer kontroversen Diskussion.Im Rahmen dieses Beitrags sollen Probleme der sozialen Sicherungsysteme erörtert werden, die sich explizit aus dem Verlauf des Integrationsprozesses ergeben könnten. Es wird zunächst ein knapper Überblick über die seit Gründung der Europäischen Gemeinschaften erfolgten Maßnahmen im Bereich der Sozialpolitik gegeben. Daran schließt sich eine Typologisierung der sozialen Sicherungssysteme in den Mitgliedstaaten an und eine zusammenfassende Darstellung der beiden grundlegenden ordnungspolitischen Konzeptionen für den europäischen Integrationsprozeß, des Wettbewerbskonzeptes einerseits und des Harmonisierungskonzeptes andereseits, an. Während das Wettbewerbskonzept von vielen, meist eher neoliberal orientierten Ökonomen als das prinzipiell überlegenere ordnungspolitische Paradigma angesehen wird, mehren sich die kritischen Stimmen, die das Wettbewerbskonzept zwar nicht unbedingt prinzipiell ablehnen, jedoch auf Schwächen einer zu starr an der neoliberalen Interpretation des Wettbewerbskonzeptes orientierten Umsetzung hinweisen. Im Bereich der Sozialpolitik wird vor allem von Seiten der Gewerkschaften vor einem „Sozialdumping“ gewarnt. Eine weitere Ineffizienz des Wettbewerbskonzeptes, wird in der Möglichkeit eines sog. „race to the bottom“ gesehen, dem bei einer Anwendung des Subsidiaritätsprinzips drohenden, ruinösen Wettbewerb der europäischen Sozialstaaten. Die theoretische und empirische Relevanz der Thesen vom „Sozialdumping“ und des „race to the bottom“ wird diskutiert. Abschließend wird ein Ausblick auf die künftige Entwicklung gewagt und es werden Lösungskonzepte für die befürchteten Fehlentwicklungen erörtert.
Der internen Unternehmensrechnung werden im allgemeinen zwei Funktionen zugeschrieben (Ewert/Wagenhofer (1997), S. 6): Sie soll einerseits Informationen für Planungszwecke bereitstellen, andererseits der Verhaltenssteuerung von Entscheidungsträgern in hierarchischen, dezentralen Organisationen dienen. In der jüngeren Vergangenheit ist die Verhaltenssteuerungsfunktion zunehmend in das Blickfeld theoretischer und praktischer Überlegungen gerückt. Gleichzeitig läßt sich eine verstärkte Marktwertorientierung deutscher Unternehmen in der Unternehmenspolitik wie auch in der internen Unternehmensrechnung beobachten. Die betriebswirtschaftliche Literatur hat darauf mit einer wachsenden Zahl von Beiträgen reagiert, die die Marktwertorientierung der internen Unternehmensrechnung vor dem Hintergrund ihrer Verhaltenssteuerungsfunktion diskutieren.1) Das Interesse dieses Beitrags gilt der Rolle der Periodenerfolgsrechnung als Teil der internen Unternehmensrechnung bei der marktwertorientierten Steuerung von Investitionsentscheidungen über Periodenerfolgsbeteiligungen. Zentrale Bedeutung kommt hierbei dem Residualgewinnkonzept aufgrund seiner Kompatibilität mit dem Marktwertkriterium (vgl. Abschnitt 5.1) zu. Dieses Konzept hat in der Praxis unter dem Namen Economic Value Added zunehmend an Popularität - insbesondere auch als Grundlage für Erfolgsbeteiligungen (vgl. z.B. Stewart (1991), Ehrbar (1998), O'Hanlon/Peasnell (1998) ) - gewonnen. Gezeigt werden soll, welche Vorteile die Periodisierung von Cash Flows im Rahmen einer Periodenerfolgsrechnung auf der Basis des Residualgewinnkonzepts gegenüber einer unbelassenen Cash Flow-Rechnung bei der Steuerung von Investitionsentscheidungen über finanzielle Anreizsysteme bietet. Betrachtet wird eine einfache bilaterale Principal-Agent-Beziehung: Eine delegierende Instanz (Prinzipal) beauftragt einen Entscheidungsträger (Agenten) mit Investitionsentscheidungen und versucht, dessen Investitionsverhalten über eine „Erfolgsbeteiligung“ in ihrem Sinne auf das Ziel der Maximierung des Barwertes aller Cash Flows gerichtet zu beeinflussen. Die Rolle des internen Rechnungswesens ist dabei auf die Bereitstellung der Bemessungsgrundlage für die Erfolgsbeteiligung beschränkt. Es wird gezeigt, daß die Periodisierung von Cash Flows und die Zugrundelegung periodisierter Größen bei der Investitionssteuerung zu besseren Lösungen des Steuerungsproblems des Prinzipals führt als eine reine Cash Flow- Beteiligung. ...
Seit zwanzig Jahren befaßt sich die Finanzmarktforschung einerseits mit Fragen der Bewertung und des Managements von Finanztiteln auf effizienten Kapitalmärkten und mit Fragen der Managementkontrolle auf unvollkommenen Märkten. Der folgende selektive Überblick konzentriert sich auf zentrale Aspekte der Theorie und Empirie der Managementkontrolle bei asymmetrischer Information. Ziel ist die Auseinandersetzung mit der unlängst vorgetragenen These zu den Mythen der Unternehmenskontrolle (Martin Hellwig 1997). Der aktuelle Überblick wird entwickelt vor dem Hintergrund der Gutenberg’schen Position eines eigenständigen Unternehmensinteresses, losgelöst von den Interessen der shareholder oder anderer stakeholder. Diese Position von Gutenberg verbindet sich im dritten Band der „Grundlagen der BWL: Die Finanzen“ von 1969 mit der Forderung nach Einhaltung eines sog. finanziellen Gleichgewichts. Erst in jüngster Zeit werden auch kapitalmarkttheoretisch fundierte Modelle entwickelt, die auch Raum bieten für eine Autonomie des Managements gegenüber dessen stakeholders.
Wir verwenden eine neue, auf der Burr-Verteilung basierende Spezifikation aus der Familie der Autoregressive Conditional Duration (ACD) Modelle zur ökonometrischen Analyse der Transaktionsintensitäten während der Börseneinführung (IPO) der Deutsche Telekom Aktie. In diesem Fallbeispiel wird die Leistungsfähigkeit des neu entwickelten Burr-ACD-Modells mit den Standardmodellen von Engle und Russell verglichen, die im Burr-ACD Modell als Spezialfälle enthalten sind. Wir diskutieren außerdem alternative Möglichkeiten, Intra- Tagessaisonalitäten der Handelsintensität in ACD Modellen zu berücksichtigen.
Joseph E. Stiglitz (1943 - )
(2000)
Am 24.11.1999 gibt Joseph E. Stiglitz seinen vorzeitigen Rücktritt als Chief Economist und Senior Vice President der Weltbank zum Jahresende bekannt. Er will sich wieder ausschließlich der Forschung und Lehre widmen und kehrt auf seinen Lehrstuhl am Economics Department der Stanford University zurück. Stiglitzs Rückzug aus der aktiven Entwicklungspolitik erfolgt nicht ganz freiwillig. Er selbst kommentiert seinen Entschluß: „It has become obvious to me that it would be difficult to continue to speak out as forcefully and publicly as I have on a variety of issues and still remain as chief economist. Rather than muzzle myself, or be muzzled, I decided to leave.“ (New York Times, 1.12.1999). Seit geraumer Zeit galt seine öffentliche Kritik am Washington Consensus, dem ökonomischen Glaubensbekenntnis, auf das sich die politische Linie des US Treasury genauso stützt wie die Stabilisierungs- und Reformpolitik des IWF, als Dorn im Auge der Vertreter dieser Institutionen. Für sie war Stiglitz - so die Metapher der Financial Times vom 26.11.99 - „a veritable gadfly“, eine wahre Viehbremse, deren lästiges Summen aufgrund von Position und Intellekt nicht einfach ignoriert werden konnte. ...
Entwicklungsfinanzierung
(2000)
Auch sechs Jahre nach Einführung der Vorschriften zur Ad-hoc-Publizität nach § 15 WpHG besteht bei den Unternehmen weiterhin große Unsicherheit bezüglich ihrer ordnungsmäßigen Umsetzung. Dies gilt insbesondere für die Behandlung von ad-hoc-meldepflichtigen Sachverhalten, die sich aus der Regelberichterstattung ergeben. Der vorliegende Beitrag entwickelt hierzu Lösungsansätze im Sinne einer kapitalmarktorientierten Unternehmenspublizität.
Vorgestellt wird eine empirische Studie, welche den Zusammenhang zwischen Rendite und Risiko für ein Sample deutscher Versicherungsaktien im Zeitraum 1975-1998 untersucht. Als Methode wurde ein Multifaktorenmodell mit makroökonomischen Faktoren verwendet. Je nach Untersuchungszeitraum beläuft sich der Anteil der erklärten Varianz auf 9,29% bis 13,62%. Es konnte eine signifikanter negativer Einfluß zwischen der Veränderung des allgemeinen Zinsniveaus und den Risikoprämien von Versicherungsaktien identifiziert werden. Weiterhin ist Wechselkurses der DM zum US-Dollar signifikant.
Im Mittelpunkt dieses Beitrag stehen Verweildauermodelle und deren Verwendung als Analyseinstrumente für die Bewertung und Berechnung von Kreditausfallrisiken. Verschiedene Möglichkeiten zur Berechnung der Dauer des Nichtausfalls eines Kredites werden dabei vorgestellt. Die hier vorgestellten Verfahren werden auf einen aus Kreditakten von sechs deutschen Universalbanken zusammengestellten Datensatz angewendet. Beispiele und Interpretationshilfen zu den jeweils vorgestellten Methoden erleichtern den Zugang zu diesen Modellen. Es werden zahlreiche Hinweise auf weiterführende Literatur gegeben.
In den 1980er und den frühen 1990er Jahren waren japanische Banken die weltweit größten Finanzinstitute und galten als Inbegriff „globaler“ Banken. Der Crash der japanischen Wertpapier- und Immobilienmärkte Anfang der 1990er Jahre und die nachfolgende Rezession waren Anlass zu tiefgreifenden Reformen im japanischen Finanzsystem. Die japanischen Banken waren gezwungen, ihre internationalen Strategien zu reformulieren. Als Konsequenz zogen sie sich aus vielen Märkten zurück und strukturierten ihre internationalen Netzwerke um. Vor dem Hintergrund theoretischer Überlegungen zu der Bedeutung von „Globalität“ und einer empirischen Untersuchung der Entwicklung der Auslandsstellennetze japanischer Banken in den 1980er und 1990er Jahren stellt der vorliegende Beitrag die Globalität japanischer Banken in Frage.
Ja, der Ablauf der Lock-up-Frist ist ein kursrelevantes Ereignis. Wir untersuchen Kursreaktionen auf das Ende der Lock-up-Frist bei 142 Unternehmen des Neuen Marktes. Da der Ablauf der Sperrfrist bereits zum Zeitpunkt des Börsengangs bekannt ist, erwarten wir bei einem (semi-)informationseffizienten Kapitalmarkt durchschnittlich keine Kursreaktion. Im Rahmen einer Ereignisstudie zeigen wir aber, dass sich am Ende der Sperrfrist signifikant negative Überrenditen ergeben. Durch eine differenzierte Analyse stellen wir fest, dass firmenspezifische Faktoren (Volatilität, Performance, Free Float) die Kursreaktionen am Ende der Lock-up-Periode beeinflussen. Die Befunde unserer Untersuchung belegen die Notwendigkeit klarer Regeln für mehr Transparenz nach dem Börsengang. Bedeutsam sind die vorliegenden Ergebnisse vor allem vor dem Hintergrund der aktuellen Diskussion um eine Erweiterung der insiderrechtlichen Meldepflichen im Rahmen des 4. Finanzmarktförderungsgesetzes. This paper explores the materiality of expirations of lock-up provisions that prevent insiders from selling their shares after the initial public offering (IPO). We examine 172 lock-up agreements of 142 IPOs floated on Germany’s New Market. Since the date of the lock-up expiration is common knowledge at the IPO, we would not expect to find abnormal returns surrounding the event day, assuming that markets are informationally efficient. However, using an event-study methodology we detect statistically significant negative abnormal returns and a twenty-five percent increase in trading volume surrounding lock-up expiration. The negative abnormal returns are larger for firms with high volatility, superior performance after the IPO, and low free float. The results of our study raise important regulatory issues with respect to disclosure rules of firms going public. We argue that insiders should be legally required to disclose their sell transactions in order to protect new and less informed shareholders.
Versicherungsunternehmen haben bei der Auswahl ihrer Vermögensanlagen die gesetzlichen Restriktionen des Versicherungsaufsichtsgesetzes einzuhalten. Neben einer strukturierten Darstellung der zahlreichen Regulierungstatbestände werden aus Sicht der Finanzierungstheorie sowie den empirischen Verhältnissen an den Kapitalmärkten die im VAG enthaltenen Rahmenbedingungen einer kritischen Bewertung unterzogen.
To resolve the IPO underpricing puzzle it is essential to analyze who knows what when during the issuing process. In Germany, broker-dealers make a market in IPOs during the subscription period. We examine these pre-issue prices and find that they are highly informative. They are closer to the first price subsequently established on the exchange than both the midpoint of the bookbuilding range and the offer price. The pre-issue prices explain a large part of the underpricing left unexplained by other variables. The results imply that information asymmetries are much lower than the observed variance of underpricing suggests.
Untersuchungsgegenstand ist der empirische Gehalt der ökonomischen Theorie eines Hedgings auf Unternehmensebene. In den USA wurde die Hedging-Theorie in einer Reihe von empirischen Studien aufgegriffen. Die Befunde sind zumeist konsistent mit dem Erklärungsansatz von Froot/Scharfstein/Stein (1993), wonach eine Verringerung der Cashflow-Volatilität – unter der Annahme steigender Außenfinanzierungskosten – zu einer Reduzierung von Unterinvestitionskosten führt. Bei deutschen Unternehmen besitzt dieser Ansatz bemerkenswerterweise jedoch nur einen geringen Erklärungsgehalt. Die Ergebnisunterschiede können auf unterschiedliche Kapitalmarktverhältnisse zurückgeführt werden: Die unterstellten steigenden Kosten der Außenfinanzierung besitzen für deutsche Unternehmen aufgrund der Dominanz des Bezugsrechtsverfahrens sowie der Rolle der Hausbank als Mechanismus zur Überwindung von Informationsproblemen eine vergleichsweise geringere Bedeutung. Die Managerinteressen erweisen sich bei deutschen Unternehmen als eine wesentliche Hedging-Determinante. Zwischen der Höhe des gebundenen Managervermögens und der Hedging-Wahrscheinlichkeit besteht entsprechend der Hedging-Theorie ein signifikanter positiver Zusammenhang. Entgegen den amerikanischen Befunden kann jedoch eine disziplinierende Wirkung von Großaktionären auf die Hedging-Entscheidung nicht beobachtet werden. Zur Berücksichtigung der spezifischen deutschen Kapitalmarktverhältnisse wird der Einfluss von Bankenbeteiligungen und Familienunternehmen auf die Hedging-Entscheidung untersucht. Ein Bankeneinfluss auf die Derivateeinsatz-Entscheidung kann jedoch nicht festgestellt werden. Entgegen Diversifikations- und Kapitalmarktüberlegungen besteht bei Familienunternehmen interessanterweise eine signifikant geringere Hedging-Wahrscheinlichkeit.
Wenn man untersuchen möchte, ob sich die Finanzsysteme verschiedener Länder im Verlauf der letzten Jahre aneinander angeglichen haben oder demnächst angleichen werden, braucht man ein Konzept zur Beschreibung von Finanzsystemen, durch das wesentliche Strukturen, deren Unterschiede und Veränderungen erkennbar werden, ohne dabei in "Systemgeschwafel" (D. Schneider) abzugleiten. Wir haben dafür das Konzept der Komplementarität als nützlich identifiziert. Der Beitrag stellt dieses Konzept vor und soll und seine Eignung belegen. Letztlich geht es dabei auch um die Frage, ob reale Finanzsysteme konsistente Systeme mit komplementären Elementen darstellen. Nach der Vorstellung der formalen Konzepte der Komplementarität und der Konsistenz wird "das Finanzsystem" auf seine Komple mentarität untersucht. Dazu wird ein Finanzsystem aus der Sicht von Unternehmen des nichtfinanziellen Sektors als ein System gekennzeichnet, das aus drei Teilsystemen besteht. Das erste Teilsystem ist das Finanzierungssystem einschließlich Finanzsektor und Mustern der Unternehmensfinanzierung, das zweite das Corporate Governance-System und das dritte das Unternehmens-Strategie-System. Für alle drei Teilsysteme wird – allgemein und mit Bezug auf die Finanzsysteme Deutschlands, Japans und der USA - gezeigt, inwieweit die Elemente der betreffenden Teilsysteme untereinander komplementär sind, und geprüft, ob sie in ihren Ausprägungen auch konsistent sind, d.h. wirklich "zueinander passen". Untersucht wird auch die Komplementarität und Konsistenz zwischen den Teilsystemen selbst. Der Beitrag endet mit Überlegungen über die Anwendung des Komplementaritätskonzepts. Dass ein Finanzsystem die Eigenschaft der Komplementarität aufweist, hat nicht nur weitreichende Implikationen für die Methodik der Analyse von Finanzsystemen, sondern auch für die Vorhersehbarkeit der Entwicklung von Finanzsystemen und damit für die Wahrscheinlichkeit einer Konvergenz von Finanzsystemen, für deren Effizienzeigenschaften und für die Möglichkeiten, Finanzsysteme durch gestaltende Eingriffe zu verbessern.
In der heutigen Theorie der Optionsbewertung wird davon ausgegangen, daß die Markterwartungen genau berechenbar sind. Die Unsicherheit besteht lediglich darin, welcher Aktienkurs sich letztlich realisiert, die Eintrittswahrscheinlichkeiten sind bekannt. Dabei treten jedoch erhebliche Probleme auf, denn theoretisch erwartete Preise entsprechen oft nicht den am Markt beobachteten. Ziel dieser Arbeit ist es, zu untersuchen, ob auch dann eine Optionsbewertung möglich ist, wenn die Unsicherheit nicht nur auf die Stochastik reduziert wird, sondern wenn zusätzlich angenommen wird, daß Marktteilnehmer nur unscharfes Wissen über künftige Preisentwicklungen haben. Hierbei dient die Fuzzy Set Theorie zur Modellierung der nur größenordnungsmäßig bekannten künftigen Aktienkurse. Es wird in dieser Arbeit zwischen der Optionspreistheorie und der Fuzzy Set Theorie eine Verbindung geschaffen, die es zukünftig erlauben wird, die Unsicherheit im Markt besser zu modellieren, als dies mit heute dominierenden Methoden der Optionsbewertung möglich ist.
Nationale rechtliche Rahmenbedingungen beeinflussen die Möglichkeiten für wirtschaftliche Aktivitäten multinationaler Unternehmen (MNU) in einem Gastland und der Koordination zwischen den Unternehmensteilen in verschiedenen Ländern. Sie sind damit wichtige Bestimmungsfaktoren für Standortentscheidungen von MNU. Die Bedeutung von Recht und Standortwahl unterscheidet sich aber je nach verfolgter MNUStrategie. Seit etwa 10 Jahren verändern MNU ihre strategische Ausrichtung. Gleichzeitig gab es wesentliche Fortschritte bei der Forschung über Geschäftsfeld- und Gesamt-unternehmensstrategien von MNU. Aufbauend auf diesen beiden Entwicklungen wird in diesem Aufsatz die These vertreten, daß heute - im Zeitalter integrierter MNU-Strategien - Einfachheit, Flexibilität und Verläßlichkeit des relevanten nationalen Rechts in einem Land und seine Ähnlichkeiten mit dem Recht anderer Länder eine zentrale Bedeutung erlangt haben. Dies stellt einen wesentlichen Unterschied zu einer – allerdings noch nicht gänzlich überwundenen – Situation dar, in der MNU mehr an einer rechtlichen Situation interessiert sind, die ihnen eine maximale Anpassung an die jeweiligen lokalen Umstände der einzelnen Gastländer erlaubt, worin der Kern von ”multi-domestic” MNU-Strategien besteht. Die Veränderung von MNU-Strategien bietet auch eine Erklärung für die in jüngster Zeit zu beobachtende Veränderung der Lobbyingaktivitäten von MNU bezüglich der rechtlichen Rahmenbedingungen in ihren jeweiligen Gastländern.