Working Paper
Refine
Year of publication
Document Type
- Working Paper (191) (remove)
Language
- German (191) (remove)
Has Fulltext
- yes (191)
Is part of the Bibliography
- no (191)
Keywords
- Deutschland (37)
- Corporate Governance (11)
- Einkommensverteilung (7)
- Schätzung (7)
- Bankenunion (6)
- Börsenkurs (6)
- Regulierung (6)
- Geldpolitik (5)
- Anreizsystem (4)
- Arbeitsmarktpolitik (4)
Institute
- Wirtschaftswissenschaften (191) (remove)
Die Untersuchungen auf der Basis der Einkommens- und Verbrauchs stichproben haben ergeben, daß sich hinter der für die "alte" Bundesrepublik festgestellten weitgehenden Stabilität der Verteilung der Nettoäquivalenzeinkommen deutliche Veränderungen auf den vorgelagerten Stufen des Verteilungsprozesses verbergen. Bei den individuellen Erwerbseinkommen sowie bei den individuellen Faktoreinkommen (nur Bezieher) sind zwischen 1973 und 1988 die hier einbezogenen aggregierten Ungleichheitsmaße zwar kaum gestiegen; Kernel Density-Schätzungen zeigen aber einen leichten Polarisierungstrend der bimodalen Verteilung, da die Dichte in den Randbereichen der Verteilung zugenommen hat und das Dichtetal zwischen den beiden Gipfeln sich gesenkt hat. Unter Berücksichtigung des Haushaltszusammenhangs - durch Zusammenfassung individueller Faktoreinkommen auf Haushaltsebene und Gewichtung mit einer Äquivalenzskala - erweisen sich die Verteilungsänderungen als noch gravierender. Die aggregierten Ungleichheitsmaße sind stark gestiegen, und das Verhältnis der beiden Modi der zweigipfligen Verteilung hat sich umgekehrt: lag 1973 der erste Gipfel im Bereich der geringfügigen Faktoräquivalenzeinkommen noch deutlich unter dem zweiten, knapp unterhalb des Durchschnitts gelegenen Gipfel, so war 1988 der erste Gipfel deutlich höher als der zweite. Die relative Häufigkeit marginaler Faktoräquivalenzeinkommen hat im Zeitablauf also eindeutig zugenommen, ebenso wie die im oberen Einkommensbereich. Dennoch kann man von Polarisierung nur in einem weiteren Sinn sprechen, da das Dichtetal zwischen den Modi 1988 höher als 1973 liegt. Es mag beruhigend wirken, daß - zumindest in der Zeit vor der Wiedervereinigung - das Abgaben- und Transfersystem die zunehmende Disparität der Faktoreinkommensverteilung insoweit kompensieren konnte, als die relative Häufigkeit des Niedrigeinkommensbereichs - hier abgegrenzt mit 50% des durchschnittlichen Nettoäquivalenzeinkommens - vergleichsweise mäßig zugenommen hat. Dieser Eindruck ist allerdings im Hinblick auf die eingangs erwähnten Einschränkungen der Datenbasis zu relativieren. Die unzureichende Erfassung des oberen und des unteren Randbereichs der Einkommensverteilung läßt vermuten, daß der tatsächliche Trend zunehmender Ungleichheit und Polarisierung durch unsere Analysen unterschätzt wird.
Aus dem weiten Spektrum ökonomisch relevanter Fragen, die die europäische Integration und das Gesellschaftsrecht verbinden, soll hier diejenige herausgegriffen werden, ob sich die nationalen Corporate-Governance-Systeme in den großen europäischen Volkswirtschaften Deutschlands, Frankreichs und Großbritanniens unter dem Einfluß der europäischen Integration bereits aneinander angeglichen haben und ob es demnächst zu einer solchen Angleichung kommen wird. Unser Thema deckt nur einen Teil des Gesellschaftsrechts ab und geht zugleich hinsichtlich der angesprochenen rechtlichen Materie über das Gesellschaftsrecht hinaus, denn die Corporate Governance fügt sich nicht einfach in herkömmliche juristische Klassifikationen ein. Unser Vorhaben unterscheidet sich aber vor allem dadurch von einer juristischen Behandlung des Themas, daß primär ökonomische Mechanismen und Zusammenhänge angesprochen werden. Ökonomen betrachten die Corporate Governance im weiteren Kontext des Finanzsystems, denn das Corporate-Governance-System ist ein Teil des Finanzsystems eines Landes. Die Fragen, wie unterschiedlich die nationalen Systeme der Corporate Governance waren, ehe zu Beginn der 80er Jahre der Prozeß der Angleichung in Europa einsetzte, wie unterschiedlich sie heute noch sind, wie sehr sie sich somit bereits angeglichen haben und wie ein möglicher Angleichungsprozeß weitergehen könnte, sind deshalb ein Teil der weiteren Frage nach der Angleichung der Finanzsysteme in Europa. In diesem Beitrag konzentrieren wir uns aber nur auf Entwicklungen der 90er Jahre.
Performance fees for portfolio managers are designed to align the managers' goals with those of the investors and to motivate managers to aquire "superior" information and to make better investment decisions. A part of the literature analyzes performance fees on the basis of market valuation. In this article it is shown that market valuation faces a dilemma: on the one hand, the conditions which allow for market valuation imply that the portfolio manager perfectly hedges the performance fee. This in turn implies severe restrictions on the incentive effects of the performance fee. In particular, the fee does not motivate the manager to use superior information for investment decisions concerning the managed portfolio. On the other hand, better incentives can only be generated under conditions which exclude market valuation. In this case, the analysis has to be based on expected utility valuation. Keywords: performance fees, portfolio managers, "superior" information, market valuation, incentive effects
Die neoklassische Arbitragetheorie setzt voraus, daß alle Marktteilnehmer identische Erwartungen bezüglich der künftigen zustandsabhängigen Auszahlungen von risikobehafteten Wertpapieren bilden. Die Unsicherheit besteht dann im Eintritt des Zustandes selber, jedoch nicht in dessen Ausprägung.
In diesem Artikel wird untersucht, wie eine zusätzliche Unsicherheit in Form des Unwissens über die genaue Ausprägung eines Umweltzustandes modelliert werden kann. Dazu werden die klassischen Finanzwirtschaftstheorien mit der Fuzzy Set Theorie (Theorie unscharfer Mengen) verbunden.
Ziel ist es, sowohl eine einperiodige als auch eine mehrperiodige Arbitragebewertung so zu modifizieren, daß vage Erwartungen der Marktteilnehmer unterstellt werden können.
Sozialpolitische Auseinandersetzungen kursieren gegenwärtig verschärft um die Gestaltung der Sicherung des sozio-kulturellen Existenzminimums, um eine angebliche "Kostenexplosion" bei der Grundsicherung für Arbeitsuchende und um Vermutungen über verbreiteten Leistungsmissbrauch. Der Blick ist also stark auf die staatlicherseits auf Basis des Sozialgesetzbuches (SGB) über Transfers "zu bekämpfende" und "bekämpfte" Armut gerichtet. Vor diesem Hintergrund sollen die auf relative Grenzen – 50% des arithmetischen Mittels oder 60% des Medians der Nettoäquivalenzeinkommen – bezogenen Studien über Armut in Deutschland um eine Armutsanalyse ergänzt werden, die den Einkommensbereich unterhalb des gesetzlichen Existenzminimums in den Fokus nimmt. In der folgenden Untersuchung geht es nicht nur um die Größe der edürftigenBevölkerungsgruppe insgesamt, sondern darüber hinaus um die Bedeutung von Ursachen der Hilfebedürftigkeit – Arbeitslosigkeit, Teilzeiterwerbstätigkeit, niedriges Erwerbseinkommen, Alter –, um geschlechtsspezifische Unterschiede und um die Betroffenheit von Kindern. Hier fehlt es bisher an zeitnahen empirischen Informationen. Daten über die Zahl und Struktur der Empfänger von Grundsicherungsleistungen – also von Arbeitslosengeld II (Alg II) bzw. Sozialgeld, Grundsicherung im Alter und bei Erwerbsminderung oder Hilfe zum Lebensunterhalt (HLu) der Sozialhilfe – vermitteln nur die "halbe Wahrheit". ...
Das Financial Stability Board (FSB) schlägt zur Lösung des "too big to fail"-Problems einen neuen Risikokapital-Puffer für global tätige systemrelevante Banken vor. Die Kennzahl „Total Loss Absorbing Capacity“ (TLAC), setzt sich zusammen aus hartem Kernkapital und verlustabsorbierendem Fremdkapital. Das verlustabsorbierende, also bail-in-fähige Fremdkapital soll vor anderen Positionen der Passivseite einer Bank in einer Krisensituation vorrangig haften oder aber in Eigenkapital umgewandelt werden. Jan Krahnen argumentiert, dass es für eine glaubhafte Verringerung des "too big to fail"-Problems auf die Anforderungen an das verlustabsorbierende Fremdkapital ankommt. Dass die Aufsicht die Halter von Bail-in Anleihen im Verlustfall tatsächlich einem Bail-in unterzieht ist vor allem nur dann glaubwürdig, wennn andere Banken nicht die Halter solcher Anleihen sind.
Es gibt Überlegungen, Kreditinstituten den Besitz der Anteilsmehrheit an Kapitalanlagegesellschaften (KAGs) zu untersagen. Dahinter steht die Vorstellung, daß solche Beteiligungen Gestaltungsspielräume eröffnen, die mißbräuchlich genutzt werden. Die Neuemission von Aktien ist einer der Fälle, die in diesem Zusammenhang erörtert werden. Ziel dieser Arbeit ist es zu prüfen, ob die zum Konzernverbund einer konsortialführenden Bank gehörenden KAGs bei Erstemissionen anders behandelt werden als andere KAGs.
Untersucht werden 46 Neuemissionen der Jahre 1994 bis 1997. Insgesamt deuten die Ergebnisse darauf hin, daß die KAGs in ihren Anlageentscheidungen unabhängig sind, und daß keine mißbräuchliche Nutzung eventuell vorhandener Informationsvorsprünge vorliegt.
Zusammenfassung und Schlussfolgerungen Die verschiedenen Alternativrechnungen zur Bemessung des Eckregelsatzes auf Basis der Daten der EVS 2003 und der normativen Setzungen der derzeit gültigen Regelsatzverordnung (RSV) haben zu Beträgen leicht über (Variante 1b) bis mäßig unter (Variante 4b) dem gegenwärtigen Satz von 345 Euro geführt. Da sich aus einer kritischen Betrachtung der grundlegenden Vorentscheidungen, auf denen die RSV aufbaut, einige fragwürdige bzw. nicht konsistente Einzelregelungen ergeben haben, erscheint das seit 2005 gültige Niveau des gesetzlich anerkannten Existenzminimums als tendenziell zu gering, zumal der Eckregelsatz auch für den Leistungsanspruch von Familien mit Kindern maßgeblich ist. Darüber hinaus ist zu bedenken, dass die Herausnahme der Sozialhilfebezieher aus der Referenzgruppe gemäß RSV unter theoretischen Gesichtspunkten nicht hinreichend ist, um Zirkelschlüsse - vom Ausgabeverhalten der Hilfebedürftigen auf deren Existenzminimum - zu vermeiden. Denn nur etwa die Hälfte bis drei Fünftel der Bedürftigen nehmen ihre HLu-Ansprüche wahr, die weiteren Anspruchsberechtigten leben in verdeckter Armut. Die Referenzgruppe zur Ermittlung des sozio-kulturellen Existenzminimums müsste also auch um die so genannte Dunkelziffer der Armut (Personen in verdeckter Armut) bereinigt werden, was vermutlich zu einem leicht erhöhten (regelsatzrelevanten) Ausgabenniveau führen und Forderungen nach einer moderaten Anhebung des Eckregelsatzes unterstreichen würde. Abschließend soll der letztlich normative Charakter jeglicher Definition des Existenzmi-nimums nochmals verdeutlicht werden, aus dem die Notwendigkeit einer gesellschaftspoliti-schen Diskussion dessen, was ein menschenwürdiges Dasein und Chancengerechtigkeit - nicht nur im formalen, sondern im materiellen Sinne - ermöglicht, folgt. Dass mit dem so genannten Statistik-Modell der Regelsatzbemessung keineswegs Objektivität bzw. Wertur-teilsfreiheit, eher nur Überprüfbarkeit oder Nachvollziehbarkeit erreicht wird, haben die An-merkungen zu den regelsatzrelevanten Anteilssätzen einzelner Ausgabenpositionen in Kapitel 3.2 gezeigt. Wie stark der Einfluss normativer Vorentscheidungen auf das Niveau des sozio-kulturellen Existenzminimums ist, zeigt sich aber bereits in der Auswahl der Alleinstehenden als Referenzgruppe. Damit wird bei der Analyse des regelsatzrelevanten Ausgabeverhaltens auf eine Gruppe Bezug genommen, die überdurchschnittlich von relativer Einkommensarmut betroffen ist.13 Alternativ könnten auch die Paarhaushalte ohne Kinder mit ihrem vergleichs-weise geringen Armutsrisiko als Referenzgruppe definiert werden. Nach einer ersten Abschätzung ergibt sich für das unterste Quintil von Paaren ohne Kind ein regelsatzrelevanter Konsum in Höhe von gut 700 Euro; bei gegebenen Regelsatzproportionen folgt daraus ein Existenzminimum (ohne Kosten für Unterkunft und Heizung) von gut 390 Euro gegenüber derzeit 345 Euro bei Alleinstehenden und von etwa 1.130 Euro gegenüber 828 Euro bei Paa-ren mit einem Kind. Mit diesem Beispiel ist nicht die Empfehlung einer entsprechend starken Leistungsanhebung verbunden, sondern lediglich ein Hinweis darauf, dass das derzeitige Ver-fahren der Regelsatzbemessung restriktiv angelegt ist und mit aktuellen Daten eher eine Er-höhung als eine Absenkung des Niveaus des Existenzminimums begründet werden kann.
Vor dem Hintergrund allgemeiner Bedingungen der Anreizkompatibilität wird für verschiedenen Kapitalmarktmodelle untersucht, ob zwischen den Anteilseignern eines Unternehmens Einmütigkeit besteht und, wenn ja, mit welchem Unternehmensziel der finanzielle Nutzen der Anteilseigner maximiert wird. Von besonderer Bedeutung für die Anreizkompatibilität der üblichen linearen Erfolgsteilung ist die Bedingung pareto-effizienter Risikoteilung. Sind für den Erfolg des Unternehmens spezifische Störterme relevant und soll der Entscheidungsträger in relativ starkem Umfang am Erfolg beteiligt werden, ist die Risikoteilung zwischen ihm und den (anderen) Anteilseignern pareto-inferior. Anreizkompatible erfolgsorientierte Belohnungs- bzw. Prämienfunktionen für den Entscheidungsträger sind dann konvex und zustandsabhängig. Aktienoptionsprogramme können als Approximationen an solche Prämienfunktionen interpretiert werden.
In diesem Beitrag wird ein Vorschlag vorgestellt, wie es trotz langfristiger Niedrigzinsen möglich ist, die vor 18 Jahren eingeführte Riester-Rente so umzugestalten, dass alle Beteiligten davon profitieren. Wird die Mindestauszahlung am Ende der Vertragslaufzeit nur für die Eigenbeiträge, nicht aber für die staatlichen Zulagen garantiert, können deutlich höhere Renditen erzielt werden. Unter dem Strich haben dann nicht nur Privatleute mehr Geld aus ihrer Altersvorsorge, sondern der Staat wird mehr Steuern einnehmen und die Anbieter haben mehr Spielraum für bedarfsgerechte Produktgestaltung.
Diese Arbeit untersucht empirisch den Zusammenhang von Beschäftigung und Lohnstrukturen zwischen sowie innerhalb von Qualifikations- und Altersgruppen. Zunächst werden Substitutionselastizitäten zwischen Qualifikations- und Altersgruppen geschätzt und die Lohnveränderungen bestimmt, die notwendig gewesen wären, um im Jahre 1997 die qualifikationsspezifischen Arbeitslosenquoten zu halbieren. Die geschätzten Substitutionselastizitäten sind sehr hoch. Die notwendige Lohnreduktion liegt nominal zwischen 9% und 10,6% und fällt umso höher aus, je geringer die Qualifikation der Arbeitnehmergruppe ist. Der zweite Teil der Arbeit befasst sich mit dem Zusammenhang zwischen residualer Lohnungleichheit und Beschäftigungsdynamik. Es werden konkurrierende Implikationen aus der Theorie der Grenzproduktivitätsentlohnung und der Suchtheorie abgeleitet und empirisch untersucht. Die Ergebnisse sind für keine der beiden Theorien überzeugend. Das robuste Ergebnis einer signifikant positiven Korrelation zwischen dem Niveau der Arbeitslosenquote und der residualen Lohnungleichheit legt allerdings nahe, dass Suchfriktionen zur Erklärung der residualen Lohndispersion beitragen können. JEL - Klassifikation: J31 , J21 , E24 , J64
In den vergangenen Jahrzehnten wurden hohe Garantieverzinsungen in den Lebensversicherungsverträgen vereinbart. Dauert die herrschende Niedrigzinsphase noch einige Jahre an, wird es für einige Lebensversicherungsunternehmen schwierig werden, die gegebenen Langzeitgarantien über ihre Kapitalanlage zu erwirtschaften. Der Gesetzgeber sollte festlegen, dass Versicherungskunden nur an Bewertungsreserven beteiligt werden, die eine Höhe übersteigen, die zur Gewährleistung eines intergenerativen Risikoausgleichs notwendig ist. Weiterhin sollten Versicherungskunden nur an Bewertungsreserven beteiligt werden, die aus Kapitalanlagen entstehen, die nicht festverzinsliche Wertpapiere umfassen.
Die BaFin hat im August 2021 eine Richtlinie für nachhaltige Investmentvermögen vorgelegt. Diese soll regeln, unter welchen Voraussetzungen ein Fonds als „nachhaltig“, „grün“ o.ä. bezeichnet und vermarktet werden darf. Zwar sind aufsichtsrechtliche Maßnahmen, die darauf abzielen, die Qualität von Informationen zu Nachhaltigkeitscharakteristika von Finanzprodukten zu erhöhen, grundsätzlich zu begrüßen. Der Erlass der konsultierten Richtlinie ist jedoch nicht zu befürworten. Im Lichte der einschlägigen unionsrechtlichen Regelwerke und Initiativen ist unklar, welchen informationellen Mehrwert diese rein nationale Maßnahme schaffen soll. Ferner bleibt auf Grundlage des Entwurfs unklar, anhand welcher Maßstäbe die „Nachhaltigkeit“ eines Investmentvermögens beurteilt werden soll, sodass das primäre Regelungsziel einer verbesserten Anlegerinformation nicht erreicht würde.
Big data, data mining, machine learning und predictive analytics – ein konzeptioneller Überblick
(2019)
Mit der fortschreitenden Digitalisierung von Wirtschaft und Gesellschaft wächst die Bedeutung von Big Data Analytics, maschinellem Lernen und Künstlicher Intelligenz für die Analyse und Pognose ökonomischer Trends. Allerdings werden in wirtschaftspolitischen Diskussionen diese Begriffe häufig verwendet, ohne dass jeweils klar zwischen den einzelnen Methoden und Disziplinen differenziert würde. Daher soll nachfolgend ein konzeptioneller Überblick über die Gemeinsamkeiten, Unterschiede und Interdependenzen der vielfältigen Begrifflichkeiten im Bereich Data Science gegeben werden. Denn gerade für Entscheidungsträger aus Wirtschaft und Politik kann eine grundlegende Einordnung der Konzepte eine sachgerechte Diskussion über politische Weichenstellungen erleichtern.
Die sog. Business Judgment Rule wurde durch Art. 1 Nr. 1a des UMAG1 auf entsprechende Vorschläge im Schrifttum2 als neuer § 93 Abs. 1 Satz 2 in das Aktiengesetz eingefügt. Der Sache nach war sie bereits zuvor in Rechtsprechung3 und Lehre4 anerkannt. Nach gängigem Verständnis soll die Business Judgment Rule einen „sicheren Hafen“ bieten, der Organmitglieder davor schützt, dass unternehmerische Misserfolge auf der Grundlage nachträglicher besserer Erkenntnis als Sorgfaltspflichtverstöße sanktioniert werden. Nach ganz überwiegen-der Auffassung beschränkt sich die Bedeutung von § 93 Abs. 1 Satz 2 AktG nicht darauf, durch ausdrückliche Regelung von Elementen der Sorgfaltspflicht klarzustellen, dass das Gesetz mit dem strengen Sorgfaltsmaßstab des ordentlichen und gewissenhaften Geschäftslei-ters nicht etwa eine Erfolgshaftung statuiert. Die Business Judgment Rule wird vielmehr als Privilegierung gegenüber dem ansonsten geltenden Haftungsmaßstab des § 93 Abs. 1 Satz 1 AktG verstanden. Ausdrückliche Stellungnahmen zur Wirkungsweise dieses Privilegs reichen von der Annahme eines der richterlichen Nachprüfung entzogenen unternehmerischen Ermes-sensspielraums5 über die Einordnung als unwiderlegliche Vermutung objektiv rechtmäßigen Verhaltens6 bis hin zu der Annahme, dass im Anwendungsbereich der Business Judgment Rule eine Haftung gegenüber der Gesellschaft nur ab der Grenze der groben Fahrlässigkeit in Betracht komme.7 Aber auch die zahlreichen Stellungnahmen, die sich nicht ausdrücklich zur Frage der Haftungserleichterung äußern, setzen eine privilegierende Wirkung der Business Judgment Rule voraus. Anderenfalls hätten die eingehenden Überlegungen zur Abgrenzung unternehmerischer von anderen, insbesondere rechtlich gebundenen Entscheidungen, für die offenbar ein strengerer Sorgfalts- und Haftungsmaßstab gelten soll, keinerlei praktische Bedeutung.
1.Hinsichtlich der Haftung von Organmitgliedern gegenüber der Gesellschaft für Fehlein-schätzungen der Rechtslage gilt kein anderer Maßstab als hinsichtlich der Haftung für Fehler bei unternehmerischen Entscheidungen (dazu sogleich, II).
2.Die Business Judgment Rule des § 93 Abs. 1 Satz 2 AktG enthält kein Haftungsprivileg; insbesondere stellt sie Organmitglieder nicht grundsätzlich von der Haftung für grobe Fahr-lässigkeit frei. Sie konkretisiert vielmehr lediglich die Sorgfaltsanforderungen an einen or-dentlichen und gewissenhaften Geschäftsleiter und stellt klar, dass dessen Haftung nicht mit nachträglicher besserer Erkenntnis begründet werden kann. Aus diesem Grund ist es unbe-denklich, dass sich die Haftung für unternehmerische, rechtliche und sonstige Fehler nach einheitlichen Haftungsgrundsätzen richtet (dazu unten, III.).
Die Coronakrise und die Eindämmungspolitik der Nationalstaaten hat gravierende wirtschaftliche Folgen. Nicht alle EU-Mitgliedsstaaten sind in gleicher Weise gewappnet und manche werden derzeit heftiger von der Coronakrise getroffen als andere. Eine Möglichkeit, europäische Solidarität zu organisieren, ist die Ausgabe von Gemeinschaftsanleihen, so genannter Corona-Bonds. Dieser Beitrag diskutiert das Für und Wider der Corona-Bonds und ihrer Alternativen: Weder Gemeinschaftsanleihen noch eine Ausweitung des EZB-Engagements sollten das Mittel der Wahl sein. Wir plädieren vielmehr für direkte, auf europäischer Ebene koordinierte Transferzahlungen an bedürftige Mitgliedsstaaten.
Das Clearing von Euro-OTC-Derivaten post Brexit – eine Analyse der vorliegenden Kostenschätzungen
(2017)
Im Zusammenhang mit dem Brexit wird über die Kosten einer Relokation des Clearing des Euro-OTC-Derivate-Geschäftes auf ein EU-CCP diskutiert. Das vorliegende Papier zeigt, dass die bislang vorliegenden Kostenschätzungen, die von Kosten in Höhe von bis zu USD 100 Mrd. für einen Zeitraum von fünf Jahren ausgehen, viel zu hoch sind. Die erwarteten Kosten einer Relokation liegen vielmehr bei ca. USD 0,6 Mrd. p.a. bzw. ca. USD 3,2 Mrd. für eine Übergangsphase von fünf Jahren. Angesichts der hohen Bedeutung von systemrelevanten CCPs für die Stabilität der Eurozone sollten diese Kosten nicht entscheidungsrelevant für eine Relokation sein.
Die aktuelle Diskussion über eine Reform der gesetzlichen Rentenversicherung vermischt Fragen nach dem durchschnittlichen Rentenniveau mit Fragen der Umverteilung von Einkommen im Ruhestand zur Bekämpfung einer etwaigen Altersarmut. Dieser Beitrag kritisiert diesen Ansatz und befasst sich mit fünf Kernaussagen: (1) Die aktuell gültige Rentenformel darf unter keinen Umständen abgeschafft werden. (2) Das Renteneintrittsalter sollte an die durchschnittliche Restlebenserwartung nach dem Erreichen des 65. Lebensjahres gekoppelt werden. (3) Eine Integration der Flüchtlinge in den Arbeitsmarkt wird das Rentenniveau in den Jahren 2030 bis 2040 stützen. (4) Sollte trotz allem die Altersarmut steigen, so kann dem durch die Einführung einer Mindestrente begegnet werden. (5) Die private Altersvorsorge muss weiter gestützt werden.
Im Rahmen wertorientierter Unternehmensführung gewinnen Erfolgsbeteiligungen immer größere Verbreitung. Besonders populär ist das EVA-Bonussystem, das auf dem Erfolgskonzept "Economic Value Added" von STERN STEWART & Co. beruht. In der vorliegenden Arbeit wird gezeigt, daß dieses Bonussystem gegen die Bedingung der Anreizkompatibilität verstößt: Der Entscheidungsträger kann finanzielle Vorteile erzielen, indem er Investitionsentscheidungen trifft, die aus Sicht der Anteilseigner nachteilig sind. Insbesondere besteht die Tendenz zur Unterinvestition. Die Darstellungen beruhen auf der Annahme, daß nicht nur die Anteilseigner zukünftige Einkünfte (bzw. Überschüsse) mit einem risikoangepaßten Zinssatz diskontieren, sondern auch der Entscheidungsträger. Zunächst werden die theoretischen Grundlagen dargestellt. Wenn bei gegebener Risikoklasse der Entscheidungsträger erwartete Prämien mit dem Kalkulationszinsfuß k +D diskontiert und die Anteilseigner erwartete Überschüsse des Leistungsbereichs mit k diskontieren, besteht bei einem im Zeitablauf konstanten Prämiensatz f und Überschußbeteiligung nur dann Anreizkompatibilität, wenn D= 0 gilt. Für D> 0 besteht die Tendenz zur Unterinvestition. Sie ist um so größer, je höher D ist und je später die potentiellen Projektüberschüsse anfallen. Bei Beteiligung am Residualgewinn ergeben sich dieselben Anreizwirkungen wie bei Überschußbeteiligung, sofern die kalkulatorischen Zinsen mit dem risikolosen Zinssatz r ermittelt werden. Werden sie mit k ermittelt, so wird (für k>r ) im Vergleich zu einer Überschußbeteiligung die Tendenz zur Unterinvestition ausgelöst (sofern D= 0) oder verstärkt (sofern D> 0). Die Tendenz zur Unterinvestition ist jeweils um so gravierender, je später aktivierte Anschaffungsauszahlungen als Abschreibungen zu verrechnen sind und je höher der für die Ermittlung der kalkulatorischen Zinsen auf die (Rest-)Buchwerte maßgebliche Zinssatz k ist. Der Economic Value Added stellt eine Konkretisierung des Residualgewinns dar. Auch bei dem darauf aufbauenden (EVA-)Bonussystem besteht die Tendenz zu Fehlentscheidungen (insbesondere zur Unterinvestition). Sie resultiert vor allem aus der Ermittlung der kalkulatorischen Zinsen mit dem risikoangepaßten Zinssatz k, den geforderten "Bereinigungen" bei der Ermittlung des investierten Kapitals bzw. des Periodenerfolges und gegebenenfalls der Wahl der Erfolgsänderung gegenüber dem Vorjahr als Bemessungsgrundlage.
Die Distributed Ledger- bzw. Blockchain-Technologie führt zu einer zunehmenden Dezentralisierung von Finanzdienstleistungen („Decentralised Finance“), die weitgehend ohne die Einschaltung von Finanzintermediären angeboten werden können. Dazu trägt wesentlich die sog. „Tokenisierung“ von Vermögensgegenständen, Zahlungsmitteln und Rechten bei, die verschlüsselt als „Kryptowerte“ in verteilten Transaktionsregistern digital abgebildet werden können. Der vorliegende Beitrag erläutert die Grundlagen und Anwendungsfelder dezentraler Finanzdienstleistungen mit Kryptowerten, die mittelfristig die gesamte Architektur des Finanzsektors verändern könnten. Dieser Trend betrifft längst nicht nur die kontrovers diskutierten Zahlungsverkehrssysteme mit Kryptowährungen wie dem Bitcoin, sondern Handelsplattformen, Kapitalmärkte oder Unternehmensfinanzierungen. Es bildet sich ein rasch wachsendes Ökosystem aus Startups, Technologieunternehmen und etablierten Finanzdienstleistern, für das jedoch noch ein verlässlicher regulatorischer Rahmen fehlt. Die derzeit auf europäischer Ebene diskutierte Initiative „MiCA (Markets in Crypto Assets)“ geht in die richtige Richtung, sollte aber im Interesse der Wettbewerbsfähigkeit des europäischen Finanzsektors zeitnah umgesetzt werden.
Im Nachgang der Finanz- und Wirtschaftskrise beobachten wir derzeit sehr niedrige Renditen im „sicheren“ Anlagebereich auf dem Geldmarkt und für Staatsanleihen. Gleichzeitig sind Aktienkurse massiv gestiegen und zeichnen sich seit Beginn 2015 durch eine Seitwärtsbewegung aus. Die Ursachen für diese Entwicklung sind teilweise bekannt: Niedrige Zinssätze aufgrund einer expansiven Geldpolitik gepaart mit hoher Unsicherheit an den Märkten reduzieren die Auswahl attraktiver Kapitalanlagemöglichkeiten erheblich. Doch wie wird sich die langfristige Entwicklung gestalten, wenn oder falls die Wirkungen der jüngsten Finanz- und Wirtschaftskrise nachlassen? Gibt es einen langfristigen Trend? Spiegelt sich dieser Trend etwa bereits heute in den niedrigen Renditen wider?
Vor mehr als einem Jahrzehnt, also bereits einige Jahre vor der jüngsten Finanz- und Wirtschaftskrise, wurde wiederholt die sogenannte „Asset Market Meltdown“-Hypothese postuliert. Nach dieser Hypothese würden in den dreißiger Jahren dieses Jahrhunderts die Kapitalrenditen stark sinken, wenn die „Babyboomer“-Generation in den Ruhestand gehe und infolgedessen Kapital aus dem Wertpapiermarkt abziehe. Heute wird eine ähnliche Debatte unter dem Stichwort „säkulare Stagnation“ geführt. Danach bestehe die Gefahr, dass die nächsten Jahrzehnte durch niedrige Wachstumsraten geprägt sein und negative Realzinsen gar zur Normalität werden könnten. Dieser Beitrag geht der Frage nach, inwiefern die demographische Entwicklung für eine solche Stagnation verantwortlich ist.
Das Firmenkundensegment und die Präsenz auf den internationalen Märkten für gewerblichen Hypothekarkredit und der Finanzierung öffentlicher Haushalte gewinnen für die deutschen Hypothekenbanken bis zum Jahr 2007 erheblich an Bedeutung, so das Ergebnis eines Forschungsprojekts der Goethe-Universität Frankfurt. Die Immobilienfinanziers werden ihre Geschäftsbeziehungen zu Unternehmen in den nächsten fünf Jahren sowohl qualitativ als auch räumlich ausbauen. Real Estate Investment Banking und Expansion ins Ausland stehen auf der strategischen Agenda der Hypothekenbanken ganz oben.
Sowohl die Diversifikation als auch die Fokussierung von Unternehmensaktivitäten werden häufig mit der Maximierung des Unternehmenswertes begründet. Wir untersuchen die Auswirkungen auf den Aktienkurs für 184 Akquisitionen sowie 139 Desinvestitionen deutscher Konzerne im Zeitraum von 1996-2005. Unternehmensdiversifikationen üben, entgegen der oft geäußerten Kritik, keinen signifikant negativen Einfluss auf den Marktwert aus. Fokussierende Unternehmensakquisitionen hingegen sind mit einem signifikanten Wertaufschlag verbunden. Der Verkauf von Unternehmensteilen führt generell zu einer Marktwertsteigerung. Dabei führen Abspaltungen außerhalb des Kerngeschäfts zu einer – allerdings insignifikant – höheren Wertsteigerung als Desinvestitionen von Kerngeschäftsaktivitäten. Statt eines systematischen Diversifikationsabschlags finden wir somit einen „Fokussierungsaufschlag“ für den deutschen Markt.
Um den Teufelskreis sich wechselseitig verstärkender Banken- und Staatsschuldenkrisen zu durchbrechen, haben sich die europäischen Institutionen grundsätzlich dazu bekannt, eine Bankenunion zu schaffen. Der Dreh- und Angelpunkt der verfolgten Strategie liegt dabei darin, durch die Schaffung zentraler, d.h. supranationaler Auffangmechanismen die Ausfallrisiken von Banken und Staaten nachhaltig zu entkoppeln. Dabei ist zu beachten, dass gerade auch die einzelnen Elemente des institutionellen Reformpakets in ihrer Binnenstruktur so beschaffen sein müssen, dass vorhersehbare Ineffizienzen nicht dazu führen, dass Vorteile der Supranationalisierung aufgehoben oder gar in ihr Gegenteil verkehrt werden. Der vorliegende Beitrag diskutiert den Verordnungsentwurf der EU Kommission für einen Single Resolution Mechanism (SRM) vor dem Hintergrund dieser Forderung.
Thema dieses Beitrags ist zum einen eine kritische Würdigung des Flächentarifvertrages (FTV) im Hinblick auf seine Regelungsdichte und zum anderen die theoretische Analyse eines Elements des Flexibilisierungspotentials des FTV, namlich der Öffnungsklausel, unter Berücksichtigung der Insider-Outsider-Problematik. Im Ergebnis kommt dieser Beitrag zu dem Schluß, daß der FTV nicht überholt, wohl aber dringend und umfassend überholungsbedürftig ist. Wichtig erscheint eine differenzierende Betrachtung, denn nicht alle diskutierten Flexibilisierungsmaßnahmen führen notwendigerweise zu Beschäftigungsgewinnen. Die Regelungsdichte des FTV kommt unter anderem zum Tragen, wenn bisher tarifgebundene Unternehmen beispielsweise auf Grund einer überzogenen Lohnpolitik den FTV verlassen wollen. Sie müssen zunächst erhebliche Nachwirkungsfristen des FTV beachten, können aber häufig selbst als nicht (mehr) tarifgebundene Unternehmen keine Lohnabschlüsse mit ihrem Betriebsrat tätigen. Die Regelungsdichte wird zudem durch die Arbeitsgerichtsbarkeit verstärkt, beispielsweise durch das in diesem Beitrag kritisierte Urteil des Bundesarbeitsgerichts, welches unter bestimmten Voraussetzungen eine Verbandsklage als zulässig erklärt. Ein gründlich reformierter FTV, der einer erforderlichen Flexibilität auf der betrieblichen Ebene Rechnung trägt, weist eine Reihe von Vorteilen auf. Denn Lohnverhandlungen ausschließlich auf der betrieblichen Ebene führen dort zu teilweise beachtlichen Transaktionskosten, zwingen die Unternehmensleitung zur Offenlegung der Bücher (gegenüber dem Betriebsrat) und verstärken unter Umständen ein Insider-Outsider-Verhalten. Der Beitrag unternimmt im weiteren eine theoretische Analyse der Beschäftigungswirkungen des FTV und eines Haustarifvertrages (HTV) als mögliche Alternative. Das vorgeschlagene Modell integriert Insider-Outsider-Verhalten und die Möglichkeit einer Tariföffnungsklausel. Das Modell zeigt, daß aus theoretischer Sicht keine eindeutige Rangordnung zwischen HTV und FTV hinsichtlich ihrer Beschäftigungswirkungen besteht. Auch führt eine Tariföffnungsklausel nicht notwendigerweise zu höherer Beschäftigung, da die Gewerkschaften fur die Situationen mit günstigen Güternachfrageschocks einen vergleichsweise hohen Lohn anstreben. Angesichts der theoretisch unklaren Ergebnisse plädiert die Arbeit fur eine Reform des FTV anstelle eines drastischen Systemwechsels hin zu HTV.
Die Struktur der makroprudenziellen Politik in der Europäischen Union ist ausgesprochen komplex und für den außenstehenden Betrachter fast undurchdringlich geworden. Deshalb wurde mit den Titeln der drei Kapitel des vorliegenden Aufsatzes „Der Prozess“, „Das Schloss“ und „Das Urteil“ bewusst auf Werke von Franz Kafka angespielt. Während sich der erste Teil der Arbeit vor allem mit der Komplexität des funktionellen Transmissionsprozesses in der makroprudenziellen Politik beschäftigt, widmet sich das zweite Kapitel, also der „Schloss-Teil“, ihren institutionellen Verflechtungen. Und am Ende werden die Ausführungen in einem „Wert-Urteil“ zusammengefasst.
Die Europäische Zentral Bank hat am 6. Juni 2019 beschlossen, die Nullzinspolitik bis Mitte 2020 beizubehalten, obwohl mit dieser das Inflationsziel von 2% seit Jahren, in Japan seit Jahrzehnten, verfehlt wird. Nach dem Neo-Fisher-Effekt sollte, gegeben dieses Ziel, der Zins nicht gesenkt, sondern gehoben werden, weil die Inflationsrate der Differenz von Nominal- und langfristig stabilem Realzins entspricht. Zwar senken rasche Zinserhöhungen Nachfrage und Preise, aber daraus folgt nicht notwendig, dass niedrige Zinsen die Nachfrage anregen. Gemäß neueren Untersuchungen werden langsam durchgeführte Zinserhöhungen bei rationalen Erwartungen dagegen das Preisniveau heben. Der Aufsatz untersucht die begleitenden Verteilungswirkungen und stützt die These mit Überlegungen aus dem 19. Jahrhundert, wonach die gestiegenen Preise durch die Erhöhung der Zinskosten erklärt werden können.
Der Neue Markt soll wachstumsorientierten Unternehmen den Zugang zur Börse eröffnen. Die für dieses Marktsegment neu geschaffene Institution des Betreuers soll Vorbildcharakter für andere Marktsegmente haben. In der vorliegenden Arbeit werden Vor- und Nachteile des Betreuer-Konzeptes erarbeitet. Die daraus abgeleiteten Fragen werden empirisch untersucht. Dabei zeigt sich, daß der Neue Markt eine hohe Handelsintensität und niedrige Geld-BriefSpannen aufweist. Auch eine schriftliche Befragung der notierten Unternehmen ergab eine positive Einschätzung des neuen Marktsegments.
Überlegungen zur Profitabilität der Betreuer-Funktion deuten darauf hin, daß diese nicht an sich profitabel ist. Es findet offenbar eine Quersubventionierung aus Erträgen des Emissionsgeschäftes statt. Diese Abhängigkeit sollte berücksichtigt werden, wenn die Übertragung des Betreuerkonzepts auf andere Marktsegmente diskutiert wird.
Die durch das Zweite Corona-Steuerhilfegesetz erfolgte Ausweitung des Verlustrücktrags ist dem Grunde nach ein hochgradig geeignetes und insbesondere breitenwirksames Mittel zur Stützung der Konjunktur. Das vorliegende Policy White Paper legt dar, dass allerdings Art und Umfang der gewählten Ausweitung unzureichend sind. Hierzu analysieren die Verfasser, wie sich die Ausweitung auf Unternehmen unterschiedlicher Größe und Rechtsform auswirkt. Auf Basis dieser Analyse zei-gen sie sodann, dass gemessen an den verfolgten konjunkturpolitischen Zielen es geboten gewesen wäre und weiterhin geboten ist, den Verlustrücktrag auf die Gewerbesteuer zu erstrecken.
This paper provides new insights into the nature of loan securitization. We analyze the use of collateralized loan obligation (CLO) transactions by European banks from 1997 to 2004 andtry to identify the influence that various firm-specific and macroeconomic factors may have on an institution's securitization decision. We find that not only regulatory capital arbitrage under Basel I has been driving the market. Rather, our results suggest that loan securitization is an appropriate funding tool for banks with high risk and low liquidity. It may also have been used by commercial banks to indirectly access investment-bank activities and the associated gains.
Deutschland und Europa
(2018)
Otmar Issing erörtert die Reaktionen in Deutschland auf die Pläne des französischen Präsidenten Macron aus dessen viel beachteter Rede zur Zukunft Europas an der Pariser Sorbonne. Issing wertet das Ergebnis der Sondierungsgespräche zwischen CDU/CSU und SPD als Abschied von der Vorstellung einer auf Stabilität gerichteten europäischen Gemeinschaft und mahnt an, den einheitlichen Markt und die damit verbundenen Freiheiten nicht durch überzogene Ambitionen zu gefährden und damit zunehmendes Misstrauen gegenüber Europa zu fördern.
Insbesondere in der geplanten Weiterentwicklung des ESM zu einem im Unionsrecht verankerten Europäischen Währungsfonds sieht Issing die Auslieferung der durch den Fonds zur Verfügung gestellten Mittel an eine politische Mehrheit. Zudem führe die Bestellung eines europäischen Finanzministers zur Schaffung einer die Währungsunion ergänzenden Fiskalunion und damit zur Verlagerung finanzpolitischer Kompetenz von der nationalen auf die europäische Ebene. In letzter Konsequenz bedeute dies eine Aufgabe des grundlegenden Prinzips der demokratischen Legitimierung und Kontrolle finanzpolitischer Entscheidungen.
Das Ergebnis der Sondierungsgespräche muss man als Abschied von der Vorstellung einer auf Stabilität gerichteten europäischen Gemeinschaft verstehen. Damit werden die Versprechen gebrochen, die man den Bürgern in Deutschland vor der Einführung des Euros gegeben hat.
Die Altersvorsorge in Russland - Theoretische Analyse, aktuelle Rahmenbedingungen und ihre Umsetzung
(2005)
Das russische Rentenversicherungssystem befindet sich in der Krise. Wie in einer Vielzahl entwickelter Staaten auch, erodiert die Basis des umlagefinanzierten Rentensystems („Generationenvertrag“) auf Grund des demografischen Wandels. Dies wird verstärkt durch die mangelnde Wirtschaftskraft Russlands. Ausgangspunkt der Diskussion des russischen Rentenmodells in diesem Artikel ist die Darstellung der theoretischen Grundannahmen, die Analyse der aktuellen und zukünftigen Rahmenbedingungen sowie eine Prognose der natürlichen und räumlichen Bevölkerungsbewegung in Russland. Hierauf folgt die Präsentation der gegenwärtigen Situation einschließlich der bereits erfolgten ersten Schritte zu einer umfassenden Neuordnung des Rentenversicherungssystems sowie die Darstellung von „hot steps“ auf dem Weg zu einer nachhaltigen Alterssicherung.
Unter dem Stichwort "Patchwork-Biografien" wird die Tatsache, dass ein großer Teil der abhängig Beschäftigten ihren erlernten Beruf nicht mehr ausüben, in jüngster Zeit viel diskutiert. Diese Studie liefert einen empirischen Beitrag zur Anatomie der Berufswechsel für westdeutsche Männer auf Basis der BIBB/IABDaten 1998/1999. Als Grundlage für die empirische Analyse wird ein theoretisches Modell der Wahl zwischen horizontal differenzierten Berufen entwickelt. Die wichtigsten Ergebnisse sind: Ex post beobachtete Berufswechsel hängen negativ vom Durchschnittslohn im Ausbildungsberuf und positiv vom Durchschnittslohn im Erwerbsberuf ab. Der deskriptiv beobachtete durchschnittliche Entlohnungseffekt eines Berufswechsels ist signifikant positiv, verstärkt sich noch, wenn für den Ausbildungsberuf kontrolliert wird, und ist demgegenüber signifikant negativ, wenn für den Erwerbsberuf kontrolliert wird. Der geschätzte kausale durchschnittliche Entlohnungseffekt ist positiv. Die Ergebnisse sind insgesamt damit konsistent, dass Berufswechsel vor allem damit zusammenhängen, dass Beschäftigte im neuen Erwerbsberuf größere Verdienst- und Karrierechancen wahrnehmen können. JEL - Klassifikation: J62 , J31 , J24 , C21
Die durch jahrzehntelange Planwirtschaft geprägten Strukturen sind in Russland noch fest verwurzelt. Dementsprechend ist das Bankensystem auch zwölf Jahre nach dem Ende des kommunistischen Regimes unterentwickelt. Die markantesten Merkmale der Finanzwirtschaft sind die ungewöhnliche Größenstruktur der Banken; deren Schwierigkeiten, die rapide zunehmende Zahl kleinster, kleiner und mittlerer Unternehmen mit Finanzdienstleistungen zu versorgen sowie die geringe Rolle ausländischer Banken. Überdies sind die weiterhin bestehenden Systemrisiken nicht zu unterschätzen.
Der internen Unternehmensrechnung werden im allgemeinen zwei Funktionen zugeschrieben (Ewert/Wagenhofer (1997), S. 6): Sie soll einerseits Informationen für Planungszwecke bereitstellen, andererseits der Verhaltenssteuerung von Entscheidungsträgern in hierarchischen, dezentralen Organisationen dienen. In der jüngeren Vergangenheit ist die Verhaltenssteuerungsfunktion zunehmend in das Blickfeld theoretischer und praktischer Überlegungen gerückt. Gleichzeitig läßt sich eine verstärkte Marktwertorientierung deutscher Unternehmen in der Unternehmenspolitik wie auch in der internen Unternehmensrechnung beobachten. Die betriebswirtschaftliche Literatur hat darauf mit einer wachsenden Zahl von Beiträgen reagiert, die die Marktwertorientierung der internen Unternehmensrechnung vor dem Hintergrund ihrer Verhaltenssteuerungsfunktion diskutieren.1) Das Interesse dieses Beitrags gilt der Rolle der Periodenerfolgsrechnung als Teil der internen Unternehmensrechnung bei der marktwertorientierten Steuerung von Investitionsentscheidungen über Periodenerfolgsbeteiligungen. Zentrale Bedeutung kommt hierbei dem Residualgewinnkonzept aufgrund seiner Kompatibilität mit dem Marktwertkriterium (vgl. Abschnitt 5.1) zu. Dieses Konzept hat in der Praxis unter dem Namen Economic Value Added zunehmend an Popularität - insbesondere auch als Grundlage für Erfolgsbeteiligungen (vgl. z.B. Stewart (1991), Ehrbar (1998), O'Hanlon/Peasnell (1998) ) - gewonnen. Gezeigt werden soll, welche Vorteile die Periodisierung von Cash Flows im Rahmen einer Periodenerfolgsrechnung auf der Basis des Residualgewinnkonzepts gegenüber einer unbelassenen Cash Flow-Rechnung bei der Steuerung von Investitionsentscheidungen über finanzielle Anreizsysteme bietet. Betrachtet wird eine einfache bilaterale Principal-Agent-Beziehung: Eine delegierende Instanz (Prinzipal) beauftragt einen Entscheidungsträger (Agenten) mit Investitionsentscheidungen und versucht, dessen Investitionsverhalten über eine „Erfolgsbeteiligung“ in ihrem Sinne auf das Ziel der Maximierung des Barwertes aller Cash Flows gerichtet zu beeinflussen. Die Rolle des internen Rechnungswesens ist dabei auf die Bereitstellung der Bemessungsgrundlage für die Erfolgsbeteiligung beschränkt. Es wird gezeigt, daß die Periodisierung von Cash Flows und die Zugrundelegung periodisierter Größen bei der Investitionssteuerung zu besseren Lösungen des Steuerungsproblems des Prinzipals führt als eine reine Cash Flow- Beteiligung. ...
Helmut Siekmann erläutert in seinem Beitrag die Einstandspflicht der Bundesrepublik Deutschland für die Deutsche Bundesbank und die Europäische Zentralbank. Dabei kommt er zu dem Schluss, dass weder eine „Haftung der Bundesrepublik Deutschland für Verluste der EZB noch eine Verpflichtung zur Auffüllung von aufgezehrtem Eigenkapital“ besteht.
Dieser Beitrag ist zuerst erschienen in: Festschrift für Theodor Baums zum siebzigsten Geburtstag, S. 1145-1179, Helmut Siekmann, Andreas Cahn, Tim Florstedt, Katja Langenbucher, Julia Redenius-Hövermann, Tobias Tröger, Ulrich Segna, Hrsg., Tübingen, Mohr Siebeck 2017
Im vorliegenden Arbeitspapier werden alternative normative Grundpositionen der Familienpolitik diskutiert und die Entwicklung der relativen Verteilungspositionen von Haushalten unterschiedlicher Größe bzw. von Familien mit und ohne Kinder untersucht. Die empirische Analyse stützt sich zum einen auf veröffentlichte Tabellen des Statistischen Bundesamtes und zum anderen auf eigene Auswertungen der Einkommens- und Verbrauchsstichproben 1973, 1978 und 1983 sowie des Sozio-ökonomischen Panels für einzelne Stichjahre der späteren Periode und insbesondere für die Ausgangssituation und die bisherigen Veränderungen in den neuen Bundesländern. Als Indikator für die Einkommenslage von Personen wird ein Äquivalenzeinkommen in Relation zum jeweiligen Gruppen- oder Gesamtdurchschnitt, die sogenannte Wohlstandsposition, herangezogen. Personen in Haushalten mit drei oder mehr Personen - das sind hauptsächlich Familien mit Kindern - schneiden erwartungsgemäß im Durchschnitt schlechter ab als Personen in kleineren Haushalten. Allerdings sind die Diskrepanzen innerhalb der Gruppen, die überwiegend von Transfers leben, mäßiger als innerhalb der Gruppen mit erwerbstätigem Haushaltsvorstand; anscheinend wirkt der Familienlastenausgleich in den sozial schwächeren Gruppen stärker. Zwischen 1972 und 1992 (Westdeutschland) hat sich die relative Position der größeren Haushalte allerdings tendenziell etwas verschlechtert. Die Verteilungsanalyse auf der Basis der erwähnten Mikrodaten zeigt zudem, daß Familien mit Kindern wesentlich häufiger unterhalb der durchschnittlichen Wohlstandsposition und unterhalb der relativen Armutslinie von 50 % einzuordnen sind als (Ehe-)Paare ohne Kinder. Besonders ungünstig sieht die Situation bei den Alleinerziehenden aus; die Armutsquote dieser Gruppe schwankt zwischen einem Fünftel und einem Viertel. In der ehemaligen DDR scheint die relative Position der Familien mit Kindern überwiegend besser gewesen zu sein; die Strukturen in den neuen Bundesländern haben sich aber bereits denen in Westdeutschland angenähert.
In diesem Arbeitspapier werden Veränderungen der Wohlstandsverteilung während der Periode 1972 bis 1991 vor dem Hintergrund der ökonomischen und demographischen Entwicklung in Westdeutschland skizziert und die Wohlstandsverteilungen in Ostdeutschland vor und nach der Wiedervereinigung verglichen. Dabei beziehen wir uns auf das Äquivalenzeinkommen von Personen zur Erfassung individuellen Wohlstands. Die Analyse bezieht sich zum einen auf Ergebnisse des Statistischen Bundesamtes, die auf einem mittleren Aggregationsniveau durchschnittliche Äquivalenzeinkommen nach sozio-ökonomischen Gruppen ausweisen. Zum anderen werden verschiedene Verteilungsmaße auf der Basis von Mikrodaten berechnet, wobei uns zwei Datenquellen zur Verfügung standen: die offiziellen Einkommens- und Verbrauchsstichproben (1973, 1978 und 1983) und das Sozio-ökonomische Panel (1983 bis 1990 für Westdeutschland, 1990, 1991 für Ostdeutschland). Auf mittlerem Aggregationsniveau zeigen sich wesentliche Änderungen in den relativen Wohlstandspositionen der zehn unterschiedenen sozio-ökonomischen Gruppen, aber eine nahezu unveränderte Rangfolge der Gruppen während des gesamten Beobachtungszeitraums. Auf der Mikroebene zeigt sich eine leichte Zunahme der Ungleichheit der Wohlstandsverteilung, die am Äquivalenzeinkommen der Personen gemessen wurde. Die Veränderungen sind allerdings sehr gering und weisen teilweise in den beiden Dekaden entgegengesetzte Richtungen auf. Aus der Dekomposition der mit dem Theil-Maß ermittelten Verteilungsungleichheit nach der sozialen Stellung des Haushaltsvorstands ergibt sich, daß mehr als 80% der Ungleichheit insgesamt auf Intra-Gruppen-Ungleichverteilungen zurückzuführen ist, und zwar mit steigender Tendenz. Dieses Ergebnis wird etwas gemildert, wenn man die sehr heterogene Gruppe der Nichterwerbstätigenhaushalte nach der überwiegenden Einkommensart des Haushalts disaggregiert.
Die Entwicklung des aggregierten Privatvermögens und seine Verteilung in Deutschland seit 1970
(2002)
Die hier vorgestellte Untersuchung des Vermögens privater Haushalte als ein möglicher Indikator für den Wohlstand einer Gesellschaft hat für die Bundesrepublik Deutschland einen starken Anstieg der Vermögen seit 1970 aufgezeigt. Dies gilt sowohl für die makroökonomischen Resultate der Finanzierungsrechnung der Deutschen Bundesbank als auch für die mikroökonomischen Ergebnisse der Einkommens- und Verbrauchsstichproben des Statistischen Bundesamts. Allerdings werden auch wesentliche Unterschiede im Aussagegehalt der einzelnen Datensätze deutlich. Während die Finanzierungsrechnung eine Steigerung des Nettovermögens um 808 Prozent in 27 Jahren aufweist (von 1,3 Billionen DM im Jahr 1970 auf 12,1 Billionen DM im Jahr 1997) lautet der entsprechende Prozentwert auf der Berechnungsbasis der Einkommens- und Verbrauchsstichproben nur 280 Prozent in 25 Jahren bei einer wesentlich niedrigeren Gesamthöhe in späteren Untersuchungen (von 2,2 Billionen DM im Jahr 1973 auf nur 8,3 Billionen DM im Jahr 1998). Die Untersuchung der Daten der EVS hat aufgezeigt, welch große Bedeutung das Immobilienvermögen für die Vermögenssituation der privaten Haushalte hat. Allerdings ist es nicht so, dass alle Haushalte über Eigentum an Grund- und Hausbesitz verfügen. In Westdeutschland hat es zwar eine starke Steigerungen der Eigentümerquote seit 1961 gegeben. Seit 1993 ist jedoch eine Stagnation bei etwa 50 Prozent zu konstatieren. Die Analyse der Vermögensverteilung nur bezogen auf die westdeutschen Haushalte hat im Zeitraum von 1973 bis 1993 eine abnehmende Konzentration sowohl bei der Betrachtung der Anteile einzelner Haushaltsquintile am Nettogesamtvermögen als auch bei der Analyse des Gini-Koeffizienten ergeben. Allerdings hat sich dieser Trend in den Jahren bis 1998 nicht weiter fortgeführt. Für das Jahr 1998 ist in Westdeutschland feststellbar, dass die unteren 40 Prozent der Haushalte über praktisch kein Vermögen verfügen, während das oberste Quintil über 60 Prozent des Gesamtvermögens aufweisen kann. Für Ostdeutschland sind starke Anpassungstendenzen hin zu den Werten der westdeutschen Bundesländer festzustellen. Dies betrifft einerseits die absolute Höhe der Vermögenswerte, auch wenn diese bisher nur 38 Prozent des entsprechenden Wertes westdeutscher Haushalte bei einer Betrachtung der Durchschnittswerte je Haushalte im Jahr 1998 erreichen. Andererseits ist auch die Eigentümerquote an Haus- und Grundbesitz nach der Wiedervereinigung stark angestiegen. Durch dieses Immobilieneigentum auf breiterer Basis wird die Ungleichheit der Vermögensverteilung in Ostdeutschland im Zeitablauf etwas verringert, so dass der Gini-Koeffizient in den Jahren von 1993 zu 1998 leicht gesunken ist. Jedoch kann auch für die neuen Bundesländer festgestellt werden, dass die unteren 40 Prozent der Haushalte über praktisch kein Vermögen verfügen, während das oberste Quintil ostdeutscher Haushalte sogar über 70 Prozent des Gesamtvermögens aufweisen kann. Feststellbar ist weiterhin eine hohe Übereinstimmung der Vermögensverteilung in Ost- und Westdeutschland. Sowohl die Vermögensverteilung auf der Basis der Quintilswerte als auch die Resultate der Gini-Koeffizienten weisen ähnliche Ergebnisse auf, wobei eine starke Angleichungstendenz zwischen beiden Landesteilen gegeben ist. Diese Ähnlichkeit der Ergebnisse kann nur als erstaunlich bezeichnet werden, wenn man bedenkt, dass beide Landesteile für über 40 Jahre unterschiedlichen wirtschaftspolitischen Leitbildern gefolgt sind – die Bundesrepublik Deutschland der sozialen Marktwirtschaft und die Deutsche Demokratische Republik der sozialistischen Planwirtschaft.
Der Koalitionsvertrag 2021 sieht eine generationengerechte Absicherung des Rentenniveaus durch eine teilweise aus Haushaltsmitteln finanzierte Kapitaldeckung vor. Um dieses Ziel zu verwirklichen, wird hier die Einführung einer Generationenrente ab Geburt vorgeschlagen. Dabei wird aus Haushaltsmitteln ein Betrag von € 5.000 für jedes Neugeborene nach Grundsätzen des professionellen Anlagemanagements am globalen Kapitalmarkt angelegt. Konzeptionell soll sich diese Generationenrente am Modell der Basisrente(§10 Abs. 1 Nr. 2 b EStG) orientieren, d.h. die akkumulierten Gelder sind weder beleihbar, vererbbar noch übertragbar und können frühestens ab Alter 63 zugunsten einer lebenslangen Monatsrente verwendet werden. Unsere Berechnungen zeigen, dass durch die hier vorgeschlagene Generationenrente unabhängig vom Verlauf der individuellen Erwerbsbiographie, Altersarmut für die vom demographischen Wandel besonders betroffenen zukünftigen Generationen vermieden wird.
Die Struktur der Gesetzlichen Rentenversicherung (GRV) in der Bundesrepublik Deutschland ist grundsätzlich geändert worden. Die Bundesregierung hat die Einführung einer zusätzlichen privaten Alterssicherung auf freiwilliger Basis beschlossen. Hierdurch soll ein Kapitalstock gebildet werden, der die Leistungen der GRV ergänzt. Zur Förderung dieser Systemänderung der Alterssicherung werden umfangreiche fiskalische Unterstützungsmaßnahmen eingeführt. Im Rahmen des hier vorliegenden Beitrags wird auf die besondere Situation der Familien mit Kindern eingegangen. Im zweiten Abschnitt wird untersucht, inwieweit Familien mit Kindern in den letzten zehn Jahren in Deutschland in der Lage waren, privates Vermögen aufzubauen. Im dritten Abschnitt werden die beabsichtigten Änderungen des Systems der gesetzlichen Rentenversicherung in den Grundzügen dargestellt, und es wird ein Überblick über die geplanten fiskalischen Fördermaßnahmen gegeben. Im abschließenden vierten Abschnitt wird eine Bewertung der Änderungen vor allem in Bezug auf die Situation von Familien versucht.
Das vorliegende Arbeitspapier ist die unveränderte Fassung einer Diplomarbeit, die von Michael Grimm während einer Dauer von vier Monaten am Institut für Konjunktur, Wachstum und Verteilung der Universität Frankfurt a. M. geschrieben wurde. Die Ergebnisse der Analyse halte ich für so interessant, daß mir eine Veröffentlichung als Arbeitspapier im Rahmen des von mir geleiteten EVS-Projektes, dessen Daten die Grundlage der Arbeit bilden, als lohnend erscheint. Dadurch kann sichergestellt werden, daß die Untersuchungsergebnisse Interessierten zur weiteren Nutzung, sei es als reine Informationsgrundlage oder als Ausgangspunkt weiterer Analysen, zur Verfügung stehen. Die Studie beleuchtet die Verteilung von Geld- und Grundvermögen auf sozioökonomische Gruppen in der Bundesrepublik Deutschland. Als Datenbasis wurde eine Datenbank mit (anonymisierten) Individualdaten der Einkommens- und Verbrauchsstichprobe 1988 der Universität Frankfurt a. M. genutzt. Anknüpfend an frühere Arbeiten, die zu diesem Themenkomplex im Rahmen des Sonderforschungsbereichs 3 "Mikroanalytische Grundlagen der Gesellschaftspolitik" angefertigt wurden sowie durch Berücksichtigung von Daten zur EVS 1993, die zum Untersuchungszeitpunkt allerdings nur in tabellierter Form vorlagen, skizziert die Analyse eindrucksvoll die Entwicklung der Vermögensverteilung bis in die neunziger Jahre hinein. Dabei zeigt sich, daß die Verteilung des Vermögens, im Vergleich zur Verteilung der Einkommen, einen weiterhin sehr hohen Konzentrationsgrad aufweist. Insbesondere auf der Personenebene hat sich der Grad der Konzentration im Laufe der achtziger Jahre sogar noch verstärkt. Auch die Betrachtung der Verteilung auf sozio-ökonomische Gruppen zeigt viele interessante und neue Ergebnisse, so daß die Analyse ein echter Erkenntnisfortschritt ist. Es bleibt zu hoffen, daß weitere Arbeiten auf Basis der Einkommens- und Verbrauchs stichproben 1993 und 1998 sich der Entwicklung der Vermögensverteilung, insbesondere auch in den neuen Bundesländern, widmen und so eine langfristige Informationsgrundlage für Wirtschafts- und Sozialpolitik schaffen. Frankfurt am Main, im März 1998 (Richard Hauser)
Gegenstand der Untersuchung ist die Veränderung der Struktur der personellen Einkom-mensverteilung in der Bundesrepublik Deutschland. Die Grundlage der Analyse sind die vom Statistischen Bundesamt erhobenen Einkommens- und Verbrauchsstichproben (EVS) der Jahre 1962/63, 1969, 1973, 1978 sowie 1983. Um zwischen Alters-, Perioden- und Ko-horteneffekten differenzieren zu können, wurden die Daten der einzelnen Querschnittser-hebungen verkettet und mit Hilfe der so gebildeten Zeitreihen, sogenannten „Repeated Cross-Section“-Daten (RCS-Daten), die Entwicklung und Strukturveränderungen der Ein-kommen geburtskohortenspezifisch untersucht. Es zeigt sich, daß die Struktur der Einkommen während der jeweiligen Zeit der Erwerbstätigkeit, d. h. bis zum 60. Lebensjahr, relativ beständig bleibt. Erst der Übergang in die Nacherwerbsphase führt zu einem Bedeutungswandel: die „Einkommen aus öffentlichen Transferzahlungen“ werden zu einer relevanten Einkunftsart. Verursacht wird dies vor allem durch Leistungen aus staatlichen Alterssicherungssystemen. Eine analoge Zunahme der Bedeutung von „Einkünften aus Vermögen“ im Alter, wie sie z. T. in der ökonomischen Theorie sowie von Sozialpolitikern unterstellt wird, kann nicht bestätigt werden. Zusätzlich zu den, getrennt für die Ein- und Zweipersonenhaushalte durchgeführten Analysen wurde ein Vergleich der Wohlstandspositionen zwischen diesen beiden Haushaltsgrößen mittels Äquivalenzeinkommenswerten vorgenommen. Als grundlegendes Resultat ergibt sich, daß die Zweipersonenhaushalte im Hinblick auf die „ausgabefähigen Einkommen und Einnahmen“ grundsätzlich eine höhere Position als die Einpersonenhaushalte innehaben. Darüber hinaus wurden ansatzweise die mit einer Haushaltsänderung einhergehenden Einkommensveränderungen untersucht. Hierbei zeigt sich, daß der Übergang von einem „Zweipersonen-Durchschnittshaushalt“ mit einer männlichen Bezugsperson zu einem „Einpersonen-Durchschnittshaushalt“ mit einer verwitweten Frau als Bezugsperson zu einer erheblichen Verringerung der Wohlstandsposition der verwitweten Frau führt.
Do we measure what we get?
(2008)
Performance measures shall enhance the performance of companies by directing the attention of decision makers towards the achievement of organizational goals. Therefore, goal congruence is regarded in literature as a major factor in the quality of such measures. As reality is affected by many variables, in practice one has tried to achieve a high degree of goal congruence by incorporating an increasing number of these variables into performance measures. However, a goal congruent measure does not lead automatically to superior decisions, because decision makers’ restricted cognitive abilities can counteract the intended effects. This paper addresses the interplay between goal congruence and complexity of performance measures considering cognitively-restricted decision makers. Two types of decision quality are derived which allow a differentiated view on the influence of this interplay on decision quality and learning. The simulation experiments based on this differentiation provide results which allow a critical reflection on costs and benefits of goal congruence and the assumptions regarding the goal congruence of incentive systems.
Die Empfehlung, das Shareholder-Value-Konzept zur Grundlage der Unternehmenspolitik zu machen, erscheint um so überzeugender und wird vermutlich um so eher akzeptiert, (1) je lohnender die Shareholder-Value-Orientierung für die Aktionäre ist, (2) je eindeutiger es ist, wie die Empfehlung umgesetzt werden kann und soll, und (3) je problemloser sie aus theoretischen und wohlfahrtsökonomischer Sicht ist. Der Beitrag diskutiert die in Wissenschaft und Praxis verbreiteten Positionen zu diesen drei Aspekten und erläutert, warum sie bzw. die emprischen, praktischen und theoretischen Argumente, durch die sie gestützt werden sollen, auf Mißverständnissen beruhen.
Mit Blick auf die gescheiterten Verhandlungen mit Griechenland, argumentiert Jan Krahnen im vorliegenden Policy Beitrag, dass eine zielführende Reformagenda nur von der gewählten Regierung Griechenlands formuliert werden kann. Die Euro-Staaten müssten Griechenland für die Zeitdauer einer Restrukturierungszeit eine Grundsicherung zusagen. Die EU-Staaten fordert Krahnen dazu auf, aus der Griechenlandkrise die notwendigen Konsequenzen zu ziehen. Auch die Eurozone brauche eine effektive Reformagenda. Die Verschuldungsdynamik innerhalb der Währungsunion, deren Auswüchse am Beispiel Griechenlands besonders deutlich werden, könne bei fehlendem guten Willen nur durch eine politische Union und eine in sie eingebettete Fiskalunion aufgelöst werden. Krahnen argumentiert, dass ein Weiterverhandeln über Restrukturierungsauflagen aus der derzeitigen verfahrenen Situation nicht herausführen wird. Entscheidend sei, ein mehr oder weniger umfassendes Paket zu schnüren, das Elemente eines teilweisen internationalen Haftungsverbunds mit Elementen eines partiellen nationalen Souveränitätsverzichts verbindet.
Im Jahr 1564 veröffentlicht der Ulmer Militärexperte und -schriftsteller Leonhard Fronsperger die Schrift "Von dem Lob deß Eigen Nutzen", in der er darlegt, dass die konsequente Verfolgung des eigenen Nutzens als individuelle Handlungsmaxime im Ergebnis zu einer Förderung des Gemeinwohls führt. Das etwas mehr als hundert Seiten umfassende Werk wird in Frankfurt am Main, einem Zentrum des europäischen Buchdrucks und -handels, verlegt und findet Erwähnung im ersten veröffentlichten Katalog der Frankfurter Buchmesse. Fronsperger präsentiert seine für die damalige Zeit durchaus revolutionäre These in der Form eines satirischen Enkomions und unterlegt sie mit einer umfangreichen Gesellschaftsanalyse. Er stellt fest, dass die politischen Herrschaftsformen, die gesellschaftlichen Institutionen und die wirtschaftlichen Handelsbeziehungen auf einer konsequenten Verfolgung des eigenen Nutzens aller Akteure beruhen und dass sich die von der Kirche geforderte Ausrichtung des individuellen Handelns am Gemeinwohl in der Realität nicht finden lässt. Vielmehr hält er die Kritik der Theologen am egoistischen Handeln des Einzelnen für falsch, empfindet er doch den Staat, Wirtschaft und Gesellschaft im Großen und Ganzen als gut funktionierend.
Im Folgenden dokumentieren wir zunächst die Biografie des Autors, die Entstehung und Verbreitung des Werks und seine besondere literarische Form. Anschließend diskutieren wir die zentrale These in drei verschiedenen geistesgeschichtlichen Kontexten, die jeweils von besonderer Bedeutung für die Herausbildung der neuzeitlichen Gesellschafts- und Wirtschaftstheorien sind. Erkenntnis- und staatstheoretisch weist Fronspergers Werk deutliche Parallelen zu den Analysen auf, die Niccolò Machiavelli und später Giovanni Botero in Italien zur Bedeutung der auf den individuellen fürstlichen Interessen basierenden Staatsräson bzw. zu den Triebkräften erfolgreicher Stadtentwicklung vorlegten. Markante Unterschiede gibt es dagegen zu den Ansichten der deutschsprachigen Reformatoren im Anschluss an Luther, die zwar die Unterscheidung zwischen geistlicher und weltlicher Sphäre propagieren und damit die Entwicklung einer eigenständigen Moral für das Wirtschaftsleben befördern, dort allerdings mehrheitlich die Orientierung am "Gemeinen Nutzen" propagieren. Indem Fronsperger dagegen die Verfolgung des Eigennutzes fordert, nimmt er wirtschafts- und gesellschaftstheoretische Einsichten über das Wesen und die Auswirkungen der Arbeitsteilung vorweg, die erst 150 Jahre und später von Bernard Mandeville und Adam Smith in England und Schottland formuliert wurden. Das Werk Fronspergers bietet damit ein herausragendes Beispiel dafür, wie sich aus dem Zusammenspiel von wirtschaftlichem Erfolg, einem realistischen Menschenbild und manchen Aspekten der Reformation in deren Folge ein neues normatives Verständnis von den Antriebskräften ökonomischer und gesellschaftlicher Dynamik entwickelt, das später als der "Geist des Kapitalismus" bezeichnet wird.
Die vorliegende Untersuchung der effektiven Stundenlöhne in Deutschland erfolgte im Hin-blick auf die Frage nach der Ungleichheit ihrer Verteilung und der Einhaltung eines Kriteri-ums minimaler Leistungsgerechtigkeit. Ausgangspunkt ist die Annahme eines komplexen Gerechtigkeitsempfindens in der Gesellschaft, das neben dem Marktmechanismus als einem Motor für Leistung und leistungsabhängige Einkommen auch individuelle Anstrengungen sowie die Folgen faktischer Marktunvollkommenheiten bzw. faktischen Marktversagens berücksichtigt. Zur Approximation der ergänzenden Aspekte von Leistungsgerechtigkeit wird an relative Lohnpositionen angeknüpft: Lohneinkommen, die einen gesellschaftlichen Mittelwert sehr weit – bezogen auf den Durchschnitt um mehr als die Hälfte, und alternativ bezogen auf den Median um mehr als ein Drittel – unterschreiten, gelten als Indikator für Zielabweichungen. Implizit wird damit unterstellt, dass individuelle Leistungsunterschiede begrenzt, die aus dem Marktmechanismus folgende Differenzierungen aber grenzenlos sind. Die sich aus dem hier gewählten Kriterium ergebenden Niedriglohngrenzen entsprechen ungefähr alternativ abgeleiteten Grenzwerten, die aus der Norm folgen, dass eine Vollzeiterwerbstätigkeit mindestens das eigene sozio-kulturelle Existenzminimum zuzüglich einer Leistungskomponente sichern sollte. Neben dem Aspekt minimaler Leistungsgerechtigkeit für den unteren Rand der Verteilung werden keine weiteren konkreten Normen zur Beurteilung der Zielangemessenheit der beobachteten Verteilung der Lohnsätze gesetzt. Dies würde den Rahmen dieser Untersuchung sprengen. Die empirische Analyse auf Basis des Sozio-ökonomischen Panels (SOEP) und der Einkommens- und Verbrauchsstichprobe (EVS) konzentriert sich auf das Jahr 2003 und wird ergänzt um einige Auswertungen für 1998, die allerdings nur mit dem SOEP durchgeführt werden können. Obwohl aus dem SOEP generell eine größere Ungleichheit der Verteilung resultiert, halten sich die Unterschiede zwischen den Ergebnissen beider Datenquellen in Grenzen. ...
In Absatz 3 des Artikel 136 des Vertrags über die Arbeitsweise der EU (AEUV) wurde für die Verwendung von ESM Geldern festgelegt, dass diese nur dann zur Gewährung von Finanzhilfen verwendet werden dürfen, wenn „... dies unabdingbar ist, um die Stabilität des Euro-Währungsgebiets insgesamt zu wahren." Im vorliegenden Artikel argumentiert Alfons Weichenrieder, dass die nach dem griechischen Referendum entstandene Situation, die Stabilität des “Euro-Währungsgebiets insgesamt" nicht bedroht, so dass die Vergabe von neuen Krediten, zumal diese voraussichtlich unter weichen und im Zweifel nicht durchsetzbaren Auflagen vergeben würden, ein offensichtlicher Verstoß gegen die Grundlagen des ESM wäre.
In the aftermath of the Wirecard scandal the German lead stock market index DAX has undergone a series of reforms, including the introduction of a profitability criterion based on EBITDA for new DAX members and enhanced financial reporting requirements with specified sanctions for non-compliance. Furthermore, DAX members need to adhere to certain provisions in the German Corporate Governance Code relating to audit committees. The final step of the reform was implemented in September 2021: the extension of the DAX from 30 to 40 constituents, with the ranking based solely on the free float market capitalisation. After one year of experience with the new design of the DAX, this paper concludes that the reform has strengthened the DAX in terms of diversification, quality and adaptability. However, there is still room for further improvement by introducing a minimum ESG score for DAX companies and thus making sustainability a relevant factor in the selection process. In addition, full compliance with the recommendations of the German Corporate Governance Code should be a condition for DAX companies. Furthermore, the profitability criterion should be applied on a continuous basis to ensure that loss-making companies can be excluded from the DAX after a grace period.
Mit einem um die Behandlungskapazität des Gesundheitssystems erweiterten epidemiologischen SIRD-Modell werden Mechanismen und Dynamik einer Virusepidemie wie Corona anhand von stilisierten politischen Reaktionsmustern (Ignore, Shutdown, Ignore-Shutdown-Relax) simuliert. Ferner werden aus dem Modell Lehren für die statistische Analyse von Corona gezogen, wie die Aussagekraft publizierter Verdopplungszeiten und Reproduktionszahlen. Die Dunkelziffer unbestätigter Fälle und die im Epidemieverlauf variable Genauigkeit von medizinischen Infektionstests werden diskutiert. Zur Messung der medizinischen Kosten von Corona sowie für regionale und internationale Vergleiche wird ein Schadensindex der verlorenen Lebenszeit vorgeschlagen. Zuletzt geht die Arbeit kurz auf die ökonomischen Kosten von Corona in Deutschland ein.
Empirische Wohlstandsanalysen können prinzipiell anhand dreier Indikatoren durchgeführt werden: Anhand des Privaten Verbrauchs, anhand des verfügbaren Einkommens oder anhand des Nettovermögens.1 Während es für die Definition der Indikatoren des Privaten Verbrauchs und des verfügbaren Einkommens zumindest einigermaßen akzeptierte internationale Konventionen gibt, ist dies bezüglich der Definition des privaten Vermögens nicht annähernd der Fall. Im Unterschied zu den Volkseinkommensrechnungen sind Volksvermögensrechnungen im internationalen Maßstab deutlich weniger gut ausgebaut. Dies mag damit zusammenhängen, daß bei einer Bestandsgröße wie dem privaten Vermögen Aspekte der Verwertung, Nutz-ung, sozialen Absicherung wie auch der Verleihung von Macht2 intensiver zum Tragen kommen als bei einer Stromgröße wie dem privat verfügbaren Haushaltseinkommen. Aus welchen Bestandteilen sich das Gesamtvermögen zusammenzusetzen hat, ist daher einem heftigeren Diskurs als bei den anderen Wohlstandsindikatoren ausgesetzt. Es herrscht beispielsweise Uneinigkeit darüber, ob das Human- oder das Sozialvermögen sinnvolle Vermögenskomponenten sind. Eine eher negative Einschätzung in diesem Zusammenhang wird üblicherweise damit begründet, daß beide potentiellen Gesamtvermögensbestandteile das Kriterium der interpersonellen Veräußerbarkeit nicht bzw. nur unzureichend erfüllen.1 Auch ist die Forschung vor zum Teil schwer überwindbare Bewertungsprobleme einzelner Vermögenskomponenten gestellt, und zwar stärker als bei den beiden anderen Wohlstandsindikatoren, bei denen zumindest die überwiegende Anzahl an Teilelementen mittels nachvollziehbarer Marktpreise vergleichsweise einfach bewertet werden kann. Hinzu kommt die schlechtere Datenlage hinsichtlich der Erfassung privaten Vermögens im Vergleich zum Privaten Verbrauch bzw. verfügbaren Haushaltseinkommen, was nicht zuletzt auf die - in Befragungen - (noch) größere Sensibilität der Interviewten bezüglich der Beantwortung vermögensbezogener Fragen im Vergleich zu den beiden anderen Wohlstandsindikatoren zurückzuführen ist. Alles in allem bleibt festzuhalten, daß allein die Deskription der Höhe und Verteilung privat gehaltenen Vermögens eine höchst komplexe Aufgabe ist. Es ist daher keineswegs unwahrscheinlich, daß verschiedene Vermögensanalysen selbst auf einer einheitlichen Datengrundlage zu zum Teil entgegengesetzten Aussagen gelangen werden. Diesen letztgenannten Gedanken aufgreifend, werden in der vorliegenden Studie in beispielhafter Form drei auf Basis der Einkommens- und Verbrauchsstichprobe (EVS) 1988 durchgeführte Analysen zur bundesdeutschen Vermögensverteilung privater Haushalte einer vergleichenden Betrachtung unterzogen. Es wird gezeigt, an welchen Stellen Abweichungen zwischen den einzelnen Studien auftreten und worauf diese (vermutlich) zurückzuführen sind. Das vorliegende Arbeitspapier ist wie nachfolgend aufgebaut. Kapitel 2 vermittelt einen Eindruck von der Datenbasis, auf der die drei genannten Studien jeweils basieren, Kapitel 3 schildert kurz die Konstruktionselemente der drei behandelten Analysen, und in Kapitel 4 werden in einer Gegenüberstellung der drei Studien Unterschiede kausal herausgearbeitet. Es folgt in Kapitel 5 eine Bewertung der Untersuchungsergebnisse.
In diesem explorativen Beitrag machen wir uns Gedanken über die Zukunft von Deutscher Bank und Commerzbank und entwickeln einen neuen Zugang zu dem Thema: Statt einer Fusion von DB und CB schlagen wir eine Teilfusion nur der Datenzentren vor – es entsteht auf diese Weise die Grundlage für eine Open Banking Plattform als „utility“, also als Betrieb im Eigentum der Nutzer, an der perspektivisch weitere Finanzinstitute teilnehmen können. Die über die Daten kooperierenden Institute bleiben mit Blick auf Produkte und Dienstleistungen unverändert Konkurrenten – „national champions“ entstehen auf diese Weise nicht. Aber es wird damit in Europa die Basis für einen erfolgversprechenden Wettbewerb mit den großen Datenplattformen aus USA und China (Facebook, Amazon, Alipay) gelegt, die früher oder später in den Finanzmarkt eindringen werden. Das von uns vorgeschlagene Modell einer offenen Datenplattform für Banken verhindert das Entstehen von „national champions“ und schützt damit auch das Kernanliegen der Bankenunion: Die Schaffung eines Finanzsystems, dessen Banken jede für sich ausscheiden können ohne eine systemische Krise auszulösen, und ohne den Steuerzahler zu einer Rettungsaktion zu zwingen
Thema dieser Arbeit ist eine ökonomische Einordnung der Förderung der beruflichen Weiterbildung (FbW) als Teil der Aktiven Arbeitsmarktpolitik in Deutschland. Die Analyse erfolgt im Lichte des sektoralen Wandel, der Verschiebung der qualifikatorischen Arbeitsnachfrage und der vorrauszusehenden Produktivitätseffekte im Zusammenhang mit einer alternden Gesellschaft. Auf Basis der Humankapitaltheorie wird zunächst theoretisch erörtert, inwieweit sich FbW als Teil der Aktiven Arbeitsmarktpolitik aus Effizienz- und Verteiliungsgesichtspunkten rechtfertigen lässt und in welcher Form FbW sinnvoll sein kann.
Im Mittelpunkt dieses Beitrag stehen Verweildauermodelle und deren Verwendung als Analyseinstrumente für die Bewertung und Berechnung von Kreditausfallrisiken. Verschiedene Möglichkeiten zur Berechnung der Dauer des Nichtausfalls eines Kredites werden dabei vorgestellt. Die hier vorgestellten Verfahren werden auf einen aus Kreditakten von sechs deutschen Universalbanken zusammengestellten Datensatz angewendet. Beispiele und Interpretationshilfen zu den jeweils vorgestellten Methoden erleichtern den Zugang zu diesen Modellen. Es werden zahlreiche Hinweise auf weiterführende Literatur gegeben.
Dieser Beitrag stellt verschiedene ökonometrische Methoden zur Bewertung und Berechnung von Kreditausfallrisiken vor und wendet diese auf einen Datensatz sechs deutscher Universalbanken an. Im Mittelpunkt stehen dabei Logit- und Probitmodelle, mit deren Hilfe die Ausfallwahrscheinlichkeit eines Kredites geschätzt werden kann. Dabei werden auch moderne Verfahren zur Analyse von Paneldaten besprochen. Beispiele undInterpretationshilfen zu den jeweils vorgestellten Methoden erleichtern den Zugang zu diesen Modellen. Es werden zahlreiche Hinweise auf weiterführende Literatur gegeben.
Dieser Beitrag vergleicht mit einheitlicher Methodik die Mobilität des individuellen Bruttoarbeitseinkommens, des Bruttoäquivalenzeinkommens und des Nettoäquivalenzeinkommens in Westdeutschland, Ostdeutschland, Großbritannien, den USA und Ungarn mit Panel-Daten dieser Länder aus dem Zeitraum 1989-1995. Die Mobilität ist in Ostdeutschland bei allen Einkommenskonzepten wesentlich höher als in Westdeutschland, nähert sich aber im Zeitablauf und insbesondere beim Nettoäquivalenzeinkommen dem westdeutschen Niveau an. Die Mobilität des Bruttoäquivalenzeinkommens ist in Westdeutschland größer, die des Nettoäquivalenzeinkommens kleiner als in Großbritannien. Die Mobilität des individuellen Bruttoarbeitseinkommens und des Bruttoäquivalenzeinkommens ist in Westdeutschland höher, die des Nettoäquivalenzeinkommens niedriger als in den USA. Die Mobilität des Nettoäquivalenzeinkommens ist in Ungarn deutlich höher als in Ostdeutschland. Diese Ergebnisse zeigen eine im internationalen Vergleich unerwartet hohe Flexibilität des deutschen Arbeitsmarkts, wobei jedoch die Verweildauer in der Arbeitslosigkeit in Deutschland länger ist als in den USA und Großbritannien, wo viele Arbeitslose schnell in schlecht bezahlte Jobs wechseln. Ferner zeigt sich, daß das Steuer- und Transfersystem in keiner anderen Volkswirtschaft die Mobilität der Bruttoäquivalenzeinkommen stärker reduziert als in Deutschland.
Einkommensverteilung in Deutschland : Strukturanalyse der Ungleichheit nach Einkommenskomponenten
(2000)
Ergebnisse von Verteilungsanalysen fallen je nach der Bezugseinheit - Haushalt oder Person - recht unterschiedlich aus. Dies gilt sowohl für das Niveau von Verteilungsindikatoren und deren Entwicklung im Zeitverlauf, als auch hinsichtlich der Beiträge einzelner Einkommens- und Abgabearten zu der gemessenen Ungleichheit. Auf der Basis der Einkommens- und Verbrauchsstichproben 1988 und 1993 und unter Verwendung der "älteren OECD-Skala" hat sich gezeigt, dass die Ungleichheit der personellen Verteilung der Nettoäquivalenzeinkommen im Beobachtungszeitraum in den alten Ländern zugenommen hat, aber nach wie vor wesentlich gleichmäßiger als die unveränderte Verteilung der Haushaltsnettoeinkommen auf Haushalte ist. In den neuen Ländern ist der Unterschied zwischen der haushaltsbezogenen und der personenbezogenen Einkommensverteilung noch deutlicher bei insgesamt geringerer Ungleichheit als in den alten Ländern. Auch die Zerlegung der aggregierten Ungleichheit nach Einkommenskomponenten führt zu teilweise abweichenden Ergebnissen in Abhängigkeit von der Bezugseinheit, da bei einzelnen Haushaltstypen im Durchschnitt jeweils unterschiedliche Einkommensarten dominieren. Entgegen gängigen Vorstellungen über Verteilungsstrukturen zeigt sich allerdings generell, dass die Verteilungsungleichheit zum größten Teil durch die Bruttoeinkommen aus unselbständiger Arbeit bestimmt wird. Zwar sind die Selbständigen- und Vermögenseinkommen erwartungsgemäß wesentlich ungleicher verteilt, durch ihren vergleichsweise geringen Anteil am Gesamteinkommen ist ihr Einfluss auf die Gesamtverteilung aber - insbesondere in Ostdeutschland, aber auch in Westdeutschland - begrenzt. Dies wird bei der Analyse der personellen Verteilung allerdings weniger deutlich als bei der Bezugnahme auf Haushalte. Wiederum im Gegensatz zu verbreiteten Annahmen wird die Ungleichheit der Verteilung der Haushaltseinkommen durch staatliche Transferzahlungen nicht oder nur unwesentlich gemildert. Dies ist aber nur auf den ersten Blick überraschend, da nur ein geringer Teil der Transfers vorrangig vertikalen, interpersonellen Umverteilungszielen dient. Die Leistungen der Sozialversicherung und vergleichbarer Systeme bezwecken hauptsächlich eine intertemporale Umverteilung und Lebensstandardsicherung bei Eintritt bestimmter Risikotatbestände (Alter, Tod des Ernährers, Unfall, Arbeitslosigkeit, Krankheit), so dass sie die Verteilung der Einkommen aus unselbständiger Arbeit abgeschwächt wiederspiegeln. Demzufolge geht auch von ihnen keine merkliche Verminderung der Ungleichheit der Nettoeinkommensverteilung auf der Haushaltsebene bzw. sogar eine leichte Erhöhung der Ungleichheit der personellen Verteilung der Nettoäquivalenzeinkommen in Westdeutschland aus. Aber selbst von den steuerfinanzierten Transfers geht unter Bezugnahme auf Haushalte insgesamt nur ein sehr geringer nivellierender Effekt aus. Hier wird die konzeptionelle Schwäche des analytischen Ansatzes am ungewichteten Haushaltseinkommen besonders deutlich. Denn mit dem Haushaltseinkommen wird ohne eine Berücksichtigung der Haushaltsgröße und -struktur die Bedarfssituation der Haushaltsmitglieder, die für viele steuerfinanzierte Transfers maßgeblich ist, nur unzureichend erfasst. Dementsprechend erweist sich der ausgleichende Effekt der Transfers der Gebietskörperschaften unter Bezugnahme auf Personen als recht deutlich, wenn auch in Westdeutschland im Vergleich zum Anteil am Einkommensaggregat als unterproportional. Bei einer weiteren Aufspaltung des heterogenen Komplexes der steuerfinanzierten Transfers in das einkommensunabhängige Kindergeld, Einkommensübertragungen mit Entschädigungscharakter und Transfers mit dem vorrangigen Ziel vertikaler Umverteilung zeigt sich aber auch für Westdeutschland eine weit überproportionale Reduzierung der Ungleichheit der Verteilung der Nettoäquivalenzeinkommen durch i. e. S. bedarfsabhängige Transfers. Absolut gesehen macht der ausgleichende Effekt zwar in den alten Ländern weniger als ein Zehntel, in den neuen Ländern ungefähr ein Fünftel der entsprechenden Effekte der persönlichen Steuern aus; unter Berücksichtigung des geringen Volumens der Transfers mit vorwiegend vertikaler Ausrichtung ergibt sich aber eine recht hohe Effizienz. Sie scheint in Westdeutschland zwischen 1988 und 1993 allerdings etwas zurückgegangen zu sein, ähnlich wie der ausgleichende Einfluss der persönlichen Steuern. Schließlich zeigt sich für das Kindergeld eine nur mäßige relative Reduzierung der Ungleichheit der personellen Einkommensverteilung, die 1993 in West- wie in Ostdeutschland nur ungefähr zwei Dritteln des Anteils am Einkommensaggregat entspricht. Dies ist angesichts der horizontalen Ausrichtung des Familienlastenausgleichs in Deutschland nicht verwunderlich, könnte aber für eine Zieldiskussion im Zusammenhang mit Reformüberlegungen Anlass geben.
Enthält die 2 Vorträge: Die Entwicklung der Einkommensverteilung und der Einkommensarmut in den alten Bundesländern von 1962 bis 1988 / Irene Becker, Universität Frankfurt/Main Vergleichende Analyse der Einkommensverteilung und der Einkommensarmut in den alten und neuen Bundesländern von 1990 bis 1995 / Richard Hauser, Universität Frankfurt a.M.
Das ursprüngliche Ziel des Erneuerbare-Energien-Gesetz war die Verringerung der Emissionen. Eigentlich hat die Politik bereits ein Instrument an der Hand, das dieses Ziel fokussiert und kostensparend erreichen kann: den Handel mit CO2-Zertifikaten. Der Autor argumentiert, dass das Nebeneinander von CO2-Handel und EEG höchst unproduktiv ist und schleunigst beendet werden sollte. Ein plausibleres Argument für den politischen Erfolg des EEG und das derzeitige Herumdoktern im Detail ist, dass die Politik mit dem EEG Industriepolitik betreiben und die Kosten auf zukünftige Parlamente und Generationen überwälzen kann.
Entwicklungsfinanzierung
(2000)
"Ich möchte in diesem Vortrag Beziehungen zwischen Gutenbergs Theorie der Unternehmung, die in seiner Habilitationsschrift angelegt und in den "Grundlagen der Betriebswirtschaftslehre" entfaltet ist, und aktuellen Entwicklungen in der Theorie der Unternehmung herstellen. Obwohl der Anlaß für diesen Vortrag das Thema hinreichend rechtfertigt, stellt sich die Frage, ob mein Vorhaben ein wissenschaftlich sinnvolles Unterfangen darstellt: Kann Gutenbergs Theorie der Unternehmung noch aktuell sein?"
Angesichts des kürzlich von der Bundesregierung verabschiedeten Konjunkturpakets, stellen sich die Autoren des Policy Letters die Frage, ob und inwieweit die angekündigte Mehrwertsteuersenkung sowie der Kinderbonus zur substantiellen Ankurbelung des Binnenkonsums führt. Aus den für das Haushaltskrisenbarometer erhobenen Daten zu Einkommensänderungen sowie Einkommens- und Kündigungserwartungen, können die Ökonomen keine zu erwartende Schwächung der Binnennachfrage ableiten. Der überwiegende Teil der deutschen Wohnbevölkerung scheint kurzfristig nicht davon auszugehen, finanzielle Einbußen aufgrund der Pandemie zu erleiden. Die Erwartungen hinsichtlich der künftigen Einkommensentwicklung haben sich gar über die letzten vier Umfragewellen graduell verbessert. Ferner kann dargelegt werden, dass weder die Konsum- noch die Sparneigung durch die Corona-Krise zum gegenwärtigen Zeitpunkt langfristig stark beeinflusst wird. So geben derzeit lediglich 10 Prozent der Befragten an, größere Anschaffungen angesichts der Pandemie vollständig gestrichen zu haben. Anfang April 2020 lag dieser Wert noch bei 16 Prozent. Die Befragten berichteten in 71 Prozent der Fälle ihre Konsumpläne und in 78 Prozent der Fälle ihre Sparverhalten nicht geändert zu haben. Im Lichte dieser Ergebnisse lassen sich Maßnahmen, die auf eine unspezifische Stimulierung der Binnennachfrage abzielen, nicht substantiell begründen und rechtfertigen.
Untersuchungsgegenstand ist der empirische Gehalt der ökonomischen Theorie eines Hedgings auf Unternehmensebene. In den USA wurde die Hedging-Theorie in einer Reihe von empirischen Studien aufgegriffen. Die Befunde sind zumeist konsistent mit dem Erklärungsansatz von Froot/Scharfstein/Stein (1993), wonach eine Verringerung der Cashflow-Volatilität – unter der Annahme steigender Außenfinanzierungskosten – zu einer Reduzierung von Unterinvestitionskosten führt. Bei deutschen Unternehmen besitzt dieser Ansatz bemerkenswerterweise jedoch nur einen geringen Erklärungsgehalt. Die Ergebnisunterschiede können auf unterschiedliche Kapitalmarktverhältnisse zurückgeführt werden: Die unterstellten steigenden Kosten der Außenfinanzierung besitzen für deutsche Unternehmen aufgrund der Dominanz des Bezugsrechtsverfahrens sowie der Rolle der Hausbank als Mechanismus zur Überwindung von Informationsproblemen eine vergleichsweise geringere Bedeutung. Die Managerinteressen erweisen sich bei deutschen Unternehmen als eine wesentliche Hedging-Determinante. Zwischen der Höhe des gebundenen Managervermögens und der Hedging-Wahrscheinlichkeit besteht entsprechend der Hedging-Theorie ein signifikanter positiver Zusammenhang. Entgegen den amerikanischen Befunden kann jedoch eine disziplinierende Wirkung von Großaktionären auf die Hedging-Entscheidung nicht beobachtet werden. Zur Berücksichtigung der spezifischen deutschen Kapitalmarktverhältnisse wird der Einfluss von Bankenbeteiligungen und Familienunternehmen auf die Hedging-Entscheidung untersucht. Ein Bankeneinfluss auf die Derivateeinsatz-Entscheidung kann jedoch nicht festgestellt werden. Entgegen Diversifikations- und Kapitalmarktüberlegungen besteht bei Familienunternehmen interessanterweise eine signifikant geringere Hedging-Wahrscheinlichkeit.
Überarbeitete Version des Arbeitspapiers "The dynamics of labour market participation, unemployment and non-participation in Great Britain, Sweden and Germany" / Wolfgang Strengmann-Kuhn. [Johann-Wolfgang-Goethe-Universität Frankfurt am Main, Fachbereich Wirtschaftswissenschaften, Institut für Volkswirtschaftslehre]
In dieser Studie werden die Wirkungen von Arbeitsbeschaffungsmaßnahmen (ABM) in Deutschland auf die individuellen Eingliederungswahrscheinlichkeiten der Teilnehmer in reguläre Beschäftigung evaluiert. Für die Untersuchung wird ein umfangreicher und informativer Datensatz aus den Datenquellen der Bundesagentur für Arbeit (BA) verwendet, der es ermöglicht, die Wirkungen der Programme differenziert nach individuellen Unterschieden der Teilnehmer und mit Berücksichtigung der heterogenen Arbeitsmarktstruktur zu untersuchen. Der Datensatz enthält Informationen zu allen Teilnehmern in ABM, die ihre Maßnahmen im Februar 2000 begonnen haben, und zu einer Kontrollgruppe von Nichtteilnehmern, die im Januar 2000 arbeitslos waren und im Februar 2000 nicht in die Programme eingetreten sind. Mit Hilfe der Informationen der Beschäftigtenstatistik ist es hierbei erstmals möglich, den Abgang in reguläre Beschäftigung auf Grundlage administrativer Daten zu untersuchen. Der vorliegende Verbleibszeitraum reicht bis Dezember 2002. Unter Verwendung von Matching-Methoden auf dem Ansatz potenzieller Ergebnisse werden die Effekte von ABM mit regionaler Unterscheidung und für besondere Problem- und Zielgruppen des Arbeitsmarktes geschätzt. Die Ergebnisse zeigen zwar deutliche Unterschiede in den Effekten für Subgruppen, insgesamt weisen die empirischen Befunde jedoch darauf hin, dass das Ziel der Eingliederung in reguläre ungeförderte Beschäftigung durch ABM weitgehend nicht realisiert werden konnte. JEL: C40 , C13 , J64 , H43 , J68
Im vorliegenden Papier werden drei Ansätze zur Reform des Familienleistungsausgleichs (FLA) mit jeweils zwei Varianten dargestellt und hinsichtlich ihrer fiskalischen Effekte und Wirkungen in verschiedenen Segmenten der Einkommensverteilung systematisch verglichen. – Mit dem weitestgehenden Konzept, der Kindergrundsicherung, wird ein Existenz sicherndes und zu versteuerndes Kindergeld in Höhe von monatlich 502 Euro bzw. 454 Euro pro Kind vorgeschlagen. Die bisherigen kindbedingten Freibeträge und mehrere Sozialleis-tungen könnten entfallen bzw. reduziert werden. – Daneben werden Kindergelderhöhungen auf einheitlich 238 Euro bzw. 328 Euro pro Kind und Monat, die allen Kindern – auch denen im SGB II-Leistungsbezug – zugute kommen sollen, untersucht. Das Kindergeld wäre wie bisher nicht zu versteuern, die bisherigen kindbedingten Freibeträge würden aber entfallen. – Schließlich wird der Vorschlag einer deutlichen Erhöhung des Kinderzuschlags bei reduzierter Mindesteinkommensgrenze und Wegfall der Höchsteinkommensgrenze erörtert. Zudem ist bei diesem Ansatz ein nochmals erhöhter Kinderzuschlag bei Alleinerziehenden – analog zum Mehrbedarfszuschlag nach dem SGFB II – (erste Variante) oder eine Herabsetzung der Transferentzugsrate auf Nichterwerbseinkommen von 100% auf 70% (zweite Variante) vorgesehen. Die zu erwartenden fiskalischen Belastungen der einfachen Kindergelderhöhung (ohne Be-steuerung) können ohne Weiteres hochgerechnet werden (16 bzw. 35 Mrd. Euro p. a.), die der anderen Reformmodelle sind aber ohne mikroanalytische Fundierung unter Berücksichtigung der Einkommensverteilung kaum abschätzbar. Zwar lassen sich auch die Bruttokosten der Kindergrundsicherung auf einfachem Wege ermitteln (Multiplikation der Kindergeld-Kinder mit der Betragshöhe), die Aggregate der davon abzusetzenden zahlreichen Einsparungen bei anderen Sozialleistungen und insbesondere der Steuermehreinnahmen sind allerdings nicht offensichtlich. Eine erste Überschlagsrechnung hat ergeben, dass die Nettokosten der ersten „großzügigen“ Variante der Kindergrundsicherung (502 Euro) denen der Kindergelderhöhung auf das sächliche Existenzminimum (322 Euro) ohne Besteuerung ungefähr gleich sind (in der Größenordnung von 35 Mrd. Euro). Eine genauere Quantifizierung kann aber nur auf der Ba-sis repräsentativer Mikrodaten und eines Simulationsmodells erfolgen, da insbesondere der Besteuerungseffekt der Kindergrundsicherung von der faktischen Einkommensverteilung abhängt. Auch eine Kostenschätzung für die Kinderzuschlagsreform bedarf mikroanalytischer Verfahren; ungeachtet dessen würde diese auf einen begrenzten Einkommensbereich gerichte-te Reform aber eindeutig die geringsten Kosten verursachen. Für einen systematischen Vergleich der Verteilungswirkungen der Reformvorschläge werden in der vorliegenden Arbeit Modellrechnungen für zwei ausgewählte Haushaltstypen präsen-tiert. Dabei wird deutlich, dass mit dem vergleichsweise begrenzten Konzept der Ausweitung des Kinderzuschlags die Situation von Familien in prekären Einkommensverhältnissen bis zu Familien der unteren Mittelschicht deutlich verbessert werden könnte. Inwieweit dieser Effekt eintreten würde, hängt allerdings auch vom Inanspruchnahmeverhalten ab; bisher ist die Nicht-Inanspruchnahme von Kinderzuschlag und Wohngeld weit verbreitet. Zudem würde sich die Situation der ärmsten Familien, die auf SGB II-Leistungen angewiesen sind, nicht verbessern, und am oberen Rand würden die Entlastungseffekte des FLA als Folge der kind-bedingten Freibeträge weiterhin mit dem elterlichen Einkommen zunehmen. Demgegenüber würden sich bei den Varianten der Kindergelderhöhung (ohne Besteuerung) die deutlichen Verbesserungen gegenüber dem Status quo gleichmäßig über das Einkommensspektrum vom Niedriglohnsegment – bei unverändert problematischen Effekten des Kinderzuschlags (Ein-kommensbruchstelle bei Höchsteinkommensgrenze) – bis in obere Schichten verteilen und erst am oberen Rand mit steigendem Einkommen sinken (infolge des Wegfalls der bisherigen kindbedingten Freibeträge). Die Förderungen durch die Kindergrundsicherung schließlich würden am stärksten im unteren und unteren Mittelbereich ausfallen und – im Gegensatz zu anderen Konzepten – insbesondere verdeckte Armut systembedingt, also quasi „automatisch“, weitgehend abbauen. Im oberen Mittelbereich und hauptsächlich in höheren Schichten würden die Transfers dagegen mit zunehmendem Einkommen kontinuierlich abnehmen. Insgesamt würde dies zu einem vergleichsweise stetig steigenden Verlauf des verfügbaren Familieneinkommens führen; die wegen der hohen Transferentzugsraten des Kinderzuschlags – gegebenenfalls in Kombination mit Wohngeld – häufigen Befürchtungen negativer Arbeitsanreize im unteren Einkommensbereich wären gegenstandslos. Inwieweit die hier diskutierten Reformkonzepte zu einem Abbau von Kinder- und Familien-armut und zu weniger Ungleichheit der personellen Einkommensverteilung führen können, lässt sich allein auf der Basis von Modellrechnungen allerdings nicht absehen. Dazu bedarf es detaillierter Analysen auf der Basis von repräsentativen Mikrodaten, die die faktische Ein-kommensverteilung abbilden und Simulationsrechnungen zur Quantifizierung der Effekte der Reformvarianten – unter Einbeziehung der Finanzierung der jeweiligen Nettokosten – ermöglichen. Daran wird im Projekt „Vom Kindergeld zu einer Grundsicherung für Kinder“ auf Basis der Daten des Sozio-ökonomischen Panels (SOEP) 2007 gearbeitet; die Repräsentativität des Datensatzes hinsichtlich des Nachweises von Einkommens-, insbesondere Transferar-ten wurde bereits geprüft – mit gutem Ergebnis.
Seit zwanzig Jahren befaßt sich die Finanzmarktforschung einerseits mit Fragen der Bewertung und des Managements von Finanztiteln auf effizienten Kapitalmärkten und mit Fragen der Managementkontrolle auf unvollkommenen Märkten. Der folgende selektive Überblick konzentriert sich auf zentrale Aspekte der Theorie und Empirie der Managementkontrolle bei asymmetrischer Information. Ziel ist die Auseinandersetzung mit der unlängst vorgetragenen These zu den Mythen der Unternehmenskontrolle (Martin Hellwig 1997). Der aktuelle Überblick wird entwickelt vor dem Hintergrund der Gutenberg’schen Position eines eigenständigen Unternehmensinteresses, losgelöst von den Interessen der shareholder oder anderer stakeholder. Diese Position von Gutenberg verbindet sich im dritten Band der „Grundlagen der BWL: Die Finanzen“ von 1969 mit der Forderung nach Einhaltung eines sog. finanziellen Gleichgewichts. Erst in jüngster Zeit werden auch kapitalmarkttheoretisch fundierte Modelle entwickelt, die auch Raum bieten für eine Autonomie des Managements gegenüber dessen stakeholders.
Fünf Jahre nach Beginn der Banken- und Staatsschuldenkrise („Finanzkrise“) kämpfen wir weiterhin mit den elementaren Problemen: Bei Märkten und Marktteilnehmern fehlt es an Stabilität und Vertrauen. Viele Banken stehen immer noch nicht auf eigenen Füßen und nehmen die ihnen in Europa traditionell zukommende zentrale Rolle für Wachstum und Entwicklung nicht wahr. Den guten Absichten, auf die sich die großen politischen Mächte während der ersten G-20 Treffen 2008 und 2009 verständigt hatten, ist eine Reihe von sinnvollen Ideen und Konzepten gefolgt. Die Voraussetzungen für einen grundlegenden reformerischen Erfolg sind somit gegeben – doch nun muss die Umsetzung folgen. Dazu bedarf es mutiger Entscheidungen. Im Jahr 2014 muss die europäische Politik gleich mehrere Weichen stellen. Der Bundesregierung kommt dabei die Schlüsselrolle zu. Sie muss den Mut haben zu radikaler Ordnungspolitik!
Wenn man untersuchen möchte, ob sich die Finanzsysteme verschiedener Länder im Verlauf der letzten Jahre aneinander angeglichen haben oder demnächst angleichen werden, braucht man ein Konzept zur Beschreibung von Finanzsystemen, durch das wesentliche Strukturen, deren Unterschiede und Veränderungen erkennbar werden, ohne dabei in "Systemgeschwafel" (D. Schneider) abzugleiten. Wir haben dafür das Konzept der Komplementarität als nützlich identifiziert. Der Beitrag stellt dieses Konzept vor und soll und seine Eignung belegen. Letztlich geht es dabei auch um die Frage, ob reale Finanzsysteme konsistente Systeme mit komplementären Elementen darstellen. Nach der Vorstellung der formalen Konzepte der Komplementarität und der Konsistenz wird "das Finanzsystem" auf seine Komple mentarität untersucht. Dazu wird ein Finanzsystem aus der Sicht von Unternehmen des nichtfinanziellen Sektors als ein System gekennzeichnet, das aus drei Teilsystemen besteht. Das erste Teilsystem ist das Finanzierungssystem einschließlich Finanzsektor und Mustern der Unternehmensfinanzierung, das zweite das Corporate Governance-System und das dritte das Unternehmens-Strategie-System. Für alle drei Teilsysteme wird – allgemein und mit Bezug auf die Finanzsysteme Deutschlands, Japans und der USA - gezeigt, inwieweit die Elemente der betreffenden Teilsysteme untereinander komplementär sind, und geprüft, ob sie in ihren Ausprägungen auch konsistent sind, d.h. wirklich "zueinander passen". Untersucht wird auch die Komplementarität und Konsistenz zwischen den Teilsystemen selbst. Der Beitrag endet mit Überlegungen über die Anwendung des Komplementaritätskonzepts. Dass ein Finanzsystem die Eigenschaft der Komplementarität aufweist, hat nicht nur weitreichende Implikationen für die Methodik der Analyse von Finanzsystemen, sondern auch für die Vorhersehbarkeit der Entwicklung von Finanzsystemen und damit für die Wahrscheinlichkeit einer Konvergenz von Finanzsystemen, für deren Effizienzeigenschaften und für die Möglichkeiten, Finanzsysteme durch gestaltende Eingriffe zu verbessern.
Beitrag fur das 27. Wirtschaftswissenschaftliche Seminar Ottobeuren 14.- 17.9.1997). Dieser Beitrag nimmt aus theoretischer und ökonometrischer Sicht zu der Kontroverse über die Bedeutung der qualifikatorischen Lohnstruktur zur Erklärung der Beschäftigungsstruktur Stellung. Basierend auf einer Einteilung in drei Qualifikationsgruppen zeigt sich empirisch, daß die Entlohnung der mittleren Gruppe relativ zur unteren und oberen weniger stark ansteigt, während ein kontinuierlicher Trend zur Höherqualifikation der Beschäftigten besteht. Es werden eine Translog-Kostenfunktion und Anteilsgleichungen ökonometrisch geschätzt, um den Einfluß der Lohnstruktur auf die Beschäftigungsstruktur zu erfassen. Bei allen Vorbehalten aufgrund verschiedener Probleme der Schätzungen implizieren die Ergebnisse einen signifikanten Einfluß der qualifikatorischen Struktur der mittleren Löhne auf die Beschäftigungsstruktur wie auch eine die relative Beschäftigung steigernde Wirkung einer erhöhten Lohndispersion innerhalb der Qualifikationsgruppen. Damit besteht die Möglichkeit, daß mit einer größeren Lohnspreizung die Lastverteilung der Arbeitslosigkeit bei gegebenem Output, Kapitaleinsatz und technischem Fortschritt in Form einer Erhöhung der Beschäftigung von gering qualifizierten Arbeitnehmern angeglichen werden kann.
Nach der 2008 startenden Finanzmarktkrise sind Maßnahmen zur Regulierung und Stabilisierung der Finanzmärkte in das Zentrum der politischen und der gesellschaftlichen Aufmerksamkeit gerückt. Insbesondere die hohen fiskalischen Kosten der Staaten zur Stützung ihrer Bankensysteme sowie die volkswirtschaftlichen Kosten infolge des Einbruchs des Wirtschaftswachstums in den Jahren nach der Insolvenz der US Investmentbank Lehman Brothers hatten einen globalen Konsens über die Notwendigkeit neuer Regulierungsmaßnahmen zur Folge. Im Ergebnis wurden das internationale Regulierungswerk Basel III sowie weitere nationale Maßnahmen zur Stabilisierung des Finanzsektors neu konzipiert und in Europa im Wege einer in nationales Recht umzusetzenden Richtlinie (die Capital Require-ments Directive IV - CRD IV) sowie einer Verordnung (die Capital Requirements Regulation CRR, welche unmittelbar geltendes Recht darstellt) eingeführt.
Vor diesem Hintergrund analysiert das vorliegende interdisziplinäre Gutachten die Auswirkungen der Regulierungsmaßnahmen, die zwischen 2008 bis zu Beginn des Jahres 2018 umgesetzt wurden auf dem deutschen Finanzsektor.
Gesprächsreihe zu Strukturreformen im europäischen
Bankensektor : Zukunft der Universalbanken
(2013)
In der zweiten Veranstaltung der „Gesprächsreihe zu Strukturreformen im europäischen Bankensektor“ diskutierten Professor Dr. Jan Pieter Krahnen und Dr. Michael Kemmer die Zukunft der Universalbanken. Anlass war der Vorschlag der Liikanen-Kommission, dass Finanzinstitute einen Teil ihres Investmentbankings, den Eigenhandel und das Market-Making, ab einer bestimmten Größenordnung ausgliedern sollen.
In der vierten Veranstaltung der „Gesprächsreihe zu Strukturreformen im europäischen Bankensek-tor“ diskutierte Dr. Elke König, Präsidentin der Bundesanstalt für Finanzdienstleistungsaufsicht (BaFin), die Wiederherstellung privater Haftung und die zukünftige Rolle der Aufsicht, insbesondere im Hinblick auf die Vorschläge der Liikanen-Kommission.
König warnte, dass man systemische Risiken, die vor allem während der Finanzkrise zu Problemen geführt hätten, noch nicht im Griff habe. Sowohl die Bankenaufsicht als auch die Wissenschaft suche immer noch nach einer geeigneten Lösung dieses Problems. Systemische Risiken führen dazu, dass komplexe und stark vernetzte Institute von Staaten gestützt werden, wenn diese ins Straucheln gera-ten. In der Finanzkrise hatte dies zur Folge, dass Banken letztlich vom Steuerzahler gerettet wurden. Diesen Quasi-Insolvenzschutz systemrelevanter Institute müsse man aufheben, um Fehlanreize im Markt zu korrigieren, so König. Verantwortung und Haftung für unternehmerisches Handeln müssten wieder in einer Hand liegen, und zwar in der der Institute, seiner Eigner und Gläubiger.
König ist deshalb der Meinung, dass ein einheitlicher Abwicklungsmechanismus für Banken notwen-dig sei, der auch grenzüberschreitend wirke. Als einen wichtigen Bestandteil dieses Mechanismus nannte sie die Umsetzung eines breiten Bail-ins. Durch Bail-in werden Eigentümer und Gläubiger von Bankinstituten an einer Restrukturierung beteiligt. Eine Umwandlung von Fremdkapital in Eigenkapi-tal kann darüber hinaus dazu dienen, ein Brückeninstitut mit Kapital auszustatten.
Zur konkreten Ausgestaltung von Bail-in-Instrumenten gibt es unterschiedliche Ansätze: Die Liikanen-Kommission plädierte in ihrem Vorschlag für eine Schaffung konkreter Bail-in-Anleihen, vergleichbar mit den Contingent Convertible Bonds (CoCo-Bonds), die in der Schweiz bereits eingeführt wurden. Die BaFin setze dagegen, ähnlich wie die Europäische Kommission, auf einen möglichst breiten An-satz und habe sich gegen die Emission einer neuen Gattung vertraglicher Bail-in-Instrumente ausge-sprochen, sagte König. Die Höhe der bail-in-fähigen Instrumente sowie die Reihenfolge der Haftung müssten aber trotzdem für jedes Institut klar definiert sein.
König betonte, dass es wichtig sei, nun die institutsspezifischen Sanierungs- und Abwicklungspläne zu entwickeln. Die BaFin habe mit der Erstellung der Abwicklungspläne auch schon begonnen. Bail-in sei dabei nur ein Baustein in dem wesentlich umfangreicheren Instrumentenkasten der Sanierungs- und Abwicklungspläne.
In der anschließenden Diskussion sagte König, dass es eine Abwicklungsbehörde für Institute, die in Zukunft einer europäischen Aufsicht unterliegen, derzeit nur auf nationaler Ebene geben könne. An-dernfalls sei eine Änderung der europäischen Verträge notwendig, da die Mittel, die für eine Abwick-lung aufgewendet werden müssten, aus nationalen Haushalten kämen. Bei einer Abwicklungsbehör-de auf europäischer Ebene würden die Haushaltsbelastung und die Entscheidung über die Verwen-dung der Mittel auseinanderfallen.
In der dritten Veranstaltung der „Gesprächsreihe zu Strukturreformen im europäischen Bankensektor“ diskutierten Professor Dr. Jan Krahnen und Dr. Theodor Weimer die Auswirkungen von Regulierung auf Bankverhalten und Wettbewerb, insbesondere im Hinblick auf die Vorschläge der Liikanen-Kommission. Weimer verwies auf die volkswirtschaftlichen Kosten einer zu strengen Bankenregulierung, u.a. negative Auswirkungen auf die Kreditvergabe. Weimer warnte auch davor, dass man in Europa, und gerade in Deutschland, strenger reguliere als in anderen Ländern. Krahnen erklärte, man habe durch die Liikanen-Vorschläge vor allem das Problem des systemischen Risikos im Bankensektor adressieren wollen. Außerdem sei es ein Ziel der Kommission gewesen, Banken so zu regulieren, dass der Steuerzahler im Krisenfall nicht länger für die Risiken der Banken haften müsse. Es sei notwendig, den Bankensektor zu reformieren, damit Banken abgewickelt werden könnten, auch wenn diese untereinander vernetzt sind.
Gesprächsreihe zu Strukturreformen im Europäischen Bankensektor: Managementvergütung im Bankensektor
(2013)
In der ersten Veranstaltung der „Gesprächsreihe zu Strukturreformen im europäischen Bankensektor“ diskutierten Professor Dr. Jan Krahnen und Dr. Thomas Mayer den im Liikanen-Bericht enthaltenen Vorschlag zur Managervergütung im Bankensektor. Der Vorschlag baut auf einem der Kernvorschläge der Liikanen-Kommission auf, nach dem Finanzinstitute gehalten sein sollen, einen Teil ihres Fremdkapitals so zu strukturieren, dass, bei Schieflage des Finanzinstituts, eine Inhaftungnahme der Gläubiger dieses Fremdkapitals möglich wird. Um dies zu erreichen, empfiehlt die Liikanen-Kommission für alle Banken, dass diese einen festgelegten Prozentsatz ihres Kapitals als „Bail-in Anleihen“ begeben müssen. Der Vorschlag zur Managervergütung sieht vor Bail-in Anleihen für die leistungsorientierte und anreizorientierte Entlohnung von Managern einzusetzen, um Anreize zu geben, die Risikopolitik des Unternehmens so zu verankern, dass auch längerfristig keine exorbitanten Risiken auftreten.
n der Literatur wird oftmals angeführt, dass die Grunderwerbsteuer weder aus Sicht des Äquivalenzprinzips noch aus Sicht des Leistungsfähigkeitsprinzips zu rechtfertigen ist und daher in einem modernen Steuersystem nichts verloren hätte. Das vorliegende Papier weist darauf hin, dass die Grunderwerbsteuer Parallelen zur Grundsteuer aufweist und sich, zumindest aus ökonomischer Sicht, in eine Grundsteuer umbauen ließe. Dies könnte insbesondere dann interessant sein, wenn die derzeitige deutsche Grundsteuer in eine reine Flächensteuer umgebaut wird, die den Wert der Bebauung unbesteuert lässt. Ein Umbau der Grunderwerbsteuer, bei der der Kaufpreis dynamisiert wird und dann einer jährlichen Steuer unterworfen wird, hat einige Vorteile. Diese resultieren daraus, dass der negative Effekt auf die Zahl der Immobilientransaktionen (Lock-in-Effekt) abgemildert würde. Könnte die Dynamisierung treffsicher an die regionale Immobilienpreisentwicklung angepasst werden, entfällt der Lock-in-Effekt für Immobilien, die bereits einmal der dynamisierten Grunderwerbsteuer unterworfen waren, sogar komplett. Dies hat nicht nur positive Effekte auf das Funktionieren des Wohnungs- und Arbeitsmarktes, sondern kann auch dem Problem der Share Deals entgegen wirken.
Der Beitrag führt in das sozialpsychologische Phänomen des Gruppendenkens ein. Kennzeichen und Gegenstrategien werden anhand von Zeugenaussagen vor dem Wirecard-Untersuchungsausschuss am Beispiel des Aufsichtsrats illustriert. Normative Implikationen de lege ferenda schließen sich an. Sie betreffen unabhängige Mitglieder (auch auf der Arbeitnehmerbank), Direktinformationsrechte im Unternehmen (unter Einschluss von Hinweisgebern) und den Investorendialog (auch mit Leerverkäufern).
Helmut Schlesinger: Wegbereiter und Garant der deutschen Geld- und Stabilitätspolitik wird 100
(2024)
Am 4. September 2024 vollendet Professor Dr. Helmut Schlesinger sein 100. Lebensjahr. Von 1991 bis 1993 bekleidete er das Amt des Präsidenten der Deutschen Bundesbank. Zuvor war er in verschiedenen Positionen für die Bank tätig, unter anderem als langjähriger Vizepräsident (von 1980 bis 1991) sowie als Leiter der Hauptabteilung Volkswirtschaft und Statistik. Das Jubiläum bietet Anlass, sein Lebenswerk zu beschreiben und zu würdigen. Für ehemalige Mitarbeiter war Helmut Schlesinger ein großes Vorbild und eine Quelle des Ansporns in vielerlei Hinsicht. Insbesondere vier Bereiche seiner Tätigkeiten haben die Arbeit seiner Mitarbeiter maßgeblich geprägt: Erstens seine Fähigkeit, ökonomisches Denken als eine Synthese aus Analyse und Statistik zu begreifen, zu vermitteln und zu organisieren, zweitens sein Verdienst, eine Stabilitätskultur in leitenden Positionen mitgeschaffen und bewahrt zu haben, drittens sein ordnungspolitisches Credo zur Preisstabilität und zur Unabhängigkeit der Zentralbank sowie viertens seine klaren Vorstellungen zu den Bedingungen einer erfolgreichen Europäischen Wirtschafts- und Währungsunion.
Im Folgenden soll ein Überblick über diese vier Schwerpunkte seiner Schaffensbilanz gegeben werden. In diesem Kontext ist insbesondere Schlesingers entscheidende Rolle bei der Schaffung der deutsch-deutschen Währungsunion 1990 sowie beim langjährigen Entstehungsprozess des Eurosystems und der Europäischen Zentralbank hervorzuheben. In der deutschen Bevölkerung, aber auch international hoch geachtet, wurde Helmut Schlesinger oft als die "Seele der Bundesbank" bezeichnet.Die Anforderungen, die er an jeden Einzelnen stellte, waren hoch. Er wurde von den Mitarbeitern sehr geschätzt, nicht zuletzt aufgrund seines großen Arbeitsethos und seiner unermüdlichen Schaffenskraft, die von Beständigkeit, Gradlinigkeit und Prinzipientreue geprägt waren.
Wir untersuchen, in welchem Ausmaß die Aktien deutscher Unternehmen im Zeitverlauf an ausländischen Börsen gehandelt werden. Es zeigt sich – nach anfänglich bedeutsamer Handelsaktivität im Ausland – ein ausgeprägter Rückfluss-Effekt nach Deutschland. Zweitnotierungen an ausländischen Börsen dienen der Verbreiterung der Aktionärsbasis und somit der Senkung der Kapitalkosten und letztendlich der Steigerung des Unternehmenswertes. Dazu ist ein ausreichendes Handelsvolumen an der ausländischen Börse unabdinglich. Daran gemessen sind die Auslandsnotierungen deutscher Unternehmen nicht erfolgreich. Dies ist jedoch nicht im gleichen Ausmaß für alle Unternehmen der Fall. Kleinere, wachsende Unternehmen und Unternehmen mit höherem Anteil des Auslandsumsatzes am Gesamtumsatz werden relativ stärker im Ausland gehandelt.
Im Schatten der Lowflation
(2014)
Im Jahr 2013 betrug der Anstieg des harmonisierten Konsumentenpreisindex im Euroraum 1,4 %. Vor dem Hintergrund der Niedrigzinspolitik der EZB überrascht diese Entwicklung. Alfons Weichenrieder erläutert wie der starke strukturelle Anpassungsbedarf in den meisten Euroländern von höheren Inflationsunterschieden profitieren könnte. Er weist auf die Gefahren einer längeren Niedrigzinsphase für Banken, Lebensversicherung und die Reduzierung der Staatsschulden hin. Da die traditionellen geldpolitischen Mittel weitgehend ausgereizt sind, wird die quantitative Lockerung als Instrument zur Bekämpfung einer Deflation nicht mehr ausgeschlossen. Im Falle eines Ankaufprogrammes wird es auf einen glaubwürdigem Regelrahmen ankommen.
Inflation ist ein Konstrukt. Sie wird von unterschiedlichen Akteuren unterschiedlich wahrgenommen. Zum Teil passiert dies, weil Warenkörbe differieren, zum Teil weil Erwartungen unterschiedlich gebildet werden. Dieser Beitrag diskutiert die Heterogenität der Inflation und ihrer Wahrnehmung und was dies für die Zielgröße der Zentralbankpolitik bedeutet.
Kursänderungen auf Aktienmärkten können informationsinduziert durch neu zu verarbeitende Informationen oder liquiditätsinduziert durch kurzfristige Angebots- bzw. Nachfrageüberhänge auftreten. Diese zwei so unterschiedlich verursachten Kursreaktionen sind in empirischen Untersuchungen nur schwer zu trennen. Das Modell von Easley, Kiefer, O’Hara und Paperman (1996) bietet eine theoretische Basis zur separaten Erfassung von liquiditätsorientiertem und informationsbasiertem Handel und eröffnet darüber hinaus auch einen Weg zur empirischen Quantifizierung dieser Größen.
In der vorliegenden Untersuchung nutzen wir diesen Ansatz zur Analyse des Handels deutscher Aktien über das Computerhandelssystem IBIS. Dabei zeigt sich, daß innerhalb der DAX-Werte Informationsereignisse bei den sehr stark gehandelten Aktien nicht häufiger als bei weniger oft gehandelten Werten auftreten. Die Unterschiede im Handelsvolumen sind auf unterschiedlich starke Handelsaktivität sowohl informierter als auch uninformierter Marktteilnehmer zurückzuführen. Weiterhin zeigt sich, daß das Risiko, mit informierten Marktteilnehmern zu handeln, bei den sehr umsatzstarken Aktien am geringsten ist.
In Einklang mit dem sogenannten Montagseffekt ist die Wahrscheinlichkeit für das Auftreten von negativen Informationsereignissen zu Wochenanfang besonders groß. Dieses Ergebnis könnte durch eine Tendenz von Managern erklärt werden, negative Informationen freitags nach Börsenschluß zu veröffentlichen. Eine getrennte Untersuchung für Handelstage mit niedriger und solche mit hoher Volatilität zeigt, daß an Handelstagen mit höherer Volatilität die Handelsintensität sowohl informierter als auch uninformierter Investoren größer ist. Auch die Wahrscheinlichkeit, an solchen Tagen mit besser informierten Marktteilnehmern zu handeln, steigt. Dieser Anstieg ist allerdings nicht statistisch signifikant.
Die Öffnung des deutschen Bilanzrechts bewirkt eine zunehmende Anwendungsbreite von internationalen Rechnunungslegungsnormen (wie insbesondere der US-GAAP und der IAS) für deutsche Rechtsanwender;1 die heterogenen Normtypen und die – damit einhergehend – unterschiedlichen ökonomischen Eigenschaften dieser Normen erfordern für einen sinnvollen Rechnungslegungsvergleich eine komparative Rechnungslegungstheorie. Eine Besinnung auf die ökonomische Theorie ist – auch ausgelöst durch die Internationalisierung der Rechnungslegung – hier grundsätzlich festzustellen,2 wie auch das moderne deutsche Bilanzrecht seine heutige Prägung durch die ökonomische Theorie – und nicht vornehmlich durch die Anwender – erhielt.3 Es ist das Ziel des Aufsatzes, einen Beitrag zu einer institutionenökonomischen Theorie der Rechnungslegung zum Zweck der Bestimmung von Informationsinhalten und Gewinnansprüchen sowie zur vergleichenden Rechnungslegungstheorie zu leisten. In einem ersten Hauptteil (2) wird im folgenden – auf dem institutionenökonomischen Forschungsprogramm aufbauend – skizziert, welche Bedeutung Institutionen im Rahmen des Nutzenkalküls von Entscheidern zuzumessen ist; danach werden die einzelnen für eine vergleichende Rechnungslegung relevanten Institutionsarten typisiert (in formale und informelle Regeln) sowie deren Attribute im individuellen Zielstromkalkül eingeführt (nämlich Prädikate der Manipulationsfreiheit und Prädikate der Entscheidungsverbundenheit). Das Verhältnis der Institutionen zueinander wird im folgenden Abschnitt (3) anhand eines rechtlich geprägten und eines ökonomischen Systemverständnisses entwickelt. Es wird gezeigt, daß beide Systembegriffe auf einer Nichtadditivität der sie konstituierenden Institutionen gründen, die den qualitativen Vergleich unterschiedlicher Systeme erschweren; man überschätzt hingegen die Unterschiede zwischen juristischem und ökonomischem Systemverständnis: beide sind funktionsähnlich. Im letzten Hauptteil (4) werden schließlich vor dem Hintergrund einer gestaltenden Theorie die hierfür relevanten Teilbereiche (Sub-Systeme) der Rechnungslegungsordnung vorgestellt sowie einzelne Publizitätsnormen funktional ausgelegt. Der Beitrag schließt mit zusammenfassenden Thesen (5).
Ja, der Ablauf der Lock-up-Frist ist ein kursrelevantes Ereignis. Wir untersuchen Kursreaktionen auf das Ende der Lock-up-Frist bei 142 Unternehmen des Neuen Marktes. Da der Ablauf der Sperrfrist bereits zum Zeitpunkt des Börsengangs bekannt ist, erwarten wir bei einem (semi-)informationseffizienten Kapitalmarkt durchschnittlich keine Kursreaktion. Im Rahmen einer Ereignisstudie zeigen wir aber, dass sich am Ende der Sperrfrist signifikant negative Überrenditen ergeben. Durch eine differenzierte Analyse stellen wir fest, dass firmenspezifische Faktoren (Volatilität, Performance, Free Float) die Kursreaktionen am Ende der Lock-up-Periode beeinflussen. Die Befunde unserer Untersuchung belegen die Notwendigkeit klarer Regeln für mehr Transparenz nach dem Börsengang. Bedeutsam sind die vorliegenden Ergebnisse vor allem vor dem Hintergrund der aktuellen Diskussion um eine Erweiterung der insiderrechtlichen Meldepflichen im Rahmen des 4. Finanzmarktförderungsgesetzes. This paper explores the materiality of expirations of lock-up provisions that prevent insiders from selling their shares after the initial public offering (IPO). We examine 172 lock-up agreements of 142 IPOs floated on Germany’s New Market. Since the date of the lock-up expiration is common knowledge at the IPO, we would not expect to find abnormal returns surrounding the event day, assuming that markets are informationally efficient. However, using an event-study methodology we detect statistically significant negative abnormal returns and a twenty-five percent increase in trading volume surrounding lock-up expiration. The negative abnormal returns are larger for firms with high volatility, superior performance after the IPO, and low free float. The results of our study raise important regulatory issues with respect to disclosure rules of firms going public. We argue that insiders should be legally required to disclose their sell transactions in order to protect new and less informed shareholders.
Joseph E. Stiglitz (1943 - )
(2000)
Am 24.11.1999 gibt Joseph E. Stiglitz seinen vorzeitigen Rücktritt als Chief Economist und Senior Vice President der Weltbank zum Jahresende bekannt. Er will sich wieder ausschließlich der Forschung und Lehre widmen und kehrt auf seinen Lehrstuhl am Economics Department der Stanford University zurück. Stiglitzs Rückzug aus der aktiven Entwicklungspolitik erfolgt nicht ganz freiwillig. Er selbst kommentiert seinen Entschluß: „It has become obvious to me that it would be difficult to continue to speak out as forcefully and publicly as I have on a variety of issues and still remain as chief economist. Rather than muzzle myself, or be muzzled, I decided to leave.“ (New York Times, 1.12.1999). Seit geraumer Zeit galt seine öffentliche Kritik am Washington Consensus, dem ökonomischen Glaubensbekenntnis, auf das sich die politische Linie des US Treasury genauso stützt wie die Stabilisierungs- und Reformpolitik des IWF, als Dorn im Auge der Vertreter dieser Institutionen. Für sie war Stiglitz - so die Metapher der Financial Times vom 26.11.99 - „a veritable gadfly“, eine wahre Viehbremse, deren lästiges Summen aufgrund von Position und Intellekt nicht einfach ignoriert werden konnte. ...
Kapitalmarktorientierte Risikosteuerung in Banken : Marktwertsteuerung statt Marktzinsmethode
(2005)
In diesem Beitrag wird das Konzept der Marktzinsmethode als Grundlage der dualen Risikosteuerung von Kredit- und Marktpreisrisiken in Frage gestellt. Die Kreditrisiken einer Bank implizieren bonitätsinduzierte Marktpreisrisiken und bankspezifische Refinanzierungskosten. Während die bonitätsinduzierten Marktpreisrisiken in der dualen Risikosteuerung keine Berücksichtigung finden, werden die bankspezifischen Refinanzierungskosten zwar erkannt, aber bankintern nicht verursachungsgerecht zugeordnet. Das Grundmodell der Marktzinsmethode bietet keine Lösungsansätze zur Behebung dieser Probleme. Demgegenüber lassen sich die Fehlsteuerungsimpulse von vornherein durch eine konsequente Marktbewertung (Mark to Market) aller Finanzinstrumente vermeiden. Als Ausblick werden erste Überlegungen zur Implementierung einer umfassenden Marktwertsteuerung in Banken entwickelt und exemplarisch ein hierfür geeignetes Bewertungsmodell vorgestellt.
Stellungnahme zum Entwurf eines Gesetzes zur Umsetzung der Richtlinie 2014/59/EU (BRRD-Umsetzungsgesetz) der Bundesregierung vom 22.09.2014
Der Gesetzentwurf der Bundesregierung zur Umsetzung der EU-Richtlinie 2014/59/EU zur Festlegung eines Rahmens für die Sanierung und Abwicklung von Kreditinstituten und Wertpapierfirmen (“BRRD-Umsetzungsgesetz“) berührt auch die Frage der institutionellen Struktur für die Zuständigkeit für Bankenaufsicht und Geldpolitik. Es gibt gewichtige Gründe dafür, auf lange Sicht die Geldpolitik von der Bankenaufsicht und möglichen Bankenabwicklungs- und -restrukturierungsfragen institutionell zu trennen. Bei einer Trennung ist zu beachten, dass alle Institutionen für ihre jeweiligen Mandate gleichberechtigt auf erstklassige Daten über die Kapitalmärkte und die Transaktionen und Bilanzen der Banken zugreifen müssen. Ein Y-Modell, in dem zwei voneinander unabhängige Institutionen auf eine gemeinsame Datenbasis aufsetzen, kann im deutschen Kontext erreicht werden, indem die Bundesbank und die Bafin in einer Institution zusammengeführt werden, wobei sowohl die Aufsicht wie auch die Geldpolitik als Anstalt in der Anstalt (AIDA) geführt werden. Im Rahmen dieser „doppelten AIDA“-Lösung können beide Anstalten gleichberechtigt auf eine Datenbasis zugreifen. Die Daten werden im Rahmen der Mandate von Geldpolitik und Aufsicht wie bisher bundesweit erhoben. Die Entwicklung und spätere Einführung des Y-Modells („doppelte AIDA“) würde auch einen Modellcharakter für die noch zu führende Debatte um eine sinnvolle Institutionenstruktur für Europa haben.
Der Einsatz von Künstliche Intelligenz (KI) – Technologien eröffnet viele Chancen, birgt aber auch viele Risiken – insbesondere in der Finanzbranche. Dieses Whitepaper gibt einen Überblick über den aktuellen Stand der Anwendung und Regulierung von KI-Technologien in der Finanzbranche, und diskutiert Chancen und Risiken von KI. KI findet in der Finanzbranche zahlreiche Anwendungsgebiete. Dazu gehören Chatbots, intelligente Assistenten für Kunden, automatischer Hochfrequenzhandel, automatisierte Betrugserkennung, Überwachung der Compliance, Gesichtserkennungssoftware zur Kundenidentifikation u. v. m. Auch Finanzaufsichtsbehörden setzen zunehmend KI-Anwendungen ein, um große und komplexe Datenmengen (Big Data) automatisiert und skalierbar auf Muster zu untersuchen und ihren Aufsichtspflichten nachzukommen.
Die Regulierung von KI in der Finanzbranche ist ein Balanceakt. Auf der einen Seite gibt es eine Notwendigkeit Flexibilität zu gewährleisten, um Innovationen nicht einzudämmen und im internationalen Wettbewerb nicht abgehängt zu werden. Strenge Auflagen können in diesem Zusammenhang als Barriere für die erfolgreiche Weiter-)Entwicklung von KI-Applikationen in der Finanzbranche wirken. Auf der anderen Seite müssen Persönlichkeitsrechte geschützt und Entscheidungsprozesse nachvollziehbar bleiben. Die fehlende Erklärbarkeit und Interpretierbarkeit von KI-Modellen entsteht in erster Linie durch Intransparenz bei einem Großteil heutiger KI-Anwendungen, bei welchen zwar die Natur der Ein- und Ausgaben beobachtbar und verständlich ist, nicht jedoch die genauen Verarbeitungsschritte dazwischen (Blackbox Prinzip).
Dieses Spannungsfeld zeigt sich auch im aktuellen regulatorischen Ansatz verschiedener Behörden. So werden einerseits die positiven Seiten von KI betont, wie Effizienz- und Effektivitätsgewinne sowie Rentabilitäts- und Qualitätssteigerungen (Bundesregierung, 2019) oder neue Methoden der Gefahrenanalyse in der Finanzmarktregulierung (BaFin, 2018a). Andererseits, wird darauf verwiesen, dass durch KI getroffene Entscheidungen immer von Menschen verantwortet werden müssen (EU Art. 22 DSGVO) und demokratische Rahmenbedingungen des Rechtsstaats zu wahren seien (FinTechRat, 2017).
Für die Zukunft sehen wir die Notwendigkeit internationale Regularien prinzipienbasiert, vereinheitlicht und technologieneutral weiterzuentwickeln, ohne dabei die Entwicklung neuer KIbasierter Geschäftsmodelle zu bremsen. Im globalen Wettstreit sollte Europa bei der Regulierung des KI-Einsatzes eine Vorreiterrolle einnehmen und damit seine demokratischen Werte der digitalen Freiheit, Selbstbestimmung und das Recht auf Information weltweit exportieren. Förderprogramme sollten einen stärkeren Fokus auf die Entwicklung nachhaltiger und verantwortungsvoller KI in Banken legen. Dazu zählt insbesondere die (Weiter-)Entwicklung breit einsetzbarer Methoden, die es erlauben, menschen-interpretierbare Erklärungen für erzeugte Ausgaben bereitzustellen und Problemen wie dem Blackbox Prinzip entgegenzuwirken.
Aus Sicht der Unternehmen in der Finanzbranche könnte eine Kooperation mit BigTech-Unternehmen sinnvoll sein, um gemeinsam das Potential der Technologie bestmöglich ausschöpfen zu können. Nützlich wäre auch ein gemeinsames semantisches Metadatenmodell zur Beschreibung der in der Finanzbranche anfallenden Daten. In Zukunft könnten künstliche Intelligenzen Daten aus sozialen Netzwerken berücksichtigen oder Smart Contracts aushandeln. Eine der größten Herausforderungen der Zukunft wird das Anwerben geeigneten Personals darstellen.
Die Erklärung von Intelligenz fasziniert Menschen seit Jahrtausenden, scheint sich doch mit ihr die menschliche Singularität gegenüber Natur und Tier zu manifestieren. Zugleich betonen nicht nur philosophische Strömungen, sondern auch die Mathematik, die Neuro- und die Computerwissenschaften die Abhängigkeit menschlicher Intelligenz von mechanistischen Prozessen. Ob damit eine Verwandtschaft beider Formen der Informationsverarbeitung verbunden ist oder genau umgekehrt fundamentale Unterschiede bestehen, ist seit knapp hundert Jahren Gegenstand wissenschaftlicher Kontroversen. Fest steht allerdings, dass Maschinen jedenfalls in manchen Bereichen die menschliche Leistungsfähigkeit in Schnelligkeit und Präzision übertreffen können. Nähert man sich dieser Vorstellung, drängt sich die Frage auf, ob es sich empfiehlt, bestimmte Entscheidungen besser von Maschinen treffen, jedenfalls aber unterstützen zu lassen. Neben Ärzten, Rechtsanwälten und Börsenhändlern betrifft das auch Leitungsentscheidungen von Unternehmensführern.
Vor diesem Hintergrund wird im Folgenden ein Überblick über Formen künstlicher Intelligenz (KI) gegeben. Im Anschluss fokussiert der Beitrag auf die Rolle von KI im Kontext von Vorstandsentscheidungen. Dazu zählen allgemeine Sorgfaltspflichten, wenn über den Einsatz von KI im Unternehmen zu entscheiden ist. Geht es um die Unterstützung gerade von Vorstandsentscheidungen stellen sich zusätzlich Fragen der Kooperation von Mensch und Maschine, der Delegation des Kernbestands von Leitungsentscheidungen und der Einstandspflicht für KI.
Am 6. Februar 2013 hat die Bundesregierung den "Entwurf eines Gesetzes zur Abschirmung von Risiken und zur Planung der Sanierung und Abwicklung von Kreditinstituten und Finanzgruppen” veröffentlicht. Artikel 2 des Gesetzesentwurfs sieht vor bei systemrelevanten Finanzinstitutionen das Einlagen- und Kreditgeschäft vom Handelsgeschäft abzutrennen. Die Zielsetzung des Gesetzentwurfs, Kapitalkosten wieder in direkte Abhängigkeit des Risikos von Geschäftsfeldern zu setzen und eine Abwicklung zu erleichtern, die ohne den Einsatz von Steuermitteln gelingen kann, ist begrüßenswert. In seiner derzeitigen Ausgestaltung läuft der Gesetzesentwurf jedoch Gefahr, zwar symbolträchtig zu sein, aber in der Zielerreichung hinsichtlich Stabilität des Finanzmarktes und Schutz von Einlegern und Steuerzahlern hinter den Erwartungen zurückzubleiben.
Der vorliegende Beitrag zeigt auf, wie hedonische Preisindizes für Immobilien auf der Basis von Transaktionen berechnet werden können. Der Heterogenität der Immobilien wird dabei durch ein ökonometrisches Modell Rechnung getragen, wobei in dieser Arbeit das Problem der Wahl einer geeigneten Funktionsform durch eine Transformation nach dem Ansatz von Box/Cox (1964) explizit berücksichtigt wird. Die Datenbasis deckt etwa 65% der Transaktionen des Wohnungsmarktes im Zeitraum 1990-1999 ab. Die Korrektur aufgrund unvollständiger Angaben führt zu einem Datensatz von 84 686 Transaktionen. Dieser Datensatz ist ein Vielfaches dessen, was bisher vergleichbaren Studien zugrunde lag und stellt damit eine international einmalige Datengrundlage dar.