Working Paper
Refine
Year of publication
Document Type
- Working Paper (190) (remove)
Language
- German (190) (remove)
Has Fulltext
- yes (190)
Is part of the Bibliography
- no (190)
Keywords
- Deutschland (37)
- Corporate Governance (11)
- Einkommensverteilung (7)
- Schätzung (7)
- Bankenunion (6)
- Börsenkurs (6)
- Regulierung (6)
- Geldpolitik (5)
- Anreizsystem (4)
- Arbeitsmarktpolitik (4)
Institute
- Wirtschaftswissenschaften (190) (remove)
Im Jahr 1564 veröffentlicht der Ulmer Militärexperte und -schriftsteller Leonhard Fronsperger die Schrift "Von dem Lob deß Eigen Nutzen", in der er darlegt, dass die konsequente Verfolgung des eigenen Nutzens als individuelle Handlungsmaxime im Ergebnis zu einer Förderung des Gemeinwohls führt. Das etwas mehr als hundert Seiten umfassende Werk wird in Frankfurt am Main, einem Zentrum des europäischen Buchdrucks und -handels, verlegt und findet Erwähnung im ersten veröffentlichten Katalog der Frankfurter Buchmesse. Fronsperger präsentiert seine für die damalige Zeit durchaus revolutionäre These in der Form eines satirischen Enkomions und unterlegt sie mit einer umfangreichen Gesellschaftsanalyse. Er stellt fest, dass die politischen Herrschaftsformen, die gesellschaftlichen Institutionen und die wirtschaftlichen Handelsbeziehungen auf einer konsequenten Verfolgung des eigenen Nutzens aller Akteure beruhen und dass sich die von der Kirche geforderte Ausrichtung des individuellen Handelns am Gemeinwohl in der Realität nicht finden lässt. Vielmehr hält er die Kritik der Theologen am egoistischen Handeln des Einzelnen für falsch, empfindet er doch den Staat, Wirtschaft und Gesellschaft im Großen und Ganzen als gut funktionierend.
Im Folgenden dokumentieren wir zunächst die Biografie des Autors, die Entstehung und Verbreitung des Werks und seine besondere literarische Form. Anschließend diskutieren wir die zentrale These in drei verschiedenen geistesgeschichtlichen Kontexten, die jeweils von besonderer Bedeutung für die Herausbildung der neuzeitlichen Gesellschafts- und Wirtschaftstheorien sind. Erkenntnis- und staatstheoretisch weist Fronspergers Werk deutliche Parallelen zu den Analysen auf, die Niccolò Machiavelli und später Giovanni Botero in Italien zur Bedeutung der auf den individuellen fürstlichen Interessen basierenden Staatsräson bzw. zu den Triebkräften erfolgreicher Stadtentwicklung vorlegten. Markante Unterschiede gibt es dagegen zu den Ansichten der deutschsprachigen Reformatoren im Anschluss an Luther, die zwar die Unterscheidung zwischen geistlicher und weltlicher Sphäre propagieren und damit die Entwicklung einer eigenständigen Moral für das Wirtschaftsleben befördern, dort allerdings mehrheitlich die Orientierung am "Gemeinen Nutzen" propagieren. Indem Fronsperger dagegen die Verfolgung des Eigennutzes fordert, nimmt er wirtschafts- und gesellschaftstheoretische Einsichten über das Wesen und die Auswirkungen der Arbeitsteilung vorweg, die erst 150 Jahre und später von Bernard Mandeville und Adam Smith in England und Schottland formuliert wurden. Das Werk Fronspergers bietet damit ein herausragendes Beispiel dafür, wie sich aus dem Zusammenspiel von wirtschaftlichem Erfolg, einem realistischen Menschenbild und manchen Aspekten der Reformation in deren Folge ein neues normatives Verständnis von den Antriebskräften ökonomischer und gesellschaftlicher Dynamik entwickelt, das später als der "Geist des Kapitalismus" bezeichnet wird.
Die vorliegende Untersuchung der effektiven Stundenlöhne in Deutschland erfolgte im Hin-blick auf die Frage nach der Ungleichheit ihrer Verteilung und der Einhaltung eines Kriteri-ums minimaler Leistungsgerechtigkeit. Ausgangspunkt ist die Annahme eines komplexen Gerechtigkeitsempfindens in der Gesellschaft, das neben dem Marktmechanismus als einem Motor für Leistung und leistungsabhängige Einkommen auch individuelle Anstrengungen sowie die Folgen faktischer Marktunvollkommenheiten bzw. faktischen Marktversagens berücksichtigt. Zur Approximation der ergänzenden Aspekte von Leistungsgerechtigkeit wird an relative Lohnpositionen angeknüpft: Lohneinkommen, die einen gesellschaftlichen Mittelwert sehr weit – bezogen auf den Durchschnitt um mehr als die Hälfte, und alternativ bezogen auf den Median um mehr als ein Drittel – unterschreiten, gelten als Indikator für Zielabweichungen. Implizit wird damit unterstellt, dass individuelle Leistungsunterschiede begrenzt, die aus dem Marktmechanismus folgende Differenzierungen aber grenzenlos sind. Die sich aus dem hier gewählten Kriterium ergebenden Niedriglohngrenzen entsprechen ungefähr alternativ abgeleiteten Grenzwerten, die aus der Norm folgen, dass eine Vollzeiterwerbstätigkeit mindestens das eigene sozio-kulturelle Existenzminimum zuzüglich einer Leistungskomponente sichern sollte. Neben dem Aspekt minimaler Leistungsgerechtigkeit für den unteren Rand der Verteilung werden keine weiteren konkreten Normen zur Beurteilung der Zielangemessenheit der beobachteten Verteilung der Lohnsätze gesetzt. Dies würde den Rahmen dieser Untersuchung sprengen. Die empirische Analyse auf Basis des Sozio-ökonomischen Panels (SOEP) und der Einkommens- und Verbrauchsstichprobe (EVS) konzentriert sich auf das Jahr 2003 und wird ergänzt um einige Auswertungen für 1998, die allerdings nur mit dem SOEP durchgeführt werden können. Obwohl aus dem SOEP generell eine größere Ungleichheit der Verteilung resultiert, halten sich die Unterschiede zwischen den Ergebnissen beider Datenquellen in Grenzen. ...
In Absatz 3 des Artikel 136 des Vertrags über die Arbeitsweise der EU (AEUV) wurde für die Verwendung von ESM Geldern festgelegt, dass diese nur dann zur Gewährung von Finanzhilfen verwendet werden dürfen, wenn „... dies unabdingbar ist, um die Stabilität des Euro-Währungsgebiets insgesamt zu wahren." Im vorliegenden Artikel argumentiert Alfons Weichenrieder, dass die nach dem griechischen Referendum entstandene Situation, die Stabilität des “Euro-Währungsgebiets insgesamt" nicht bedroht, so dass die Vergabe von neuen Krediten, zumal diese voraussichtlich unter weichen und im Zweifel nicht durchsetzbaren Auflagen vergeben würden, ein offensichtlicher Verstoß gegen die Grundlagen des ESM wäre.
In the aftermath of the Wirecard scandal the German lead stock market index DAX has undergone a series of reforms, including the introduction of a profitability criterion based on EBITDA for new DAX members and enhanced financial reporting requirements with specified sanctions for non-compliance. Furthermore, DAX members need to adhere to certain provisions in the German Corporate Governance Code relating to audit committees. The final step of the reform was implemented in September 2021: the extension of the DAX from 30 to 40 constituents, with the ranking based solely on the free float market capitalisation. After one year of experience with the new design of the DAX, this paper concludes that the reform has strengthened the DAX in terms of diversification, quality and adaptability. However, there is still room for further improvement by introducing a minimum ESG score for DAX companies and thus making sustainability a relevant factor in the selection process. In addition, full compliance with the recommendations of the German Corporate Governance Code should be a condition for DAX companies. Furthermore, the profitability criterion should be applied on a continuous basis to ensure that loss-making companies can be excluded from the DAX after a grace period.
Mit einem um die Behandlungskapazität des Gesundheitssystems erweiterten epidemiologischen SIRD-Modell werden Mechanismen und Dynamik einer Virusepidemie wie Corona anhand von stilisierten politischen Reaktionsmustern (Ignore, Shutdown, Ignore-Shutdown-Relax) simuliert. Ferner werden aus dem Modell Lehren für die statistische Analyse von Corona gezogen, wie die Aussagekraft publizierter Verdopplungszeiten und Reproduktionszahlen. Die Dunkelziffer unbestätigter Fälle und die im Epidemieverlauf variable Genauigkeit von medizinischen Infektionstests werden diskutiert. Zur Messung der medizinischen Kosten von Corona sowie für regionale und internationale Vergleiche wird ein Schadensindex der verlorenen Lebenszeit vorgeschlagen. Zuletzt geht die Arbeit kurz auf die ökonomischen Kosten von Corona in Deutschland ein.
Empirische Wohlstandsanalysen können prinzipiell anhand dreier Indikatoren durchgeführt werden: Anhand des Privaten Verbrauchs, anhand des verfügbaren Einkommens oder anhand des Nettovermögens.1 Während es für die Definition der Indikatoren des Privaten Verbrauchs und des verfügbaren Einkommens zumindest einigermaßen akzeptierte internationale Konventionen gibt, ist dies bezüglich der Definition des privaten Vermögens nicht annähernd der Fall. Im Unterschied zu den Volkseinkommensrechnungen sind Volksvermögensrechnungen im internationalen Maßstab deutlich weniger gut ausgebaut. Dies mag damit zusammenhängen, daß bei einer Bestandsgröße wie dem privaten Vermögen Aspekte der Verwertung, Nutz-ung, sozialen Absicherung wie auch der Verleihung von Macht2 intensiver zum Tragen kommen als bei einer Stromgröße wie dem privat verfügbaren Haushaltseinkommen. Aus welchen Bestandteilen sich das Gesamtvermögen zusammenzusetzen hat, ist daher einem heftigeren Diskurs als bei den anderen Wohlstandsindikatoren ausgesetzt. Es herrscht beispielsweise Uneinigkeit darüber, ob das Human- oder das Sozialvermögen sinnvolle Vermögenskomponenten sind. Eine eher negative Einschätzung in diesem Zusammenhang wird üblicherweise damit begründet, daß beide potentiellen Gesamtvermögensbestandteile das Kriterium der interpersonellen Veräußerbarkeit nicht bzw. nur unzureichend erfüllen.1 Auch ist die Forschung vor zum Teil schwer überwindbare Bewertungsprobleme einzelner Vermögenskomponenten gestellt, und zwar stärker als bei den beiden anderen Wohlstandsindikatoren, bei denen zumindest die überwiegende Anzahl an Teilelementen mittels nachvollziehbarer Marktpreise vergleichsweise einfach bewertet werden kann. Hinzu kommt die schlechtere Datenlage hinsichtlich der Erfassung privaten Vermögens im Vergleich zum Privaten Verbrauch bzw. verfügbaren Haushaltseinkommen, was nicht zuletzt auf die - in Befragungen - (noch) größere Sensibilität der Interviewten bezüglich der Beantwortung vermögensbezogener Fragen im Vergleich zu den beiden anderen Wohlstandsindikatoren zurückzuführen ist. Alles in allem bleibt festzuhalten, daß allein die Deskription der Höhe und Verteilung privat gehaltenen Vermögens eine höchst komplexe Aufgabe ist. Es ist daher keineswegs unwahrscheinlich, daß verschiedene Vermögensanalysen selbst auf einer einheitlichen Datengrundlage zu zum Teil entgegengesetzten Aussagen gelangen werden. Diesen letztgenannten Gedanken aufgreifend, werden in der vorliegenden Studie in beispielhafter Form drei auf Basis der Einkommens- und Verbrauchsstichprobe (EVS) 1988 durchgeführte Analysen zur bundesdeutschen Vermögensverteilung privater Haushalte einer vergleichenden Betrachtung unterzogen. Es wird gezeigt, an welchen Stellen Abweichungen zwischen den einzelnen Studien auftreten und worauf diese (vermutlich) zurückzuführen sind. Das vorliegende Arbeitspapier ist wie nachfolgend aufgebaut. Kapitel 2 vermittelt einen Eindruck von der Datenbasis, auf der die drei genannten Studien jeweils basieren, Kapitel 3 schildert kurz die Konstruktionselemente der drei behandelten Analysen, und in Kapitel 4 werden in einer Gegenüberstellung der drei Studien Unterschiede kausal herausgearbeitet. Es folgt in Kapitel 5 eine Bewertung der Untersuchungsergebnisse.
In diesem explorativen Beitrag machen wir uns Gedanken über die Zukunft von Deutscher Bank und Commerzbank und entwickeln einen neuen Zugang zu dem Thema: Statt einer Fusion von DB und CB schlagen wir eine Teilfusion nur der Datenzentren vor – es entsteht auf diese Weise die Grundlage für eine Open Banking Plattform als „utility“, also als Betrieb im Eigentum der Nutzer, an der perspektivisch weitere Finanzinstitute teilnehmen können. Die über die Daten kooperierenden Institute bleiben mit Blick auf Produkte und Dienstleistungen unverändert Konkurrenten – „national champions“ entstehen auf diese Weise nicht. Aber es wird damit in Europa die Basis für einen erfolgversprechenden Wettbewerb mit den großen Datenplattformen aus USA und China (Facebook, Amazon, Alipay) gelegt, die früher oder später in den Finanzmarkt eindringen werden. Das von uns vorgeschlagene Modell einer offenen Datenplattform für Banken verhindert das Entstehen von „national champions“ und schützt damit auch das Kernanliegen der Bankenunion: Die Schaffung eines Finanzsystems, dessen Banken jede für sich ausscheiden können ohne eine systemische Krise auszulösen, und ohne den Steuerzahler zu einer Rettungsaktion zu zwingen
Thema dieser Arbeit ist eine ökonomische Einordnung der Förderung der beruflichen Weiterbildung (FbW) als Teil der Aktiven Arbeitsmarktpolitik in Deutschland. Die Analyse erfolgt im Lichte des sektoralen Wandel, der Verschiebung der qualifikatorischen Arbeitsnachfrage und der vorrauszusehenden Produktivitätseffekte im Zusammenhang mit einer alternden Gesellschaft. Auf Basis der Humankapitaltheorie wird zunächst theoretisch erörtert, inwieweit sich FbW als Teil der Aktiven Arbeitsmarktpolitik aus Effizienz- und Verteiliungsgesichtspunkten rechtfertigen lässt und in welcher Form FbW sinnvoll sein kann.
Im Mittelpunkt dieses Beitrag stehen Verweildauermodelle und deren Verwendung als Analyseinstrumente für die Bewertung und Berechnung von Kreditausfallrisiken. Verschiedene Möglichkeiten zur Berechnung der Dauer des Nichtausfalls eines Kredites werden dabei vorgestellt. Die hier vorgestellten Verfahren werden auf einen aus Kreditakten von sechs deutschen Universalbanken zusammengestellten Datensatz angewendet. Beispiele und Interpretationshilfen zu den jeweils vorgestellten Methoden erleichtern den Zugang zu diesen Modellen. Es werden zahlreiche Hinweise auf weiterführende Literatur gegeben.
Dieser Beitrag stellt verschiedene ökonometrische Methoden zur Bewertung und Berechnung von Kreditausfallrisiken vor und wendet diese auf einen Datensatz sechs deutscher Universalbanken an. Im Mittelpunkt stehen dabei Logit- und Probitmodelle, mit deren Hilfe die Ausfallwahrscheinlichkeit eines Kredites geschätzt werden kann. Dabei werden auch moderne Verfahren zur Analyse von Paneldaten besprochen. Beispiele undInterpretationshilfen zu den jeweils vorgestellten Methoden erleichtern den Zugang zu diesen Modellen. Es werden zahlreiche Hinweise auf weiterführende Literatur gegeben.
Dieser Beitrag vergleicht mit einheitlicher Methodik die Mobilität des individuellen Bruttoarbeitseinkommens, des Bruttoäquivalenzeinkommens und des Nettoäquivalenzeinkommens in Westdeutschland, Ostdeutschland, Großbritannien, den USA und Ungarn mit Panel-Daten dieser Länder aus dem Zeitraum 1989-1995. Die Mobilität ist in Ostdeutschland bei allen Einkommenskonzepten wesentlich höher als in Westdeutschland, nähert sich aber im Zeitablauf und insbesondere beim Nettoäquivalenzeinkommen dem westdeutschen Niveau an. Die Mobilität des Bruttoäquivalenzeinkommens ist in Westdeutschland größer, die des Nettoäquivalenzeinkommens kleiner als in Großbritannien. Die Mobilität des individuellen Bruttoarbeitseinkommens und des Bruttoäquivalenzeinkommens ist in Westdeutschland höher, die des Nettoäquivalenzeinkommens niedriger als in den USA. Die Mobilität des Nettoäquivalenzeinkommens ist in Ungarn deutlich höher als in Ostdeutschland. Diese Ergebnisse zeigen eine im internationalen Vergleich unerwartet hohe Flexibilität des deutschen Arbeitsmarkts, wobei jedoch die Verweildauer in der Arbeitslosigkeit in Deutschland länger ist als in den USA und Großbritannien, wo viele Arbeitslose schnell in schlecht bezahlte Jobs wechseln. Ferner zeigt sich, daß das Steuer- und Transfersystem in keiner anderen Volkswirtschaft die Mobilität der Bruttoäquivalenzeinkommen stärker reduziert als in Deutschland.
Einkommensverteilung in Deutschland : Strukturanalyse der Ungleichheit nach Einkommenskomponenten
(2000)
Ergebnisse von Verteilungsanalysen fallen je nach der Bezugseinheit - Haushalt oder Person - recht unterschiedlich aus. Dies gilt sowohl für das Niveau von Verteilungsindikatoren und deren Entwicklung im Zeitverlauf, als auch hinsichtlich der Beiträge einzelner Einkommens- und Abgabearten zu der gemessenen Ungleichheit. Auf der Basis der Einkommens- und Verbrauchsstichproben 1988 und 1993 und unter Verwendung der "älteren OECD-Skala" hat sich gezeigt, dass die Ungleichheit der personellen Verteilung der Nettoäquivalenzeinkommen im Beobachtungszeitraum in den alten Ländern zugenommen hat, aber nach wie vor wesentlich gleichmäßiger als die unveränderte Verteilung der Haushaltsnettoeinkommen auf Haushalte ist. In den neuen Ländern ist der Unterschied zwischen der haushaltsbezogenen und der personenbezogenen Einkommensverteilung noch deutlicher bei insgesamt geringerer Ungleichheit als in den alten Ländern. Auch die Zerlegung der aggregierten Ungleichheit nach Einkommenskomponenten führt zu teilweise abweichenden Ergebnissen in Abhängigkeit von der Bezugseinheit, da bei einzelnen Haushaltstypen im Durchschnitt jeweils unterschiedliche Einkommensarten dominieren. Entgegen gängigen Vorstellungen über Verteilungsstrukturen zeigt sich allerdings generell, dass die Verteilungsungleichheit zum größten Teil durch die Bruttoeinkommen aus unselbständiger Arbeit bestimmt wird. Zwar sind die Selbständigen- und Vermögenseinkommen erwartungsgemäß wesentlich ungleicher verteilt, durch ihren vergleichsweise geringen Anteil am Gesamteinkommen ist ihr Einfluss auf die Gesamtverteilung aber - insbesondere in Ostdeutschland, aber auch in Westdeutschland - begrenzt. Dies wird bei der Analyse der personellen Verteilung allerdings weniger deutlich als bei der Bezugnahme auf Haushalte. Wiederum im Gegensatz zu verbreiteten Annahmen wird die Ungleichheit der Verteilung der Haushaltseinkommen durch staatliche Transferzahlungen nicht oder nur unwesentlich gemildert. Dies ist aber nur auf den ersten Blick überraschend, da nur ein geringer Teil der Transfers vorrangig vertikalen, interpersonellen Umverteilungszielen dient. Die Leistungen der Sozialversicherung und vergleichbarer Systeme bezwecken hauptsächlich eine intertemporale Umverteilung und Lebensstandardsicherung bei Eintritt bestimmter Risikotatbestände (Alter, Tod des Ernährers, Unfall, Arbeitslosigkeit, Krankheit), so dass sie die Verteilung der Einkommen aus unselbständiger Arbeit abgeschwächt wiederspiegeln. Demzufolge geht auch von ihnen keine merkliche Verminderung der Ungleichheit der Nettoeinkommensverteilung auf der Haushaltsebene bzw. sogar eine leichte Erhöhung der Ungleichheit der personellen Verteilung der Nettoäquivalenzeinkommen in Westdeutschland aus. Aber selbst von den steuerfinanzierten Transfers geht unter Bezugnahme auf Haushalte insgesamt nur ein sehr geringer nivellierender Effekt aus. Hier wird die konzeptionelle Schwäche des analytischen Ansatzes am ungewichteten Haushaltseinkommen besonders deutlich. Denn mit dem Haushaltseinkommen wird ohne eine Berücksichtigung der Haushaltsgröße und -struktur die Bedarfssituation der Haushaltsmitglieder, die für viele steuerfinanzierte Transfers maßgeblich ist, nur unzureichend erfasst. Dementsprechend erweist sich der ausgleichende Effekt der Transfers der Gebietskörperschaften unter Bezugnahme auf Personen als recht deutlich, wenn auch in Westdeutschland im Vergleich zum Anteil am Einkommensaggregat als unterproportional. Bei einer weiteren Aufspaltung des heterogenen Komplexes der steuerfinanzierten Transfers in das einkommensunabhängige Kindergeld, Einkommensübertragungen mit Entschädigungscharakter und Transfers mit dem vorrangigen Ziel vertikaler Umverteilung zeigt sich aber auch für Westdeutschland eine weit überproportionale Reduzierung der Ungleichheit der Verteilung der Nettoäquivalenzeinkommen durch i. e. S. bedarfsabhängige Transfers. Absolut gesehen macht der ausgleichende Effekt zwar in den alten Ländern weniger als ein Zehntel, in den neuen Ländern ungefähr ein Fünftel der entsprechenden Effekte der persönlichen Steuern aus; unter Berücksichtigung des geringen Volumens der Transfers mit vorwiegend vertikaler Ausrichtung ergibt sich aber eine recht hohe Effizienz. Sie scheint in Westdeutschland zwischen 1988 und 1993 allerdings etwas zurückgegangen zu sein, ähnlich wie der ausgleichende Einfluss der persönlichen Steuern. Schließlich zeigt sich für das Kindergeld eine nur mäßige relative Reduzierung der Ungleichheit der personellen Einkommensverteilung, die 1993 in West- wie in Ostdeutschland nur ungefähr zwei Dritteln des Anteils am Einkommensaggregat entspricht. Dies ist angesichts der horizontalen Ausrichtung des Familienlastenausgleichs in Deutschland nicht verwunderlich, könnte aber für eine Zieldiskussion im Zusammenhang mit Reformüberlegungen Anlass geben.
Enthält die 2 Vorträge: Die Entwicklung der Einkommensverteilung und der Einkommensarmut in den alten Bundesländern von 1962 bis 1988 / Irene Becker, Universität Frankfurt/Main Vergleichende Analyse der Einkommensverteilung und der Einkommensarmut in den alten und neuen Bundesländern von 1990 bis 1995 / Richard Hauser, Universität Frankfurt a.M.
Das ursprüngliche Ziel des Erneuerbare-Energien-Gesetz war die Verringerung der Emissionen. Eigentlich hat die Politik bereits ein Instrument an der Hand, das dieses Ziel fokussiert und kostensparend erreichen kann: den Handel mit CO2-Zertifikaten. Der Autor argumentiert, dass das Nebeneinander von CO2-Handel und EEG höchst unproduktiv ist und schleunigst beendet werden sollte. Ein plausibleres Argument für den politischen Erfolg des EEG und das derzeitige Herumdoktern im Detail ist, dass die Politik mit dem EEG Industriepolitik betreiben und die Kosten auf zukünftige Parlamente und Generationen überwälzen kann.
Entwicklungsfinanzierung
(2000)
"Ich möchte in diesem Vortrag Beziehungen zwischen Gutenbergs Theorie der Unternehmung, die in seiner Habilitationsschrift angelegt und in den "Grundlagen der Betriebswirtschaftslehre" entfaltet ist, und aktuellen Entwicklungen in der Theorie der Unternehmung herstellen. Obwohl der Anlaß für diesen Vortrag das Thema hinreichend rechtfertigt, stellt sich die Frage, ob mein Vorhaben ein wissenschaftlich sinnvolles Unterfangen darstellt: Kann Gutenbergs Theorie der Unternehmung noch aktuell sein?"
Angesichts des kürzlich von der Bundesregierung verabschiedeten Konjunkturpakets, stellen sich die Autoren des Policy Letters die Frage, ob und inwieweit die angekündigte Mehrwertsteuersenkung sowie der Kinderbonus zur substantiellen Ankurbelung des Binnenkonsums führt. Aus den für das Haushaltskrisenbarometer erhobenen Daten zu Einkommensänderungen sowie Einkommens- und Kündigungserwartungen, können die Ökonomen keine zu erwartende Schwächung der Binnennachfrage ableiten. Der überwiegende Teil der deutschen Wohnbevölkerung scheint kurzfristig nicht davon auszugehen, finanzielle Einbußen aufgrund der Pandemie zu erleiden. Die Erwartungen hinsichtlich der künftigen Einkommensentwicklung haben sich gar über die letzten vier Umfragewellen graduell verbessert. Ferner kann dargelegt werden, dass weder die Konsum- noch die Sparneigung durch die Corona-Krise zum gegenwärtigen Zeitpunkt langfristig stark beeinflusst wird. So geben derzeit lediglich 10 Prozent der Befragten an, größere Anschaffungen angesichts der Pandemie vollständig gestrichen zu haben. Anfang April 2020 lag dieser Wert noch bei 16 Prozent. Die Befragten berichteten in 71 Prozent der Fälle ihre Konsumpläne und in 78 Prozent der Fälle ihre Sparverhalten nicht geändert zu haben. Im Lichte dieser Ergebnisse lassen sich Maßnahmen, die auf eine unspezifische Stimulierung der Binnennachfrage abzielen, nicht substantiell begründen und rechtfertigen.
Untersuchungsgegenstand ist der empirische Gehalt der ökonomischen Theorie eines Hedgings auf Unternehmensebene. In den USA wurde die Hedging-Theorie in einer Reihe von empirischen Studien aufgegriffen. Die Befunde sind zumeist konsistent mit dem Erklärungsansatz von Froot/Scharfstein/Stein (1993), wonach eine Verringerung der Cashflow-Volatilität – unter der Annahme steigender Außenfinanzierungskosten – zu einer Reduzierung von Unterinvestitionskosten führt. Bei deutschen Unternehmen besitzt dieser Ansatz bemerkenswerterweise jedoch nur einen geringen Erklärungsgehalt. Die Ergebnisunterschiede können auf unterschiedliche Kapitalmarktverhältnisse zurückgeführt werden: Die unterstellten steigenden Kosten der Außenfinanzierung besitzen für deutsche Unternehmen aufgrund der Dominanz des Bezugsrechtsverfahrens sowie der Rolle der Hausbank als Mechanismus zur Überwindung von Informationsproblemen eine vergleichsweise geringere Bedeutung. Die Managerinteressen erweisen sich bei deutschen Unternehmen als eine wesentliche Hedging-Determinante. Zwischen der Höhe des gebundenen Managervermögens und der Hedging-Wahrscheinlichkeit besteht entsprechend der Hedging-Theorie ein signifikanter positiver Zusammenhang. Entgegen den amerikanischen Befunden kann jedoch eine disziplinierende Wirkung von Großaktionären auf die Hedging-Entscheidung nicht beobachtet werden. Zur Berücksichtigung der spezifischen deutschen Kapitalmarktverhältnisse wird der Einfluss von Bankenbeteiligungen und Familienunternehmen auf die Hedging-Entscheidung untersucht. Ein Bankeneinfluss auf die Derivateeinsatz-Entscheidung kann jedoch nicht festgestellt werden. Entgegen Diversifikations- und Kapitalmarktüberlegungen besteht bei Familienunternehmen interessanterweise eine signifikant geringere Hedging-Wahrscheinlichkeit.
Überarbeitete Version des Arbeitspapiers "The dynamics of labour market participation, unemployment and non-participation in Great Britain, Sweden and Germany" / Wolfgang Strengmann-Kuhn. [Johann-Wolfgang-Goethe-Universität Frankfurt am Main, Fachbereich Wirtschaftswissenschaften, Institut für Volkswirtschaftslehre]
In dieser Studie werden die Wirkungen von Arbeitsbeschaffungsmaßnahmen (ABM) in Deutschland auf die individuellen Eingliederungswahrscheinlichkeiten der Teilnehmer in reguläre Beschäftigung evaluiert. Für die Untersuchung wird ein umfangreicher und informativer Datensatz aus den Datenquellen der Bundesagentur für Arbeit (BA) verwendet, der es ermöglicht, die Wirkungen der Programme differenziert nach individuellen Unterschieden der Teilnehmer und mit Berücksichtigung der heterogenen Arbeitsmarktstruktur zu untersuchen. Der Datensatz enthält Informationen zu allen Teilnehmern in ABM, die ihre Maßnahmen im Februar 2000 begonnen haben, und zu einer Kontrollgruppe von Nichtteilnehmern, die im Januar 2000 arbeitslos waren und im Februar 2000 nicht in die Programme eingetreten sind. Mit Hilfe der Informationen der Beschäftigtenstatistik ist es hierbei erstmals möglich, den Abgang in reguläre Beschäftigung auf Grundlage administrativer Daten zu untersuchen. Der vorliegende Verbleibszeitraum reicht bis Dezember 2002. Unter Verwendung von Matching-Methoden auf dem Ansatz potenzieller Ergebnisse werden die Effekte von ABM mit regionaler Unterscheidung und für besondere Problem- und Zielgruppen des Arbeitsmarktes geschätzt. Die Ergebnisse zeigen zwar deutliche Unterschiede in den Effekten für Subgruppen, insgesamt weisen die empirischen Befunde jedoch darauf hin, dass das Ziel der Eingliederung in reguläre ungeförderte Beschäftigung durch ABM weitgehend nicht realisiert werden konnte. JEL: C40 , C13 , J64 , H43 , J68
Im vorliegenden Papier werden drei Ansätze zur Reform des Familienleistungsausgleichs (FLA) mit jeweils zwei Varianten dargestellt und hinsichtlich ihrer fiskalischen Effekte und Wirkungen in verschiedenen Segmenten der Einkommensverteilung systematisch verglichen. – Mit dem weitestgehenden Konzept, der Kindergrundsicherung, wird ein Existenz sicherndes und zu versteuerndes Kindergeld in Höhe von monatlich 502 Euro bzw. 454 Euro pro Kind vorgeschlagen. Die bisherigen kindbedingten Freibeträge und mehrere Sozialleis-tungen könnten entfallen bzw. reduziert werden. – Daneben werden Kindergelderhöhungen auf einheitlich 238 Euro bzw. 328 Euro pro Kind und Monat, die allen Kindern – auch denen im SGB II-Leistungsbezug – zugute kommen sollen, untersucht. Das Kindergeld wäre wie bisher nicht zu versteuern, die bisherigen kindbedingten Freibeträge würden aber entfallen. – Schließlich wird der Vorschlag einer deutlichen Erhöhung des Kinderzuschlags bei reduzierter Mindesteinkommensgrenze und Wegfall der Höchsteinkommensgrenze erörtert. Zudem ist bei diesem Ansatz ein nochmals erhöhter Kinderzuschlag bei Alleinerziehenden – analog zum Mehrbedarfszuschlag nach dem SGFB II – (erste Variante) oder eine Herabsetzung der Transferentzugsrate auf Nichterwerbseinkommen von 100% auf 70% (zweite Variante) vorgesehen. Die zu erwartenden fiskalischen Belastungen der einfachen Kindergelderhöhung (ohne Be-steuerung) können ohne Weiteres hochgerechnet werden (16 bzw. 35 Mrd. Euro p. a.), die der anderen Reformmodelle sind aber ohne mikroanalytische Fundierung unter Berücksichtigung der Einkommensverteilung kaum abschätzbar. Zwar lassen sich auch die Bruttokosten der Kindergrundsicherung auf einfachem Wege ermitteln (Multiplikation der Kindergeld-Kinder mit der Betragshöhe), die Aggregate der davon abzusetzenden zahlreichen Einsparungen bei anderen Sozialleistungen und insbesondere der Steuermehreinnahmen sind allerdings nicht offensichtlich. Eine erste Überschlagsrechnung hat ergeben, dass die Nettokosten der ersten „großzügigen“ Variante der Kindergrundsicherung (502 Euro) denen der Kindergelderhöhung auf das sächliche Existenzminimum (322 Euro) ohne Besteuerung ungefähr gleich sind (in der Größenordnung von 35 Mrd. Euro). Eine genauere Quantifizierung kann aber nur auf der Ba-sis repräsentativer Mikrodaten und eines Simulationsmodells erfolgen, da insbesondere der Besteuerungseffekt der Kindergrundsicherung von der faktischen Einkommensverteilung abhängt. Auch eine Kostenschätzung für die Kinderzuschlagsreform bedarf mikroanalytischer Verfahren; ungeachtet dessen würde diese auf einen begrenzten Einkommensbereich gerichte-te Reform aber eindeutig die geringsten Kosten verursachen. Für einen systematischen Vergleich der Verteilungswirkungen der Reformvorschläge werden in der vorliegenden Arbeit Modellrechnungen für zwei ausgewählte Haushaltstypen präsen-tiert. Dabei wird deutlich, dass mit dem vergleichsweise begrenzten Konzept der Ausweitung des Kinderzuschlags die Situation von Familien in prekären Einkommensverhältnissen bis zu Familien der unteren Mittelschicht deutlich verbessert werden könnte. Inwieweit dieser Effekt eintreten würde, hängt allerdings auch vom Inanspruchnahmeverhalten ab; bisher ist die Nicht-Inanspruchnahme von Kinderzuschlag und Wohngeld weit verbreitet. Zudem würde sich die Situation der ärmsten Familien, die auf SGB II-Leistungen angewiesen sind, nicht verbessern, und am oberen Rand würden die Entlastungseffekte des FLA als Folge der kind-bedingten Freibeträge weiterhin mit dem elterlichen Einkommen zunehmen. Demgegenüber würden sich bei den Varianten der Kindergelderhöhung (ohne Besteuerung) die deutlichen Verbesserungen gegenüber dem Status quo gleichmäßig über das Einkommensspektrum vom Niedriglohnsegment – bei unverändert problematischen Effekten des Kinderzuschlags (Ein-kommensbruchstelle bei Höchsteinkommensgrenze) – bis in obere Schichten verteilen und erst am oberen Rand mit steigendem Einkommen sinken (infolge des Wegfalls der bisherigen kindbedingten Freibeträge). Die Förderungen durch die Kindergrundsicherung schließlich würden am stärksten im unteren und unteren Mittelbereich ausfallen und – im Gegensatz zu anderen Konzepten – insbesondere verdeckte Armut systembedingt, also quasi „automatisch“, weitgehend abbauen. Im oberen Mittelbereich und hauptsächlich in höheren Schichten würden die Transfers dagegen mit zunehmendem Einkommen kontinuierlich abnehmen. Insgesamt würde dies zu einem vergleichsweise stetig steigenden Verlauf des verfügbaren Familieneinkommens führen; die wegen der hohen Transferentzugsraten des Kinderzuschlags – gegebenenfalls in Kombination mit Wohngeld – häufigen Befürchtungen negativer Arbeitsanreize im unteren Einkommensbereich wären gegenstandslos. Inwieweit die hier diskutierten Reformkonzepte zu einem Abbau von Kinder- und Familien-armut und zu weniger Ungleichheit der personellen Einkommensverteilung führen können, lässt sich allein auf der Basis von Modellrechnungen allerdings nicht absehen. Dazu bedarf es detaillierter Analysen auf der Basis von repräsentativen Mikrodaten, die die faktische Ein-kommensverteilung abbilden und Simulationsrechnungen zur Quantifizierung der Effekte der Reformvarianten – unter Einbeziehung der Finanzierung der jeweiligen Nettokosten – ermöglichen. Daran wird im Projekt „Vom Kindergeld zu einer Grundsicherung für Kinder“ auf Basis der Daten des Sozio-ökonomischen Panels (SOEP) 2007 gearbeitet; die Repräsentativität des Datensatzes hinsichtlich des Nachweises von Einkommens-, insbesondere Transferar-ten wurde bereits geprüft – mit gutem Ergebnis.
Seit zwanzig Jahren befaßt sich die Finanzmarktforschung einerseits mit Fragen der Bewertung und des Managements von Finanztiteln auf effizienten Kapitalmärkten und mit Fragen der Managementkontrolle auf unvollkommenen Märkten. Der folgende selektive Überblick konzentriert sich auf zentrale Aspekte der Theorie und Empirie der Managementkontrolle bei asymmetrischer Information. Ziel ist die Auseinandersetzung mit der unlängst vorgetragenen These zu den Mythen der Unternehmenskontrolle (Martin Hellwig 1997). Der aktuelle Überblick wird entwickelt vor dem Hintergrund der Gutenberg’schen Position eines eigenständigen Unternehmensinteresses, losgelöst von den Interessen der shareholder oder anderer stakeholder. Diese Position von Gutenberg verbindet sich im dritten Band der „Grundlagen der BWL: Die Finanzen“ von 1969 mit der Forderung nach Einhaltung eines sog. finanziellen Gleichgewichts. Erst in jüngster Zeit werden auch kapitalmarkttheoretisch fundierte Modelle entwickelt, die auch Raum bieten für eine Autonomie des Managements gegenüber dessen stakeholders.
Fünf Jahre nach Beginn der Banken- und Staatsschuldenkrise („Finanzkrise“) kämpfen wir weiterhin mit den elementaren Problemen: Bei Märkten und Marktteilnehmern fehlt es an Stabilität und Vertrauen. Viele Banken stehen immer noch nicht auf eigenen Füßen und nehmen die ihnen in Europa traditionell zukommende zentrale Rolle für Wachstum und Entwicklung nicht wahr. Den guten Absichten, auf die sich die großen politischen Mächte während der ersten G-20 Treffen 2008 und 2009 verständigt hatten, ist eine Reihe von sinnvollen Ideen und Konzepten gefolgt. Die Voraussetzungen für einen grundlegenden reformerischen Erfolg sind somit gegeben – doch nun muss die Umsetzung folgen. Dazu bedarf es mutiger Entscheidungen. Im Jahr 2014 muss die europäische Politik gleich mehrere Weichen stellen. Der Bundesregierung kommt dabei die Schlüsselrolle zu. Sie muss den Mut haben zu radikaler Ordnungspolitik!
Wenn man untersuchen möchte, ob sich die Finanzsysteme verschiedener Länder im Verlauf der letzten Jahre aneinander angeglichen haben oder demnächst angleichen werden, braucht man ein Konzept zur Beschreibung von Finanzsystemen, durch das wesentliche Strukturen, deren Unterschiede und Veränderungen erkennbar werden, ohne dabei in "Systemgeschwafel" (D. Schneider) abzugleiten. Wir haben dafür das Konzept der Komplementarität als nützlich identifiziert. Der Beitrag stellt dieses Konzept vor und soll und seine Eignung belegen. Letztlich geht es dabei auch um die Frage, ob reale Finanzsysteme konsistente Systeme mit komplementären Elementen darstellen. Nach der Vorstellung der formalen Konzepte der Komplementarität und der Konsistenz wird "das Finanzsystem" auf seine Komple mentarität untersucht. Dazu wird ein Finanzsystem aus der Sicht von Unternehmen des nichtfinanziellen Sektors als ein System gekennzeichnet, das aus drei Teilsystemen besteht. Das erste Teilsystem ist das Finanzierungssystem einschließlich Finanzsektor und Mustern der Unternehmensfinanzierung, das zweite das Corporate Governance-System und das dritte das Unternehmens-Strategie-System. Für alle drei Teilsysteme wird – allgemein und mit Bezug auf die Finanzsysteme Deutschlands, Japans und der USA - gezeigt, inwieweit die Elemente der betreffenden Teilsysteme untereinander komplementär sind, und geprüft, ob sie in ihren Ausprägungen auch konsistent sind, d.h. wirklich "zueinander passen". Untersucht wird auch die Komplementarität und Konsistenz zwischen den Teilsystemen selbst. Der Beitrag endet mit Überlegungen über die Anwendung des Komplementaritätskonzepts. Dass ein Finanzsystem die Eigenschaft der Komplementarität aufweist, hat nicht nur weitreichende Implikationen für die Methodik der Analyse von Finanzsystemen, sondern auch für die Vorhersehbarkeit der Entwicklung von Finanzsystemen und damit für die Wahrscheinlichkeit einer Konvergenz von Finanzsystemen, für deren Effizienzeigenschaften und für die Möglichkeiten, Finanzsysteme durch gestaltende Eingriffe zu verbessern.
Beitrag fur das 27. Wirtschaftswissenschaftliche Seminar Ottobeuren 14.- 17.9.1997). Dieser Beitrag nimmt aus theoretischer und ökonometrischer Sicht zu der Kontroverse über die Bedeutung der qualifikatorischen Lohnstruktur zur Erklärung der Beschäftigungsstruktur Stellung. Basierend auf einer Einteilung in drei Qualifikationsgruppen zeigt sich empirisch, daß die Entlohnung der mittleren Gruppe relativ zur unteren und oberen weniger stark ansteigt, während ein kontinuierlicher Trend zur Höherqualifikation der Beschäftigten besteht. Es werden eine Translog-Kostenfunktion und Anteilsgleichungen ökonometrisch geschätzt, um den Einfluß der Lohnstruktur auf die Beschäftigungsstruktur zu erfassen. Bei allen Vorbehalten aufgrund verschiedener Probleme der Schätzungen implizieren die Ergebnisse einen signifikanten Einfluß der qualifikatorischen Struktur der mittleren Löhne auf die Beschäftigungsstruktur wie auch eine die relative Beschäftigung steigernde Wirkung einer erhöhten Lohndispersion innerhalb der Qualifikationsgruppen. Damit besteht die Möglichkeit, daß mit einer größeren Lohnspreizung die Lastverteilung der Arbeitslosigkeit bei gegebenem Output, Kapitaleinsatz und technischem Fortschritt in Form einer Erhöhung der Beschäftigung von gering qualifizierten Arbeitnehmern angeglichen werden kann.
Nach der 2008 startenden Finanzmarktkrise sind Maßnahmen zur Regulierung und Stabilisierung der Finanzmärkte in das Zentrum der politischen und der gesellschaftlichen Aufmerksamkeit gerückt. Insbesondere die hohen fiskalischen Kosten der Staaten zur Stützung ihrer Bankensysteme sowie die volkswirtschaftlichen Kosten infolge des Einbruchs des Wirtschaftswachstums in den Jahren nach der Insolvenz der US Investmentbank Lehman Brothers hatten einen globalen Konsens über die Notwendigkeit neuer Regulierungsmaßnahmen zur Folge. Im Ergebnis wurden das internationale Regulierungswerk Basel III sowie weitere nationale Maßnahmen zur Stabilisierung des Finanzsektors neu konzipiert und in Europa im Wege einer in nationales Recht umzusetzenden Richtlinie (die Capital Require-ments Directive IV - CRD IV) sowie einer Verordnung (die Capital Requirements Regulation CRR, welche unmittelbar geltendes Recht darstellt) eingeführt.
Vor diesem Hintergrund analysiert das vorliegende interdisziplinäre Gutachten die Auswirkungen der Regulierungsmaßnahmen, die zwischen 2008 bis zu Beginn des Jahres 2018 umgesetzt wurden auf dem deutschen Finanzsektor.
Gesprächsreihe zu Strukturreformen im europäischen
Bankensektor : Zukunft der Universalbanken
(2013)
In der zweiten Veranstaltung der „Gesprächsreihe zu Strukturreformen im europäischen Bankensektor“ diskutierten Professor Dr. Jan Pieter Krahnen und Dr. Michael Kemmer die Zukunft der Universalbanken. Anlass war der Vorschlag der Liikanen-Kommission, dass Finanzinstitute einen Teil ihres Investmentbankings, den Eigenhandel und das Market-Making, ab einer bestimmten Größenordnung ausgliedern sollen.
In der vierten Veranstaltung der „Gesprächsreihe zu Strukturreformen im europäischen Bankensek-tor“ diskutierte Dr. Elke König, Präsidentin der Bundesanstalt für Finanzdienstleistungsaufsicht (BaFin), die Wiederherstellung privater Haftung und die zukünftige Rolle der Aufsicht, insbesondere im Hinblick auf die Vorschläge der Liikanen-Kommission.
König warnte, dass man systemische Risiken, die vor allem während der Finanzkrise zu Problemen geführt hätten, noch nicht im Griff habe. Sowohl die Bankenaufsicht als auch die Wissenschaft suche immer noch nach einer geeigneten Lösung dieses Problems. Systemische Risiken führen dazu, dass komplexe und stark vernetzte Institute von Staaten gestützt werden, wenn diese ins Straucheln gera-ten. In der Finanzkrise hatte dies zur Folge, dass Banken letztlich vom Steuerzahler gerettet wurden. Diesen Quasi-Insolvenzschutz systemrelevanter Institute müsse man aufheben, um Fehlanreize im Markt zu korrigieren, so König. Verantwortung und Haftung für unternehmerisches Handeln müssten wieder in einer Hand liegen, und zwar in der der Institute, seiner Eigner und Gläubiger.
König ist deshalb der Meinung, dass ein einheitlicher Abwicklungsmechanismus für Banken notwen-dig sei, der auch grenzüberschreitend wirke. Als einen wichtigen Bestandteil dieses Mechanismus nannte sie die Umsetzung eines breiten Bail-ins. Durch Bail-in werden Eigentümer und Gläubiger von Bankinstituten an einer Restrukturierung beteiligt. Eine Umwandlung von Fremdkapital in Eigenkapi-tal kann darüber hinaus dazu dienen, ein Brückeninstitut mit Kapital auszustatten.
Zur konkreten Ausgestaltung von Bail-in-Instrumenten gibt es unterschiedliche Ansätze: Die Liikanen-Kommission plädierte in ihrem Vorschlag für eine Schaffung konkreter Bail-in-Anleihen, vergleichbar mit den Contingent Convertible Bonds (CoCo-Bonds), die in der Schweiz bereits eingeführt wurden. Die BaFin setze dagegen, ähnlich wie die Europäische Kommission, auf einen möglichst breiten An-satz und habe sich gegen die Emission einer neuen Gattung vertraglicher Bail-in-Instrumente ausge-sprochen, sagte König. Die Höhe der bail-in-fähigen Instrumente sowie die Reihenfolge der Haftung müssten aber trotzdem für jedes Institut klar definiert sein.
König betonte, dass es wichtig sei, nun die institutsspezifischen Sanierungs- und Abwicklungspläne zu entwickeln. Die BaFin habe mit der Erstellung der Abwicklungspläne auch schon begonnen. Bail-in sei dabei nur ein Baustein in dem wesentlich umfangreicheren Instrumentenkasten der Sanierungs- und Abwicklungspläne.
In der anschließenden Diskussion sagte König, dass es eine Abwicklungsbehörde für Institute, die in Zukunft einer europäischen Aufsicht unterliegen, derzeit nur auf nationaler Ebene geben könne. An-dernfalls sei eine Änderung der europäischen Verträge notwendig, da die Mittel, die für eine Abwick-lung aufgewendet werden müssten, aus nationalen Haushalten kämen. Bei einer Abwicklungsbehör-de auf europäischer Ebene würden die Haushaltsbelastung und die Entscheidung über die Verwen-dung der Mittel auseinanderfallen.
In der dritten Veranstaltung der „Gesprächsreihe zu Strukturreformen im europäischen Bankensektor“ diskutierten Professor Dr. Jan Krahnen und Dr. Theodor Weimer die Auswirkungen von Regulierung auf Bankverhalten und Wettbewerb, insbesondere im Hinblick auf die Vorschläge der Liikanen-Kommission. Weimer verwies auf die volkswirtschaftlichen Kosten einer zu strengen Bankenregulierung, u.a. negative Auswirkungen auf die Kreditvergabe. Weimer warnte auch davor, dass man in Europa, und gerade in Deutschland, strenger reguliere als in anderen Ländern. Krahnen erklärte, man habe durch die Liikanen-Vorschläge vor allem das Problem des systemischen Risikos im Bankensektor adressieren wollen. Außerdem sei es ein Ziel der Kommission gewesen, Banken so zu regulieren, dass der Steuerzahler im Krisenfall nicht länger für die Risiken der Banken haften müsse. Es sei notwendig, den Bankensektor zu reformieren, damit Banken abgewickelt werden könnten, auch wenn diese untereinander vernetzt sind.
Gesprächsreihe zu Strukturreformen im Europäischen Bankensektor: Managementvergütung im Bankensektor
(2013)
In der ersten Veranstaltung der „Gesprächsreihe zu Strukturreformen im europäischen Bankensektor“ diskutierten Professor Dr. Jan Krahnen und Dr. Thomas Mayer den im Liikanen-Bericht enthaltenen Vorschlag zur Managervergütung im Bankensektor. Der Vorschlag baut auf einem der Kernvorschläge der Liikanen-Kommission auf, nach dem Finanzinstitute gehalten sein sollen, einen Teil ihres Fremdkapitals so zu strukturieren, dass, bei Schieflage des Finanzinstituts, eine Inhaftungnahme der Gläubiger dieses Fremdkapitals möglich wird. Um dies zu erreichen, empfiehlt die Liikanen-Kommission für alle Banken, dass diese einen festgelegten Prozentsatz ihres Kapitals als „Bail-in Anleihen“ begeben müssen. Der Vorschlag zur Managervergütung sieht vor Bail-in Anleihen für die leistungsorientierte und anreizorientierte Entlohnung von Managern einzusetzen, um Anreize zu geben, die Risikopolitik des Unternehmens so zu verankern, dass auch längerfristig keine exorbitanten Risiken auftreten.
n der Literatur wird oftmals angeführt, dass die Grunderwerbsteuer weder aus Sicht des Äquivalenzprinzips noch aus Sicht des Leistungsfähigkeitsprinzips zu rechtfertigen ist und daher in einem modernen Steuersystem nichts verloren hätte. Das vorliegende Papier weist darauf hin, dass die Grunderwerbsteuer Parallelen zur Grundsteuer aufweist und sich, zumindest aus ökonomischer Sicht, in eine Grundsteuer umbauen ließe. Dies könnte insbesondere dann interessant sein, wenn die derzeitige deutsche Grundsteuer in eine reine Flächensteuer umgebaut wird, die den Wert der Bebauung unbesteuert lässt. Ein Umbau der Grunderwerbsteuer, bei der der Kaufpreis dynamisiert wird und dann einer jährlichen Steuer unterworfen wird, hat einige Vorteile. Diese resultieren daraus, dass der negative Effekt auf die Zahl der Immobilientransaktionen (Lock-in-Effekt) abgemildert würde. Könnte die Dynamisierung treffsicher an die regionale Immobilienpreisentwicklung angepasst werden, entfällt der Lock-in-Effekt für Immobilien, die bereits einmal der dynamisierten Grunderwerbsteuer unterworfen waren, sogar komplett. Dies hat nicht nur positive Effekte auf das Funktionieren des Wohnungs- und Arbeitsmarktes, sondern kann auch dem Problem der Share Deals entgegen wirken.
Der Beitrag führt in das sozialpsychologische Phänomen des Gruppendenkens ein. Kennzeichen und Gegenstrategien werden anhand von Zeugenaussagen vor dem Wirecard-Untersuchungsausschuss am Beispiel des Aufsichtsrats illustriert. Normative Implikationen de lege ferenda schließen sich an. Sie betreffen unabhängige Mitglieder (auch auf der Arbeitnehmerbank), Direktinformationsrechte im Unternehmen (unter Einschluss von Hinweisgebern) und den Investorendialog (auch mit Leerverkäufern).
Wir untersuchen, in welchem Ausmaß die Aktien deutscher Unternehmen im Zeitverlauf an ausländischen Börsen gehandelt werden. Es zeigt sich – nach anfänglich bedeutsamer Handelsaktivität im Ausland – ein ausgeprägter Rückfluss-Effekt nach Deutschland. Zweitnotierungen an ausländischen Börsen dienen der Verbreiterung der Aktionärsbasis und somit der Senkung der Kapitalkosten und letztendlich der Steigerung des Unternehmenswertes. Dazu ist ein ausreichendes Handelsvolumen an der ausländischen Börse unabdinglich. Daran gemessen sind die Auslandsnotierungen deutscher Unternehmen nicht erfolgreich. Dies ist jedoch nicht im gleichen Ausmaß für alle Unternehmen der Fall. Kleinere, wachsende Unternehmen und Unternehmen mit höherem Anteil des Auslandsumsatzes am Gesamtumsatz werden relativ stärker im Ausland gehandelt.
Im Schatten der Lowflation
(2014)
Im Jahr 2013 betrug der Anstieg des harmonisierten Konsumentenpreisindex im Euroraum 1,4 %. Vor dem Hintergrund der Niedrigzinspolitik der EZB überrascht diese Entwicklung. Alfons Weichenrieder erläutert wie der starke strukturelle Anpassungsbedarf in den meisten Euroländern von höheren Inflationsunterschieden profitieren könnte. Er weist auf die Gefahren einer längeren Niedrigzinsphase für Banken, Lebensversicherung und die Reduzierung der Staatsschulden hin. Da die traditionellen geldpolitischen Mittel weitgehend ausgereizt sind, wird die quantitative Lockerung als Instrument zur Bekämpfung einer Deflation nicht mehr ausgeschlossen. Im Falle eines Ankaufprogrammes wird es auf einen glaubwürdigem Regelrahmen ankommen.
Inflation ist ein Konstrukt. Sie wird von unterschiedlichen Akteuren unterschiedlich wahrgenommen. Zum Teil passiert dies, weil Warenkörbe differieren, zum Teil weil Erwartungen unterschiedlich gebildet werden. Dieser Beitrag diskutiert die Heterogenität der Inflation und ihrer Wahrnehmung und was dies für die Zielgröße der Zentralbankpolitik bedeutet.
Kursänderungen auf Aktienmärkten können informationsinduziert durch neu zu verarbeitende Informationen oder liquiditätsinduziert durch kurzfristige Angebots- bzw. Nachfrageüberhänge auftreten. Diese zwei so unterschiedlich verursachten Kursreaktionen sind in empirischen Untersuchungen nur schwer zu trennen. Das Modell von Easley, Kiefer, O’Hara und Paperman (1996) bietet eine theoretische Basis zur separaten Erfassung von liquiditätsorientiertem und informationsbasiertem Handel und eröffnet darüber hinaus auch einen Weg zur empirischen Quantifizierung dieser Größen.
In der vorliegenden Untersuchung nutzen wir diesen Ansatz zur Analyse des Handels deutscher Aktien über das Computerhandelssystem IBIS. Dabei zeigt sich, daß innerhalb der DAX-Werte Informationsereignisse bei den sehr stark gehandelten Aktien nicht häufiger als bei weniger oft gehandelten Werten auftreten. Die Unterschiede im Handelsvolumen sind auf unterschiedlich starke Handelsaktivität sowohl informierter als auch uninformierter Marktteilnehmer zurückzuführen. Weiterhin zeigt sich, daß das Risiko, mit informierten Marktteilnehmern zu handeln, bei den sehr umsatzstarken Aktien am geringsten ist.
In Einklang mit dem sogenannten Montagseffekt ist die Wahrscheinlichkeit für das Auftreten von negativen Informationsereignissen zu Wochenanfang besonders groß. Dieses Ergebnis könnte durch eine Tendenz von Managern erklärt werden, negative Informationen freitags nach Börsenschluß zu veröffentlichen. Eine getrennte Untersuchung für Handelstage mit niedriger und solche mit hoher Volatilität zeigt, daß an Handelstagen mit höherer Volatilität die Handelsintensität sowohl informierter als auch uninformierter Investoren größer ist. Auch die Wahrscheinlichkeit, an solchen Tagen mit besser informierten Marktteilnehmern zu handeln, steigt. Dieser Anstieg ist allerdings nicht statistisch signifikant.
Die Öffnung des deutschen Bilanzrechts bewirkt eine zunehmende Anwendungsbreite von internationalen Rechnunungslegungsnormen (wie insbesondere der US-GAAP und der IAS) für deutsche Rechtsanwender;1 die heterogenen Normtypen und die – damit einhergehend – unterschiedlichen ökonomischen Eigenschaften dieser Normen erfordern für einen sinnvollen Rechnungslegungsvergleich eine komparative Rechnungslegungstheorie. Eine Besinnung auf die ökonomische Theorie ist – auch ausgelöst durch die Internationalisierung der Rechnungslegung – hier grundsätzlich festzustellen,2 wie auch das moderne deutsche Bilanzrecht seine heutige Prägung durch die ökonomische Theorie – und nicht vornehmlich durch die Anwender – erhielt.3 Es ist das Ziel des Aufsatzes, einen Beitrag zu einer institutionenökonomischen Theorie der Rechnungslegung zum Zweck der Bestimmung von Informationsinhalten und Gewinnansprüchen sowie zur vergleichenden Rechnungslegungstheorie zu leisten. In einem ersten Hauptteil (2) wird im folgenden – auf dem institutionenökonomischen Forschungsprogramm aufbauend – skizziert, welche Bedeutung Institutionen im Rahmen des Nutzenkalküls von Entscheidern zuzumessen ist; danach werden die einzelnen für eine vergleichende Rechnungslegung relevanten Institutionsarten typisiert (in formale und informelle Regeln) sowie deren Attribute im individuellen Zielstromkalkül eingeführt (nämlich Prädikate der Manipulationsfreiheit und Prädikate der Entscheidungsverbundenheit). Das Verhältnis der Institutionen zueinander wird im folgenden Abschnitt (3) anhand eines rechtlich geprägten und eines ökonomischen Systemverständnisses entwickelt. Es wird gezeigt, daß beide Systembegriffe auf einer Nichtadditivität der sie konstituierenden Institutionen gründen, die den qualitativen Vergleich unterschiedlicher Systeme erschweren; man überschätzt hingegen die Unterschiede zwischen juristischem und ökonomischem Systemverständnis: beide sind funktionsähnlich. Im letzten Hauptteil (4) werden schließlich vor dem Hintergrund einer gestaltenden Theorie die hierfür relevanten Teilbereiche (Sub-Systeme) der Rechnungslegungsordnung vorgestellt sowie einzelne Publizitätsnormen funktional ausgelegt. Der Beitrag schließt mit zusammenfassenden Thesen (5).
Ja, der Ablauf der Lock-up-Frist ist ein kursrelevantes Ereignis. Wir untersuchen Kursreaktionen auf das Ende der Lock-up-Frist bei 142 Unternehmen des Neuen Marktes. Da der Ablauf der Sperrfrist bereits zum Zeitpunkt des Börsengangs bekannt ist, erwarten wir bei einem (semi-)informationseffizienten Kapitalmarkt durchschnittlich keine Kursreaktion. Im Rahmen einer Ereignisstudie zeigen wir aber, dass sich am Ende der Sperrfrist signifikant negative Überrenditen ergeben. Durch eine differenzierte Analyse stellen wir fest, dass firmenspezifische Faktoren (Volatilität, Performance, Free Float) die Kursreaktionen am Ende der Lock-up-Periode beeinflussen. Die Befunde unserer Untersuchung belegen die Notwendigkeit klarer Regeln für mehr Transparenz nach dem Börsengang. Bedeutsam sind die vorliegenden Ergebnisse vor allem vor dem Hintergrund der aktuellen Diskussion um eine Erweiterung der insiderrechtlichen Meldepflichen im Rahmen des 4. Finanzmarktförderungsgesetzes. This paper explores the materiality of expirations of lock-up provisions that prevent insiders from selling their shares after the initial public offering (IPO). We examine 172 lock-up agreements of 142 IPOs floated on Germany’s New Market. Since the date of the lock-up expiration is common knowledge at the IPO, we would not expect to find abnormal returns surrounding the event day, assuming that markets are informationally efficient. However, using an event-study methodology we detect statistically significant negative abnormal returns and a twenty-five percent increase in trading volume surrounding lock-up expiration. The negative abnormal returns are larger for firms with high volatility, superior performance after the IPO, and low free float. The results of our study raise important regulatory issues with respect to disclosure rules of firms going public. We argue that insiders should be legally required to disclose their sell transactions in order to protect new and less informed shareholders.
Joseph E. Stiglitz (1943 - )
(2000)
Am 24.11.1999 gibt Joseph E. Stiglitz seinen vorzeitigen Rücktritt als Chief Economist und Senior Vice President der Weltbank zum Jahresende bekannt. Er will sich wieder ausschließlich der Forschung und Lehre widmen und kehrt auf seinen Lehrstuhl am Economics Department der Stanford University zurück. Stiglitzs Rückzug aus der aktiven Entwicklungspolitik erfolgt nicht ganz freiwillig. Er selbst kommentiert seinen Entschluß: „It has become obvious to me that it would be difficult to continue to speak out as forcefully and publicly as I have on a variety of issues and still remain as chief economist. Rather than muzzle myself, or be muzzled, I decided to leave.“ (New York Times, 1.12.1999). Seit geraumer Zeit galt seine öffentliche Kritik am Washington Consensus, dem ökonomischen Glaubensbekenntnis, auf das sich die politische Linie des US Treasury genauso stützt wie die Stabilisierungs- und Reformpolitik des IWF, als Dorn im Auge der Vertreter dieser Institutionen. Für sie war Stiglitz - so die Metapher der Financial Times vom 26.11.99 - „a veritable gadfly“, eine wahre Viehbremse, deren lästiges Summen aufgrund von Position und Intellekt nicht einfach ignoriert werden konnte. ...
Kapitalmarktorientierte Risikosteuerung in Banken : Marktwertsteuerung statt Marktzinsmethode
(2005)
In diesem Beitrag wird das Konzept der Marktzinsmethode als Grundlage der dualen Risikosteuerung von Kredit- und Marktpreisrisiken in Frage gestellt. Die Kreditrisiken einer Bank implizieren bonitätsinduzierte Marktpreisrisiken und bankspezifische Refinanzierungskosten. Während die bonitätsinduzierten Marktpreisrisiken in der dualen Risikosteuerung keine Berücksichtigung finden, werden die bankspezifischen Refinanzierungskosten zwar erkannt, aber bankintern nicht verursachungsgerecht zugeordnet. Das Grundmodell der Marktzinsmethode bietet keine Lösungsansätze zur Behebung dieser Probleme. Demgegenüber lassen sich die Fehlsteuerungsimpulse von vornherein durch eine konsequente Marktbewertung (Mark to Market) aller Finanzinstrumente vermeiden. Als Ausblick werden erste Überlegungen zur Implementierung einer umfassenden Marktwertsteuerung in Banken entwickelt und exemplarisch ein hierfür geeignetes Bewertungsmodell vorgestellt.
Stellungnahme zum Entwurf eines Gesetzes zur Umsetzung der Richtlinie 2014/59/EU (BRRD-Umsetzungsgesetz) der Bundesregierung vom 22.09.2014
Der Gesetzentwurf der Bundesregierung zur Umsetzung der EU-Richtlinie 2014/59/EU zur Festlegung eines Rahmens für die Sanierung und Abwicklung von Kreditinstituten und Wertpapierfirmen (“BRRD-Umsetzungsgesetz“) berührt auch die Frage der institutionellen Struktur für die Zuständigkeit für Bankenaufsicht und Geldpolitik. Es gibt gewichtige Gründe dafür, auf lange Sicht die Geldpolitik von der Bankenaufsicht und möglichen Bankenabwicklungs- und -restrukturierungsfragen institutionell zu trennen. Bei einer Trennung ist zu beachten, dass alle Institutionen für ihre jeweiligen Mandate gleichberechtigt auf erstklassige Daten über die Kapitalmärkte und die Transaktionen und Bilanzen der Banken zugreifen müssen. Ein Y-Modell, in dem zwei voneinander unabhängige Institutionen auf eine gemeinsame Datenbasis aufsetzen, kann im deutschen Kontext erreicht werden, indem die Bundesbank und die Bafin in einer Institution zusammengeführt werden, wobei sowohl die Aufsicht wie auch die Geldpolitik als Anstalt in der Anstalt (AIDA) geführt werden. Im Rahmen dieser „doppelten AIDA“-Lösung können beide Anstalten gleichberechtigt auf eine Datenbasis zugreifen. Die Daten werden im Rahmen der Mandate von Geldpolitik und Aufsicht wie bisher bundesweit erhoben. Die Entwicklung und spätere Einführung des Y-Modells („doppelte AIDA“) würde auch einen Modellcharakter für die noch zu führende Debatte um eine sinnvolle Institutionenstruktur für Europa haben.
Der Einsatz von Künstliche Intelligenz (KI) – Technologien eröffnet viele Chancen, birgt aber auch viele Risiken – insbesondere in der Finanzbranche. Dieses Whitepaper gibt einen Überblick über den aktuellen Stand der Anwendung und Regulierung von KI-Technologien in der Finanzbranche, und diskutiert Chancen und Risiken von KI. KI findet in der Finanzbranche zahlreiche Anwendungsgebiete. Dazu gehören Chatbots, intelligente Assistenten für Kunden, automatischer Hochfrequenzhandel, automatisierte Betrugserkennung, Überwachung der Compliance, Gesichtserkennungssoftware zur Kundenidentifikation u. v. m. Auch Finanzaufsichtsbehörden setzen zunehmend KI-Anwendungen ein, um große und komplexe Datenmengen (Big Data) automatisiert und skalierbar auf Muster zu untersuchen und ihren Aufsichtspflichten nachzukommen.
Die Regulierung von KI in der Finanzbranche ist ein Balanceakt. Auf der einen Seite gibt es eine Notwendigkeit Flexibilität zu gewährleisten, um Innovationen nicht einzudämmen und im internationalen Wettbewerb nicht abgehängt zu werden. Strenge Auflagen können in diesem Zusammenhang als Barriere für die erfolgreiche Weiter-)Entwicklung von KI-Applikationen in der Finanzbranche wirken. Auf der anderen Seite müssen Persönlichkeitsrechte geschützt und Entscheidungsprozesse nachvollziehbar bleiben. Die fehlende Erklärbarkeit und Interpretierbarkeit von KI-Modellen entsteht in erster Linie durch Intransparenz bei einem Großteil heutiger KI-Anwendungen, bei welchen zwar die Natur der Ein- und Ausgaben beobachtbar und verständlich ist, nicht jedoch die genauen Verarbeitungsschritte dazwischen (Blackbox Prinzip).
Dieses Spannungsfeld zeigt sich auch im aktuellen regulatorischen Ansatz verschiedener Behörden. So werden einerseits die positiven Seiten von KI betont, wie Effizienz- und Effektivitätsgewinne sowie Rentabilitäts- und Qualitätssteigerungen (Bundesregierung, 2019) oder neue Methoden der Gefahrenanalyse in der Finanzmarktregulierung (BaFin, 2018a). Andererseits, wird darauf verwiesen, dass durch KI getroffene Entscheidungen immer von Menschen verantwortet werden müssen (EU Art. 22 DSGVO) und demokratische Rahmenbedingungen des Rechtsstaats zu wahren seien (FinTechRat, 2017).
Für die Zukunft sehen wir die Notwendigkeit internationale Regularien prinzipienbasiert, vereinheitlicht und technologieneutral weiterzuentwickeln, ohne dabei die Entwicklung neuer KIbasierter Geschäftsmodelle zu bremsen. Im globalen Wettstreit sollte Europa bei der Regulierung des KI-Einsatzes eine Vorreiterrolle einnehmen und damit seine demokratischen Werte der digitalen Freiheit, Selbstbestimmung und das Recht auf Information weltweit exportieren. Förderprogramme sollten einen stärkeren Fokus auf die Entwicklung nachhaltiger und verantwortungsvoller KI in Banken legen. Dazu zählt insbesondere die (Weiter-)Entwicklung breit einsetzbarer Methoden, die es erlauben, menschen-interpretierbare Erklärungen für erzeugte Ausgaben bereitzustellen und Problemen wie dem Blackbox Prinzip entgegenzuwirken.
Aus Sicht der Unternehmen in der Finanzbranche könnte eine Kooperation mit BigTech-Unternehmen sinnvoll sein, um gemeinsam das Potential der Technologie bestmöglich ausschöpfen zu können. Nützlich wäre auch ein gemeinsames semantisches Metadatenmodell zur Beschreibung der in der Finanzbranche anfallenden Daten. In Zukunft könnten künstliche Intelligenzen Daten aus sozialen Netzwerken berücksichtigen oder Smart Contracts aushandeln. Eine der größten Herausforderungen der Zukunft wird das Anwerben geeigneten Personals darstellen.
Die Erklärung von Intelligenz fasziniert Menschen seit Jahrtausenden, scheint sich doch mit ihr die menschliche Singularität gegenüber Natur und Tier zu manifestieren. Zugleich betonen nicht nur philosophische Strömungen, sondern auch die Mathematik, die Neuro- und die Computerwissenschaften die Abhängigkeit menschlicher Intelligenz von mechanistischen Prozessen. Ob damit eine Verwandtschaft beider Formen der Informationsverarbeitung verbunden ist oder genau umgekehrt fundamentale Unterschiede bestehen, ist seit knapp hundert Jahren Gegenstand wissenschaftlicher Kontroversen. Fest steht allerdings, dass Maschinen jedenfalls in manchen Bereichen die menschliche Leistungsfähigkeit in Schnelligkeit und Präzision übertreffen können. Nähert man sich dieser Vorstellung, drängt sich die Frage auf, ob es sich empfiehlt, bestimmte Entscheidungen besser von Maschinen treffen, jedenfalls aber unterstützen zu lassen. Neben Ärzten, Rechtsanwälten und Börsenhändlern betrifft das auch Leitungsentscheidungen von Unternehmensführern.
Vor diesem Hintergrund wird im Folgenden ein Überblick über Formen künstlicher Intelligenz (KI) gegeben. Im Anschluss fokussiert der Beitrag auf die Rolle von KI im Kontext von Vorstandsentscheidungen. Dazu zählen allgemeine Sorgfaltspflichten, wenn über den Einsatz von KI im Unternehmen zu entscheiden ist. Geht es um die Unterstützung gerade von Vorstandsentscheidungen stellen sich zusätzlich Fragen der Kooperation von Mensch und Maschine, der Delegation des Kernbestands von Leitungsentscheidungen und der Einstandspflicht für KI.
Am 6. Februar 2013 hat die Bundesregierung den "Entwurf eines Gesetzes zur Abschirmung von Risiken und zur Planung der Sanierung und Abwicklung von Kreditinstituten und Finanzgruppen” veröffentlicht. Artikel 2 des Gesetzesentwurfs sieht vor bei systemrelevanten Finanzinstitutionen das Einlagen- und Kreditgeschäft vom Handelsgeschäft abzutrennen. Die Zielsetzung des Gesetzentwurfs, Kapitalkosten wieder in direkte Abhängigkeit des Risikos von Geschäftsfeldern zu setzen und eine Abwicklung zu erleichtern, die ohne den Einsatz von Steuermitteln gelingen kann, ist begrüßenswert. In seiner derzeitigen Ausgestaltung läuft der Gesetzesentwurf jedoch Gefahr, zwar symbolträchtig zu sein, aber in der Zielerreichung hinsichtlich Stabilität des Finanzmarktes und Schutz von Einlegern und Steuerzahlern hinter den Erwartungen zurückzubleiben.
Der vorliegende Beitrag zeigt auf, wie hedonische Preisindizes für Immobilien auf der Basis von Transaktionen berechnet werden können. Der Heterogenität der Immobilien wird dabei durch ein ökonometrisches Modell Rechnung getragen, wobei in dieser Arbeit das Problem der Wahl einer geeigneten Funktionsform durch eine Transformation nach dem Ansatz von Box/Cox (1964) explizit berücksichtigt wird. Die Datenbasis deckt etwa 65% der Transaktionen des Wohnungsmarktes im Zeitraum 1990-1999 ab. Die Korrektur aufgrund unvollständiger Angaben führt zu einem Datensatz von 84 686 Transaktionen. Dieser Datensatz ist ein Vielfaches dessen, was bisher vergleichbaren Studien zugrunde lag und stellt damit eine international einmalige Datengrundlage dar.