Filtern
Erscheinungsjahr
Dokumenttyp
- Ausgabe (Heft) zu einer Zeitschrift (291)
- Arbeitspapier (190)
- Buch (Monographie) (95)
- Bericht (45)
- Beitrag zu einer (nichtwissenschaftlichen) Zeitung oder Zeitschrift (44)
- Wissenschaftlicher Artikel (43)
- Dissertation (35)
- diplomthesis (8)
- Periodikum (8)
- Konferenzveröffentlichung (7)
Sprache
- Deutsch (782) (entfernen)
Gehört zur Bibliographie
- nein (782)
Schlagworte
- Financial Institutions (43)
- Deutschland (40)
- Capital Markets Union (29)
- Financial Markets (26)
- ECB (24)
- Macro Finance (22)
- Banking Regulation (21)
- Banking Supervision (20)
- Banking Union (18)
- Household Finance (18)
Institut
- Wirtschaftswissenschaften (782) (entfernen)
Überarbeitete Version des Arbeitspapiers "The dynamics of labour market participation, unemployment and non-participation in Great Britain, Sweden and Germany" / Wolfgang Strengmann-Kuhn. [Johann-Wolfgang-Goethe-Universität Frankfurt am Main, Fachbereich Wirtschaftswissenschaften, Institut für Volkswirtschaftslehre]
Inflation hat in den letzten Jahren weltweit erheblich an Popularität eingebüßt. Galten noch in den 1960er und 1970er Jahren moderate Inflationsraten von 5 bis 10 Prozent als wachstums- und beschäftigungsfördernd, so ist es mittlerweile in Politik und Wissenschaft nahezu unstrittig, dass Inflation vor allem volkswirtschaftliche Kosten verursacht und deshalb Preisstabilität das vorrangige Ziel moderner Geldpolitik sein muss. So sieht insbesondere die in Frankfurt ansässige Europäische Zentralbank (EZB) ihre Hauptaufgabe darin, die jährliche Inflationsrate in der Eurozone unter 2 Prozent zu halten. Klettert die Inflationsrate nur wenige Dezimalpunkte über diesen Zielwert, muss mit Zinserhöhungen und einer restriktiven Geldpolitik der Zentralbank gerechnet werden. Diese Geldpolitik i s t gerechtfertigt, wenn bereits niedrige Inflationsraten messbare realwirtschaftliche Effekte besitzen. Eine Studie der Professur für Empirische Makroökonomie untersucht deshalb den Einfluss von Inflation auf die Variabilität der relativen Preise.
Euro nicht gefährdet
(2017)
Europa - wohin?
(2011)
Gemäß der Krönungstheorie der europäischen Währungsunion wurde der Euro eingeführt, um die Notwendigkeit gemeinsamen Regierens in der Europäischen Union allen vor Augen zu führen und so ein geordnetes Vorrücken zur europäischen Integration zu ermöglichen. In der gegenwärtigen Phase scheint indes politischer Opportunismus die Integration zu bestimmen.
Ein Freibrief für die Notenbank bedeutet, genau genommen, die Bankrotterklärung des demokratischen Verfassungsstaates vor technokratischen Beliebigkeiten, schreibt Helmut Siekmann in diesem Namensbeitrag. Er betont, dass die Europäische Union eine unverzichtbare Einrichtung ist und ein echter Bundesstaat sein sollte. Sie sei aber im Wesentlichen (nur) ein Rechtskonstrukt, weshalb es umso wichtiger sei, dass die rechtlichen Regeln, auf denen sie beruht, genauestens beachtet werden.
In dieser Notiz wird ein neues Konzept für eine europäische Einlagensicherung vorgeschlagen, welches den starken politischen Vorbehalten Rechnung trägt, die gegen eine Vergemeinschaftung der Haftung für Bankeinlagen bestehen. Das skizzierte drei-stufige Einlagensicherungsmodell führt existierende nationale Einlagensicherungseinrichtungen weiter, bietet einen europäischen Verlustausgleich und verhindert eine exzessive Risikoübernahme zu Lasten der internationalen Gemeinschaft.
In dieser Studie werden die Wirkungen von Arbeitsbeschaffungsmaßnahmen (ABM) in Deutschland auf die individuellen Eingliederungswahrscheinlichkeiten der Teilnehmer in reguläre Beschäftigung evaluiert. Für die Untersuchung wird ein umfangreicher und informativer Datensatz aus den Datenquellen der Bundesagentur für Arbeit (BA) verwendet, der es ermöglicht, die Wirkungen der Programme differenziert nach individuellen Unterschieden der Teilnehmer und mit Berücksichtigung der heterogenen Arbeitsmarktstruktur zu untersuchen. Der Datensatz enthält Informationen zu allen Teilnehmern in ABM, die ihre Maßnahmen im Februar 2000 begonnen haben, und zu einer Kontrollgruppe von Nichtteilnehmern, die im Januar 2000 arbeitslos waren und im Februar 2000 nicht in die Programme eingetreten sind. Mit Hilfe der Informationen der Beschäftigtenstatistik ist es hierbei erstmals möglich, den Abgang in reguläre Beschäftigung auf Grundlage administrativer Daten zu untersuchen. Der vorliegende Verbleibszeitraum reicht bis Dezember 2002. Unter Verwendung von Matching-Methoden auf dem Ansatz potenzieller Ergebnisse werden die Effekte von ABM mit regionaler Unterscheidung und für besondere Problem- und Zielgruppen des Arbeitsmarktes geschätzt. Die Ergebnisse zeigen zwar deutliche Unterschiede in den Effekten für Subgruppen, insgesamt weisen die empirischen Befunde jedoch darauf hin, dass das Ziel der Eingliederung in reguläre ungeförderte Beschäftigung durch ABM weitgehend nicht realisiert werden konnte. JEL: C40 , C13 , J64 , H43 , J68
In dieser Studie werden die Wirkungen von Arbeitsbeschaffungsmaßnahmen (ABM) in Deutschland auf die individuellen Eingliederungswahrscheinlichkeiten der Teilnehmer in reguläre Beschäftigung evaluiert. Für die Untersuchung wird ein umfangreicher und informativer Datensatz aus den Datenquellen der Bundesagentur für Arbeit (BA) verwendet, der es ermöglicht, die Wirkungen der Programme differenziert nach individuellen Unterschieden der Teilnehmer und mit Berücksichtigung der heterogenen Arbeitsmarktstruktur zu untersuchen. Der Datensatz enthält Informationen zu allen Teilnehmern in ABM, die ihre Maßnahmen im Februar 2000 begonnen haben, und zu einer Kontrollgruppe von Nichtteilnehmern, die im Januar 2000 arbeitslos waren und im Februar 2000 nicht in die Programme eingetreten sind. Mit Hilfe der Informationen der Beschäftigtenstatistik ist es hierbei erstmals möglich, den Abgang in reguläre Beschäftigung auf Grundlage administrativer Daten zu untersuchen. Der vorliegende Verbleibszeitraum reicht bis Dezember 2002. Unter Verwendung von Matching-Methoden auf dem Ansatz potenzieller Ergebnisse werden die Effekte von ABM mit regionaler Unterscheidung und für besondere Problem- und Zielgruppen des Arbeitsmarktes geschätzt. Die Ergebnisse zeigen zwar deutliche Unterschiede in den Effekten für Subgruppen, insgesamt weisen die empirischen Befunde jedoch darauf hin, dass das Ziel der Eingliederung in reguläre ungeförderte Beschäftigung durch ABM weitgehend nicht realisiert werden konnte. JEL: C40 , C13 , J64 , H43 , J68
Die Quantenspieltheorie stellt eine mathematische und konzeptuelle Erweiterung der klassischen Spieltheorie dar. Der Raum aller denkbaren Entscheidungswege der Spieler wird vom rein reellen, messbaren Raum in den Raum der komplexen Zahlen (reelle und imaginäre Zahlen) ausgedehnt. Durch das Konzept der möglichen quantentheoretischen Verschränkung der Entscheidungswege im imaginären Raum aller denkbaren Quantenstrategien können gemeinsame, durch kulturelle oder moralische Normen entstandene Denkrichtungen mit einbezogen werden. Ist die Strategienverschränkung der Spieler im imaginären Raum der denkbaren Entscheidungswege nur genügend groß, so können zusätzliche Nash-Gleichgewichte auftreten und zuvor existente dominante Strategien sich auflösen. Die der evolutionären Entwicklung zugrundeliegende Replikatordynamik besitzt in der evolutionären Quantenspieltheorie eine komplexere Struktur und die jeweiligen evolutionär stabilen Strategien können sich, abhängig vom Maß der Verschränkung, abändern. Neben einer detaillierten Darstellung der evolutionären Quantenspieltheorie werden in dieser Dissertation mehrere Anwendungsbeispiele besprochen. So wird durch eine quantentheoretische Erweiterung die aktuelle Finanzkrise mittels eines Anti-Koordinationsspiels beleuchtet, das unterschiedliche Publikationsverhalten von Wissenschaftlern erklärt und erste Ansätze einer experimentellen Bestätigung der Theorie dargestellt.
Im vorliegenden Papier werden drei Ansätze zur Reform des Familienleistungsausgleichs (FLA) mit jeweils zwei Varianten dargestellt und hinsichtlich ihrer fiskalischen Effekte und Wirkungen in verschiedenen Segmenten der Einkommensverteilung systematisch verglichen. – Mit dem weitestgehenden Konzept, der Kindergrundsicherung, wird ein Existenz sicherndes und zu versteuerndes Kindergeld in Höhe von monatlich 502 Euro bzw. 454 Euro pro Kind vorgeschlagen. Die bisherigen kindbedingten Freibeträge und mehrere Sozialleis-tungen könnten entfallen bzw. reduziert werden. – Daneben werden Kindergelderhöhungen auf einheitlich 238 Euro bzw. 328 Euro pro Kind und Monat, die allen Kindern – auch denen im SGB II-Leistungsbezug – zugute kommen sollen, untersucht. Das Kindergeld wäre wie bisher nicht zu versteuern, die bisherigen kindbedingten Freibeträge würden aber entfallen. – Schließlich wird der Vorschlag einer deutlichen Erhöhung des Kinderzuschlags bei reduzierter Mindesteinkommensgrenze und Wegfall der Höchsteinkommensgrenze erörtert. Zudem ist bei diesem Ansatz ein nochmals erhöhter Kinderzuschlag bei Alleinerziehenden – analog zum Mehrbedarfszuschlag nach dem SGFB II – (erste Variante) oder eine Herabsetzung der Transferentzugsrate auf Nichterwerbseinkommen von 100% auf 70% (zweite Variante) vorgesehen. Die zu erwartenden fiskalischen Belastungen der einfachen Kindergelderhöhung (ohne Be-steuerung) können ohne Weiteres hochgerechnet werden (16 bzw. 35 Mrd. Euro p. a.), die der anderen Reformmodelle sind aber ohne mikroanalytische Fundierung unter Berücksichtigung der Einkommensverteilung kaum abschätzbar. Zwar lassen sich auch die Bruttokosten der Kindergrundsicherung auf einfachem Wege ermitteln (Multiplikation der Kindergeld-Kinder mit der Betragshöhe), die Aggregate der davon abzusetzenden zahlreichen Einsparungen bei anderen Sozialleistungen und insbesondere der Steuermehreinnahmen sind allerdings nicht offensichtlich. Eine erste Überschlagsrechnung hat ergeben, dass die Nettokosten der ersten „großzügigen“ Variante der Kindergrundsicherung (502 Euro) denen der Kindergelderhöhung auf das sächliche Existenzminimum (322 Euro) ohne Besteuerung ungefähr gleich sind (in der Größenordnung von 35 Mrd. Euro). Eine genauere Quantifizierung kann aber nur auf der Ba-sis repräsentativer Mikrodaten und eines Simulationsmodells erfolgen, da insbesondere der Besteuerungseffekt der Kindergrundsicherung von der faktischen Einkommensverteilung abhängt. Auch eine Kostenschätzung für die Kinderzuschlagsreform bedarf mikroanalytischer Verfahren; ungeachtet dessen würde diese auf einen begrenzten Einkommensbereich gerichte-te Reform aber eindeutig die geringsten Kosten verursachen. Für einen systematischen Vergleich der Verteilungswirkungen der Reformvorschläge werden in der vorliegenden Arbeit Modellrechnungen für zwei ausgewählte Haushaltstypen präsen-tiert. Dabei wird deutlich, dass mit dem vergleichsweise begrenzten Konzept der Ausweitung des Kinderzuschlags die Situation von Familien in prekären Einkommensverhältnissen bis zu Familien der unteren Mittelschicht deutlich verbessert werden könnte. Inwieweit dieser Effekt eintreten würde, hängt allerdings auch vom Inanspruchnahmeverhalten ab; bisher ist die Nicht-Inanspruchnahme von Kinderzuschlag und Wohngeld weit verbreitet. Zudem würde sich die Situation der ärmsten Familien, die auf SGB II-Leistungen angewiesen sind, nicht verbessern, und am oberen Rand würden die Entlastungseffekte des FLA als Folge der kind-bedingten Freibeträge weiterhin mit dem elterlichen Einkommen zunehmen. Demgegenüber würden sich bei den Varianten der Kindergelderhöhung (ohne Besteuerung) die deutlichen Verbesserungen gegenüber dem Status quo gleichmäßig über das Einkommensspektrum vom Niedriglohnsegment – bei unverändert problematischen Effekten des Kinderzuschlags (Ein-kommensbruchstelle bei Höchsteinkommensgrenze) – bis in obere Schichten verteilen und erst am oberen Rand mit steigendem Einkommen sinken (infolge des Wegfalls der bisherigen kindbedingten Freibeträge). Die Förderungen durch die Kindergrundsicherung schließlich würden am stärksten im unteren und unteren Mittelbereich ausfallen und – im Gegensatz zu anderen Konzepten – insbesondere verdeckte Armut systembedingt, also quasi „automatisch“, weitgehend abbauen. Im oberen Mittelbereich und hauptsächlich in höheren Schichten würden die Transfers dagegen mit zunehmendem Einkommen kontinuierlich abnehmen. Insgesamt würde dies zu einem vergleichsweise stetig steigenden Verlauf des verfügbaren Familieneinkommens führen; die wegen der hohen Transferentzugsraten des Kinderzuschlags – gegebenenfalls in Kombination mit Wohngeld – häufigen Befürchtungen negativer Arbeitsanreize im unteren Einkommensbereich wären gegenstandslos. Inwieweit die hier diskutierten Reformkonzepte zu einem Abbau von Kinder- und Familien-armut und zu weniger Ungleichheit der personellen Einkommensverteilung führen können, lässt sich allein auf der Basis von Modellrechnungen allerdings nicht absehen. Dazu bedarf es detaillierter Analysen auf der Basis von repräsentativen Mikrodaten, die die faktische Ein-kommensverteilung abbilden und Simulationsrechnungen zur Quantifizierung der Effekte der Reformvarianten – unter Einbeziehung der Finanzierung der jeweiligen Nettokosten – ermöglichen. Daran wird im Projekt „Vom Kindergeld zu einer Grundsicherung für Kinder“ auf Basis der Daten des Sozio-ökonomischen Panels (SOEP) 2007 gearbeitet; die Repräsentativität des Datensatzes hinsichtlich des Nachweises von Einkommens-, insbesondere Transferar-ten wurde bereits geprüft – mit gutem Ergebnis.
Seit zwanzig Jahren befaßt sich die Finanzmarktforschung einerseits mit Fragen der Bewertung und des Managements von Finanztiteln auf effizienten Kapitalmärkten und mit Fragen der Managementkontrolle auf unvollkommenen Märkten. Der folgende selektive Überblick konzentriert sich auf zentrale Aspekte der Theorie und Empirie der Managementkontrolle bei asymmetrischer Information. Ziel ist die Auseinandersetzung mit der unlängst vorgetragenen These zu den Mythen der Unternehmenskontrolle (Martin Hellwig 1997). Der aktuelle Überblick wird entwickelt vor dem Hintergrund der Gutenberg’schen Position eines eigenständigen Unternehmensinteresses, losgelöst von den Interessen der shareholder oder anderer stakeholder. Diese Position von Gutenberg verbindet sich im dritten Band der „Grundlagen der BWL: Die Finanzen“ von 1969 mit der Forderung nach Einhaltung eines sog. finanziellen Gleichgewichts. Erst in jüngster Zeit werden auch kapitalmarkttheoretisch fundierte Modelle entwickelt, die auch Raum bieten für eine Autonomie des Managements gegenüber dessen stakeholders.
Fünf Jahre nach Beginn der Banken- und Staatsschuldenkrise („Finanzkrise“) kämpfen wir weiterhin mit den elementaren Problemen: Bei Märkten und Marktteilnehmern fehlt es an Stabilität und Vertrauen. Viele Banken stehen immer noch nicht auf eigenen Füßen und nehmen die ihnen in Europa traditionell zukommende zentrale Rolle für Wachstum und Entwicklung nicht wahr. Den guten Absichten, auf die sich die großen politischen Mächte während der ersten G-20 Treffen 2008 und 2009 verständigt hatten, ist eine Reihe von sinnvollen Ideen und Konzepten gefolgt. Die Voraussetzungen für einen grundlegenden reformerischen Erfolg sind somit gegeben – doch nun muss die Umsetzung folgen. Dazu bedarf es mutiger Entscheidungen. Im Jahr 2014 muss die europäische Politik gleich mehrere Weichen stellen. Der Bundesregierung kommt dabei die Schlüsselrolle zu. Sie muss den Mut haben zu radikaler Ordnungspolitik!
Der Beitrag diskutiert den unlängst veröffentlichten Referentenentwurf eines Finanzstabilitätsgesetzes, der vorsieht, dass die Bundesbank ab 2013 ein Mandat zur makroprudenziellen Überwachung bekommt. Die Entscheidungen über die Vorschläge, die sich vor allem an die Bundesregierung oder an die Bundesanstalt für Finanzdienstleistungsaufsicht (Bafin) richten dürften, wird ein neuer Ausschuss für Finanzstabilität beim Bundesfinanzministerium treffen. Der Autor befasst sich mit der Zusammensetzung dieses Ausschusses und mit den Instrumenten, die für die Umsetzung der Empfehlungen des Ausschusses zur Verfügung stehen.
Wenn man untersuchen möchte, ob sich die Finanzsysteme verschiedener Länder im Verlauf der letzten Jahre aneinander angeglichen haben oder demnächst angleichen werden, braucht man ein Konzept zur Beschreibung von Finanzsystemen, durch das wesentliche Strukturen, deren Unterschiede und Veränderungen erkennbar werden, ohne dabei in "Systemgeschwafel" (D. Schneider) abzugleiten. Wir haben dafür das Konzept der Komplementarität als nützlich identifiziert. Der Beitrag stellt dieses Konzept vor und soll und seine Eignung belegen. Letztlich geht es dabei auch um die Frage, ob reale Finanzsysteme konsistente Systeme mit komplementären Elementen darstellen. Nach der Vorstellung der formalen Konzepte der Komplementarität und der Konsistenz wird "das Finanzsystem" auf seine Komple mentarität untersucht. Dazu wird ein Finanzsystem aus der Sicht von Unternehmen des nichtfinanziellen Sektors als ein System gekennzeichnet, das aus drei Teilsystemen besteht. Das erste Teilsystem ist das Finanzierungssystem einschließlich Finanzsektor und Mustern der Unternehmensfinanzierung, das zweite das Corporate Governance-System und das dritte das Unternehmens-Strategie-System. Für alle drei Teilsysteme wird – allgemein und mit Bezug auf die Finanzsysteme Deutschlands, Japans und der USA - gezeigt, inwieweit die Elemente der betreffenden Teilsysteme untereinander komplementär sind, und geprüft, ob sie in ihren Ausprägungen auch konsistent sind, d.h. wirklich "zueinander passen". Untersucht wird auch die Komplementarität und Konsistenz zwischen den Teilsystemen selbst. Der Beitrag endet mit Überlegungen über die Anwendung des Komplementaritätskonzepts. Dass ein Finanzsystem die Eigenschaft der Komplementarität aufweist, hat nicht nur weitreichende Implikationen für die Methodik der Analyse von Finanzsystemen, sondern auch für die Vorhersehbarkeit der Entwicklung von Finanzsystemen und damit für die Wahrscheinlichkeit einer Konvergenz von Finanzsystemen, für deren Effizienzeigenschaften und für die Möglichkeiten, Finanzsysteme durch gestaltende Eingriffe zu verbessern.
Im ersten Kapitel wird dabei die "klassische" Theorie des Fiskalföderalismus diskutiert, die von Problemen des politischen Prozesses weitgehend abstrahiert. Das zweite Kapitel bietet dann einen Überblick der Argumente, die Unzulänglichkeiten des politischen Prozesses als Begründung für Dezentralisierung bzw. Zentralisierung heranziehen. Obwohl die allgemeine Theorie des Fiskalföderalismus einige wichtige Anhaltspunkte für die Zentralisierungsentscheidung beinhaltet, ist es unabdingbar, in Abhängigkeit vom konkreten Politikfeld jeweils eine spezielle Bestandsaufnahme bezüglich der einhergehenden Kosten und Nutzen einer verstärkten Zentralisierung anzustellen. Die vorliegende Studie nimmt sich dabei aus der Fülle der möglichen Politikfelder einige wichtige Teilgebiete heraus. Kapitel 3 diskutiert die möglichen Vorteile einer verstärkten außen- und verteidigungspolitischen Zentralisierung in Europa. Vor dem Hintergrund, dass jedes Land in Europa einen Anreiz hat, sich bei der Durchsetzung gemeinsamer Interessen auf die Partnerländer innerhalb der NATO zu verlassen, lässt eine verstärkte Koordinierung der Europäer auf eine Verringerung des Freifahrerproblems hoffen. Allerdings steht zu befürchten, dass die resultierenden Mehranstrengungen der Europäer zu verminderten Anstrengungen der USA führen. Die Lasten der Verteidigungspolitik könnten sich daher verstärkt von den USA auf Europa verschieben. Je größer Europa durch zusätzliche Beitritte wird, desto eher lohnt es sich allerdings wie Kapitel 3 erläutert eine solche Verschiebung der Lasten in Kauf zu nehmen. Kapitel 4 erörtert die europäischen Finanzausgleichsbeziehungen. In einem ersten Schritt werden die existierenden Finanzbeziehungen innerhalb der EU skizziert. In einem zweiten Schritt werden die Grundlagen und Probleme einer erweiterten regionalen Umverteilung zwischen den Mitgliedstaaten diskutiert. Kapitel 5 argumentiert, dass es in dieser institutionellen Situation nicht verwunderlich ist, wenn die einzelnen Mitgliedsländer eine verstärkte Präferenz für rigide Arbeitsmärkte entwickeln. Weil es rigide Arbeitsmärkte für gebietsfremde Outsider schwerer machen dürften, Zugang zum regionalen Arbeitsmarkt zu erhalten, helfen Arbeitsmarktrigiditäten die Mobilität zu verringern. Umverteilungssysteme zu Gunsten von Geringverdienern, die ansonsten durch die Arbeitskräftemobilität erodieren würden, lassen sich so eher bewahren. Kapitel 6 beschäftigt sich mit der Koordinierung bei der Besteuerung von mobilem Kapital.
Beitrag fur das 27. Wirtschaftswissenschaftliche Seminar Ottobeuren 14.- 17.9.1997). Dieser Beitrag nimmt aus theoretischer und ökonometrischer Sicht zu der Kontroverse über die Bedeutung der qualifikatorischen Lohnstruktur zur Erklärung der Beschäftigungsstruktur Stellung. Basierend auf einer Einteilung in drei Qualifikationsgruppen zeigt sich empirisch, daß die Entlohnung der mittleren Gruppe relativ zur unteren und oberen weniger stark ansteigt, während ein kontinuierlicher Trend zur Höherqualifikation der Beschäftigten besteht. Es werden eine Translog-Kostenfunktion und Anteilsgleichungen ökonometrisch geschätzt, um den Einfluß der Lohnstruktur auf die Beschäftigungsstruktur zu erfassen. Bei allen Vorbehalten aufgrund verschiedener Probleme der Schätzungen implizieren die Ergebnisse einen signifikanten Einfluß der qualifikatorischen Struktur der mittleren Löhne auf die Beschäftigungsstruktur wie auch eine die relative Beschäftigung steigernde Wirkung einer erhöhten Lohndispersion innerhalb der Qualifikationsgruppen. Damit besteht die Möglichkeit, daß mit einer größeren Lohnspreizung die Lastverteilung der Arbeitslosigkeit bei gegebenem Output, Kapitaleinsatz und technischem Fortschritt in Form einer Erhöhung der Beschäftigung von gering qualifizierten Arbeitnehmern angeglichen werden kann.
Nach der 2008 startenden Finanzmarktkrise sind Maßnahmen zur Regulierung und Stabilisierung der Finanzmärkte in das Zentrum der politischen und der gesellschaftlichen Aufmerksamkeit gerückt. Insbesondere die hohen fiskalischen Kosten der Staaten zur Stützung ihrer Bankensysteme sowie die volkswirtschaftlichen Kosten infolge des Einbruchs des Wirtschaftswachstums in den Jahren nach der Insolvenz der US Investmentbank Lehman Brothers hatten einen globalen Konsens über die Notwendigkeit neuer Regulierungsmaßnahmen zur Folge. Im Ergebnis wurden das internationale Regulierungswerk Basel III sowie weitere nationale Maßnahmen zur Stabilisierung des Finanzsektors neu konzipiert und in Europa im Wege einer in nationales Recht umzusetzenden Richtlinie (die Capital Require-ments Directive IV - CRD IV) sowie einer Verordnung (die Capital Requirements Regulation CRR, welche unmittelbar geltendes Recht darstellt) eingeführt.
Vor diesem Hintergrund analysiert das vorliegende interdisziplinäre Gutachten die Auswirkungen der Regulierungsmaßnahmen, die zwischen 2008 bis zu Beginn des Jahres 2018 umgesetzt wurden auf dem deutschen Finanzsektor.
In diesem Beitrag zur Frage nach dem Ausmaß von Einkommensarmut von Familien stehen zwei Aspekte im Mittelpunkt. – Zum einen ist im Vorfeld von Verteilungsanalysen die Art der Einkommensgewichtung in Mehrpersonenhaushalten zu klären. Nach Abwägung verschiedener Ansätze zur Ableitung einer Äquivalenzskala wurde eine Präferenz für ein institutionell orientiertes Gewichtungsschema, approximiert durch die alte OECD-Skala, begründet. – Zum anderen wurde der Einfluss der Frauenerwerbsbeteiligung auf die Einkommenssituation von Familien mit Kindern empirisch untersucht. Von prekären Einkommensverhältnissen und Einkommensarmut sind vor allem Familien mit geringfügig beschäftigter oder nichterwerbstätiger Partnerin sowie Alleinerziehende – Letztere wiederum bei fehlender Erwerbstätigkeit besonders stark – betroffen, wobei in den neuen Ländern die Situation wesentlich brisanter ist als in den alten Ländern. Bei politischen Maßnahmen sollten Erwerbswünsche der Frauen und Bedürfnisse der Familien berücksichtigt werden. Von daher sind Transfers im Rahmen des Familienleistungsausgleichs und die öffentliche Förderung von Kinderbetreuungseinrichtungen nicht als konkurrierende, sondern eher als komplementäre Konzepte zu diskutieren.
In der Arbeit wird Fuzzy-Regression als mögliche ökonometrische Analysemethode bei fehlerbehafteten Daten modelliert und erprobt. Dazu ist die interpretatorische Lücke zu schließen, die einerseits zwischen den Datenproblemen in empirischen Datensätzen und ihrer Modellierung als Fuzzy-Daten und andererseits zwischen der Modellierung der Fehlereinflüsse in den Fuzzy-Daten und den Aussagen und Analysen besteht, die auf der Basis einer Fuzzy-Regression über die vorliegenden Daten getroffen werden können. Da bereits eine Vielzahl von Ansätzen zur Fuzzy-Regression entwickelt wurden, wird als das Hauptproblem nicht die Modellierung der Fuzzy-Methoden als solcher gesehen, sondern vielmehr die fehlende Vorstellung über die mögliche Bedeutung der Fuzzy-Modellierungen im konkreten Anwendungsfall. Die Arbeit vollzieht deshalb im Sinne einer Machbarkeitsstudie die verschiedenen Schritte von den Fehlereinflüssen in wirtschaftsbezogenen Datensätzen und deren Modellierung als Fuzzy-Daten bis hin zur explorativen Analyse mit Fuzzy-Regression nach. Dabei werden für jeden der Schritte exemplarische Beispiele ausgewählt, um die Denkweise der Fuzzy-Modellierung auszuarbeiten und die Möglichkeiten und Grenzen der Methoden aufzuzeigen. Die Untersuchungen zeigen, dass vor allem die Fuzzy-Modellierung von Fehlereinflüssen in den Merkmalsdaten und die Beschreibung von gleichförmigen Strukturen in den Fehlereinflüssen durch Fehlerszenarien als Analyseinstrumente geeignet sind, da sie eine Grundlage für eine weitergehende Untersuchung der Fehlereinflüsse bilden. Als Ausblick auf ein Schätzmodell für Fuzzy-Regression bei Fehlern in den Daten werden abschließend einige Ansätze für die Einbettung des Regressionsproblems für Fuzzy-Merkmalsvariablen in die Verteilungsmodelle für Fuzzy-Zufallsvariablen vorgestellt, die auf der Konstruktion der Fehlerszenarien basieren.
Geiz war gestern
(2020)
Kaum eine andere Industrie wurde in den vergangenen beiden Jahrzehnten so massiv durch den Einzug der Informationstechnologie geprägt wie der Wertpapierhandel. Traditionelle Geschäftsmodelle haben sich grundlegend verändert. Das klassische Börsenparkett ist nahezu vollständig elektronischen Handelsplattformen gewichen.
Gesprächsreihe zu Strukturreformen im europäischen
Bankensektor : Zukunft der Universalbanken
(2013)
In der zweiten Veranstaltung der „Gesprächsreihe zu Strukturreformen im europäischen Bankensektor“ diskutierten Professor Dr. Jan Pieter Krahnen und Dr. Michael Kemmer die Zukunft der Universalbanken. Anlass war der Vorschlag der Liikanen-Kommission, dass Finanzinstitute einen Teil ihres Investmentbankings, den Eigenhandel und das Market-Making, ab einer bestimmten Größenordnung ausgliedern sollen.
In der vierten Veranstaltung der „Gesprächsreihe zu Strukturreformen im europäischen Bankensek-tor“ diskutierte Dr. Elke König, Präsidentin der Bundesanstalt für Finanzdienstleistungsaufsicht (BaFin), die Wiederherstellung privater Haftung und die zukünftige Rolle der Aufsicht, insbesondere im Hinblick auf die Vorschläge der Liikanen-Kommission.
König warnte, dass man systemische Risiken, die vor allem während der Finanzkrise zu Problemen geführt hätten, noch nicht im Griff habe. Sowohl die Bankenaufsicht als auch die Wissenschaft suche immer noch nach einer geeigneten Lösung dieses Problems. Systemische Risiken führen dazu, dass komplexe und stark vernetzte Institute von Staaten gestützt werden, wenn diese ins Straucheln gera-ten. In der Finanzkrise hatte dies zur Folge, dass Banken letztlich vom Steuerzahler gerettet wurden. Diesen Quasi-Insolvenzschutz systemrelevanter Institute müsse man aufheben, um Fehlanreize im Markt zu korrigieren, so König. Verantwortung und Haftung für unternehmerisches Handeln müssten wieder in einer Hand liegen, und zwar in der der Institute, seiner Eigner und Gläubiger.
König ist deshalb der Meinung, dass ein einheitlicher Abwicklungsmechanismus für Banken notwen-dig sei, der auch grenzüberschreitend wirke. Als einen wichtigen Bestandteil dieses Mechanismus nannte sie die Umsetzung eines breiten Bail-ins. Durch Bail-in werden Eigentümer und Gläubiger von Bankinstituten an einer Restrukturierung beteiligt. Eine Umwandlung von Fremdkapital in Eigenkapi-tal kann darüber hinaus dazu dienen, ein Brückeninstitut mit Kapital auszustatten.
Zur konkreten Ausgestaltung von Bail-in-Instrumenten gibt es unterschiedliche Ansätze: Die Liikanen-Kommission plädierte in ihrem Vorschlag für eine Schaffung konkreter Bail-in-Anleihen, vergleichbar mit den Contingent Convertible Bonds (CoCo-Bonds), die in der Schweiz bereits eingeführt wurden. Die BaFin setze dagegen, ähnlich wie die Europäische Kommission, auf einen möglichst breiten An-satz und habe sich gegen die Emission einer neuen Gattung vertraglicher Bail-in-Instrumente ausge-sprochen, sagte König. Die Höhe der bail-in-fähigen Instrumente sowie die Reihenfolge der Haftung müssten aber trotzdem für jedes Institut klar definiert sein.
König betonte, dass es wichtig sei, nun die institutsspezifischen Sanierungs- und Abwicklungspläne zu entwickeln. Die BaFin habe mit der Erstellung der Abwicklungspläne auch schon begonnen. Bail-in sei dabei nur ein Baustein in dem wesentlich umfangreicheren Instrumentenkasten der Sanierungs- und Abwicklungspläne.
In der anschließenden Diskussion sagte König, dass es eine Abwicklungsbehörde für Institute, die in Zukunft einer europäischen Aufsicht unterliegen, derzeit nur auf nationaler Ebene geben könne. An-dernfalls sei eine Änderung der europäischen Verträge notwendig, da die Mittel, die für eine Abwick-lung aufgewendet werden müssten, aus nationalen Haushalten kämen. Bei einer Abwicklungsbehör-de auf europäischer Ebene würden die Haushaltsbelastung und die Entscheidung über die Verwen-dung der Mittel auseinanderfallen.
In der dritten Veranstaltung der „Gesprächsreihe zu Strukturreformen im europäischen Bankensektor“ diskutierten Professor Dr. Jan Krahnen und Dr. Theodor Weimer die Auswirkungen von Regulierung auf Bankverhalten und Wettbewerb, insbesondere im Hinblick auf die Vorschläge der Liikanen-Kommission. Weimer verwies auf die volkswirtschaftlichen Kosten einer zu strengen Bankenregulierung, u.a. negative Auswirkungen auf die Kreditvergabe. Weimer warnte auch davor, dass man in Europa, und gerade in Deutschland, strenger reguliere als in anderen Ländern. Krahnen erklärte, man habe durch die Liikanen-Vorschläge vor allem das Problem des systemischen Risikos im Bankensektor adressieren wollen. Außerdem sei es ein Ziel der Kommission gewesen, Banken so zu regulieren, dass der Steuerzahler im Krisenfall nicht länger für die Risiken der Banken haften müsse. Es sei notwendig, den Bankensektor zu reformieren, damit Banken abgewickelt werden könnten, auch wenn diese untereinander vernetzt sind.
Gesprächsreihe zu Strukturreformen im Europäischen Bankensektor: Managementvergütung im Bankensektor
(2013)
In der ersten Veranstaltung der „Gesprächsreihe zu Strukturreformen im europäischen Bankensektor“ diskutierten Professor Dr. Jan Krahnen und Dr. Thomas Mayer den im Liikanen-Bericht enthaltenen Vorschlag zur Managervergütung im Bankensektor. Der Vorschlag baut auf einem der Kernvorschläge der Liikanen-Kommission auf, nach dem Finanzinstitute gehalten sein sollen, einen Teil ihres Fremdkapitals so zu strukturieren, dass, bei Schieflage des Finanzinstituts, eine Inhaftungnahme der Gläubiger dieses Fremdkapitals möglich wird. Um dies zu erreichen, empfiehlt die Liikanen-Kommission für alle Banken, dass diese einen festgelegten Prozentsatz ihres Kapitals als „Bail-in Anleihen“ begeben müssen. Der Vorschlag zur Managervergütung sieht vor Bail-in Anleihen für die leistungsorientierte und anreizorientierte Entlohnung von Managern einzusetzen, um Anreize zu geben, die Risikopolitik des Unternehmens so zu verankern, dass auch längerfristig keine exorbitanten Risiken auftreten.
Auf die Fragen kommt es an: "Woher kommt der Mensch? wo will er hin? – und warum um alles in der Welt ist er da nicht geblieben?" Der Meister zirkulärer Sinnsuche hat als Fragender seine beste Rolle gefunden und damit den postheroischen Typus Mensch erschaffen, der in der Vieldeutigkeit der Welt erleichtert seinen Unfrieden findet: damit, dass Pazifisten Kriege verteidigen, dass die Außerparlamentarischen eine Partei gründen, dass die Konservativen die interessanteren Zeitungen machen und die Komik zur wirksamsten Waffe gegen Dummheit und Schmerz geworden ist. Matthias Beltz hat beiläufig mit Lebensweisheiten und assoziativ aufgetürmtem Scharfsinn nicht nur seine Fragen bewaffnet, in denen gewagte Antworten ihren vitalen Keim austreiben, sondern auch das Misstrauen gesät gegenüber politisch korrekten, nachgeplapperten und smarten Antworten. ...
Zeit seines Lebens beschäftigte sich Goethe mit ökonomischen Theorien; in seinem dichterischen Werk entwarf er wirtschaftliche Visionen, die das späte 19. und das frühe 20. Jahrhundert übersahen. Seine positive Vision des Kapitalismus ist von einer Sittlichkeit durchdrungen, die extreme Formen des Erwerbsstrebens und der Ausbeutung hemmt. Dagegen steht Goethes Schreckensbild eines uns modern erscheinenden Kapitalismus, wie es im »Faust« beschworen wird.
Großer Beifall
(2012)
n der Literatur wird oftmals angeführt, dass die Grunderwerbsteuer weder aus Sicht des Äquivalenzprinzips noch aus Sicht des Leistungsfähigkeitsprinzips zu rechtfertigen ist und daher in einem modernen Steuersystem nichts verloren hätte. Das vorliegende Papier weist darauf hin, dass die Grunderwerbsteuer Parallelen zur Grundsteuer aufweist und sich, zumindest aus ökonomischer Sicht, in eine Grundsteuer umbauen ließe. Dies könnte insbesondere dann interessant sein, wenn die derzeitige deutsche Grundsteuer in eine reine Flächensteuer umgebaut wird, die den Wert der Bebauung unbesteuert lässt. Ein Umbau der Grunderwerbsteuer, bei der der Kaufpreis dynamisiert wird und dann einer jährlichen Steuer unterworfen wird, hat einige Vorteile. Diese resultieren daraus, dass der negative Effekt auf die Zahl der Immobilientransaktionen (Lock-in-Effekt) abgemildert würde. Könnte die Dynamisierung treffsicher an die regionale Immobilienpreisentwicklung angepasst werden, entfällt der Lock-in-Effekt für Immobilien, die bereits einmal der dynamisierten Grunderwerbsteuer unterworfen waren, sogar komplett. Dies hat nicht nur positive Effekte auf das Funktionieren des Wohnungs- und Arbeitsmarktes, sondern kann auch dem Problem der Share Deals entgegen wirken.
Seit einigen Jahren liefert die berufs- und wirtschaftspädagogisch orientierte Lehr-Lernforschung Erkenntnisse zum Zusammenhang von Fachwissen und Kompetenzentwicklung und entwickelt spezifische Verfahren zur Diagnose von Handlungskompetenz in beruflichen Domänen, für die im Dualen System ausgebildet wird. Dieses forschungsmethodische Instrumentarium wird zunehmend auch hinsichtlich der Zielgruppe des Bildungspersonals, allen voran der Lehrenden an beruflichen Schulen insbesondere in der ersten Phase ihrer Professionalisierung, eingesetzt.
Der vorliegende Band stellt außerdem Studien zum Kompetenzerwerb in verschiedenen Domänen, zu Methoden der Messung von Kompetenzentwicklung sowie zur didaktischen Gestaltung im Vordergrund. Hiermit sind immer auch Basisthemen der Entwicklung beruflicher Handlungskompetenz berührt, die die Grundlage des Dualen Systems darstellen, auch in der Analyse konsekutiver Ausbildungsformen.
Schließlich werden Fragen nach den Auswirkungen des demografischen Wandels auf die Entwicklungsmöglichkeiten beruflicher Schulen fokussiert, die in den nächsten Jahren sicherlich eine verstärkte Wahrnehmung und Bearbeitung durch die berufs- und wirtschaftspädagogische Forschung erhalten werden.
Der Beitrag führt in das sozialpsychologische Phänomen des Gruppendenkens ein. Kennzeichen und Gegenstrategien werden anhand von Zeugenaussagen vor dem Wirecard-Untersuchungsausschuss am Beispiel des Aufsichtsrats illustriert. Normative Implikationen de lege ferenda schließen sich an. Sie betreffen unabhängige Mitglieder (auch auf der Arbeitnehmerbank), Direktinformationsrechte im Unternehmen (unter Einschluss von Hinweisgebern) und den Investorendialog (auch mit Leerverkäufern).
In Deutschland ist die Wohneigentumsquote innerhalb der OECD am zweitniedrigsten. Eine wichtige Rolle spielt dabei die Wohnungspolitik, die hierzulande Anreize für das Mieten schafft. Neue Studien zeigen, dass eine veränderte Politik die Wohneigentumsquote erhöhen und die Vermögensungleichheit verringern könnte.
Guanxi Capitalism in China: the role of private enterprises and networks for economic development
(2011)
This dissertation sets out to analyze the socio-economic structures behind a variety of capitalism that relies heavily on traditional (and insofar out-dated) institutions, especially networks, for its success. The specifics and advantages of business networks for small firms are well established in the literature but it rarely refers to China. It is argued that although similarities exist, Chinese networks are different to their European counterparts and therefore play a more prominent role for the Chinese economic system than networks elsewhere do. Here, personal relations are not separated into a private and a business sphere or exchanged by contractual, and in Western thinking more rational, means of doing business. Personal relations expose comparative efficiency as they are chosen as the most capable instrument for the private sector in China which makes the system as successful as we can observe today.
Therefore, this dissertation will scrutinize the specific socio-economic environment of private firms and their networks in China, thereby dissecting a new form of Capitalism that extrapolates traditional institutions for its economic success and survival instead of supplanting and overwriting traditional socio-economic structures. This challenges Weber’s distinction between rational and traditional behavior and redefines the boundaries of economy, society and culture in a new way.
Die Mehrheit der auf High Frequency Trading basierenden Strategien trägt zur Marktliquidität (Market-Making-Strategien) oder zur Preisfindung und Markteffizienz (Arbitrage-Strategien) bei. Eine ungeeignete Regulierung dieser Strategien oder eine Beeinträchtigung der zugrunde liegenden Geschäftsmodelle durch übermäßige Belastungen kann kontraproduktiv sein und unvorhergesehene Auswirkungen auf die Marktqualität haben. Allerdings muss jede missbräuchliche Strategie effektiv durch die Aufsichtsbehörden bekämpft werden.
Wir untersuchen, in welchem Ausmaß die Aktien deutscher Unternehmen im Zeitverlauf an ausländischen Börsen gehandelt werden. Es zeigt sich – nach anfänglich bedeutsamer Handelsaktivität im Ausland – ein ausgeprägter Rückfluss-Effekt nach Deutschland. Zweitnotierungen an ausländischen Börsen dienen der Verbreiterung der Aktionärsbasis und somit der Senkung der Kapitalkosten und letztendlich der Steigerung des Unternehmenswertes. Dazu ist ein ausreichendes Handelsvolumen an der ausländischen Börse unabdinglich. Daran gemessen sind die Auslandsnotierungen deutscher Unternehmen nicht erfolgreich. Dies ist jedoch nicht im gleichen Ausmaß für alle Unternehmen der Fall. Kleinere, wachsende Unternehmen und Unternehmen mit höherem Anteil des Auslandsumsatzes am Gesamtumsatz werden relativ stärker im Ausland gehandelt.
Wie lässt sich das anthropologische Fundament des Ordoliberalismus und der Sozialen Marktwirtschaft beschreiben? Welche Prämissen liegen ihm zugrunde? Ist ein derartiges Menschenbild überhaupt noch zeitgemäß? Welchen Gefahren ist es ausgesetzt und welche institutionellen Vorkehrungen lassen sich treffen? Diese und andere Fragen stehen im Mittelpunkt des nachfolgenden Essays. Dieser ist dabei wie folgt gegliedert: Das zweite Kapitel analysiert die anthropologischen Grundlagen des Ordoliberalismus. Ein Schwerpunkt liegt dabei auf dem kantischen ‚Programm der Freiheit als Autonomie‘. Das darauf folgende dritte Kapitel thematisiert mögliche Gefahrenpotenziale für eben jenes ordoliberale Menschenbild. Hierbei werden insbesondere die Vermachtung der Wirtschaft und die Instrumentalisierung und Funktionalisierung der Wissenschaft eingehender untersucht. Im vorletzten Kapitel schließlich werden die häufig vorgeschlagenen institutionellen Vorkehrungen kritisch evaluiert. Wichtige Beiträge hierzu stammen aus der Feder von Röpke (Clercs und Nobilitas naturalis) und Hayek (Zwei-Kammern-Verfassungsmodell).
Im Schatten der Lowflation
(2014)
Im Jahr 2013 betrug der Anstieg des harmonisierten Konsumentenpreisindex im Euroraum 1,4 %. Vor dem Hintergrund der Niedrigzinspolitik der EZB überrascht diese Entwicklung. Alfons Weichenrieder erläutert wie der starke strukturelle Anpassungsbedarf in den meisten Euroländern von höheren Inflationsunterschieden profitieren könnte. Er weist auf die Gefahren einer längeren Niedrigzinsphase für Banken, Lebensversicherung und die Reduzierung der Staatsschulden hin. Da die traditionellen geldpolitischen Mittel weitgehend ausgereizt sind, wird die quantitative Lockerung als Instrument zur Bekämpfung einer Deflation nicht mehr ausgeschlossen. Im Falle eines Ankaufprogrammes wird es auf einen glaubwürdigem Regelrahmen ankommen.
Immer auf den ersten Rängen : Leibniz-Preis für den Frankfurter Volkswirtschaftler Roman Inderst
(2010)
Wenn es um Superlative geht, dann steht der 40-jährige Prof. Roman Inderst immer ganz oben auf dem Treppchen: jung und schon auf den ersten Rängen unter den Top Ten der europäischen Wirtschaftswissenschaftler. Und am 15. März wurde er auch noch als jüngster unter den zehn Preisträgern mit dem wichtigsten deutschen Forschungspreis, dem mit 2,5 Millionen Euro dotierten Gottfried Wilhelm Leibniz-Preis 2010, ausgezeichnet.
Diese Arbeit hat einen Überblick über das IMS Learning Design und die damit verbundenen Spezifikationen gegeben und aktuelle Bestrebungen einer Adaption untersucht. Das IMS Learning Design bietet die Grundlage für die Gestaltung pädagogischer Frameworks für die Wiederverwendung von einzelnen Aktivitäten bis hin zu ganzen Kursen. Einmal erstellter Content kann auf diese Weise für unterschiedliche Zielgruppen und Lernumgebungen angeboten werden (create once deliver many times). Vgl. Hummel, H. (2004), S. 111. Gleichzeitig kann durch die didaktische Gestaltung von Lehr-/ Lerneinheiten der Mehrwert eines Lernszenarios für die Teilnehmer erhöht werden, da eine teilnehmerfokussierte Wissensübermittlung möglich gemacht wird. Dies beruht jedoch prinzipiell auf den pädagogischen Fähigkeiten des Autors eines Kurses. Im Forschungsbereich Geisteswissenschaften wird zu diesem Thema noch einiges zu untersuchen sein, was die Gestaltung pädagogischer Lehr-/ Lerneinheiten betrifft, da e-Learning-Kurse aus pädagogischer Sicht nicht mit Präsenzveranstaltungen gleichzusetzen sind. Die Verwendung von Standards im Bereich e-Learning ist sowohl für Kunden als auch für die Anbieter von Learning Management Systemen profitabel. Während Kunden die Möglichkeit bekommen aus einer Vielzahl von Anbietern zu wählen, die Standardschnittstellen anbieten, wächst für Anbieter der Kundenkreis, an den ihre Produkte verkauft werden können. Der Adaptionsprozess und die Forschung bezüglich des IMS LD steckt aber noch in den Anfängen. In diesem Zusammenhang wird eine verstärkte Öffentlichkeitsarbeit notwendig sein, um die Potentiale und das Know How bezüglich dieser Spezifikation zu vermitteln, und so den Adaptionsprozess voranzutreiben. Die Integration des Learning Designs in bestehende Spezifikationspakete wie z.B. SCORM würde die Akzeptanz und die Adaption auf dem Markt für e-Learning-Produkte möglicherweise erhöhen, vernachlässigt jedoch die Auseinandersetzung mit der eigentlichen Spezifikation. Die Integration weiterer Spezifikationen in das Learning Design ist derzeit noch problematisch, da hierfür einerseits rechtliche Grundlagen ungeklärt sind (IMS LIP, PAPI) und anderseits das technische Zusammenspiel der Interpreter noch nicht realisiert wurde. Das IMS LD ist eine große Chance für die Durchsetzung einheitlicher e-Learning- Konzepte. Es bietet einen Ansatz für die standardisierte Gestaltung von e-Learning-Systemen, der bis dato häufig nur durch Customizing (create one deliver once) gelöst werden konnte.
Inflation ist ein Konstrukt. Sie wird von unterschiedlichen Akteur*innen unterschiedlich wahrgenommen. Zum Teil passiert dies, weil Warenkörbe differieren, zum Teil weil Erwartungen unterschiedlich gebildet werden. Dieser Beitrag diskutiert die Heterogenität der Infl ation und ihrer Wahrnehmung und was dies für die Zielgröße der Zentralbankpolitik bedeutet.
Inflation ist ein Konstrukt. Sie wird von unterschiedlichen Akteuren unterschiedlich wahrgenommen. Zum Teil passiert dies, weil Warenkörbe differieren, zum Teil weil Erwartungen unterschiedlich gebildet werden. Dieser Beitrag diskutiert die Heterogenität der Inflation und ihrer Wahrnehmung und was dies für die Zielgröße der Zentralbankpolitik bedeutet.
Kursänderungen auf Aktienmärkten können informationsinduziert durch neu zu verarbeitende Informationen oder liquiditätsinduziert durch kurzfristige Angebots- bzw. Nachfrageüberhänge auftreten. Diese zwei so unterschiedlich verursachten Kursreaktionen sind in empirischen Untersuchungen nur schwer zu trennen. Das Modell von Easley, Kiefer, O’Hara und Paperman (1996) bietet eine theoretische Basis zur separaten Erfassung von liquiditätsorientiertem und informationsbasiertem Handel und eröffnet darüber hinaus auch einen Weg zur empirischen Quantifizierung dieser Größen.
In der vorliegenden Untersuchung nutzen wir diesen Ansatz zur Analyse des Handels deutscher Aktien über das Computerhandelssystem IBIS. Dabei zeigt sich, daß innerhalb der DAX-Werte Informationsereignisse bei den sehr stark gehandelten Aktien nicht häufiger als bei weniger oft gehandelten Werten auftreten. Die Unterschiede im Handelsvolumen sind auf unterschiedlich starke Handelsaktivität sowohl informierter als auch uninformierter Marktteilnehmer zurückzuführen. Weiterhin zeigt sich, daß das Risiko, mit informierten Marktteilnehmern zu handeln, bei den sehr umsatzstarken Aktien am geringsten ist.
In Einklang mit dem sogenannten Montagseffekt ist die Wahrscheinlichkeit für das Auftreten von negativen Informationsereignissen zu Wochenanfang besonders groß. Dieses Ergebnis könnte durch eine Tendenz von Managern erklärt werden, negative Informationen freitags nach Börsenschluß zu veröffentlichen. Eine getrennte Untersuchung für Handelstage mit niedriger und solche mit hoher Volatilität zeigt, daß an Handelstagen mit höherer Volatilität die Handelsintensität sowohl informierter als auch uninformierter Investoren größer ist. Auch die Wahrscheinlichkeit, an solchen Tagen mit besser informierten Marktteilnehmern zu handeln, steigt. Dieser Anstieg ist allerdings nicht statistisch signifikant.
Die Öffnung des deutschen Bilanzrechts bewirkt eine zunehmende Anwendungsbreite von internationalen Rechnunungslegungsnormen (wie insbesondere der US-GAAP und der IAS) für deutsche Rechtsanwender;1 die heterogenen Normtypen und die – damit einhergehend – unterschiedlichen ökonomischen Eigenschaften dieser Normen erfordern für einen sinnvollen Rechnungslegungsvergleich eine komparative Rechnungslegungstheorie. Eine Besinnung auf die ökonomische Theorie ist – auch ausgelöst durch die Internationalisierung der Rechnungslegung – hier grundsätzlich festzustellen,2 wie auch das moderne deutsche Bilanzrecht seine heutige Prägung durch die ökonomische Theorie – und nicht vornehmlich durch die Anwender – erhielt.3 Es ist das Ziel des Aufsatzes, einen Beitrag zu einer institutionenökonomischen Theorie der Rechnungslegung zum Zweck der Bestimmung von Informationsinhalten und Gewinnansprüchen sowie zur vergleichenden Rechnungslegungstheorie zu leisten. In einem ersten Hauptteil (2) wird im folgenden – auf dem institutionenökonomischen Forschungsprogramm aufbauend – skizziert, welche Bedeutung Institutionen im Rahmen des Nutzenkalküls von Entscheidern zuzumessen ist; danach werden die einzelnen für eine vergleichende Rechnungslegung relevanten Institutionsarten typisiert (in formale und informelle Regeln) sowie deren Attribute im individuellen Zielstromkalkül eingeführt (nämlich Prädikate der Manipulationsfreiheit und Prädikate der Entscheidungsverbundenheit). Das Verhältnis der Institutionen zueinander wird im folgenden Abschnitt (3) anhand eines rechtlich geprägten und eines ökonomischen Systemverständnisses entwickelt. Es wird gezeigt, daß beide Systembegriffe auf einer Nichtadditivität der sie konstituierenden Institutionen gründen, die den qualitativen Vergleich unterschiedlicher Systeme erschweren; man überschätzt hingegen die Unterschiede zwischen juristischem und ökonomischem Systemverständnis: beide sind funktionsähnlich. Im letzten Hauptteil (4) werden schließlich vor dem Hintergrund einer gestaltenden Theorie die hierfür relevanten Teilbereiche (Sub-Systeme) der Rechnungslegungsordnung vorgestellt sowie einzelne Publizitätsnormen funktional ausgelegt. Der Beitrag schließt mit zusammenfassenden Thesen (5).
Ja, der Ablauf der Lock-up-Frist ist ein kursrelevantes Ereignis. Wir untersuchen Kursreaktionen auf das Ende der Lock-up-Frist bei 142 Unternehmen des Neuen Marktes. Da der Ablauf der Sperrfrist bereits zum Zeitpunkt des Börsengangs bekannt ist, erwarten wir bei einem (semi-)informationseffizienten Kapitalmarkt durchschnittlich keine Kursreaktion. Im Rahmen einer Ereignisstudie zeigen wir aber, dass sich am Ende der Sperrfrist signifikant negative Überrenditen ergeben. Durch eine differenzierte Analyse stellen wir fest, dass firmenspezifische Faktoren (Volatilität, Performance, Free Float) die Kursreaktionen am Ende der Lock-up-Periode beeinflussen. Die Befunde unserer Untersuchung belegen die Notwendigkeit klarer Regeln für mehr Transparenz nach dem Börsengang. Bedeutsam sind die vorliegenden Ergebnisse vor allem vor dem Hintergrund der aktuellen Diskussion um eine Erweiterung der insiderrechtlichen Meldepflichen im Rahmen des 4. Finanzmarktförderungsgesetzes. This paper explores the materiality of expirations of lock-up provisions that prevent insiders from selling their shares after the initial public offering (IPO). We examine 172 lock-up agreements of 142 IPOs floated on Germany’s New Market. Since the date of the lock-up expiration is common knowledge at the IPO, we would not expect to find abnormal returns surrounding the event day, assuming that markets are informationally efficient. However, using an event-study methodology we detect statistically significant negative abnormal returns and a twenty-five percent increase in trading volume surrounding lock-up expiration. The negative abnormal returns are larger for firms with high volatility, superior performance after the IPO, and low free float. The results of our study raise important regulatory issues with respect to disclosure rules of firms going public. We argue that insiders should be legally required to disclose their sell transactions in order to protect new and less informed shareholders.
Ist der Pflegenotstand unabwendbar? : Über die Zukunft der Pflegeversicherung: Defizite und Lösungen
(2007)
Über die gesetzliche Pflegeversicherung wird seit der Verabschiedung des Gesetzes zur sozialen Absicherung des Risikos der Pflegebedürftigkeit (PflegeVersG oder SGB XI) im April 1994 kontrovers diskutiert. Ganz oben auf der politischen Agenda steht dieses Thema wieder seit der jüngsten Debatte zur Gesundheitsreform. Während die CDU/CSU-regierten Länder für eine private, kapitalgedeckte Zusatzversicherung eintreten, favorisieren SPDLänder eine »Bürgerversicherung« auch für die Pflegeversicherung. ...
Die berufliche Bildung in Deutschland, vor allem das Duale System der Berufsausbildung, erfährt – nicht zuletzt vor dem Hintergrund der sehr hohen Jugendarbeitslosigkeit – in einigen Ländern der EU große Aufmerksamkeit. In empirischen Analysen zur engen Verzahnung von Lernen und Arbeiten sowie in theoretischen Fundierungen des Bildungspotenzials stellt die berufs- und wirtschaftspädagogische Forschung allen Akteuren im Berufsbildungssystem Erkenntnisse, Argumente und Impulse zur Weiterentwicklung zur Verfügung.
Wie kann das Projekt gemeinsame Währung seine Glaubwürdigkeit wiederherstellen? Otmar Issing argumentiert, dass eine gemeinsame Währung ohne politische Union nur mit dem No-bail-out Prinzip funktionieren kann. Er warnt gleichzeitig davor, die politische Union nur als Mittel zur Krisenbewältigung voranzutreiben.