Refine
Year of publication
Document Type
- Part of Periodical (291)
- Working Paper (190)
- Book (95)
- Report (45)
- Contribution to a Periodical (44)
- Article (43)
- Doctoral Thesis (35)
- diplomthesis (8)
- Periodical (8)
- Conference Proceeding (7)
Language
- German (782) (remove)
Is part of the Bibliography
- no (782)
Keywords
- Financial Institutions (43)
- Deutschland (40)
- Capital Markets Union (29)
- Financial Markets (26)
- ECB (24)
- Macro Finance (22)
- Banking Regulation (21)
- Banking Supervision (20)
- Banking Union (18)
- Household Finance (18)
Institute
- Wirtschaftswissenschaften (782) (remove)
Die Stellungnahme bezieht sich auf die aktuellen Formulierungsvorschläge für Änderungen am DCGK für börsennotierte deutsche Aktiengesellschaften aus den Plenarsitzungen der Regierungskommission vom 9. Januar und 31. Januar 2013. Der Text enthält zudem Anmerkungen zur Aufsichtsratvergütung, zur Besetzung des Prüfungsausschusses mit Financial Experts, zu Fragen der Mitbestimmung und zu Möglichkeiten der Bündelung der Corporate Governance Berichterstattung.
Der Deutsche Coprporate Governance Kodex soll das deutsche Corporate Governance System transparent und nachvollziehbar machen. Der Kodex stellt gesetzliche Vorschriften zur Leitung und Überwachung deutscher börsennotierter Gesellschaften dar und enthält international anerkannte Standards guter und verantwortungsvoller Unternehmensführung. Die Stellungnahme befasst sich mit von der Regierungskommission Deutscher Corporate Governance Kodex vorgebrachten Änderungsvorschlägen.
Die deutsche Steuerpolitik kombiniert hohe Steuersätze mit zahlreichen Ausnahmen. Das reißt Gerechtigkeitslücken, lenkt Investitionen in die falschen Zwecke und verkompliziert das Steuersystem mitunter bis zur Unkenntlichkeit. Bei der Erbschaftsteuer ist dies besonders augenfällig. Der Versuch mit minimalinvasiven Korrekturen Konsistenz in die Erbschaft- und Schenkungsteuer zu bringen ist fast zwangsläufig zum Scheitern verurteilt. Vieles spricht stattdessen für deutlich abgesenkte Steuersätze und eine gleichzeitige Abschaffung der Vergünstigungen für Betriebsvermögen.
Stellungnahme zum Antrag der SPD-Fraktion auf Einführung einer Finanztransaktionssteuer in Europa
(2011)
Die Finanztransaktionssteuer ist kein geeignetes Instrument zur Verringerung systemischer Risiken, noch ein Mittel zur Vorbeugung einer Finanzkrise. Da sie zudem nur in Deutschland, Frankreich und einzelnen anderen Staaten eingeführt würde, wäre das Steueraufkommen, aufgrund von Steuerumgehung durch Verlagerung von Finanztransaktionen ins Ausland, gering.
Der Entwurf eines Lebensversicherungsreformgesetz der Bundesregierung vom 04.06.2014 adressiert die Folgen der derzeitigen Niedrigzinsphase für Lebensversicherungunternehmen und Lebensversicherte. Helmut Gründl kommentiert die vorgeschlagene Regelung zu den Bewertungsreserven, die Regelung zur Ausschüttungssperre sowie die Regelung zum Höchstzillmersatz. Der Beitrag konzentriert sich auf die Auswirkungen der Vorschläge auf die Renditeerwartungen des Kollektivs der Versicherungsnehmer sowie auf die Anreize potentieller Eigenkapitalgeber, sich an Versicherungsunternehmen zu beteiligen.
Als geladener Sachverständiger argumentierte Martin Götz bei der öffentlichen Anhörung des Finanzausschusses des Deutschen Bundestags und in seiner vorliegenden Stellungnahme, dass durch die zügige Umsetzung der Richtlinie 2014/59/EU die Selbstregulierung von Kreditinstituten und Wertpapierfirmen weiter gestärkt wird und das aufsichtsrechtliche Instrumentarium um marktorientierte Mechanismen ausgebaut wird. Er erwartet, dass das Umsetzungsgesetz die Finanzstabilität in Deutschland fördert. Positiv sei insbesondere die Ausgestaltung der Möglichkeit einer verpflichtenden Gläubigerbeteiligung („Bail-in“) im Rahmen der Abwicklung, da der Bail-in nicht nur Fragen der Privathaftung im Abwicklungsfall klärt, sondern auch gute Anreize zur Selbstregulierung von Kreditinstituten setzt. Den Verzicht auf die Umsetzung der in der Abwicklungsrichtlinie enthaltenen staatlichen Stabilisierungsmöglichkeiten bewertet er als positiv und sieht darin einen wichtigen Baustein zur Förderung der Selbstregulierung von Finanzinstituten. Die Verlängerung der Laufzeit des Finanzmarktstabilisierungsfonds sei problematisch, da die explizite Möglichkeit einer staatlichen Hilfe dem Anreiz zur Selbstregulierung von Finanzinstituten entgegensteht.
Mittels des Gesetzes zur zusätzlichen Aufsicht über beaufsichtigte Unternehmen eines Finanzkonglomerats (Konglomerate, die aus mehreren Unternehmen aus verschiedenen Finanzmarktsektoren bestehen, beispielsweise aus dem Bankensektor und dem Versicherungssektor) sollen Regelungslücken geschlossen werden, die insbesondere die Gefahr betreffen, die sich aus der „Ansteckung“ einzelner Finanzkonglomerats-Unternehmen ergeben. Die vorliegende Stellungnahme weist auf eine Inkonsistenz in der beabsichtigten Ansiedlung der Aufsichtskompetenz hin und bietet einen Vorschlag zur Präzisierung der Eigenmittelvorschriften.
Das vornehmliche Ziel der OGAW Richtlinien ist es einen gemeinsamen europäischen Markt für Investment-Dienstleistungen auf Basis wohldefinierten Qualitätsstandards zu erreichen. Ein grenzüberschreitender Vertrieb eröffnet die Möglichkeit der Ausweitung von Geschäftsaktivitäten auf neue wirtschaftlich attraktive Absatzmärkte. Die Stellungnahme kommentiert die im Gesetzesentwurf vorgeschlagenen regulatorischen Instrumente vor dem Hintergrund verschiedener gegebener Kriterien.
Stimmzettel als Denkzettel
(2017)
Das Niedrigeinkommenssegment steht im Zentrum der Kontroversen um eine Reform des Sozialstaats. Die Kenntnis seiner soziodemographischen Zusammensetzung ist daher unabdingbar, um in der betreffenden Diskussion gehaltvoll Position beziehen zu können. Besonders interessieren in diesem Zusammenhang Zeitvergleiche. In diesem Sinne wird in der vorliegenden Studie die Veränderung der Struktur des Niedrigeinkommensbereiches in der Bundesrepublik anhand einer Abfolge mehrerer Querschnitte, welche die Jahre 1962/63 bis 1988 umfaßt, analysiert. Dem Niedrigeinkommensbereich werden - in Anlehnung an neuere Ergebnisse in der Literatur über „prekären Wohlstand“ und über Abstiegsrisiken - diejenigen Personen zugerechnet, die nicht mehr als 80 v. H. des durchschnittlichen Nettoäquivalenzeinkommens zur Verfügung haben. Zur vertieften Analyse wird der Niedrigeinkommensbereich nochmals in vier Teilsegmente unterteilt. Entsprechend den relativen Besetzungshäufigkeiten zeigt sich beim Vergleich mit dem oberen Einkommensbereich für spezifische Personengruppen eine Überrepräsentation im Niedrigeinkommensbereich bzw. in seinen vier Teilsegmenten. Hierbei ergeben sich im Zeitablauf einige aufschlußreiche Trends. So erhöhte sich von 1962 bis 1988 beispielsweise für Alleinstehende, für Personen in Alleinerziehenden-, in Nichterwerbstätigenhaushalten sowie für Personen in Haushalten mit einer weiblichen Bezugsperson der Grad der Überrepräsentation im Niedrigeinkommensbereich. Gleiches gilt für Personen in Haushalten mit einem hohen Mietanteil am Haushaltsnettoeinkommen bzw. generell für Personen in Nichteigentümerhaushalten. Demgegenüber verringerte sich insbesondere für Personen im Haushaltstyp einer vollständigen Familie mit vier Kindern oder für Personen in Landwirte- und Arbeiterhaushalten von 1962 bis 1988 das Ausmaß der Überrepräsentation im Niedrigeinkommenssegment.
Elektronische Informationsressourcen, wie beispielsweise elektronische Zeitschriften und Datenbanken, gewannen in den letzten Jahren zunehmend an Bedeutung im Feld der akademischen Literaturversorgung. Mit diesem Trend einhergehend konnten Veränderungen der Bezugspraxis bei Bibliotheken einerseits und neue Preis- und Geschäftsmodelle bei Verlagen andererseits beobachtet werden. Neben der bequemeren Nutzbarkeit für die Leser bietet das neue Medium auch neue Formen des Kostencontrollings und der Optimierung für die Abnehmer. Dieser Workshop soll sich mit der Frage der Kostenrechnung und -verteilung für Konsortien für elektronische Informationsressourcen insbesondere eJournals beschäftigen. Dabei werden die neuen Möglichkeiten der Nutzungsmessung besonders berücksichtigt. Neben den theoretischen Ansätzen werden auch konkrete Beispielrechnungen durchgeführt und die Praktikabilität für die Umsetzung in der Praxis im besonderen Maße diskutiert.
Die traditionelle Begründung der Bankenregulierung basiert auf der Vorstellung, daß regulatorische Vorschriften in erster Linie dem Schutz der Bankeinlagen und der Vermeidung von Bankkonkursen dienen. In Kapitel 2 wurde argumentiert, daß diese Begründung nicht den Kern des Regulierungsproblems trifft. Der einzige letztlich überzeugende Grund für die Regulierung der Eigenkapitalausstattung von Banken ist in Externalitäten zu sehen, die aus den derzeit praktizierten Einlagensicherungssystemen bzw. der impliziten Einlagensicherung durch den Staat resultieren. Diese Begründung für die Bankenregulierung führt dazu, daß die Aktiva der Bank ins Zentrum der Betrachtung rücken: Die Bankenregulierung muß danach dafür sorgen, daß die von Banken getroffenen Entscheidungen in bezug auf die Übernahme von Risiken in einem wohlfahrtstheoretisch effizienten Sinn getroffen werden. Wenn die Verminderung des Konkursrisikos die alleinige Zielgröße der Regulierung darstellen würde, müßte man schlußfolgern, daß ein einfaches Verbot riskanter Geschäftsaktivitäten die Erreichung des Regulierungsziels sicherstellt. Dies kann natürlich keine ernstzunehmende Option sein. Das Geschäft der Banken besteht in der Evaluierung und dem Management von Risiken. Die Regulierung muß dafür sorgen, daß Banken diese Funktion trotz bestehender Externalitäten in einer wohlfahrtstheoretisch effizienten Weise erfüllen. Um die Frage der Effizienz von Risikoentscheidungen in einem formalen Modellrahmen analysieren zu können, wurde in Kapitel 4.2.4 ein neuer Optionsbewertungsansatz für das Eigenkapital der Bank entwickelt. Dies war erforderlich, da sich die bisher in der Literatur verwendeten Ansätze nicht zur Beurteilung dieser Frage eignen. Im μ-σ-Rahmen kann zwar analysiert werden, ob die Bank ein effizientes Portfolio wählt. Der Modellansatz basiert aber auf der kritischen Annahme normalverteilter Renditen. Da die beschränkte Haftung der Eigenkapitalgeber aber eine untere Schranke der Eigenkapitalrendite bewirkt, ist diese Annahme zur Analyse der Risikowahl problematisch. Das in Kapitel 4.2.1 vorgestellte Optionsbewertungsmodell von Merton berücksichtigt zwar die beschränkte Haftung der Eigenkapitalgeber, eignet sich aber nicht zur Analyse der Effizienz der Risikowahl, weil die Wahl des Anlagerisikos irrelevant für die erreichbare Wohlfahrt ist. Als problemadäquater Modellrahmen wurde ein Modell mit risikoabhängiger Rendite von Bankanlagen entwickelt. Dieser Ansatz beruht auf der Idee, daß Banken in Spezialbereichen über superiore Informationen verfügen, die sie zur Erzielung von über den Kapitalkosten liegenden Renditen einsetzen können. Da die Bank aber nur über begrenzte Informationen verfügt, ist die Anzahl der verfügbaren Anlagen mit positivem Kapitalwert begrenzt und definiert so das effiziente Maß der Risikoübernahme. Die Analyse der Auswirkungen der Eigenkapitalregulierung zeigt, daß die risikoabhängige Eigenkapitalregulierung zwar der einfachen Verschuldungsgradregulierung überlegen ist, das Risikoanreizproblem der Banken aber nicht vollständig lösen kann. Sie stellt aber im Vergleich zu den anderen in dieser Arbeit diskutierten Regulierungsansätzen die robusteste Lösung des Problems dar. Nach weitverbreiteter Ansicht leisten Wettbewerbsbeschränkungen einen wichtigen Beitrag zur Behebung des Risikoanreizproblems, weil eine Bank bei Erhöhung des Anlagerisikos den Verlust der Monopolrente (Charterwert ) im Konkurs befürchten muß. Es wurde aber gezeigt, daß diese Kraft nur für unplausibel hohe Monopolrenten stark genug ist, um die aus der Einlagensicherung resultierenden Anreize zu kompensieren. Auch der in Kapitel 4.5 analysierte Vorschlag von John, John und Senbet (1991) einer Nutzung des Steuersystems zur Korrektur des Risikoanreizproblems erweist sich bei näherer Analyse für praktische Regulierungszwecke als unbrauchbar, da hierfür ein marginaler Steuersatz auf die Investitionsrückflüsse in der Größenordnung von 90% notwendig ist. Schließlich erweist sich auch die in Kapitel 4.4 und 4.6.1 untersuchte Idee, durch Einsatz von sicheren Reserven den Effekt einer Erhöhung der Anlagerisiken zu kompensieren, als wenig sinnvoll. Der das Merton-Modell treibende Effekt einer Anlagersikoerhöhung kann durch diese Regulierungsform erfolgreich ausgeschaltet werden. An seine Stelle treten aber unerwünschte Nebeneffekte, die im Ergebnis nach wie vor zu einer nicht effizienten Risikowahl führen. Die Nebeneffekte können nur durch einen Verzicht auf eine Eigenkapitalunterlegung ausgeschaltet werden. Obwohl prinzipiell auch ohne Eigenkapitalunterlegung die Stabilität von Banken durch entsprechend hohe sichere Reservehaltung gewährleistet werden kann, ist eine solche Regulierung aufgrund des enormen Bedarfs an sicheren Reserveanlagen nicht praktikabel. Eine Regulierungsform, die theoretisch in der Lage ist, die wohlfahrtseffiziente Risi kowahl zu implementieren, ist ein Einlagensicherungssystem mit "fair" berechneter risikoabhängiger Prämienkalkulation. Ein solches Einlagensicherungssystem verhindert effektiv jegliche Externalitäten der Risikoentscheidung der Bank auf die Einlagensicherung und führt damit automatisch zur effizienten Wahl des Anlagerisikos. Angesichts dieses Ergebnisses überrascht die Tatsache, daß sich die Aufsichtsbehörden fast vollständig auf das Instrument der Eigenkapitalregulierung konzentrieren. In Kapitel 4.6.2.2 wurden argumentiert, daß die Gründe dafür in den politischen und praktischen Problemen der Umsetzung von risikoabhängigen Einlagensicherungsprämien liegen. Da die Einlagensicherungsprämie nur in diskreten Zeitabständen fällig wird, hat eine eigenkapitalschwache Bank nach wie vor einen starken Anreiz, nach Zahlung der Prämie ihr Anlagerisiko zu erhöhen. Daneben zeigen die Erfahrungen der Savings & Loan-Krise, daß die Einlagensicherung mit erheblichen Agency-Kosten verbunden ist, weil die Mitarbeiter der Einlagensicherungsbehörde dazu neigen, notwendige Liquidationen von Banken zu unterlassen oder hinauszuzögern. In Kapitel 5 wurde das Zusammenwirken von Einlagensicherung und Eigenkapitalregulierung untersucht. Dazu wurde ein Modell verwendet, in dem eine optimale Kapitalstruktur von Banken existiert, die sich aus einem Trade Off zwischen Finanzierungskostenvorteilen der Einlagenfinanzierung und Liquidationskosten im Insolvenzfall ergibt. Das Modell zeigt, daß die Kombination einer risikoabhängigen Eigenkapitalregulierung mit einer traditionellen volumenabhängigen Einlagensicherungsprämie zwar die effiziente Stabilität von Banken, nicht dagegen effiziente Anlageentscheidungen erreicht. Wenn alternativ eine traditionelle Verschuldungsgradregulierung mit einer risikoabhängigen Einlagensicherungsprämie kombiniert wird, resultieren effiziente Anlageentscheidungen, die Bank operiert jedoch nicht im Kapitalkostenminimum. Erst die Kombination von risikoabhängiger Eigenkapitalregulierung und risikoabhängiger Einlagensicherungsprämie führt dazu, daß das insgesamt wohlfahrtsoptimale Marktergebnis implementiert wird. Die risikoabhängige Kapitalregulierung steht danach in einem komplementären Verhältnis zum risikoabhängigen Einlagensicherungssystem. Entgegen der teilweise geäußerten Warnung vor einer "doppelten" Bestrafung der Risikoübernahme durch Eigenkapitalregulierung und Einlagensicherung führt allein die Risikoabhängigkeit bei der Regulierungen zu effizienten Marktergebnissen. In Kapitel 6 wurde argumentiert, daß auch die Berücksichtigung der Interessendivergenz zwischen Kapitalgebern und Managern nichts an der Beurteilung der risikoabhängigen Eigenkapitalregulierung ändert. Die Eigeninteressen von Managern können zwar zu einer Abweichung der tatsächlich verfolgten Risikopolitik von der durch die Eigenkapitalgeber bevorzugten Risikopolitik führen. Allerdings können die Eigeninteressen des Managements in nicht prognostizierbarer Weise sowohl risikoerhöhende als auch risikosenkende Wirkung haben. Aus Sicht der Aufsichtsbehörden erscheint daher die Orientierung an Modellen sinnyoll, die ein marktwertmaximierendes Verhalten der Bank unterstellen. Schließlich zeigt die Analyse der Wechselwirkungen von Eigenkapitalregulierung und den Arbeitsanreizen des Managements, daß die risikobasierte Eigenkapitalregulierung auch im Hinblick auf diesen Agency-Konflikt positive Wirkungen entfaltet. Wenn die Drohung des Konkurses ein Motivationsinstrument für Manager darstellt. dann ist es aus Sicht der Kapitalgeber unter plausiblen Annahmen sinnvoll, auch im Hinblick auf die Auswirkung auf die Anreizsituation des Managements bei hohen Anlagerisiken eine höhere Eigenkapitalquote zu wählen. Die risikoabhängige Eigenkapitalregulierung kann allerdings den Agency-Konflikt auch verstärken, wenn die Aufsichtsbehörde ein zu hohes Konfidenzniveau vorgibt. Dann versagt die Anreizwirkung der Konkursdrohung, weil Konkurse auch bei "Fehlverhalten" des Managements so unwahrscheinlich sind, daß die Konkursdrohung keinen Einfluß auf das Verhalten von Managern hat. Zusammenfassend kann festgestellt werden, daß die risikoabhängige Eigenkapitalregulierung von Banken nicht nur die Sorgen der Aufsichtsbehörden verringert, sondern auch auf einem soliden theoretischen Fundament steht. Sie stellt die notwendige Antwort auf die durch die Einlagensicherung generierten Fehlanreize zur Übernahme exzessiver Risiken dar und leistet damit einen wichtigen Beitrag für die Funktionsfähigkeit der Kapitalmärkte. Gleichzeitig zeigt die Analyse aber auch, daß überzogenes Stabilitätsdenken der Aufsichtsbehörden nicht angebracht ist. Gerade im Fall von Banken verfügen Manager über ausgesprochen große Verhaltensspielräume und Eigenkapitalgeber über wenige Instrumente, um eine Geschäftspolitik im Sinne der Kapitalgeber durchzusetzen. Die Konkursdrohung stellt in dieser Situation ein wichtiges Instrument zur Durchsetzung des Interessengleichlaufs zwischen Management und Kapitalgebern dar. Die Bankenregulierung darf daher die Konkurswahrscheinlichkeit von Banken nicht so stark senken, daß die Drohung des Konkurses seine positive Anreizwirkung verliert.
Die Empfehlung des Corporate Governance-Kodex (Ziff. 5.4.2), „dem Aufsichtsrat soll eine nach seiner Einschätzung angemessene Anzahl unabhängiger Mitglieder angehören“, wirft in der Praxis nach wie vor Fragen auf. Im Folgenden sollen einige Thesen zur Auslegung dieser Empfehlung aufgestellt werden. Eine rechtspolitische Auseinandersetzung mit ihr und Änderungsvorschläge sind an dieser Stelle nicht beabsichtigt.
Unternehmen und Ethik
(2010)
Die noch nicht völlig überwundene Finanzmarktkrise hat nicht nur den Gesetzgeber auf den Plan gerufen. Auch die Frage nach der Ethik der Akteure wird vielfach erörtert. Haben von Gier getriebene Finanzmarktakteure nicht nur Rechtsregeln, sondern auch ethische Normen, die Grundsätze des Wirtschaftens ehrbarer Kaufleute, gewissenlos beiseite geschoben, um sich zu bereichern? Wie läßt sich die Beachtung dieser Normen künftig sichern? Diese aktuelle Debatte soll Anlaß zu einigen allgemeineren Betrachtungen zum Thema „Unternehmen und Ethik“ sein.
Im Rahmen des Value Based Managements sollen alle Manahmen der Unternehmensfhrung auf die Steigerung des intrinsischen Marktwertes des Eigenkapitals ausgerichtet werden. Hauptanwendungsbereiche des Value Based Managements sind die Planung, Performancemessung, Managemententlohnung sowie die Bereichssteuerung. Eine konsequente shareholder-orientierte Steuerung beinhaltet eine adquate Ermittlung von Wertbeitrgen in den einzelnen Anwendungsbereichen. Hierzu dienen insbesondere absolute Wertbeitragskennzahlen in Form von Residualgewinnen. Residualgewinne sind dadurch gekennzeichnet, dass der Gewinn um eine auf das Gesamtkapital bezogene Capital bzw. Interest Charge reduziert wird. Der magebliche Gewinn sowie das Gesamtkapital ergeben sich, indem die handelsrechtlichen Gren durch mehr oder minder weitreichende Modifikationen angepasst werden. Die Berechnung der Interest Charge erfolgt entweder auf Basis eines risikoangepassten Zinssatzes oder auf Basis eines risikofreien Zinssatzes. In der Praxis finden sich zahlreiche unterschiedliche Residualgewinnkonzepte, die sich insbesondere durch die jeweils charakteristischen Modifikationen und durch den verwendeten Zinssatz zur Berechnung der Kapitalkosten unterscheiden.1) Herkmmliche Konzepte zeichnen sich dadurch aus, dass die Interest Charge auf Basis eines risikoangepassten Zinssatzes berechnet wird. Das in Velthuis (2003c) theoretisch entworfene und von der KPMG in der Praxis umgesetzte Konzept Earnings less Riskfree Interest Charge, ERIC , ist hingegen dadurch charakterisiert, dass zur Berechnung der Interest Charge ein risikofreier Zinssatz verwendet wird. Ferner werden Modifikationen nur insofern vorgenommen, als dass eine vollstndige Bercksichtigung aller Erfolgskomponenten gewhrleistet wird. Glaubt man den Vertretern herkmmlicher Konzepte, basieren diese Konzepte auf einer hinreichenden theoretischen Fundierung. Diesem Anspruch gengen solche Konzepte tatschlich jedoch nicht, sie zeichnen sich gerade durch eine mangelnde theoretische Fundierung aus.2) In Velthuis (2003c) wird verdeutlicht, dass die in der Praxis verbreitete Vorgehensweise gerade zum Ausweis von Wertbeitrgen fhrt, die inkonsistent mit der Zielsetzung der Shareholder sind. In allen Anwendungsbereichen des VBM zeigt sich nmlich aus theoretischer Sicht die Problematik der VerIm Rahmen des Value Based Managements sollen alle Maßnahmen der Unternehmensführung auf die Steigerung des intrinsischen Marktwertes des Eigenkapitals ausgerichtet werden. Hauptanwendungsbereiche des Value Based Managements sind die Planung, Performancemessung, Managemententlohnung sowie die Bereichssteuerung. Eine konsequente shareholder-orientierte Steuerung beinhaltet eine adäquate Ermittlung von Wertbeiträgen in den einzelnen Anwendungsbereichen. Hierzu dienen insbesondere absolute Wertbeitragskennzahlen in Form von Residualgewinnen. Residualgewinne sind dadurch gekennzeichnet, dass der Gewinn um eine auf das Gesamtkapital bezogene Capital bzw. Interest Charge reduziert wird. Der maßgebliche Gewinn sowie das Gesamtkapital ergeben sich, indem die handelsrechtlichen Größen durch mehr oder minder weitreichende Modifikationen angepasst werden. Die Berechnung der Interest Charge erfolgt entweder auf Basis eines risikoangepassten Zinssatzes oder auf Basis eines risikofreien Zinssatzes. In der Praxis finden sich zahlreiche unterschiedliche Residualgewinnkonzepte, die sich insbesondere durch die jeweils charakteristischen Modifikationen und durch den verwendeten Zinssatz zur Berechnung der Kapitalkosten unterscheiden.1) Herkömmliche Konzepte zeichnen sich dadurch aus, dass die Interest Charge auf Basis eines risikoangepassten Zinssatzes berechnet wird. Das in Velthuis (2003c) theoretisch entworfene und von der KPMG in der Praxis umgesetzte Konzept Earnings less Riskfree Interest Charge, ERIC Ò , ist hingegen dadurch charakterisiert, dass zur Berechnung der Interest Charge ein risikofreier Zinssatz verwendet wird. Ferner werden Modifikationen nur insofern vorgenommen, als dass eine vollständige Berücksichtigung aller Erfolgskomponenten gewährleistet wird. Glaubt man den Vertretern herkömmlicher Konzepte, basieren diese Konzepte auf einer hinreichenden theoretischen Fundierung. Diesem Anspruch genügen solche Konzepte tatsächlich jedoch nicht, sie zeichnen sich gerade durch eine mangelnde theoretische Fundierung aus.2) In Velthuis (2003c) wird verdeutlicht, dass die in der Praxis verbreitete Vorgehensweise gerade zum Ausweis von Wertbeiträgen führt, die inkonsistent mit der Zielsetzung der Shareholder sind. In allen Anwendungsbereichen des VBM zeigt sich nämlich aus theoretischer Sicht die Problematik der Verwendung eines risikoangepassten Zinssatzes zur Berechnung von Kapitalkosten: Schon die Verwendung eines risikoangepassten Kapitalkostensatzes im Rahmen der Planung kann problematisch sein. Die Verwendung risikoangepasster Kapitalkosten als Benchmark bei der Performancemessung ist sogar ganz abzulehnen, und bei der Managemententlohnung ist die Verrechnung von risikoangepassten Kapitalkosten zwingend mit Fehlanreizen verbunden. Aber auch praxisübliche Modifikationen erweisen sich als problematisch, da Erfolgskomponenten nicht bzw. nicht vollständig berücksichtigt werden. Im Gegensatz zu herkömmlichen Konzepten weist das VBM-Konzept ERIC eine tatsächliche theoretische Fundierung auf. In Velthuis (2003c) werden grundlegende theoretische und praktische Anforderungen für die einzelnen Anwendungsbereiche herausgearbeitet und es wird gezeigt, dass ein integriertes VBM-Konzept auf Basis des Residualgewinns ERIC diese Anforderungen stets erfüllt. Ziel dieses Aufsatzes ist es, die Grundkonzeption von ERIC theoretisch weiter zu entwickeln. Während in Velthuis (2003c) stets von einer sehr einfachen Idealwelt ausgegangen wird, soll hier zum einen verdeutlicht werden, wie ein erfolgreiches Value Based Management auf Basis von ERIC in komplexeren und realitätsnäheren Situationen erfolgen kann. Zum anderen gilt es, zusätzliche praktische Problembereiche zu erkennen und Lösungsmöglichkeiten aufzuzeigen. Der Aufsatz ist wie folgt aufgebaut: Zunächst wird gezeigt, wie der Residualgewinn ERIC zu berechnen ist, und es wird ein Überblick über die Anwendungsbereiche gegeben. Anschließend wird die grundlegende Entscheidungssituation für die späteren Darstellungen erörtert und es werden fundamentale Prinzipien des Value Based Managements und ihre Bedeutung für die einzelnen Anwendungsbereichen erläutert. Sodann wird für die einzelnen Bereichen des Value Based Managements, der Planung, Performancemessung, Managemententlohnung und der Bereichssteuerung gezeigt, wie ERIC anzuwenden ist, damit eine tatsächliche Shareholder-Orientierung gewährleistet wird. Die Darstellungen erfolgen dabei jeweils zunächst vor dem Hintergrund einer Idealwelt. In einem zweiten Schritt wird die Entscheidungssituation jeweils modifiziert, um der Realität ein Stück näher zu kommen.
Ziel dieser Präsentation (anlässlich des Seminars „Die Auswirkungen von Asset Securitisation auf die Stabilität des Finanzmarktes“ Österreichische Nationalbank (ÖNB), Wien 1. Oktober 2003) ist es, eine Verbindung zwischen Verbriefung und Finanzmarkstabilität unter Berücksichtigung veränderter Finanzintermediation herzustellen. In der folgenden Abhandlung soll nun zunächst auf die Natur der Verbriefung per se eingegangen werden, um sodann anhand theoretischer Überlegungen und empirischer Beobachtungen mögliche Quelle systemischen Risikos in der Kreditverbriefung aufzuzeigen. In diesem Fall handelt es sich um die Informationsasymmetrien und die durch Handelbarkeit von Kreditrisiko bestimmte Transaktionsstruktur („security design“), die bei regulatorischer Nichtberücksichtigung eine destabilisierende Wirkung nicht nur im Bereich der Verbriefung, sondern auch hinsichtlich der gegenseitigen Zahlungsverpflichtungen von Finanzintermediären begründen könnte.
Es gehört zu den Mindestansprüchen des Sozialstaats, bedürftigen Personen ein soziokulturelles Existenzminimum zu sichern. In Deutschland sollen gegenwärtig insbesondere die Leistungen der Sozialhilfe und der Grundsicherung für Arbeitsuchende dafür sorgen, dass dieses Minimalziel erreicht wird. Ob dies gelingt, ist jedoch fraglich, da erhebliche Teile der Bedürftigen ihnen zustehende Leistungen nicht in Anspruch nehmen. Die Statistiken über Leistungsempfänger/innen geben also nur "die halbe Wahrheit" über Bedürftigkeit in Deutschland wieder. Vor der Hartz-IV-Reform kamen auf drei Grundsicherungsempfänger/innen mindestens zwei, eher drei weitere Berechtigte, die von ihrem Anspruch keinen Gebrauch machten. Dabei waren einige gesellschaftliche Gruppen von verdeckter Armut besonders stark betroffen: alleinstehende Frauen, Paarhaushalte mit erwerbstätigem Haushaltsvorstand und Altenhaushalte. Die Einführung des Arbeitslosengeldes (Alg) II im Zuge der Hartz-IV-Reform konnte zwar die verdeckte Armut von früheren Arbeitslosenhilfebeziehenden vermindern. Doch andere Bedürftige, insbesondere Erwerbstätigenhaushalte mit geringem Einkommen, nehmen offensichtlich ihnen zustehende Leistungen nach wie vor häufig nicht in Anspruch. Die Gründe für das Phänomen der verdeckten Armut sind vielfältig. Wesentliche Ursachen sind offenbar, dass viele Bedürftige die relevanten gesetzlichen Regelungen nicht kennen oder mit der Inanspruchnahme staatlicher Hilfeleistungen Stigmatisierungsängste verbinden. Dem könnte entgegengewirkt werden, indem offensiv über bestehende Ansprüche informiert und ein vorurteils- und diskriminierungsfreies Klima im Umgang mit Hilfebedürftigen gefördert wird.
Das Working Paper bietet die zusammenfassende Stellungnahme von Prof. Volker Wieland zum Ankaufprogramm der Europäischen Zentralbank für Anleihen des öffentlichen Sektors (Public Sector Purchase Programme, PSPP) am Bundesverfassungsgericht am 30.07.2019. Dabei liegt der Schwerpunkt auf der Frage der Einordnung des PSPP als monetäre, geldpolitische Maßnahme und der Verhältnismäßigkeit des Programms und seiner Umsetzung. Ebenfalls wird kurz auf die weiteren Fragen zur Umsetzung, insbesondere Ankündigung, Begrenzung und Abstand zum Primärmarkt für Staatsanleihen eingegangen.
Vergebene Chance
(2017)
In den letzten Jahren wurden verschiedene Modelle entwickelt, um das Ausfallrisiko von Banken unter Berücksichtigung von Portfolioeffekten zu quantifizieren. Bisher hat sich kein Ansatz als allgemein akzeptierter Standard durchsetzen können. Da die Modelle grundlegende konzeptionelle Unterschiede aufweisen und unterschiedliche empirische Inputdaten verwenden, hat die Auswahl eines Kreditrisikomodells unter Umständen einen erheblichen Einfluß auf die Kreditportfoliosteuerung der Bank. In diesem Beitrag soll deshalb geklärt werden, ob die Modelle systematisch abweichende Value-at-Risk-Werte berechnen und worin die Ursachen für auftretende Abweichungen liegen. Zunächst wird gezeigt, daß die bestehenden Kreditrisikomodelle in zwei grundlegende Klassen eingeteilt werden können: Assetwert-basierte Modelle und auf Ausfallraten basierende Modelle. Am Beispiel eines Musterportfolios von Krediten an deutsche Baufirmen werden zwei Vertreter der Modellklassen (CreditMetrics und CreditRisk+) verglichen und der Effekt der unterschiedlichen empirischen Inputparameter auf die Risikoergebnisse abgeschätzt. Die Analyse zeigt erhebliche Unterschiede zwischen den Modellen. Eine Analyse der Abweichungsursachen ergibt allerdings, daß der Grund für die großen Value-at-Risk-Unterschiede in erster Linie in den unterschiedlichen empirischen Inputdaten liegt, welche zu unterschiedlichen impliziten Korrelationsannahmen führen. Es wird gezeigt, wie die Modellparameter gewählt werden müssen, um identische Korrelationen zu erzeugen. Bei konsistenten Korrelationsannahmen stimmen die Ergebnisse beider Modelle weitgehend überein. Keywords: Credit Risk Models, credit risk correlation
Unter Berücksichtigung der implementationsanalytischen und kausalen Analysen für die Einführungsphase der Vermittlungsgutscheine kommen die Autoren zu dem Schluss, dass die Erprobungsphase dieses arbeitsmarktpolitischen Instruments fortgesetzt werden sollte. Aus der Implementationsanalyse zeigt sich, dass der Verbreitungsgrad des Instruments auch nach 27 Monaten Erprobungsphase sehr gering ist. Die kausalen Analysen beziehen sich aufgrund begrenzter Datenverfügbarkeit lediglich auf zwei Ausgabemonate ein Jahr nach Einführung des Instruments (Mai und Juni 2003) und zeigen geringe positive Beschäftigungseffekte auf der Mikro-Ebene. Ob dadurch die Kosten der Vermittlungsgutscheine gerechtfertigt sind, lässt sich derzeit noch nicht abschließend beurteilen. Anzeichen für Mitnahmeeffekte und/oder Missbrauch existieren. Auch haben erfolgreiche Vermittlungen durch Gutscheine die Beschäftigungschancen in anderen Gruppen geschmälert. Deshalb werden verschiedene Vorschläge für eine kosteneffizientere Ausgestaltung der Vermittlungsgutscheine dargestellt und diskutiert. Insbesondere wird auf die Vorschläge des Bundeskabinetts vom 01.09.2004 eingegangen.
Versicherungsunternehmen haben bei der Auswahl ihrer Vermögensanlagen die gesetzlichen Restriktionen des Versicherungsaufsichtsgesetzes einzuhalten. Neben einer strukturierten Darstellung der zahlreichen Regulierungstatbestände werden aus Sicht der Finanzierungstheorie sowie den empirischen Verhältnissen an den Kapitalmärkten die im VAG enthaltenen Rahmenbedingungen einer kritischen Bewertung unterzogen.
Differenzierte Verdienststrukturen, wie zum Beispiel qualifikatorische Verdienstunterschiede, tragen der Heterogenität am Arbeitsmarkt und somit auch einer notwendigen Flexibilität der Löhne Rechnung. Trotz dieser bedeutenden Rolle der Lohnstruktur für den Arbeitsmarkt gibt es relativ wenig detaillierte empirische Evidenz zu deren Ausgestaltung und Dynamik für Westdeutschland. In dieser Arbeit werden auf Basis der Gehalts- und Lohnstrukturerhebungen für die Jahre 1990 und 1995 sowohl die Lohndispersion innerhalb bestimmter Erwerbsgruppen („Within-Dispersion“) als auch zwischen diesen Gruppen („Between-Dispersion“) untersucht. Im Fokus der Analysen steht dabei der Vergleich zwischen den Erwerbsgruppen der vollzeitbeschäftigten Männer, der vollzeitbeschäftigten Frauen und der teilzeitbeschäftigten Frauen nach den Qualifikationsniveaus: ohne Berufsabschluss, mit Berufsabschluss und mit Hochschulabschluss. Dichteschätzungen des Bruttotageslohns zeigen, dass vollzeiterwerbstätige Männer über die gesamte Verteilung den höchsten Verdienst aufweisen. Weiterhin deuten die Dichteschätzungen darauf hin, dass die geschlechtsspezifischen Lohndifferentiale mit zunehmendem Verdienst steigen. Der selbe Sachverhalt findet sich auch für die qualifikatorischen Verdienstunterschiede. Mit steigendem Qualifikationsniveau steigt sowohl der Lohn als auch die Dispersion. Besonders ausgeprägt ist die qualifikatorische Dispersion für Männer. Eine Analyse der Lohndifferentiale sowohl innerhalb der Erwerbsgruppen als auch zwischen Männern und Frauen weist darauf hin, dass in der Gruppe der teilzeiterwerbstätigen Frauen die größte Lohndispersion vorzufinden ist und dass diese im Zeitablauf zugenommen hat. Ferner sind die Lohndifferentiale im unteren Bereich der Verteilung kleiner als im oberen. Die weitere Disaggregation nach dem Qualifikationsniveau reduziert die Within-Dispersion, wobei die Lohnunterschiede innerhalb der Erwerbsgruppen mit steigendem Qualifikationsniveau tendenziell zunehmen. Schließlich nimmt die Within-Dispersion für vollzeitbeschäftigte Hochschulabsolventinnen im Zeitablauf zu, während sie für die Teilzeitbeschäftigten sinkt. Betrachtet man die Qualifikations- und die Verteilungsdimension, zeigt sich, dass in beiden Jahren lediglich für vollzeiterwerbstätige Frauen ohne Berufsabschluss bzw. mit Hochschulabschluss das geschlechtsspezifische Differential über die Verteilung hinweg steigt. Für alle anderen Gruppen geht es über die Verteilung hinweg zurück. Die Lohndifferentiale zwischen Männern und Frauen haben im Zeitablauf abgenommen. Das mittlere Reallohnwachstum zwischen 1990 und 1995 ist für teilzeiterwerbstätige Frauen mit 6,8% am höchsten und für vollzeiterwerbstätige Männer mit 0,7% am geringsten. Die Reduktion der geschlechtsspezifischen Unterschiede im Zeitablauf ist unter Berücksichtigung des Qualifikationsniveaus noch ausgeprägter. Dies gilt vor allem für teilzeiterwerbstätige Frauen ohne Berufsabschluss und mit Hochschulabschluss. Für teilzeiterwerbstätige Frauen und für vollzeiterwerbstätige Männer findet sich im Zeitablauf eine zunehmende Lohnspreizung, während für vollzeiterwerbstätige Frauen die Verteilung konstant bleibt. Eine Zunahme der Lohnspreizung ist dabei insbesondere bei Hochschulabsolventen festzustellen, sowohl für vollzeiterwerbstätige Männer wie Frauen. Im Unterschied dazu hat für diese Erwerbsgruppen die Lohndispersion bei den Mittelqualifizierten in den 90er Jahren abgenommen.
Vom "Netz-Doktor" bis "Health 2.0" : welche Möglichkeiten das Internet chronisch Kranken bieten kann
(2011)
Jeder fünfte Deutsche ist inzwischen bereits über 65 Jahre, und der demografische Wandel schreitet voran. Mit dem wachsenden Anteil Älterer nimmt auch die Zahl der chronisch Kranken stetig zu. Diese Patienten haben einen besonders hohen Bedarf an aktuellen medizinischen Informationen; das stellt neue Herausforderungen an alle Beteiligten im Gesundheitssystem. Unter dem Stichwort "Health 2.0" untersucht der Wirtschaftsinformatiker Christoph Rosenkranz, welche interaktiven Möglichkeiten das Internet den Betroffenen bisher schon bietet und was es darüber hinaus in Zukunft leisten sollte.
Vom Kinderzuschlag zum Kindergeldzuschlag : ein Reformvorschlag zur Bekämpfung von Kinderarmut
(2007)
Ausgehend von einer kritischen Analyse des im Zuge der Hartz IV-Reform 2005 eingeführten Kinderzuschlags wird in der vorliegenden Studie ein Reformkonzept zur Bekämpfung von Kinderarmut entwickelt und eine quantitative Abschätzung der unmittelbaren Reformwirkungen vorgenommen. Bei der Gestaltung des Reformvorschlags wurde an Grundprinzipien des allgemeinen Familienleistungsausgleichs angeknüpft. Dieser sollte unabhängig von der jeweiligen Armutsursache das Existenzminimum des Kindes nicht nur von der Steuer freistellen, sondern im Bedarfsfall durch positive Transfers – mit einem Kindergeldzuschlag – gewährleisten. Dies erfordert a) die Aufstockung des Kindergeldes durch einen Zuschlag auf die Höhe des sächlichen Existenzminimums, also um maximal 150 Euro auf 304 Euro – bei Alleinerziehenden wegen besonderer Mehrbedarfe für das erste Kind um maximal 250 Euro auf 404 Euro; b) den Verzicht auf eine zeitliche Befristung des Kindergeldzuschlags; c) die Berücksichtigung des Familieneinkommen nach Abzug eines Freibetrages in Höhe des pauschalisierten Existenzminimums der Eltern bzw. des Elternteils (1.238 Euro bzw. 860 Euro); d) eine mäßige (mit Besteuerungsgrundsätzen vereinbare) Anrechnung des zu berücksichtigenden Einkommens – wir schlagen eine Transferentzugsrate von 50% vor; e) den Verzicht auf eine Berücksichtigung des Vermögens. Wesentliche Unterschiede des Reformkonzepts gegenüber dem derzeitigen Kinderzuschlag liegen in der Ersetzung der „spitzen“ Berechnung des elterlichen Existenzminimums durch eine Pauschale und in dem Verzicht zum Einen auf eine explizite Höchsteinkommensgrenze – aus der Transferentzugsrate ergibt sich freilich eine implizite Höchsteinkommensgrenze – und zum Anderen auf eine Mindesteinkommensgrenze. Es bleibt den Eltern also unbenommen, den Kindergeldzuschlag in Anspruch zu nehmen, selbst wenn ihre Einkommensverhältnisse und individuellen Wohnkosten auf einen höheren ALG II-Anspruch schließen lassen, den sie aber nicht wahrnehmen – sei es aus Stigmatisierungsangst, aus Unwissenheit, weil sie den Verweis auf kleine Ersparnisse befürchten oder sich von dem bürokratischen Aufwand abschrecken lassen. Aus vorliegenden Schätzungen geht hervor, dass aus den genannten Grün den das Ausmaß verdeckter Armut groß ist. Dem könnte durch einen vergleichsweise unbürokratischen Kindergeldzuschlag entgegengewirkt werden, insbesondere wenn der Leistungsträger, also die Familienkasse, verpflichtet wird, bei sehr geringem Einkommen des Antragstellers diesen auf möglicherweise bestehende höhere ALG II-Ansprüche hinzuweisen. Zur Abschätzung der unmittelbaren Reformwirkungen wurde ein Mikrosimulationsmodell entwickelt und mit den Daten des Sozio-ökonomischen Panels 2006 in mehreren Varianten gerechnet. Auf der Basis einer bereinigten Stichprobe ergeben sich – je nach Reformvariante – 3 Mio. bis 3,6 Mio. potenziell begünstigte Kinder, was etwa einem Sechstel bzw. einem Fünftel aller Kinder, für die Kindergeld bezogen wird, entspricht. Unter den Kindern von Alleinerziehenden würde die Empfängerquote mit gut einem Drittel weit überdurchschnittlich ausfallen. Die fiskalischen Bruttokosten des Reformmodells würden sich auf 3,7 Mrd. bzw. 4,5 Mrd. Euro jährlich (11% bzw. 13% der derzeitigen Kindergeldausgaben) belaufen; sie würden durch einige Einsparungen beim nachrangigen Wohngeld, bei ausbildungsbedingten Transfers sowie beim ALG II – sofern einige Anspruchsberechtigte den Bezug des Kindergeldzuschlags vorziehen – etwas vermindert werden. Der durchschnittliche Zahlbetrag pro Bedarfsgemeinschaft mit Anspruch auf Kindergeldzuschlag liegt bei 190 Euro p. M., der Median bei 150 Euro. Mit dem insgesamt begrenzten Mittelaufwand kann eine erhebliche Verminderung relativer Einkommensarmut von Familien erreicht werden. Die derzeit bei etwa 18% liegende Armutsquote von Kindern, für die Kindergeld bezogen wird, würde nach Einführung des Kindergeldzuschlags um etwa vier Prozentpunkte zurückgehen, die aller Mitglieder in den Familien von 16% um drei Prozentpunkte. Mit etwa zwei Dritteln lebt der größte Teil der potenziellen Anspruchsberechtigten in erwerbstätigen Familien, und die relative stärkste Verminderung der Armutsquote ergibt sich bei Familien mit Vollzeiterwerbstätigkeit. Die mit dem Kindergeldzuschlag zu bewirkende Verminderung von Kinderarmut würde wegen der hohen Erwerbsquote von Familien also mit einem Abbau von Armut trotz Arbeit einhergehen. Besonders große Reformwirkungen zeigen sich bei den Alleinerziehenden, für welche die Simulation eine Reduzierung der derzeit bei 40% liegenden Armutsquote um etwa acht Prozentpunkte ergibt. Dennoch verbliebe die Armutsquote auch nach Einführung des Kindergeldzuschlags auf einem bedrückend hohen Niveau. Dies ist ganz überwiegend auf die große Zahl der Alleinerziehenden mit Bezug von ALG II und Sozialgeld bzw. Sozialhilfe zurückzuführen, die annahmegemäß nach der Reform im Grundsicherungsbezug verbleiben, den vorrangigen Kindergeldzuschlag also nicht in Anspruch nehmen. Bei den Paarfamilien zeigt sich – relativ gesehen – ein ähnlicher Effekt des Kindergeldzuschlags wie bei den Alleinerziehenden; die Armutsquote von derzeit 12,5% würde um ein Fünftel auf 10% zurückgehen. Dabei fällt die Reformwirkung umso größer aus, je mehr Kinder in der Familie leben. Bei den trotz Einführung des Kindergeldzuschlags unter der relativen Armutsgrenze verbleibenden Paarfamilien handelt es sich zu einem geringeren Teil als bei den Alleinerziehenden um Empfänger von nachrangigen allgemeinen Grundsicherungsleistungen und zu einem größeren Teil um Fälle, bei denen auch das um den Kindergeldzuschlag erhöhte Einkommen die Armutsgrenze nicht erreicht. Ihre Situation würde sich dennoch durch die Reform erheblich verbessern, da die relative Armutslücke im Durchschnitt von 21% auf 14% zurückgehen würde; dies entspricht einer Einkommenserhöhung von durchschnittlich 267 Euro. Abschließend bleibt darauf hinzuweisen, dass der hier vorgestellte Reformvorschlag lediglich als erster Schritt zu einer allgemeinen Grundsicherung für Kinder zu verstehen ist. Er wurde unter dem Aspekt einer schnellen Umsetzbarkeit entwickelt, sollte aber weiter reichende Überlegungen nicht verdrängen. Diese haben nicht nur das sächliche Existenzminimum des Kindes, sondern darüber hinaus den verfassungsgerichtlich festgestellten Betreuungs- und Erziehungs- oder Ausbildungsbedarf (BEA) in den Blick zu nehmen. Er wird im Rahmen der Einkommensbesteuerung durch einen Freibetrag berücksichtigt (§ 32 Abs. 6 EStG), ist in die Bemessung des hier vorgestellten Kindergeldzuschlags aber nicht eingegangen. Eine systematische Weiterentwicklung des Familienleistungsausgleichs im Steuerrecht würde die Einführung eines einheitlichen (Brutto-) Kindergeldes zur Abdeckung von sächlichem Existenzminimum und BEA erfordern, das entsprechend der Leistungsfähigkeit der Eltern, also nach dem allgemeinen Einkommensteuertarif, zu versteuern wäre (Lenze 2007).
Die Rechnung kommt immer zum Schluss – und sie zu bezahlen, macht in der Regel keine Freude. Wenn wir aber schon eher ungern bezahlen, soll die Zahlungsmethode selbst wenigstens einfach, überall verfügbar und sehr sicher sein. Insbesondere die Sicherheit ist beim Bezahlen im 21. Jahrhundert ein wichtiges Thema, zu dem es interdisziplinäre Forschungsansätze aus Wirtschaftswissenschaften, Informatik und Recht in einem von dynamischer Entwicklung geprägten Umfeld gibt.
Tagungsbericht des Workshops "Völkerrecht und Weltwirtschaft im 19. Jahrhundert. Die Internationalisierung der Ökonomie aus völkerrechts- und wirtschafts(theorie-)geschichtlicher Perspektive", der vom 3. bis 4. September 2009 in Frankfurt am Main stattfand. Veranstalter: Exzellenzcluster "Die Herausbildung normativer Ordnungen"; in Kooperation mit der Goethe Universität Frankfurt am Main; dem Max-Planck-Institut für europäische Rechtsgeschichte
Krieg, das haben wir von den Massenmedien gelernt, ist nur dort, wo jemand zusieht, das spectaculum bedarf des Mediums. Mediale Aufmerksamkeit bestimmt darüber, ob Kriege und ihre Folgen überhaupt noch von jemand anderem wahrgenommen werden als von den unmittelbar Betroffenen. Manipulationen über die Nachrichten vom Krieg sind so alt wie das Kriegswesen, nur tritt heute neben die Manipulation das Ringen um die knappe Währung Aufmerksamkeit. Längst haben wir uns an bizarre Mitteilungen wie die gewöhnt, der Afghanistan- Krieg sei der erste des neuen Jahrtausends gewesen, während dauerhaft schwelende Kriegsherde der Welt unbeachtet bleiben. Und längst ringen die Siegessicheren darum, dass sie ihren Krieg vor allem medial gewinnen – das andere ist gar nicht so wichtig. Um all dies geht es Thomas Scharff in seiner Habilitationsschrift eigentlich gar nicht. Eigentlich. Dennoch ist er mit seiner Analyse von Texten über den Krieg der Karolinger ganz nah dran am 21. Jahrhundert. Nicht warum Krieg geplant, geführt und wie er gewonnen wird, sondern das Schreiben der "Intellektuellen" über Krieg, der Krieg als Thema – das ist Scharffs erklärtes Vorhaben. Nach Politik und Sozialgeschichte soll nun die Historiographiegeschichte den Blick auf neue Facetten eröffnen. ...
Von Februar bis Juni 2015 hat die Europäische Zentralbank (EZB) die Notfall-Liquiditätshilfen (emergency liquidity assistance, ELA) für griechische Banken von 50 auf etwa 90 Milliarden Euro ausgeweitet. Dies hat zu einer Diskussion unter Wissenschaftlern, Politikern und Praktikern geführt, ob diese Liquiditätshilfen rechtmäßig sind. Es wurde der Vorwurf erhoben, die EZB trage bewusst zu einer Konkursverschleppung der bereits insolventen griechischen Banken bei.
Wir nehmen diesen Vorwurf zum Anlass, die Grundsätze des ELA-Programms genauer zu betrachten und die Frage zu diskutieren, ob das Programm in der aktuellen Situation rechtmäßig war. Zunächst beschreiben wir hierfür aus finanzwirtschaftlicher Perspektive die komplexe Beziehung zwischen der Europäischen Union, der EZB und den griechischen Banken. Dabei gehen wir insbesondere auf die wirtschaftspolitischen Grundsätze einer Währungsunion mit einer unvollständigen Fiskalunion (oder Haushaltskonsolidierung) ein. Vor diesem Hintergrund analysieren wir dann die Entscheidung der EZB, weiterhin Liquiditätshilfen an griechische Banken bereitzustellen. Wir kommen zu dem Ergebnis, dass das Vorgehen der EZB nicht als Konkursverschleppung zu bezeichnen ist.