Refine
Year of publication
Document Type
- Part of Periodical (288)
- Working Paper (190)
- Book (95)
- Report (45)
- Contribution to a Periodical (44)
- Article (40)
- Doctoral Thesis (35)
- diplomthesis (8)
- Periodical (8)
- Conference Proceeding (7)
Language
- German (776) (remove)
Is part of the Bibliography
- no (776)
Keywords
- Financial Institutions (43)
- Deutschland (40)
- Capital Markets Union (29)
- Financial Markets (26)
- ECB (24)
- Macro Finance (22)
- Banking Regulation (21)
- Banking Supervision (20)
- Banking Union (18)
- Household Finance (18)
Institute
- Wirtschaftswissenschaften (776) (remove)
Die Untersuchungen auf der Basis der Einkommens- und Verbrauchs stichproben haben ergeben, daß sich hinter der für die "alte" Bundesrepublik festgestellten weitgehenden Stabilität der Verteilung der Nettoäquivalenzeinkommen deutliche Veränderungen auf den vorgelagerten Stufen des Verteilungsprozesses verbergen. Bei den individuellen Erwerbseinkommen sowie bei den individuellen Faktoreinkommen (nur Bezieher) sind zwischen 1973 und 1988 die hier einbezogenen aggregierten Ungleichheitsmaße zwar kaum gestiegen; Kernel Density-Schätzungen zeigen aber einen leichten Polarisierungstrend der bimodalen Verteilung, da die Dichte in den Randbereichen der Verteilung zugenommen hat und das Dichtetal zwischen den beiden Gipfeln sich gesenkt hat. Unter Berücksichtigung des Haushaltszusammenhangs - durch Zusammenfassung individueller Faktoreinkommen auf Haushaltsebene und Gewichtung mit einer Äquivalenzskala - erweisen sich die Verteilungsänderungen als noch gravierender. Die aggregierten Ungleichheitsmaße sind stark gestiegen, und das Verhältnis der beiden Modi der zweigipfligen Verteilung hat sich umgekehrt: lag 1973 der erste Gipfel im Bereich der geringfügigen Faktoräquivalenzeinkommen noch deutlich unter dem zweiten, knapp unterhalb des Durchschnitts gelegenen Gipfel, so war 1988 der erste Gipfel deutlich höher als der zweite. Die relative Häufigkeit marginaler Faktoräquivalenzeinkommen hat im Zeitablauf also eindeutig zugenommen, ebenso wie die im oberen Einkommensbereich. Dennoch kann man von Polarisierung nur in einem weiteren Sinn sprechen, da das Dichtetal zwischen den Modi 1988 höher als 1973 liegt. Es mag beruhigend wirken, daß - zumindest in der Zeit vor der Wiedervereinigung - das Abgaben- und Transfersystem die zunehmende Disparität der Faktoreinkommensverteilung insoweit kompensieren konnte, als die relative Häufigkeit des Niedrigeinkommensbereichs - hier abgegrenzt mit 50% des durchschnittlichen Nettoäquivalenzeinkommens - vergleichsweise mäßig zugenommen hat. Dieser Eindruck ist allerdings im Hinblick auf die eingangs erwähnten Einschränkungen der Datenbasis zu relativieren. Die unzureichende Erfassung des oberen und des unteren Randbereichs der Einkommensverteilung läßt vermuten, daß der tatsächliche Trend zunehmender Ungleichheit und Polarisierung durch unsere Analysen unterschätzt wird.
Internationale Verkehrsflughäfen sind Einrichtungen, die eine zentrale ökonomische Bedeutung für das regionale Umfeld haben. Zusätzlich zu ihrer eigentlichen Funktion als Anbieter von Flugverkehrsleistungen werden Güter und Dienstleistungen angeboten, die in unterschiedlich starkem Ausmaß an die Verkehrsfunktion gekoppelt sind. Neben der Flughafengesellschaft und den Flugverkehrsgesellschaften tragen beispielsweise gastronomische Einrichtungen, Groß- und Einzelhändler, Luftfrachtspeditionen, Expressdienste, Reiseveranstalter, Flugsicherung, Zoll, Catering-Unternehmen zu den ökonomischen Aktivitäten des Flughafens bei. Die Palette der verkehrsbezogenen Aktivitäten am Flughafen reicht von der Betreuung der Passagiere über Reparatur- und Wartungsarbeiten für die Fluggesellschaften bis hin zur Abwicklung des Frachtverkehrs. ...
Die Studie untersucht die Frage, ob der Gesetzgeber des ARUG die Ziele erreicht hat, die mit der Reform des Rechts der Anfechtung von HVBeschlüssen verfolgt wurden. Darüber hinaus gehend soll die Entwicklung der Beschlußmängelklagen seit der letzten Studie der Verfasser hierzu nachgezeichnet werden. Unsere Studie zeigt, daß seit Inkrafttreten des ARUG ein deutlicher Rückgang der Beschlußmängelklagen und Freigabeverfahren zu verzeichnen ist. Dagegen ist der Anteil der von „Berufsklägern“ erhobenen Klagen und Nebeninterventionen gleich geblieben, wobei sich die Anzahl der Personen in der Gruppe der „Berufskläger“ nochmals vergrößert hat. Das ARUG hat insoweit keine erkennbare Wirkung gehabt...
Aus dem weiten Spektrum ökonomisch relevanter Fragen, die die europäische Integration und das Gesellschaftsrecht verbinden, soll hier diejenige herausgegriffen werden, ob sich die nationalen Corporate-Governance-Systeme in den großen europäischen Volkswirtschaften Deutschlands, Frankreichs und Großbritanniens unter dem Einfluß der europäischen Integration bereits aneinander angeglichen haben und ob es demnächst zu einer solchen Angleichung kommen wird. Unser Thema deckt nur einen Teil des Gesellschaftsrechts ab und geht zugleich hinsichtlich der angesprochenen rechtlichen Materie über das Gesellschaftsrecht hinaus, denn die Corporate Governance fügt sich nicht einfach in herkömmliche juristische Klassifikationen ein. Unser Vorhaben unterscheidet sich aber vor allem dadurch von einer juristischen Behandlung des Themas, daß primär ökonomische Mechanismen und Zusammenhänge angesprochen werden. Ökonomen betrachten die Corporate Governance im weiteren Kontext des Finanzsystems, denn das Corporate-Governance-System ist ein Teil des Finanzsystems eines Landes. Die Fragen, wie unterschiedlich die nationalen Systeme der Corporate Governance waren, ehe zu Beginn der 80er Jahre der Prozeß der Angleichung in Europa einsetzte, wie unterschiedlich sie heute noch sind, wie sehr sie sich somit bereits angeglichen haben und wie ein möglicher Angleichungsprozeß weitergehen könnte, sind deshalb ein Teil der weiteren Frage nach der Angleichung der Finanzsysteme in Europa. In diesem Beitrag konzentrieren wir uns aber nur auf Entwicklungen der 90er Jahre.
Performance fees for portfolio managers are designed to align the managers' goals with those of the investors and to motivate managers to aquire "superior" information and to make better investment decisions. A part of the literature analyzes performance fees on the basis of market valuation. In this article it is shown that market valuation faces a dilemma: on the one hand, the conditions which allow for market valuation imply that the portfolio manager perfectly hedges the performance fee. This in turn implies severe restrictions on the incentive effects of the performance fee. In particular, the fee does not motivate the manager to use superior information for investment decisions concerning the managed portfolio. On the other hand, better incentives can only be generated under conditions which exclude market valuation. In this case, the analysis has to be based on expected utility valuation. Keywords: performance fees, portfolio managers, "superior" information, market valuation, incentive effects
Durch Prozessverbesserungen ist es möglich, den Ressourcenverbrauch einer Unternehmung zu reduzieren, ohne an den Eigenschaften des erstellten Gutes Abstriche vornehmen zu müssen. Intuitiv ist ersichtlich, dass eine bessere Ausnutzung der vorhandenen Ressourcen vorteilhaft für die Unternehmung ist. Mit dem Übergang zur Informationsgesellschaft stellt sich die Frage, inwiefern traditionelle Verfahren zur Prozessverbesserung sich auf die immer bedeutender werdende Ressource „Wissen“ anwenden lassen. Hat Wissen in Verfahren zur Erstellung physischer Güter noch eine nur unterstützende Funktion, so stellt es in Branchen, deren Focus in der Entwicklung von Wissen liegt, den wichtigsten „Produktionsfaktor“ dar. In vorliegendem Text wird der Versuch unternommen, bekannte Verfahren zur Qualitätsverbesserung von Prozessen dahingehend zu betrachten, inwieweit sie für eine Anwendung auf den Umgang mit Wissen geeignet sind. Dazu erfolgt eine Darstellung grundlegender Begriffe, gefolgt von Kriterien, anhand derer die Qualität von Wissensprozessen beurteilt werden kann. Danach werden verschiedene Qualitätsverbesserungsverfahren dargestellt und ihre Eignung zur Anwendung auf Wissensprozesse beurteilt. Abschließend findet sich ein Ausblick darauf, in welchen Gebieten weitere Überlegungen zu diesem Thema angebracht sind. Hingewiesen werden muss auf dem Umstand, dass vorliegende Arbeit aus Platzgründen einige mehr oder minder starke Reduzierungen enthält. Bekannte Qualitätsverbesserungsverfahren wurden in verschiedene Kategorien eingeteilt, aus diesen Kategorien wurden dann exemplarisch einige Verfahren für die nähere Betrachtung ausgewählt. Einen Anspruch auf Vollständigkeit erhebt der vorliegende Text somit nicht. Auch die Kategorisierung kann nicht als allgemeingültig angesehen werden, da die meisten Qualitätsverbesserungsverfahren starke Unterschiede aufweisen und somit das Einordnen in ein einheitliches Schema erschweren. Dennoch wurden gemeinsame Merkmale identifiziert und zur Bildung von Kategorien verwandt.
Trotz einer fast 30-jährigen Forschungs- und Umsetzungshistorie stellen Projekte zum Aufbau integrierter Datenhaushalte (Data Warehouses) für Unternehmen immer noch eine große Herausforderung dar. Gerade in Data Warehouse-Projekten bei Finanzdienstleistern führt eine hohe semantische Komplexität häufig zu Projektverzögerungen oder zum Scheitern der Vorhaben. Dies zeigt die Arbeit anhand von explorativen Fallstudien auf und fragt nach den Gründen für diesen typischen Verlauf. Eine mögliche Ursache liegt in einer unzureichenden Kommunikation zwischen den Projektbeteiligten, was zu Missverständnissen in der Konzeption und somit zu Fehlimplementierungen führt, die – gerade wenn sie spät erkannt werden – deutliche Verzögerungen und Budgetüberschreitungen zur Folge haben. Ausgehend von diesen beobachteten Praxisproblemen sucht die vorliegende Arbeit auf der Grundlage des Design-Science-Research nach Lösungsansätzen: unter Übertragung der Erkenntnisse der Kommunikationstheorie wurden drei Artefakte entwickelt, sukzessive verbessert und validiert. Die Paper zeigen auf, dass sich durch den Einsatz formalisierter Templates, eines verbesserten Vorgehensmodells in Verbindung mit einem korrespondieren Softwaretool das Kommunikationsverhalten in den Projekten verbessern lässt und somit eine höhere Projekt-Performance erreicht wird. Hierzu wurden insgesamt sechs Projekte zum Aufbau von Data Warehouses im Finanzdienstleistungsumfeld in Fallstudien analysiert und zudem Experten-Interviews mit den Projektbeteiligten durchgeführt, die im Ergebnis die positive Wirkung der Artefakte unterstützen.
Die vorliegende Bachelorarbeit leistet einen Beitrag zur wissenschaftlichen Identifikation von intergenerationalen Unterschieden verschiedener Arbeitnehmergruppen. Insbesondere werden sowohl die Unterschiede zwischen den Generationen X und Y, in der Arbeitsbereitschaft, in unterschiedlichen Abschnitten des Berufslebens, als auch die Unterschiede zwischen der Wahrnehmung der Wichtigkeit von Arbeitgeberattraktivitätsattributen jener Generationen betrachtet. Ein besonderes Augenmerk liegt hierbei auf der Betrachtung von High-Potentials.
Trotz zunehmend positiver Meldungen vom deutschen Arbeitsmarkt, die von einer "Entspannung der Lage" bis hin zu einer "Trendwende" reichen, herrscht eine anhaltend hohe Arbeitslosigkeit unter den wettbewerbsschwachen Arbeitsuchenden. Ein genauer Blick auf die aktuellen Zahlen verrät, dass der Anteil der Langzeitarbeitslosen an der Gesamtarbeitslosenzahl 42 % beträgt. Wiederum besitzt die Hälfte der arbeitslos gemeldeten Arbeitslosengeld II-Empfänger keine abgeschlossene Berufsausbildung, knapp ein Viertel keinen Schulabschluss. ...
Die neoklassische Arbitragetheorie setzt voraus, daß alle Marktteilnehmer identische Erwartungen bezüglich der künftigen zustandsabhängigen Auszahlungen von risikobehafteten Wertpapieren bilden. Die Unsicherheit besteht dann im Eintritt des Zustandes selber, jedoch nicht in dessen Ausprägung.
In diesem Artikel wird untersucht, wie eine zusätzliche Unsicherheit in Form des Unwissens über die genaue Ausprägung eines Umweltzustandes modelliert werden kann. Dazu werden die klassischen Finanzwirtschaftstheorien mit der Fuzzy Set Theorie (Theorie unscharfer Mengen) verbunden.
Ziel ist es, sowohl eine einperiodige als auch eine mehrperiodige Arbitragebewertung so zu modifizieren, daß vage Erwartungen der Marktteilnehmer unterstellt werden können.
Sozialpolitische Auseinandersetzungen kursieren gegenwärtig verschärft um die Gestaltung der Sicherung des sozio-kulturellen Existenzminimums, um eine angebliche "Kostenexplosion" bei der Grundsicherung für Arbeitsuchende und um Vermutungen über verbreiteten Leistungsmissbrauch. Der Blick ist also stark auf die staatlicherseits auf Basis des Sozialgesetzbuches (SGB) über Transfers "zu bekämpfende" und "bekämpfte" Armut gerichtet. Vor diesem Hintergrund sollen die auf relative Grenzen – 50% des arithmetischen Mittels oder 60% des Medians der Nettoäquivalenzeinkommen – bezogenen Studien über Armut in Deutschland um eine Armutsanalyse ergänzt werden, die den Einkommensbereich unterhalb des gesetzlichen Existenzminimums in den Fokus nimmt. In der folgenden Untersuchung geht es nicht nur um die Größe der edürftigenBevölkerungsgruppe insgesamt, sondern darüber hinaus um die Bedeutung von Ursachen der Hilfebedürftigkeit – Arbeitslosigkeit, Teilzeiterwerbstätigkeit, niedriges Erwerbseinkommen, Alter –, um geschlechtsspezifische Unterschiede und um die Betroffenheit von Kindern. Hier fehlt es bisher an zeitnahen empirischen Informationen. Daten über die Zahl und Struktur der Empfänger von Grundsicherungsleistungen – also von Arbeitslosengeld II (Alg II) bzw. Sozialgeld, Grundsicherung im Alter und bei Erwerbsminderung oder Hilfe zum Lebensunterhalt (HLu) der Sozialhilfe – vermitteln nur die "halbe Wahrheit". ...
Die Entscheidung, die »Regelaltersgrenze« von derzeit 65 auf 67 Jahre anzuheben, hat erneut der Debatte Auftrieb verschafft, wie der Übergang von der Erwerbsphase in den Ruhestand sinnvoll zu gestalten ist. Sind die betroffenen Altersjahrgänge noch leistungsfähig genug, um weiter berufstätig zu sein? Wie schätzen Arbeitgeber die Einsatzmöglichkeit älterer Arbeitnehmerinnen und Arbeitnehmer ein? Gibt es genügend Arbeitsplätze, um eine erweiterte Zahl von älteren Erwerbstätigen aufzunehmen? Mindert der spätere Ausstieg der Älteren die Einstiegschancen der Jüngeren? Ist der geplante Aufschub der Regelaltersgrenze lediglich ein »Trick«, um die Rentenabschläge hochzuschrauben?
Wie können Unternehmen bei der Auswahl von Bewerbern zukünftig besser zwischen Quantität und Qualität abwägen? Welche Wege sollten Kandidaten bei der Suche nach ihrem Wunscharbeitgeber einschlagen? Fragen, mit denen sich die Frankfurter Wirtschaftsinformatiker beschäftigen. Das Internet hat in den letzten Jahren die Personalbeschaffung erobert: Viele große und mittlere Unternehmen suchen ihr neues Personal inzwischen überwiegend auf elektronischem Weg. So lassen sich nicht nur die Kosten für das Personalmarketing deutlich reduzieren, auch die Rekrutierungszeiten werden kürzer. Doch gleichzeitig sehen sich die Unternehmen einer wachsenden Flut von Bewerbern gegenüber: Stellensuchende nutzen – verstärkt durch den Druck des Arbeitsmarkts – zunehmend die Chance, ihre Bewerbung über das Internet schnell, kostengünstig und an mehrere Unternehmen gleichzeitig elektronisch zu versenden. Um schnell die relevantesten Bewerber für ausgeschriebene Stellen zu identifizieren, benötigen die Unternehmen entsprechende Tools. Das Team um Wolfgang König und Tobias Keim erforscht innovative Lösungen.
Die zunehmende Monopolisierung auf dem Markt für Informationsressourcen im akademischen Sektor führte in den vergangenen Jahren zu einer verstärkten Bildung von Bibliothekskonsortien auf der Abnehmerseite, die einen Gegenpol in Form einer Einkaufsgenossenschaft darstellen sollten [McCa02]. Diese Tendenzen lassen sich in verschiedenen Ländern wie etwa in Deutschland, England, der Schweiz und der Niederlande beobachten [Okerso]. In den USA sind Konsortien eher selten zu finden; das größte Konsortium ist hier OHIO-Link (http://www.lib.ohio-state.edu/). In Deutschland richten sich die meisten Konsortien wegen der föderalen Finanzierungsstrukturen regional aus; überregionale bzw. deutschlandweite Konsortien sind derzeit noch selten. Ein Zusammenschluss auf thematischer Grundlage findet derzeit so gut wie gar nicht statt, vielmehr werden möglichst viele Bibliotheken in Konsortien unabhängig von den an den jeweiligen Standorten betriebenen Forschungsschwerpunkten eingebunden [AnDe02]....
Das Financial Stability Board (FSB) schlägt zur Lösung des "too big to fail"-Problems einen neuen Risikokapital-Puffer für global tätige systemrelevante Banken vor. Die Kennzahl „Total Loss Absorbing Capacity“ (TLAC), setzt sich zusammen aus hartem Kernkapital und verlustabsorbierendem Fremdkapital. Das verlustabsorbierende, also bail-in-fähige Fremdkapital soll vor anderen Positionen der Passivseite einer Bank in einer Krisensituation vorrangig haften oder aber in Eigenkapital umgewandelt werden. Jan Krahnen argumentiert, dass es für eine glaubhafte Verringerung des "too big to fail"-Problems auf die Anforderungen an das verlustabsorbierende Fremdkapital ankommt. Dass die Aufsicht die Halter von Bail-in Anleihen im Verlustfall tatsächlich einem Bail-in unterzieht ist vor allem nur dann glaubwürdig, wennn andere Banken nicht die Halter solcher Anleihen sind.