Working Paper
Refine
Year of publication
Document Type
- Working Paper (3383) (remove)
Language
- English (2347)
- German (1016)
- Spanish (8)
- French (7)
- Multiple languages (2)
Keywords
- Deutschland (223)
- USA (64)
- Corporate Governance (53)
- Geldpolitik (53)
- Schätzung (52)
- Europäische Union (51)
- monetary policy (47)
- Bank (41)
- Sprachtypologie (34)
- Monetary Policy (31)
Institute
- Wirtschaftswissenschaften (1494)
- Center for Financial Studies (CFS) (1467)
- Sustainable Architecture for Finance in Europe (SAFE) (801)
- House of Finance (HoF) (662)
- Rechtswissenschaft (400)
- Institute for Monetary and Financial Stability (IMFS) (213)
- Informatik (119)
- Exzellenzcluster Die Herausbildung normativer Ordnungen (75)
- Gesellschaftswissenschaften (75)
- Geographie (64)
"Tracking Stock", zum Teil auch als "Targeted Stock" bezeichnet, ist eine Innovation des U.S.-amerikanischen Kapitalmarkts. Mit Tracking Stocks bezeichnet man Aktien, deren Gewinnbezugsrecht sich lediglich nach dem Ergebnis einer bestimmten Unternehmenssparte, nicht des Gesamtunternehmens, bemißt. Ein typisches Beispiel bildet die Schaffung von Tracking Stocks im Zusammenhang mit der Übernahme von Electronic Data Systems (EDS) durch General Motors im Jahre 1984. Die bisherigen Aktionäre von EDS, die EDS eingebracht hatten, erhielten zwar General Motors-Aktien, deren Dividendenbezugsrecht aber am - separat zu ermittelnden - Gewinn der künftigen EDS-Sparte von General Motors orientiert wurde. Damit sollte erreicht werden, die bisherigen Aktionäre der EDS auch weiterhin vorrangig an den Erträgen des - im Vergleich zum Kerngeschäft von General Motors als profitabler eingeschätzten - Elektronikgeschäfts teilhaben zu lassen. Im folgenden werden zunächst Gründe und Anwendungsbereich (II.) sowie die Vor- und Nachteile dieser Gestaltung (III.) näher erläutert. Ein weiterer Abschnitt (IV.) wendet sich dann ausgewählten Einzelfragen zu, die sich bei Einführung dieses Instruments nach deutschem Recht stellen würden.
This special issue of the ZAS Papers in Linguistics contains a collection of papers of the French-German Thematic Summerschool on "Cognitive and physical models of speech production, and speech perception and of their interaction".
Organized by Susanne Fuchs (ZAS Berlin), Jonathan Harrington (IPdS Kiel), Pascal Perrier (ICP Grenoble) and Bernd Pompino-Marschall (HUB and ZAS Berlin) and funded by the German-French University in Saarbrücken this summerschool was held from September 19th till 24th 2004 at the coast of the Baltic Sea at the Heimvolkshochschule Lubmin (Germany) with 45 participants from Germany, France, Great Britain, Italy and Canada. The scientific program of this summerschool that is reprinted at the end of this volume included 11 key-note presentations by invited speakers, 21 oral presentations and a poster session (8 presentations). The names and addresses of all participants are also given in the back matter of this volume.
All participants was offered the opportunity to publish an extended version of their presentation in the ZAS Papers in Linguistics. All submitted papers underwent a review and an editing procedure by external experts and the organizers of the summerschool. As it is the case in a summerschool, papers present either works in progress, or works at a more advanced stage, or tutorials. They are ordered alphabetically by their first author's name, fortunately resulting in the fact that this special issue starts out with the paper that won the award as best pre-doctoral presentation, i.e. Sophie Dupont, Jérôme Aubin and Lucie Ménard with "A study of the McGurk effect in 4 and 5-year-old French Canadian children".
In this paper, we develop a state-dependent sensitivity value-at-risk (SDSVaR) approach that enables us to quantify the direction, size, and duration of risk spillovers among financial institutions as a function of the state of financial markets (tranquil, normal, and volatile). Within a system of quantile regressions for four sets of major financial institutions (commercial banks, investment banks, hedge funds, and insurance companies) we show that while small during normal times, equivalent shocks lead to considerable spillover effects in volatile market periods. Commercial banks and, especially, hedge funds appear to play a major role in the transmission of shocks to other financial institutions. Using daily data, we can trace out the spillover effects over time in a set of impulse response functions and find that they reach their peak after 10 to 15 days.
We uncover a new channel for spillovers of funding dry-ups. The 2016 US money market fund (MMF) reform exogenously reduced unsecured MMF funding for some banks. We use novel data to trace those banks to a platform for corporate deposit funding. We show that intensified competition for corporate deposits spilled the funding squeeze over to other banks with no MMF exposure. These banks paid more for deposits, and their pool of funding providers deteriorated. Moreover, their lending volumes and margins declined, and their stocks underperformed. Our results suggest that banks' competitiveness in funding markets affect their competitiveness in lending markets.
Spillovers of PE investments
(2022)
In this paper, we investigate a primary potential impact of leveraged buyout (LBOs) transactions: the effects of LBOs on the peers of the LBO target in the same industry. Using a data sample based on US LBO transactions between 1985 and 2016, we investigate the impact of the peer firms in the aftermath of the transaction, relative to non-peer firms. To account for potential endogeneity concerns, we employ a network-based instrumental variable approach. Based on this analysis, we find support for the proposition that LBOs do indeed matter for peer firms’ performance and corporate strategy relative to non-peer firms. Our study supports a learning factor hypothesis: peers gain by learning from the LBO target to improve their operational performance. Conversely, we find no evidence to support the conjecture that peers lose due to the increased competitiveness of the LBO target firm.
The equity trading landscape all over the world has changed dramatically in recent years. We have witnessed the advent of new trading venues and significant changes in the market shares of existing ones. We use an extensive panel dataset from the European equity markets to analyze the market shares of five categories of lit and dark trading mechanisms. Market design features, such as minimum tick size, immediacy and anonymity; market conditions, such as liquidity and volatility; and the informational environment have distinct implications for order routing decisions and trading venues' resulting market shares. Furthermore, these implications differ distinctly for small and large trades, probably because traders jointly optimize their trade size and venue choice. Our results both confirm and go beyond current theoretical predictions on trading in fragmented markets.
Das achte der von Schumann unter dem Namen "Dichterliebe" zusammengefaßten und vertonten Heine-Gedichte – "Und wüßten's die Blumen, die kleinen" – soll im folgenden einer Teilanalyse unterzogen werden. Wenn damit auch ein kleiner Beitrag zu dem im Rahmen einer semiotischen Theorie zu behandelnden allgemeinen Problem der Systembeziehungen zwischen Sprache und Musik geleistet werden soll, indem einer solchen Theorie in einer empirischen Untersuchung voranalysiertes Material zur Verfügung gestellt wird, so steht im Mittelpunkt des Interesses doch bloß jenes Lied für sich. Dies bedingt eine Verlagerung des Gesichtspunktes, unter dem das genannte Problem gesehen wird, vom System auf die Struktur, im Hjelmslev'schen Sinne. Die strukturellen Eigenschaften von Heines Gedicht werden verglichen mit denen von Schumanns Vertonung, es werden Beziehungen zwischen dem textuellen und dem musikalischen Ablauf aufgedeckt.
Das Ziel dieser Arbeit besteht zunächst darin, in einem 1. Teil das Phänomen 'Zahlklassifikator' zu explizieren und an Beispielen – vornehmlich aus den Sprachen Südostasiens – zu erläutern. Im 2. Teil werden dann Sprachen Ozeaniens und Mayasprachen Mittelamerikas, die nicht als 'typische' Klassifikatorsprachen gelten, dargestellt und anhand der im 10 Teil entwickelten Begriffe, diskutiert. Den Ausgangspunkt der Überlegungen bildet die Arbeit von Greenberg (1972) über Zahlklassifikatoren, deren Thesen im 1. Teil dargestellt und kommentiert werden. Die theoretische Grundlage dieser Arbeit ist die Universalienkonzeption, wie sie dem Kölner Forschungsprojekt für Universalien und Typologie (UNITYF) zugrunde liegt. Der besondere Rahmen, in dem die Bearbeitung dieses Themas steht, ist die Dimension der 'Individuation', bei der es um Prozesse zur 'Erfassung von Gegenständen' geht. (Zu den theoretischen Grundlagen von UNITYF und dem Begriff der Dimension siehe Seiler (1977 (a) und (b).)
In nur wenigen Jahren wird die Euopäische Union um eine Gruppe osteuropäischer Staaten erweitert werden. Diese Erweiterung birgt Chancen und Risiken. Die Chancen liegen unter anderem in der Erweiterung der Märkte und gegenseitigen Handelsbeziehungen. Voraussetzung hierfür ist allerdings gegenseitiges Verständnis im doppelten Sinn dieses Wortes. Wenn die Menschen sich nicht verstehen, werden auch neue Möglichkeiten nicht genutzt werden können, wenn die Wirtschaft nicht die richtige Sprache findet, kann sie nichts verkaufen. Für alle wirtschaftlichen, kulturellen und gesellschaftlichen Bereiche ist eine funktionierende verbale Kommunikation unerläßlich. Wie viel mehr gilt dies für grenzüberschreitende Beziehungen. Die Erweiterung der EU wird nur dann in eine Integration der neuen Kandidaten münden können, wenn die Verständigung zwischen allen Beteiligten gesichert ist. In dem vorliegenden Bändchen weisen die Autoren nach, dass nur durch Sprachkultur und eine einschlägige Forschung, die auch die kulturspezifischen Konnationen mit berücksichtigt, eine interkulturelle Sprachkompetenz erworben werden kann. In der Sprachenvielfalt eines vereinten Europa wird eine solche Kompetenz mehr denn je gefragt sein. Welche Wege uns diesem Ziel näher bringen und welche Möglichkeiten die deutsche Sprache hat, der wachsenden Sprachkonkurrenz international zu begegnen, das ist die Fragestellung der hier publizierten Studien, die dazu eine Fülle von Vorschlägen, Empfehlungen und Anregungen beisteuern. Die Arbeiten sind Ergebnisse des forost-Projektes "Sprachkultur und Sprachkultivierung in Osteuropa – ein paradigmatischer Vergleich", das sich innerhalb der Gruppe III des Forschungsverbundes "Nationale Identität, ethnischer Pluralismus und internationale Beziehungen" dieser Thematik gewidmet hat.
Das Dakota besitzt eine Überfülle von Elementen, die auf Lokalität referieren. Neben einer geringeren Zahl von Präfixen und Suffixen gibt es Schätzungsweise 3000 Lokaladverbien und Postpositionen (davon wurden für diese Arbeit etwa 800 berücksichtigt). Die fünf Demonstrativpronominia werden zur Bildung einer Vielzahl von Adverbien herangezogen. Daneben weisen die Verben, vor allem die Bewegungsverben, einen starken Bezug zur Lokalität auf. Fast jede, wie auch immergeartete Handlung wird in Bezug auf die lokale Situation, in der sie abläuft, gesehen. Dieser Lokalitätsbezug ist entweder lexikalisiert oder wird durch Affixe hergestellt [...] Im folgenden werden die lokaien Relatoren des Dakota. untersucht. Die lokalen Relatoren stellen eine lokale Beziehung zwischen zwei Nomina her.
'Sprachstandstest Russisch für mehrsprachige Kinder' ist ein linguistisch und psycholinguistisch fundiertes Sprachstandsscreening für bilingual russisch-deutsche Kinder im Vorschul- und Frühschulalter. Es ermöglicht die Einschätzung des Sprachstands im Russischen, auf der Basis vorläufiger Normen, zu wissenschaftlichen, therapeutischen und pädagogischen Zwecken.
Der Test sollte von kompetenten, im Idealfall muttersprachlichen Sprechern des Russischen durchgeführt werden. Die Durchführungsdauer beträgt ca. 60 Minuten.
'Sprachstandstest Russisch' überprüft die Fähigkeiten bilingualer Kinder im Russischen in folgenden Bereichen:
- produktives und rezeptives Lexikon für Verben und Nomen
- Produktion morphologischer Markierungen an Verben (Verbflexion 1. und 2. Person Singular Präsens) und Nomen (Kasus Akkusativ und Dativ Singular)
- Verständnis grammatischer Strukturen auf Satzebene
Zur Interpretation der Testergebnisse werden vorläufige bilinguale Normdaten zur Verfügung gestellt. Sie basieren auf einer Stichprobe von insgesamt 167 deutsch-russisch aufwachsenden Kindern von drei bis sechs Jahren.
Zusätzlich zum Test zur Feststellung der sprachlichen Kompetenzen enthält 'Sprachstandstest Russisch' einen Fragebogen, der die detaillierte Inputsituation sowie die bisherige sprachliche und nichtsprachliche Entwicklung des Kindes erfasst. Der Fragebogen ist russisch-deutsch verfasst und wird von den Eltern durch Ankreuzen ausgefüllt.
Historical scholarship on the sixteenth-century neo-scholastic debate about American Indians generally centers on the thought of Francisco de Vitoria. Focusing on Alfonso de Castro’s short treatise Utrum indigenae (1543), this paper challenges both an exclusive concentration on Vitoria as well as the received contention that the thought of the School of Salamanca rendered a single, unified view of Amerindians. In Utrum indigenae, Castro argued that American Indians should be instructed in liberal arts and theology thus constructing a strikingly different image of the peoples of the New World as compared to accounts by Vitoria or Francisco Suárez. While the historian Martin Nesvig has recently proposed an Erasmian humanist contextualization of Castro’s treatise, I argue that the image of American Indians presented in Utrum indigenae testifies to an alternative, novel way of writing about American Indians from within the framework of the School of Salamanca which has so far remained unnoticed.
Dieser Artikel behandelt das Zusammenspiel von staatlich organisierten sozialen Sicherungssystemen und der privaten Eigenvorsorge durch Vermögensbildung als Grundpfeiler der sozialen Marktwirtschaft in Deutschland. Die jährlichen Ausgaben der verschiedenen staatlichen Sicherungssysteme belaufen sich auf rund ein Drittel des erwirtschafteten Bruttosozialprodukts, wobei die umlagefinanzierten Alterssicherungssysteme für die Arbeitsnehmer den größten Anteil ausmachen. Sachvermögen in Form von selbst genutzten Wohnungen sowie Finanzvermögen in Form von Bankeinlagen und Ansprüche gegen private Versicherungen machen den größten Anteil der Eigenversorge aus. Aufgrund des niedrigen Zinsniveaus sowie des demografischen Wandels der Gesellschaft wird die Eigenvorsorge durch Anlagen an den internationalen Wertpapiermärkten sowohl für Selbständige als auch Arbeitsnehmer immer bedeutender.
Der Beitrag analysiert die Voraussetzungen für stabiles Geld und setzt sich dabei grundlegend mit Hayeks Thesen zu alternativen Währungssystemen sowie dessen fundamentaler Kritik an der Möglichkeit zur Gestaltung der Geldpolitik auf wissenschaftlicher Basis auseinander. Er prüft Hayeks Vorschlag zur Entnationalisierung des Geldes und seine Thesen zur Überlegenheit des im privaten Wettbewerb geschaffenen Geldes. In diesem Zusammenhang schlägt der Beitrag einen Bogen zur aktuellen Diskussion über Kryptowährungen und wirft die Frage auf, ob virtuelle Währungen wie etwa Bitcoin geeignet sind, den Hayekschen Währungswettbewerb zu entfalten. Sodann wird im Gegensatz zu Hayeks Forderung nach einer Abschaffung der Zentralbanken deren entscheidende Rolle für anhaltendes Wachstum bei stabilen Preisen skizziert und die Wichtigkeit der Unabhängigkeit von Notenbanken für die dauerhafte Durchführung einer stabilitätsorientierten Geldpolitik hervorgehoben. Gleichwohl ergeht der Hinweis, dass Notenbanken mit der Überschreitung ihres Mandats auf lange Sicht gesehen selbst den Status ihrer Unabhängigkeit unterminieren können und damit die Rückübertragung der Kompetenz für zentrale geldpolitische Entscheidungen auf Regierung und Parlament provozieren. Die Gefahren der weitgehenden Unabhängigkeit einiger weniger an der Spitze der Notenbanken anerkennend wird anschließend die Bedeutung ihrer Rechenschaftspflicht und Transparenz ihrer Entscheidungen unterstrichen.
Inhalt: Prof. Dr. Helmut Siekmann : Stellungnahme für die öffentliche Anhörung des Haushalts- und Finanzausschusses des Landtags Nordrhein-Westfalen am 29. Oktober 2009 Gesetzentwurf der Landesregierung NRW : LANDTAG NORDRHEIN-WESTFALEN 14. Wahlperiode - Drucksache 14/9380 - 10.06.2009 Gesetz über die Feststellung eines zweiten Nachtrags zum Haushaltsplan des Landes Nordrhein-Westfalen für das Haushaltsjahr 2009 und zur Änderung des Gesetzes zur Errichtung eines Fonds für eine Inanspruchnahme des Landes Nordrhein-Westfalen aus der im Zusammenhang mit der Risikoabschirmung zugunsten der WestLB AG erklärten Garantie (Zweites Nachtragshaushaltsgesetz 2009) - Auszug Ergänzung der Landesregierung NRW zu dem Gesetzentwurf der Landesregierung - Drucksache 14/9380 (Zweites Nachtragshaushaltsgesetz 2009) - Drucksache 14/9510 – 01.07.2009 - Auszug Zweite Ergänzung der Landesregierung zu dem Gesetzentwurf der Landesregierung - Drucksachen 14/9380 und 14/9510 (1. Ergänzung) - Drucksache 14/9910 – 02.10.2009 - Auszug
Stability maintenance at the grassroots: China’s weiwen apparatus as a form of conflict resolution
(2013)
This working paper explores the history and potential of “stability maintenance” (weiwen) as a form of conflict resolution in China. Its emphasis on conflict resolution is novel. Previous examinations of the weiwen apparatus have concentrated on its political function, namely to manage resistance within society and maintain the authority of the party-state. This avenue of investigation has proved fruitful as a means of characterising the political motivation and the higher-level strategies involved in stability maintenance. Nonetheless, there remain significant conceptual and empirical gaps relating to how stability maintenance offices and processes actually function, particularly out of larger cities and at local levels. The research described in this paper aims to consider the effectiveness of stability maintenance as a part of the “market” for conflict resolution in local China, and to test the hypothesis that conflict resolution as facilitated by weiwen is the most pragmatic and effective means of actually resolving conflicts in the current Chinese political context, notwithstanding the closeness of the stability maintenance discourse to state authority and its relative distance from rule of law-based methods of dispute resolution...
Die Analyse von Entwicklungstendenzen der personellen Einkommensverteilung in der Bundesrepublik Deutschland hat ein hohes Maß an Stabilität ergeben. Trotz vielfältiger gesamtwirtschaftlicher und sozialer Wandlungsprozesse während des einbezogenen Vierteljahrhunderts (1962/63 bis 1988) deuten aggregierte Verteilungsmaße auf der Basis von Mikrodaten der Einkommens- und Verbrauchsstichproben (EVS) sehr mäßige Veränderungen der Verteilung der Nettoäquivalenzeinkommen an. Der sich zunächst abzeichnende leichte Trend zu verminderter Ungleichverteilung kehrte sich im letzten Jahrzehnt des Beobachtungszeitraums wieder um, so daß die meisten Verteilungsindikatoren 1988 wieder nahe den Werten zu Beginn der siebziger Jahre lagen. Zwischen 1978 und 1983 scheint sich insbesondere die Situation der untersten Schichten verschlechtert zu haben, wie die Entwicklung des Atkinson-Index bei hoher Ungleichheitsaversion, des Theil-Index und der Armutsquote - bei einer relativen Armutsgrenze von 50% des durchschnittlichen Nettoäquivalenzeinkommens - belegen. Ein Vergleich der Verteilungsentwicklung auf verschiedenen Stufen des Verteilungsprozesses zeigt, daß sich die primäre und die sekundäre Verteilung tendenziell auseinanderentwickelt haben. Beispielsweise ist der Gini-Koeffizient der Faktoräquivalenzeinkommen im Untersuchungszeitraum um 7% gestiegen, der der Nettoäquivalenzeinkommen um 11% gesunken. Das soziale Sicherungssystem scheint sich im Untersuchungszeitraum also im großen und ganzen bewährt zu haben. Dennoch deuten sich neuerdings wieder zunehmende Verteilungsprobleme und sozialpolitische Problemfelder an. Abgesehen von dem allgemeinen Anstieg der Armutsquote in den achtziger Jahren und der nach wie vor ungünstigen Position der (vollständigen) Familien mit mehreren Kindern zeigt sich insbesondere bei den Alleinerziehenden eine alarmierende Entwicklung. Ihre durchschnittliche Wohlstandsposition erreichte 1988 nur noch ca. vier Fünftel (Alleinerziehende mit einem Kind) bzw. drei Fünftel (Alleinerziehende mit mehreren Kindern) des durchschnittlichen Nettoäquivalenzeinkommens insgesamt. Die relativen Positionen der anderen Haushalts- bzw. Familientypen haben sich im Zeitablauf tendenziell eher dem Gesamtdurchschnitt angenähert, so daß eine Dekomposition von Verteilungsindikatoren eine eindeutige und anhaltende Dominanz der Intra-Gruppen-Ungleichheit gegenüber der Ungleichverteilung zwischen den Haushaltstypen ergibt (ca. 90% der insgesamt gemessenen Ungleichheit). Auch in der Differenzierung nach der sozialen Stellung des Haushaltsvorstands überwiegt die Intra-Gruppen-Ungleichheit die Inter-Gruppen-Komponente der Einkommensungleichverteilung um ein Vielfaches, und zwar in deutlich zunehmendem Maß. Eine zielgerichtete Sozial- und Verteilungspolitik sollte also nicht an traditionellen Kategorien bzw. Schichtmerkmalen - z.B. Arbeiterschicht versus Unternehmerschicht - anknüpfen, sondern die komplexen Einflußfaktoren, die die materielle Situation von Haushalten determinieren, und damit die Heterogenität von eindimensional abgegrenzten Gruppen berücksichtigen. Darüber hinaus hat die Untersuchung auf der Basis der EVS-Datenbank gezeigt, daß sich hinter einer insgesamt recht stabilen Einkommensverteilung vielfältige, sich kompensierende Einzelentwicklungen verbergen, die in der Sozial- und Familienpolitik beachtet werden sollten.
We consider the advantages and disadvantages of stakeholder-oriented firms that are concerned with employees and suppliers as well as shareholders compared to shareholder-oriented firms. Societies with stakeholder-oriented firms have higher prices, lower output, and can have greater firm value than shareholder-oriented societies. In some circumstances, firms may voluntarily choose to be stakeholder-oriented because this increases their value. Consumers that prefer to buy from stakeholder firms can also enforce a stakeholder society. With globalization entry by stakeholder firms is relatively more attractive than entry by shareholder firms for all societies. JEL Classification: D02, D21, G34, L13, L21
Stakeholderorientierung, Systemhaftigkeit und Stabilität der Corporate Governance in Deutschland
(2006)
Since the time of Germany’s belated industrialisation, corporate governance in Germany has been stakeholder oriented in the dual sense of attaching importance to the interests of stakeholders who are not at the same time shareholders, and of providing certain opportunities for these stakeholders to influence corporate decisions. Corporate governance is also systemic. It is a system of elements that are complementary to each other, and also consistent. In other word, it is composed of elements for which it is important that they fit together well, and in the German case these elements did fit together well until quite recently. Corporate governance as a system is itself an element of the German bank-based financial system at large and possibly even of the entire German business and economic system. Stakeholder orientation of governance is consistent with the general structure this system, and even represents one of its central elements. In retrospect, German corporate governance has also proved to be surprisingly stable. Its fundamental traits date back to the turn from the 19th to the 20th century. There are strong reasons to assume that the systemic features, that is, its complementarity and consistency, have greatly contributed to its past stability. Since about ten years now, there are growing tendencies to question the viability and stability of the German corporate governance system and even the financial system as a whole. One of the central topics in the new debate concerns the stakeholder orientation of the system, which some observers and critics consider as the main weakness of the “German model” under the increasing pressures of globalisation and European integration. As far as their development over time is concerned, systems of complementarity elements exhibit certain peculiarities: (1) They do not adjust easily to changing circumstances. (2) Changes concerning important individual elements, such as the stakeholder orientation of governance, tend to jeopardize the viability and the stability of the entire system. (3) While they appear to be stable, systems shaped by complementary may simply be rigid and tend to break under strong external pressure. “Breaking” means that a system undergoes a fundamental transformation. It seems plausible to assume that the German financial system is already in the middle of such a transformation. It is yet another consequence of its systemic character that this transformation is not likely to be a smooth and gradual process and that it will not lead to a “mixed model” but rather to the adoption of a capital market-based financial system as it prevails in the Anglo-Saxon countries. In such a system, corporate governance cannot be geared to catering to the interests of stakeholders, and an active role for them would not even make any economic sense.
We propose a new approach to measuring the effect of unobservable private information or beliefs on volatility. Using high-frequency intraday data, we estimate the volatility effect of a well identified shock on the volatility of the stock returns of large European banks as a function of the quality of available public information about the banks. We hypothesise that, as the publicly available information becomes stale, volatility effects and its persistence should increase, as the private information (beliefs) of investors becomes more important. We find strong support for this idea in the data. We argue that the results have implications for debate surrounding the opacity of banks and the transparency requirements that may be imposed on banks under Pillar III of the New Basel Accord.
Diese Arbeit gibt einen Überblick der Konzeption und der Evaluation der Aktiven Arbeitsmarktpolitik (AAMP) in Deutschland. Die rechtliche Grundlage der AAMP stellte von 1969 bis 1997 das Arbeitsförderungsgesetz (AFG) dar. 1998 wurde dieses durch das Sozialgesetzbuch (SGB) III abgelöst. Während das AFG noch unter Bedingungen der Vollbeschäftigung eingeführt wurde und auch eine generelle Verbesserung der Funktionsweise des Arbeitsmarktes vorsah, erfolgte im Zeitablauf eine stärkere Ausrichtung der AAMP auf die Wiedereingliederung von Problemgruppen in den Arbeitsmarkt. Das SGB III stellt die Eingliederung von Arbeitslosen in reguläre Beschäftigung in den Mittelpunkt. Obwohl das SGB III in Ansätzen eine Erfolgskontrolle der AAMP vorsieht und trotz der hohen fiskalischen Kosten (43 Mrd. DM im Jahr 2001) fehlt bisher eine umfassende Evaluation der Wirkungen der AAMP unter Berücksichtigung der Kosten. Die Arbeit stellt die grundlegenden methodischen Probleme einer aussagekräftigen Evaluation dar. Die mikroökonomische Evaluation untersucht, ob die Teilnahme an einem arbeitsmarktpolitischen Programm zu einem Erfolg im Hinblick auf individuelle Zielgrößen wie Beschäftigung oder Verdienst führt.
The assumption that mankind is able to have an in uence on global or regional climate, respectively, due to the emission of greenhouse gases, is often discussed. This assumption is both very important and very obscure. In consequence, it is necessary to clarify definitively which meteorological elements (climate parameters) are in uencend by the anthropogenic climate impact, and to which extent in which regions of the world. In addition, to be able to interprete such an information properly, it is also necessary to know the magnitude of the different climate signals due to natural variability (for example due to volcanic or solar activity) and the magnitide of stochastic climate noise. The usual tool of climatologists, general circulation models (GCM) suffer from the problem that they are at least quantitatively uncertain with regard to the regional patterns of the behaviour of climate elements and from the lack of accurate information about long-term (decadal and centennial) forcing. In contrast to that, statistical methods as used in this study have the advantage to test hypotheses directly based on observational data. So, we focus to the very reality of climate variability as it has occurred in the past. We apply two strategies of time series analyis with regard to the observed climate variables under consideration. First, each time series is splitted into its variation components. This procedure is called 'structure-oriented time series separation'. The second strategy called 'cause-oriented time series separation' matches various time series representing various forcing mechanisms with those representing the climate behaviour (climate elements). In this way it can be assessed which part of observed climate variability can be explained by this (combined) forcing and which part remains unexplained.
Asset transaction prices sampled at high frequency are much staler than one might expect in the sense that they frequently lack new updates showing zero returns. In this paper, we propose a theoretical framework for formalizing this phenomenon. It hinges on the existence of a latent continuous-time stochastic process pt valued in the open interval (0; 1), which represents at any point in time the probability of the occurrence of a zero return. Using a standard infill asymptotic design, we develop an inferential theory for nonparametrically testing, the null hypothesis that pt is constant over one day. Under the alternative, which encompasses a semimartingale model for pt, we develop non-parametric inferential theory for the probability of staleness that includes the estimation of various integrated functionals of pt and its quadratic variation. Using a large dataset of stocks, we provide empirical evidence that the null of the constant probability of staleness is fairly rejected. We then show that the variability of pt is mainly driven by transaction volume and is almost unaffected by bid-ask spread and realized volatility.
The assumption that mankind is able to have an in uence on global or regional climate, respectively, due to the emission of greenhouse gases, is often discussed. This assumption is both very important and very obscure. In consequence, it is necessary to clarify definitively which meteorological elements (climate parameters) are in uencend by the anthropogenic climate impact, and to which extent in which regions of the world. In addition, to be able to interprete such an information properly, it is also necessary to know the magnitude of the different climate signals due to natural variability (for example due to volcanic or solar activity) and the magnitide of stochastic climate noise. The usual tool of climatologists, general circulation models (GCM) suffer from the problem that they are at least quantitatively uncertain with regard to the regional patterns of the behaviour of climate elements and from the lack of accurate information about long-term (decadal and centennial) forcing. In contrast to that, statistical methods as used in this study have the advantage to test hypotheses directly based on observational data. So, we focus to the very reality of climate variability as it has occurred in the past. We apply two strategies of time series analyis with regard to the observed climate variables under consideration. First, each time series is splitted into its variation components. This procedure is called 'structure-oriented time series separation'. The second strategy called 'cause-oriented time series separation' matches various time series representing various forcing mechanisms with those representing the climate behaviour (climate elements). In this way it can be assessed which part of observed climate variability can be explained by this (combined) forcing and which part remains unexplained.
Für eine möglichst vollständige analytische Beschreibung werden in der statistischen Klimatologie beobachtete Klimazeitreihen als Realisation eines stochastischen Prozesses, das heißt als eine Folge von Zufallsvariablen verstanden. Die Zeitreihe soll im wesentlichen durch eine analytische Funktion der Zeit beschrieben werden können und die Beobachtung nur durch Zufallseinflüsse von dieser Funktion abweichen. Diese analytische Funktion setzt sich aus der Summe zeitlich strukturierter Komponenten zusammen, welche aus klimatologischem Blickwinkel interpretierbar erscheinen. Es werden Funktionen zugelassen, die den Jahresgang, Trends, episodische Komponenten und deren Änderung beschreiben. Die Extremereignisse sind als eine besondere weitere Komponente in die Zeitreihenanalyse aufgenommen und als von Änderungen in den Parametern der Verteilung unabhängige, extreme Werte definiert. Die Zufallseinflüsse sollen zunächst als Realisierungen unabhängiger normalverteilter Zufallsvariablen mit dem Erwartungswert Null und im Zeitablauf konstanter Varianz interpretiert werden können. In diesem Fall beschreibt die analytische Funktion der Zeit, die Summe detektierter strukturierter Komponenten, den zeitlichen Verlauf des Mittels. Ein zu einem bestimmten Zeitpunkt tatsächlich beobachteter Wert kann dann als eine mögliche Realisation einer Zufallsvariablen interpretiert werden, die der Gaußverteilung mit dem Mittelwert µ(t) zur Zeit t und konstanter Varianz genügt. Da die zugrundeliegenden Annahmen, unter Verwendung klimatologisch interpretierbarer Basisfunktionen, in der Analyse von Klimazeitreihen, die nicht die Temperatur betreffen, zumeist nicht erfüllt sind, wird in eine Verallgemeinerung des Konzepts der Zeitreihenzerlegung in einen deterministischen und einen statistischen Anteil eingeführt. Zeitlich strukturierte Änderungen werden nun in verschiedenen Verteilungsparametern frei wählbarer Wahrscheinlichkeitsdichtefunktionen gesucht. Die gängige Beschränkung auf die Schätzung einer zeitlich veränderlichen Lokation wird aufgehoben. Skalenschätzer sowie Schätzer fär den Formparameter spielen ebenso relevante Rollen fär die Beschreibung beobachteter Klimavariabilität. Die Klimazeitreihen werden wieder als Realisation eines Zufallprozesses verstanden, jedoch genügen die Zufallsvariablen nun einer frei wählbaren Wahrscheinlichkeitsdichtefunktion. Die zeitlich strukturierten Änderungen in den Verteilungsparametern werden auf Basis der gesamten Zeitreihe für jeden Zeitpunkt geschätzt. Die aus der Analyse resultierende analytische Beschreibung in Form einer zeitabhängigen Wahrscheinlichkeitsdichtefunktion ermöglicht weiterhin die Schätzung von Über- und Unterschreitungswahrscheinlichkeiten beliebig wählbarer Schwellenwerte für jeden Zeitpunkt des Beobachtungszeitraums. Diese Methode erlaubt insbesondere eine statistische Modellierung monatlicher Niederschlagsreihen durch die Zerlegung in einen deterministischen und einen statistischen Anteil. In dem speziellen Fall von 132 Reihen monatlicher Niederschlagssummen deutscher Stationen 1901-2000 gelingt eine vollständige analytische Beschreibung der Reihen durch ihre Interpretation als Realisation einer Gumbel-verteilten Zufallsvariablen mit variablem Lage- und Streuparameter. Auf Basis der gewonnenen analytischen Beschreibung der Reihen kann beispielsweise im Westen Deutschlands auf Verschiebungen der jährlichen Überschreitungsmaxima des 95%-Perzentils von den Sommer- in die Wintermonate geschlossen werden. Sie werden durch relativ starke Anstiege in der Überschreitungswahrscheinlichkeit (bis 10%) in den Wintermonaten und nur geringe Zunahmen oder aber Abnahmen in den Sommermonaten hervorgerufen. Dies geht mit einer Zunahme der Unterschreitungswahrscheinlichkeit in den Winter- und einer Abnahme in den Sommermonaten einher. Monte-Carlo-Simulationen zeigen, daß jahreszeitlich differenzierte Schätzungen von Änderungen im Erwartungswert, also gebräuchliche Trends, auf Basis der Kleinst-Quadrate-Methode systematischen Bias und hohe Varianz aufweisen. Eine Schätzung der Trends im Mittel auf Basis der statistischen Modellierung ist somit ebenso den Kleinst-Quadrate-Schätzern vorzuziehen. Hinsichtlich der Niederschlagsanalysen stellen jedoch aride Gebiete, mit sehr seltenen Niederschlägen zu bestimmten Jahreszeiten, die Grenze der Methode dar, denn zu diesen Zeitpunkten ist eine vertrauenswürdige Schätzung einer Wahrscheinlichkeitsdichtefunktion nicht möglich. In solchen Fällen ist eine grundsätzlich andere Herangehensweise zur Modellierung der Reihen erforderlich.
Inhalt: Prof. Dr. Helmut Siekmann : Stellungnahme für die öffentliche Anhörung des Ausschusses für Wirtschaft, Mittelstand und Energie und des Haushalts- und Finanzausschusses des Landtags Nordrhein-Westfalen Keine Hilfe für Banken ohne einen neuen Ordnungsrahmen für die Finanzmärkte Stellungnahme 14/2328 Antrag der Fraktion Bündnis 90/Die Grünen : Keine Hilfe für Banken ohne einen neuen Ordnungsrahmen für Finanzmärkte Drucksache 14/7680 Fragenkatalog zur Anhörung von Sachverständigen am 04. Februar 2009 zum Antrag der Fraktion Bündnis90/Die Grünen Tableau Anhörung von Sachverständigen 57. Sitzung des Ausschusses für Wirtschaft, Mittelstand und Energie 85. Sitzung des Haushalts- und Finanzausschusses am Mittwoch, dem 4. Februar 2009
Inhalt: Prof. Dr. Helmut Siekmann : Stellungnahme für die öffentliche Anhörung des Haushaltsausschusses zu dem Gesetzentwurf der Fraktion der SPD und Bündnis 90/Die Grünen für ein Gesetz zur Änderung der Hessischen Landeshaushaltsordnung Gesetzentwurf der Fraktionen der SPD und Bündnis 90/Die Grünen für ein Gesetz zur Änderung der Hessischen Landeshaushaltsordnung (LHO) : Drucksache 17/265 Liste der Anzuhörenden im Haushaltsausschuss : am 17.09.2008 zur Drucksache 17/265
Die Stellungnahme bezieht sich auf die aktuellen Formulierungsvorschläge für Änderungen am DCGK für börsennotierte deutsche Aktiengesellschaften aus den Plenarsitzungen der Regierungskommission vom 9. Januar und 31. Januar 2013. Der Text enthält zudem Anmerkungen zur Aufsichtsratvergütung, zur Besetzung des Prüfungsausschusses mit Financial Experts, zu Fragen der Mitbestimmung und zu Möglichkeiten der Bündelung der Corporate Governance Berichterstattung.
Die deutsche Steuerpolitik kombiniert hohe Steuersätze mit zahlreichen Ausnahmen. Das reißt Gerechtigkeitslücken, lenkt Investitionen in die falschen Zwecke und verkompliziert das Steuersystem mitunter bis zur Unkenntlichkeit. Bei der Erbschaftsteuer ist dies besonders augenfällig. Der Versuch mit minimalinvasiven Korrekturen Konsistenz in die Erbschaft- und Schenkungsteuer zu bringen ist fast zwangsläufig zum Scheitern verurteilt. Vieles spricht stattdessen für deutlich abgesenkte Steuersätze und eine gleichzeitige Abschaffung der Vergünstigungen für Betriebsvermögen.
Der Entwurf eines Lebensversicherungsreformgesetz der Bundesregierung vom 04.06.2014 adressiert die Folgen der derzeitigen Niedrigzinsphase für Lebensversicherungunternehmen und Lebensversicherte. Helmut Gründl kommentiert die vorgeschlagene Regelung zu den Bewertungsreserven, die Regelung zur Ausschüttungssperre sowie die Regelung zum Höchstzillmersatz. Der Beitrag konzentriert sich auf die Auswirkungen der Vorschläge auf die Renditeerwartungen des Kollektivs der Versicherungsnehmer sowie auf die Anreize potentieller Eigenkapitalgeber, sich an Versicherungsunternehmen zu beteiligen.
Als geladener Sachverständiger argumentierte Martin Götz bei der öffentlichen Anhörung des Finanzausschusses des Deutschen Bundestags und in seiner vorliegenden Stellungnahme, dass durch die zügige Umsetzung der Richtlinie 2014/59/EU die Selbstregulierung von Kreditinstituten und Wertpapierfirmen weiter gestärkt wird und das aufsichtsrechtliche Instrumentarium um marktorientierte Mechanismen ausgebaut wird. Er erwartet, dass das Umsetzungsgesetz die Finanzstabilität in Deutschland fördert. Positiv sei insbesondere die Ausgestaltung der Möglichkeit einer verpflichtenden Gläubigerbeteiligung („Bail-in“) im Rahmen der Abwicklung, da der Bail-in nicht nur Fragen der Privathaftung im Abwicklungsfall klärt, sondern auch gute Anreize zur Selbstregulierung von Kreditinstituten setzt. Den Verzicht auf die Umsetzung der in der Abwicklungsrichtlinie enthaltenen staatlichen Stabilisierungsmöglichkeiten bewertet er als positiv und sieht darin einen wichtigen Baustein zur Förderung der Selbstregulierung von Finanzinstituten. Die Verlängerung der Laufzeit des Finanzmarktstabilisierungsfonds sei problematisch, da die explizite Möglichkeit einer staatlichen Hilfe dem Anreiz zur Selbstregulierung von Finanzinstituten entgegensteht.
Zusammenfassung - Das Kernanliegen des KredReorgG –die Internalisierung des systemischen Risikos in den Entscheidungsprozess und die Verantwortlichkeit von Bankeignern und –gläubigern – wird im Wesentlichen erreicht. - Die Wirksamkeit des Gesetzes steht und fällt mit der Möglichkeit, jede Bank in systemisch relevante (zu rettende) und systemisch nicht-relevante (abzuwickelnde) Teile zu zerlegen. Dieser Ansatz ist Ziel führend und international „state of the art“ (Bsp. UK). - Unsere Hauptkritik: Um die o.g. Wirksamkeit des Gesetzes überhaupt zu ermöglichen (und eine Unterlaufung der Gesetzesintention zu verhindern), bedarf es einer zusätzlichen und zwingenden Vorgabe, dass jede Bank eine Mindestmenge an Anleihen außerhalb des Kern-Finanzsektors dauerhaft platzieren muss, und dass diese Anleihen zu keinem Zeitpunkt von Banken erworben werden dürfen. - Um dies zu erreichen sind die Anlagevorschriften für Kapitalsammelstellen (Lebensversicherer, Pensionsfonds) und für Banken entsprechend zu ändern bzw. zu verschärfen. - Weitere Kritikpunkte betreffen die vermutete geringe Bedeutung der freiwilligen Verfahren (Sanierung und Reorganisation) und die Gestaltung der Sonderabgabe und der Restrukturierungsfonds.
Mittels des Gesetzes zur zusätzlichen Aufsicht über beaufsichtigte Unternehmen eines Finanzkonglomerats (Konglomerate, die aus mehreren Unternehmen aus verschiedenen Finanzmarktsektoren bestehen, beispielsweise aus dem Bankensektor und dem Versicherungssektor) sollen Regelungslücken geschlossen werden, die insbesondere die Gefahr betreffen, die sich aus der „Ansteckung“ einzelner Finanzkonglomerats-Unternehmen ergeben. Die vorliegende Stellungnahme weist auf eine Inkonsistenz in der beabsichtigten Ansiedlung der Aufsichtskompetenz hin und bietet einen Vorschlag zur Präzisierung der Eigenmittelvorschriften.
Im Jahr 2014 beschäftigten sich sowohl der Deutsche Juristentag als auch die Vereinigung der Deutschen Staatsrechtslehrer mit dem Reformbedarf im Gerichtsverfassungs- bzw. (Zivil-)Prozessrecht sowie mit dem Wandel der Justiz. Das Arbeitspapier ist der methodischen Frage gewidmet, welcher Innovationen die Prozessrechtswissenschaft bedarf, um sowohl Vollzugsdefizite als auch Reformentwicklungen im Recht der Dritten Gewalt sachgerecht untersuchen zu können. Im Mittelpunkt steht die Übertragung der im Verwaltungsrecht inzwischen etablierten Perspektive der Rechtswissenschaft als Steuerungswissenschaft auf das Prozessrecht. Es wird u.a. gezeigt, dass dieser Ansatz wissenschaftsgeschichtlich anschlussfähig ist und – als Referenzbeispiel – für das Verständnis des richterlichen Verfahrensermessens ertragreich sein kann.
We present determinacy bounds on monetary policy in the sticky information model. We find that these bounds are more conservative here when the long run Phillips curve is vertical than in the standard Calvo sticky price New Keynesian model. Specifically, the Taylor principle is now necessary directly - no amount of output targeting can substitute for the monetary authority’s concern for inflation. These determinacy bounds are obtained by appealing to frequency domain techniques that themselves provide novel interpretations of the Phillips curve.
This paper uses factor-augmented vector autoregressions (FAVAR) estimated using a large data set to disentangle fluctuations in disaggregated consumer and producer prices which are due to macroeconomic factors from those due to sectorial conditions. This allows us to provide consistent estimates of the effects of US monetary policy on disaggregated prices. While sectorial prices respond quickly to sector-specific shocks, we find that for a large number of price series, there is a significant delay in the response of prices to monetary policy shocks. In addition, price responses display little evidence of a “price puzzle,” contrary to existing studies based on traditional VARs. The observed dispersion in the reaction of producer prices is relatively well explained by the degree of market power, as predicted by models with monopolistic competition. JEL Classification: E32, E52
In this paper, we examine the cost of insurance against model uncertainty for the Euro area considering four alternative reference models, all of which are used for policy-analysis at the ECB.We find that maximal insurance across this model range in terms of aMinimax policy comes at moderate costs in terms of lower expected performance. We extract priors that would rationalize the Minimax policy from a Bayesian perspective. These priors indicate that full insurance is strongly oriented towards the model with highest baseline losses. Furthermore, this policy is not as tolerant towards small perturbations of policy parameters as the Bayesian policy rule. We propose to strike a compromise and use preferences for policy design that allow for intermediate degrees of ambiguity-aversion.These preferences allow the specification of priors but also give extra weight to the worst uncertain outcomes in a given context. JEL Klassifikation: E52, E58, E61
This study analyzes the short-term dynamic spillovers between the futures returns on the DAX, the DJ Eurostoxx 50 and the FTSE 100. It also examines whether economic news is one source of international stock return co-movements. In particular, we test whether stock market interdependencies are attributable to reactions of foreign traders to public economic information. Moreover, we analyze whether cross-market linkages remain the same or whether they do increase during periods in which economic news is released in one of the countries. Our main results can be summarized as follows: (i) there are clear short term international dynamic interactions among the European stock futures markets; (ii) foreign economic news affects domestic returns; (iii) futures returns adjust to news immediately; (iv) announcement timing of macroeconomic news matters; (v) stock market dynamic interactions do not increase at the time of the release of economic news; (vi) foreign investors react to the content of the news itself more than to the response of the domestic market to the national news; and (vii) contemporaneous correlation between futures returns changes at the time of macroeconomic releases. JEL Classification: G14, G15
We show that firm liability structure and associated cash flow matter for firm behavior, and that financial market participants price stocks accordingly. Looking at firm level stock price changes around monetary policy announcements, we find that firms that have more cash flow exposure see their stock prices affected more. The stock price reaction depends on the maturity and type of debt issued by the firm, and the forward guidance provided by the Fed. This effect has remained intact during the ZLB period. Importantly, we show that the effect is not a rule of thumb behavior outcome and that the marginal stock market participant actually studies and reacts to the liability structure of firm balance sheets. The cash flow exposure at the time of monetary policy actions predicts future net worth, investment, and assets, verifying the stock pricing decision and also providing evidence of cash flow effects on firms' real behavior. The results hold for S&P500 firms that are usually thought of not being subject to tight financial constraints.
Executive Stock Option Programs (SOPs) have become the dominant compensation instrument for top-management in recent years. The incentive effects of an SOP both with respect to corporate investment and financing decisions critically depend on the design of the SOP. A specific problem in designing SOPs concerns dividend protection. Usually, SOPs are not dividend protected, i.e. any dividend payout decreases the value of a manager’s options. Empirical evidence shows that this results in a significant decrease in the level of corporate dividends and, at the same time, into an increase in share repurchases. Yet, few suggestions have been made on how to account for dividends in SOPs. This paper applies arguments from principal-agent-theory and from the theory of finance to analyze different forms of dividend protection, and to address the relevance of dividend protection in SOPs. Finally, the paper relates the theoretical analysis to empirical work on the link between share repurchases and SOPs.
A natural experiment in which customer-owned mutual companies converted to publicly listed firms created a plausibly exogenous shock to the stock market participation status of tens of thousands of people. We find the shock changed the way people vote in the affected areas, with a 10% increase in share-ownership rate being followed by a 1.3%–3.1% increase in right-of-center vote share. The institutional details and additional tests suggest that wealth, liquidity, and tax-related incentives cannot fully explain the results. A plausible explanation is that the associated increase in the salience of stock ownership causes a shift in voters’ attention.
We study the role of various trader types in providing liquidity in spot and futures markets based on complete order-book and transactions data as well as cross-market trader identifiers from the National Stock Exchange of India for a single large stock. During normal times, short-term traders who carry little inventory overnight are the primary intermediaries in both spot and futures markets, and changes in futures prices Granger-cause changes in spot prices. However, during two days of fast crashes, Granger-causality ran both ways. Both crashes were due to large-scale selling by foreign institutional investors in the spot market. Buying by short-term traders and cross-market traders was insufficient to stop the crashes. Mutual funds, patient traders with better trade-execution quality who were initially slow to move in, eventually bought sufficient quantities leading to price recovery in both markets. Our findings suggest that market stability requires the presence of well-capitalized standby liquidity providers.
We explore the macro/finance interface in the context of equity markets. In particular, using half a century of Livingston expected business conditions data we characterize directly the impact of expected business conditions on expected excess stock returns. Expected business conditions consistently affect expected excess returns in a statistically and economically significant counter-cyclical fashion: depressed expected business conditions are associated with high expected excess returns. Moreover, inclusion of expected business conditions in otherwise standard predictive return regressions substantially reduces the explanatory power of the conventional financial predictors, including the dividend yield, default premium, and term premium, while simultaneously increasing R2. Expected business conditions retain predictive power even after controlling for an important and recently introduced non-financial predictor, the generalized consumption/wealth ratio, which accords with the view that expected business conditions play a role in asset pricing different from and complementary to that of the consumption/wealth ratio. We argue that time-varying expected business conditions likely capture time-varying risk, while time-varying consumption/wealth may capture time-varying risk aversion. Klassifikation: G12
This paper provides a joint analysis of household stockholding participation, stock location among stockholding modes, and participation spillovers, using data from the US Survey of Consumer Finances. Our multivariate choice model matches observed participation rates, conditional and unconditional, and asset location patterns. Financial education and sophistication strongly affect direct stockholding and mutual fund participation, while social interactions affect stockholding through retirement accounts only. Household characteristics influence stockholding through retirement accounts conditional on owning retirement accounts, unlike what happens with stockholding through mutual funds. Although stockholding is more common among retirement account owners, this fact is mainly due to their characteristics that led them to buy retirement accounts in the first place rather than to any informational advantages gained through retirement account ownership itself. Finally, our results suggest that, taking stockholding as given, stock location is not arbitrary but crucially depends on investor characteristics. JEL Classification: G11, E21, D14, C35