Refine
Year of publication
Document Type
- Working Paper (3389) (remove)
Language
- English (2353)
- German (1016)
- Spanish (8)
- French (7)
- Multiple languages (2)
Keywords
- Deutschland (223)
- USA (64)
- Corporate Governance (53)
- Geldpolitik (53)
- Schätzung (52)
- Europäische Union (51)
- monetary policy (47)
- Bank (41)
- Sprachtypologie (34)
- Monetary Policy (31)
Institute
- Wirtschaftswissenschaften (1498)
- Center for Financial Studies (CFS) (1471)
- Sustainable Architecture for Finance in Europe (SAFE) (805)
- House of Finance (HoF) (665)
- Rechtswissenschaft (402)
- Institute for Monetary and Financial Stability (IMFS) (214)
- Informatik (119)
- Exzellenzcluster Die Herausbildung normativer Ordnungen (75)
- Gesellschaftswissenschaften (75)
- Geographie (64)
In this paper, we consider expected value, variance and worst-case optimization of nonlinear models. We present algorithms for computing optimal expected values, and variance, based on iterative Taylor expansions. We establish convergence and consider the relative merits of policies beaded on expected value optimization and worst-case robustness. The latter is a minimax strategy and ensures optimal cover in view of the worst-case scenario(s) while the former is optimal expected performance in a stochastic setting. Both approaches are used with a macroeconomic policy model to illustrate relative performances, robustness and trade-offs between the strategies. Klassifikation: C61, E43
Market efficiency today
(2006)
This CFS Working Paper has been presented at the CFSsymposium "Market Efficiency Today" held in Frankfurt/Main on October 6, 2005. In 2004 the Center for Financial Studies (CFS) in cooperation with the Johann Wolfgang Goethe University, Frankfurt/Main established an international academic prize, which is to be known as The Deutsche Bank Prize in Financial Economics. The prize will honor an internationally renowned researcher who has excelled through influential contributions to research in the fields of finance and money and macroeconomics, and whose work has lead to practice and policy-relevant results. The Deutsche Bank Prize in Financial Economics has been awarded for the first time in October 2005. The prize, sponsored by the Stiftungsfonds Deutsche Bank im Stifterverband für die Deutsche Wissenschaft, carries a cash award of € 50,000. The prize will be awarded every two years and the prize holder will be appointed a "Distinguished Fellow" of the CFS. The role of media partner for the Deutsche Bank Prize in Financial Economics is to be filled by the internationally renowned publication, The Economist and the Handelsblatt, the leading German-language financial and business newspaper.
Using unobservable conditional variance as measure, latent-variable approaches, such as GARCH and stochastic-volatility models, have traditionally been dominating the empirical finance literature. In recent years, with the availability of high-frequency financial market data modeling realized volatility has become a new and innovative research direction. By constructing "observable" or realized volatility series from intraday transaction data, the use of standard time series models, such as ARFIMA models, have become a promising strategy for modeling and predicting (daily) volatility. In this paper, we show that the residuals of the commonly used time-series models for realized volatility exhibit non-Gaussianity and volatility clustering. We propose extensions to explicitly account for these properties and assess their relevance when modeling and forecasting realized volatility. In an empirical application for S&P500 index futures we show that allowing for time-varying volatility of realized volatility leads to a substantial improvement of the model's fit as well as predictive performance. Furthermore, the distributional assumption for residuals plays a crucial role in density forecasting. Klassifikation: C22, C51, C52, C53
We present a higher-order call-by-need lambda calculus enriched with constructors, case-expressions, recursive letrec-expressions, a seq-operator for sequential evaluation and a non-deterministic operator amb, which is locally bottom-avoiding. We use a small-step operational semantics in form of a normal order reduction. As equational theory we use contextual equivalence, i.e. terms are equal if plugged into an arbitrary program context their termination behaviour is the same. We use a combination of may- as well as must-convergence, which is appropriate for non-deterministic computations. We evolve different proof tools for proving correctness of program transformations. We provide a context lemma for may- as well as must- convergence which restricts the number of contexts that need to be examined for proving contextual equivalence. In combination with so-called complete sets of commuting and forking diagrams we show that all the deterministic reduction rules and also some additional transformations keep contextual equivalence. In contrast to other approaches our syntax as well as semantics does not make use of a heap for sharing expressions. Instead we represent these expressions explicitely via letrec-bindings.
Static analysis of different non-strict functional programming languages makes use of set constants like Top, Inf, and Bot denoting all expressions, all lists without a last Nil as tail, and all non-terminating programs, respectively. We use a set language that permits union, constructors and recursive definition of set constants with a greatest fixpoint semantics. This paper proves decidability, in particular EXPTIMEcompleteness, of subset relationship of co-inductively defined sets by using algorithms and results from tree automata. This shows decidability of the test for set inclusion, which is required by certain strictness analysis algorithms in lazy functional programming languages.
Extending the method of Howe, we establish a large class of untyped higher-order calculi, in particular such with call-by-need evaluation, where similarity, also called applicative simulation, can be used as a proof tool for showing contextual preorder. The paper also demonstrates that Mann’s approach using an intermediate “approximation” calculus scales up well from a basic call-by-need non-deterministic lambdacalculus to more expressive lambda calculi. I.e., it is demonstrated, that after transferring the contextual preorder of a non-deterministic call-byneed lambda calculus to its corresponding approximation calculus, it is possible to apply Howe’s method to show that similarity is a precongruence. The transfer is not treated in this paper. The paper also proposes an optimization of the similarity-test by cutting off redundant computations. Our results also applies to deterministic or non-deterministic call-by-value lambda-calculi, and improves upon previous work insofar as it is proved that only closed values are required as arguments for similaritytesting instead of all closed expressions.
The paper examines challenges in effectively implementing the lender-of-last-resort function in the EU single financial market. Briefly highlighted are features of the EU financial landscape that could increase EU systemic financial risk. Briefly described are the complexities of the EU’s financial-stability architecture for preventing and resolving financial problems, including lender-of-last-resort operations. The paper examines how the lender-of-last-resort function might materialize during a systemic financial disturbance affecting more than one EU Member State. The paper identifies challenges and possible ways of enhancing the effectiveness of the existing architecture.
Anfang 2005 wurde die Schweizer „Capital Efficiency Group“ von den Lesern der bekannten Publikation „Structured Finance International“ mit dem Preis “Innovativster Asset Back Deal des Jahres 2004” ausgezeichnet sowie von „The Banker“ für einen der „Deals of the Year“ gewürdigt. Prämiert wurde die Entwicklung von „Preferred Pooled Shares“ (PREPS). Was verbirgt sich hinter diesem Konstrukt? Bei PREPS handelt es sich um ein Finanzprodukt der „Capital Efficiency Group“, die sich den Eigennamen „PREPS“ als Marke hat eintragen lassen. PREPS ist somit nur der Name eines speziellen Finanzinstruments. Die Bezeichnung PREPS wird aber gleichsam stellvertretend für eine Vielzahl von Finanzprodukten, durch die in eigenkapitalähnliche Finanztitel des Mittelstands investiert wird, verwendet. Zu nennen sind in diesem Zusammenhang „ge/mit“ und „equiNotes“ sowie einige weniger populäre Produkte. Jedes dieser Finanzprodukte weist im Detail eine andere Struktur auf, grundsätzlich basieren aber alle auf derselben Grundidee. Die folgenden Ausführungen stellen die Struktur und Funktionsweise dieser Finanzprodukte dar. Weitere Abschnitte erörtern sodann den wirtschaftlichen Hintergrund und die rechtlichen Rahmenbedingungen.
Die Aktiengesellschaft ist die klassische Rechtsform des Großunternehmens; sie ist als Rechtsinstitution speziell zum Zweck der Gründung und Leitung von Großunternehmen ausgebildet worden. Das gilt auch für die Formen ihrer Finanzierung (Aktiengesellschaft als „Kapitalsammelbecken“), und zwar nicht nur der Außenfinanzierung durch Eigenkapital. Auch die Formen und besonderen Merkmale der Fremdkapitalfinanzierung der großen Aktiengesellschaft erklären sich daraus, daß hier große Kapitalbeträge nicht durch einen einzelnen oder eine kleine Gruppe von Investoren mit Hilfe eigener Mittel, sondern mittelbar oder unmittelbar durch das Publikum aufgebracht werden sollen, weil die erforderlichen Eigenmittel Einzelpersonen entweder nicht zu Gebote stehen, oder sich die Eigenmittelfinanzierung durch Einzelpersonen aus Erwägungen der Risikostreuung verbietet. In diesem Falle muß das Publikum angesprochen werden. Bei der Fremdkapitalfinanzierung geschieht dies auf zwei Wegen: Durch Einschaltung eines Finanzintermediärs, typischerweise eines Kreditinstituts, dem die Investoren ihre Gelder als Einlagen anvertrauen, und das diese Gelder in Unternehmenskredite transformiert, oder durch gezielte Ansprache des Kapitalmarkts seitens des kapitalnachfragenden Unternehmens, z. B. durch Emission einer Anleihe. Die Vergabe von Unternehmenskrediten durch ein Kreditinstitut wird allerdings herkömmlich nicht mit der Unternehmensfinanzierung durch das Publikum in Verbindung gebracht. Vielmehr wird die bankgestützte Unternehmensfinanzierung geradezu als Gegensatz zur Publikumsfinanzierung verstanden. Hartmut Schmidt hat aber bereits 1986 darauf hingewiesen, daß Anteilsmärkte und Kreditmärkte funktional dieselben Aufgaben erfüllen. Diese Sichtweise hat sich durchgesetzt. Aus heutiger institutionenökonomischer Sicht hat die Kreditfinanzierung durch einen Finanzintermediär, also etwa durch ein Kreditinstitut, das sich, neben dem Eigenkapital seiner Aktionäre, vor allem durch Einlagen seiner Kunden, also des Publikums, refinanziert, dieselbe Funktion wie die unmittelbare (Anleihe-) Finanzierung durch das Publikum; darauf ist sogleich zurückzukommen. Der folgende rechtshistorische Rückblick belegt, daß Entwicklung und Einsatz des mit Depositen refinanzierten Großkredits und die Entwicklung der Anleihefinanzierung der Aktiengesellschaft in Deutschland etwa zur selben Zeit eingesetzt haben.
The assumption that mankind is able to have an in uence on global or regional climate, respectively, due to the emission of greenhouse gases, is often discussed. This assumption is both very important and very obscure. In consequence, it is necessary to clarify definitively which meteorological elements (climate parameters) are in uencend by the anthropogenic climate impact, and to which extent in which regions of the world. In addition, to be able to interprete such an information properly, it is also necessary to know the magnitude of the different climate signals due to natural variability (for example due to volcanic or solar activity) and the magnitide of stochastic climate noise. The usual tool of climatologists, general circulation models (GCM) suffer from the problem that they are at least quantitatively uncertain with regard to the regional patterns of the behaviour of climate elements and from the lack of accurate information about long-term (decadal and centennial) forcing. In contrast to that, statistical methods as used in this study have the advantage to test hypotheses directly based on observational data. So, we focus to the very reality of climate variability as it has occurred in the past. We apply two strategies of time series analyis with regard to the observed climate variables under consideration. First, each time series is splitted into its variation components. This procedure is called 'structure-oriented time series separation'. The second strategy called 'cause-oriented time series separation' matches various time series representing various forcing mechanisms with those representing the climate behaviour (climate elements). In this way it can be assessed which part of observed climate variability can be explained by this (combined) forcing and which part remains unexplained.
The assumption that mankind is able to have an in uence on global or regional climate, respectively, due to the emission of greenhouse gases, is often discussed. This assumption is both very important and very obscure. In consequence, it is necessary to clarify definitively which meteorological elements (climate parameters) are in uencend by the anthropogenic climate impact, and to which extent in which regions of the world. In addition, to be able to interprete such an information properly, it is also necessary to know the magnitude of the different climate signals due to natural variability (for example due to volcanic or solar activity) and the magnitide of stochastic climate noise. The usual tool of climatologists, general circulation models (GCM) suffer from the problem that they are at least quantitatively uncertain with regard to the regional patterns of the behaviour of climate elements and from the lack of accurate information about long-term (decadal and centennial) forcing. In contrast to that, statistical methods as used in this study have the advantage to test hypotheses directly based on observational data. So, we focus to the very reality of climate variability as it has occurred in the past. We apply two strategies of time series analyis with regard to the observed climate variables under consideration. First, each time series is splitted into its variation components. This procedure is called 'structure-oriented time series separation'. The second strategy called 'cause-oriented time series separation' matches various time series representing various forcing mechanisms with those representing the climate behaviour (climate elements). In this way it can be assessed which part of observed climate variability can be explained by this (combined) forcing and which part remains unexplained.
This paper makes a case for the future development of European corporate law through regulatory competition rather than EC legislation. It is for the first time becoming legally possible for firms within the EU to select the national company law that they wish to govern their activities. A significant number of firms can be expected to exercise this freedom, and national legislatures can be expected to respond by seeking to make their company laws more attractive to firms. Whilst the UK is likely to be the single most successful jurisdiction in attracting firms, the presence of different models of corporate governance within Europe make it quite possible that competition will result in specialisation rather than convergence, and that no Member State will come to dominate as Delaware has done in the US. Procedural safeguards in the legal framework will direct the selection of laws which increase social welfare, as opposed simply to the welfare of those making the choice. Given that European legislators cannot be sure of the ‘optimal’ model for company law, the future of European company law-making would better be left with Member States than take the form of harmonized legislation.
„Den Aktionären dürfen Zinsen weder zugesagt noch ausgezahlt werden“ (§ 57 Abs. 2 AktG). Uns scheint dieses Zinsverbot heute selbstverständlich und geradezu dem Wesen der Aktie eigen. So heißt es hierzu etwa bei Lutter: „Der Aktionär ist risikotragender Mitunternehmer. Seine Einlage ist nie ein Darlehen im Sinne eines zu verzinsenden Fremdkapitals der AG. „Zinsen“ auf seine Einlagen sind deshalb ein Widerspruch in sich selbst…“. Danach lassen sich Fremdkapital und Eigenkapital zwar nicht so voneinander unterscheiden und daran erkennen, daß der Fremdkapitalgeber immer nur einen gewinnunabhängigen „Zins“, der Eigenkapitalgeber einen Gewinnanteil als Dividende erhält. Denn die Vergütung des Fremdkapitalgebers kann, wie etwa die Zwischenform des partiarischen Darlehens belegt, auch nach dem Gewinn des Schuldnerunternehmens bemessen werden. Zum Wesen der Eigenkapitalfinanzierung dagegen scheint, jedenfalls im Fall der Aktiengesellschaft, das Verbot der gewinnunabhängigen Verzinsung zu gehören. Das Zinsverbot ist heute in leicht veränderter Form auch im europäischen Recht und damit im Recht der Mitgliedstaaten der Union fest verankert und gehört dort zum ehernen Bestand, dessen Änderung jedenfalls derzeit nicht beabsichtigt ist. Ein Blick in die Rechtsgeschichte und auf andere Rechtsordnungen belehrt uns freilich darüber, daß die Zusage von Zinsen auf die Einlagen der Aktionäre nicht immer und überall als unzulässig angesehen wurden und werden. Im deutschen Recht wurden bis zur Mitte des 19. Jahrhunderts die Finanzierungstitel „Aktie“ und „Obligation“ terminologisch häufig vermengt, und zwar wohl nicht zuletzt deshalb, weil sich das Verbot, die eingezahlten Einlagen gewinnunabhängig zu verzinsen, erst um diese Zeit in der Gesetzgebung durchgesetzt hat. Aktienzinsen während der Gründungsphase („Bauzinsen“) waren sogar bis zur Umsetzung der Zweiten gesellschaftsrechtlichen Richtlinie 1979 zulässig. Die nachstehende Studie zeichnet die historische Entwicklung des Zinsverbots im deutschen Recht nach und entfaltet das eingehend erwogene Für und Wider hierzu.
Als das Programm der diesjährigen Hamburger Non-Profit-Tage konzipiert wurde, war das Thema „Vereinsrechtsreform“ aktueller denn je. Das Bundesministerium der Justiz hatte am 25. August 2004 einen „Entwurf eines Gesetzes zur Änderung des Vereinsrechts“ vorgelegt, der sich das Ziel gesetzt hatte, „das seit über 100 Jahren im Wesentlichen unveränderte Vereinsrecht des Bürgerlichen Gesetzbuchs (BGB) modern zu gestalten, zu vereinfachen und den heutigen Bedürfnissen anzupassen“. Um dieses Ziel zu erreichen, sollte u. a. das sog. Nebenzweckprivileg in § 21 BGB verankert, die Bestimmung des § 22 BGB über den wirtschaftlichen Verein aufgehoben und die bislang auf die Amtsgerichte und Verwaltungsbehörden verteilte Rechtsformaufsicht über eingetragene Vereine bei den Amtsgerichten konzentriert werden. Ferner sollte § 54 BGB mit der Rechtswirklichkeit in Einklang gebracht und den nichtrechtsfähigen Vereinen auch die aktive Parteifähigkeit zugesprochen werden, die § 50 Abs. 2 ZPO ihnen derzeit noch vorenthält. Obwohl der Referentenentwurf nur ausgewählten Verbänden zur Stellungnahme übersandt wurde, hat er in der Vereinslandschaft für erhebliche Unruhe gesorgt. Im Schrifttum hat er überwiegend ein kritisches Echo gefunden: Der Entwurf sei ein unausgereifter, handwerklich mißlungener „Schnellschuß“ mit „verheerenden Folgen für die Verbände und Vereine“. Er verfehle sein Anliegen, zu mehr Rechtsklarheit im Vereinswesen beizutragen, ignoriere die wirklichen Regelungsprobleme und wirke daher „schon jetzt antiquiert“. Unter dem Eindruck dieser Kritik, aber womöglich auch wegen der über die Jahresmitte bestehenden Ungewißheit über die künftigen politischen Kräfteverhältnisse im Lande hat das Bundesjustizministerium * Inhaber der Juniorprofessur für Zivilrecht mit Schwerpunkt deutsches und europäisches Gesellschaftsrecht an der Johann Wolfgang Goethe-Universität Frankfurt a. M. sein Reformprojekt vorerst zurückgestellt. Ob, wann und in welcher Gestalt der Entwurf weiterverfolgt wird, ist derzeit nicht abzusehen. Das Thema „Vereinsrechtsreform“ ist damit jedoch keineswegs erledigt. Wie im folgenden gezeigt werden soll, weist unser in die Jahre gekommenes Vereinsrecht nämlich in der Tat einige rechtspolitisch bedenkliche Defizite auf, die nicht ausschließlich durch Rechtsprechung und Wissenschaft behoben werden können. Diese Defizite sind freilich nicht durchweg dort zu finden, wo das Bundesjustizministerium sie ausgemacht haben will, und deswegen wird es nötig sein, den Blick auf andere Regelungsprobleme auszuweiten, die der Referentenentwurf nicht einmal andeutet. Andererseits wäre es verfrüht, den Entwurf schon jetzt vollständig aus der rechtspolitischen Debatte auszublenden, denn immerhin vermittelt er einen ersten Eindruck davon, wie man sich in Berlin-Mitte ein modernes Vereinsrecht vorstellt. Der Beitrag stellt daher die Änderungsvorschläge des Entwurfs auf den Prüfstand, um sie mit eigenen Reformvorstellungen zu kontrastieren. Er beschränkt sich auf ausgewählte Rechtsfragen rund um die wirtschaftliche Betätigung von Idealvereinen.
Artificial drainage of agricultural land, for example with ditches or drainage tubes, is used to avoid water logging and to manage high groundwater tables. Among other impacts it influences the nutrient balances by increasing leaching losses and by decreasing denitrification. To simulate terrestrial transport of nitrogen on the global scale, a digital global map of artificially drained agricultural areas was developed. The map depicts the percentage of each 5’ by 5’ grid cell that is equipped for artificial drainage. Information on artificial drainage in countries or sub-national units was mainly derived from international inventories. Distribution to grid cells was based, for most countries, on the "Global Croplands Dataset" of Ramankutty et al. (1998) and the "Digital Global Map of Irrigation Areas" of Siebert et al. (2005). For some European countries the CORINE land cover dataset was used instead of the both datasets mentioned above. Maps with outlines of artificially drained areas were available for 6 countries. The global drainage area on the map is 167 Mio hectares. For only 11 out of the 116 countries with information on artificial drainage areas, sub-national information could be taken into account. Due to this coarse spatial resolution of the data sources, we recommended to use the map of artificially drained areas only for continental to global scale assessments. This documentation describes the dataset, the data sources and the map generation, and it discusses the data uncertainty.
Im Rahmen des DFG-Forschungsprojektes Scha 237/12-1 (Betreuer Prof. Dr. Eike W. Schamp) in Kooperation mit der University of Jordan in Amman/Jordanien (Betreuer Prof. Dr. Nasim Barham) wird derzeit u.a. die Rolle deutscher Reiseveranstalter (RV) in der (globalen) Wertschöpfungskette (Global Commodity Chain, GCC) des Pauschaltourismus von Deutschland nach Jordanien untersucht. Das vorliegende Papier gibt vornehmlich einen ersten Zwischenstand im Rahmen der laufenden empirischen Erhebung unter klein- und mittelständischen RV in Deutschland wieder, welche Reisen nach Jordanien innerhalb ihres Programmportfolios konzipieren und an den Endkunden, den Tourist, verkaufen. Der Schwerpunkt des Papers liegt auf der Identifizierung von Mechanismen der Zusammenarbeit zwischen zwei verschiedenen Unternehmen einer touristischen GCC, der deutsche RV sowie die jordanische Zielgebietsagentur (ZA). Beide wirken als zentrale Akteure bei der Erstellung einer Pauschalreise, indem sie jeweils Leistungen von Fremdanbietern bündeln und somit als (verschieden mächtige) „Knoten“ im Prozess der Leistungserstellung wirken. Dieser Prozess findet über weite geographische Distanzen statt.
We find that on average consumers chose the contract that ex post minimized their net costs. A substantial fraction of consumers (about 40%) still chose the ex post sub-optimal contract, with some incurring hundreds of dollars of avoidable interest costs. Nonetheless, the probability of choosing the sub-optimal contract declines with the dollar magnitude of the potential error, and consumers with larger errors were more likely to subsequently switch to the optimal contract. Thus most of the errors appear not to have been very costly, with the exception that a small minority of consumers persists in holding substantially sub-optimal contracts without switching. Klassifikation: G11, G21, E21, E51
Using a set of regional inflation rates we examine the dynamics of inflation dispersion within the U.S.A., Japan and across U.S. and Canadian regions. We find that inflation rate dispersion is significant throughout the sample period in all three samples. Based on methods applied in the empirical growth literature, we provide evidence in favor of significant mean reversion (ß-convergence) in inflation rates in all considered samples. The evidence on ó-convergence is mixed, however. Observed declines in dispersion are usually associated with decreasing overall inflation levels which indicates a positive relationship between mean inflation and overall inflation rate dispersion. Our findings for the within-distribution dynamics of regional inflation rates show that dynamics are largest for Japanese prefectures, followed by U.S. metropolitan areas. For the combined U.S.-Canadian sample, we find a pattern of within-distribution dynamics that is comparable to that found for regions within the European Monetary Union (EMU). In line with findings in the so-called 'border literature' these results suggest that frictions across European markets are at least as large as they are, e.g., across North American markets. Klassifikation: E31, E52, E58
Using a unique data set of regional inflation rates we are examining the extent and dynamics of inflation dispersion in major EMU countries before and after the introduction of the euro. For both periods, we find strong evidence in favor of mean reversion (ß-convergence) in inflation rates. However, half-lives to convergence are considerable and seem to have increased after 1999. The results indicate that the convergence process is nonlinear in the sense that its speed becomes smaller the further convergence has proceeded. An examination of the dynamics of overall inflation dispersion (ó-convergence) shows that there has been a decline in dispersion in the first half of the 1990s. For the second half of the 1990s, no further decline can be observed. At the end of the sample period, dispersion has even increased. The existence of large persistence in European inflation rates is confirmed when distribution dynamics methodology is applied. At the end of the paper we present evidence for the sustainability of the ECB's inflation target of an EMU-wide average inflation rate of less than but close to 2%. Klassifikation: E31, E52, E58
The paper documents lack of awareness of financial assets in the 1995 and 1998 Bank of Italy Surveys of Household Income and Wealth. It then explores the determinants of awareness, and finds that the probability that survey respondents are aware of stocks, mutual funds and investment accounts is positively correlated with education, household resources, long-term bank relations and proxies for social interaction. Lack of financial awareness has important implications for understanding the stockholding puzzle and for estimating stock market participation costs. Klassifikation: E2, D8, G1
The theory of intertemporal consumption choice makes sharp predictions about the evolution of the entire distribution of household consumption, not just about its conditional mean. In the paper, we study the empirical transition matrix of consumption using a panel drawn from the Bank of Italy Survey of Household Income and Wealth. We estimate the parameters that minimize the distance between the empirical and the theoretical transition matrix of the consumption distribution. The transition matrix generated by our estimates matches remarkably well the empirical matrix, both in the aggregate and in samples stratified by education. Our estimates strongly reject the consumption insurance model and suggest that households smooth income shocks to a lesser extent than implied by the permanent income hypothesis. Klassifikation: D52, D91, I30
Trusting the stock market
(2005)
We provide a new explanation to the limited stock market participation puzzle. In deciding whether to buy stocks, investors factor in the risk of being cheated. The perception of this risk is a function not only of the objective characteristics of the stock, but also of the subjective characteristics of the investor. Less trusting individuals are less likely to buy stock and, conditional on buying stock, they will buy less. The calibration of the model shows that this problem is sufficiently severe to account for the lack of participation of some of the richest investors in the United States as well as for differences in the rate of participation across countries. We also find evidence consistent with these propositions in Dutch and Italian micro data, as well as in cross country data. Klassifikation: D1, D8
Credit card debt puzzles
(2005)
Most US credit card holders revolve high-interest debt, often combined with substantial (i) asset accumulation by retirement, and (ii) low-rate liquid assets. Hyperbolic discounting can resolve only the former puzzle (Laibson et al., 2003). Bertaut and Haliassos (2002) proposed an 'accountant-shopper' framework for the latter. The current paper builds, solves, and simulates a fully-specified accountant-shopper model, to show that this framework can actually generate both types of co-existence, as well as target credit card utilization rates consistent with Gross and Souleles (2002). The benchmark model is compared to setups without self-control problems, with alternative mechanisms, and with impatient but fully rational shoppers. Klassifikation: E210, G110
Some have argued that recent increases in credit risk transfer are desirable because they improve the diversification of risk. Others have suggested that they may be undesirable if they increase the risk of financial crises. Using a model with banking and insurance sectors, we show that credit risk transfer can be beneficial when banks face uniform demand for liquidity. However, when they face idiosyncratic liquidity risk and hedge this risk in an interbank market, credit risk transfer can be detrimental to welfare. It can lead to contagion between the two sectors and increase the risk of crises. Klassifikation: G21, G22
How do markets spread risk when events are unknown or unknowable and where not anticipated in an insurance contract? While the policyholder can "hold up" the insurer for extra contractual payments, the continuing gains from trade on a single contract are often too small to yield useful coverage. By acting as a repository of the reputations of the parties, we show the brokers provide a coordinating mechanism to leverage the collective hold up power of policyholders. This extends both the degree of implicit and explicit coverage. The role is reflected in the terms of broker engagement, specifically in the ownership by the broker of the renewal rights. Finally, we argue that brokers can be motivated to play this role when they receive commissions that are contingent on insurer profits. This last feature questions a recent, well publicized, attack on broker compensation by New York attorney general, Elliot Spitzer. Klassifikation: G22, G24, L14
Die Präsenz in den Hauptversammlungen der großen deutschen Aktiengesellschaften ist seit Jahren rückläufig. Die durchschnittliche Hauptversammlungspräsenz bei den 30 DAXnotierten Unternehmen lag 2005 nur noch bei 45,87 %, gegenüber immerhin 60,95 % im Jahr 1998. Im Zusammenhang mit den Initiativen institutioneller Anleger bei der Deutschen Börse AG im Sommer diesen Jahres hat die Besorgnis zugenommen, Minderheiten könnten die Abwesenheit von mehr als der Hälfte der Stimmberechtigten dazu nutzen, in den Hauptversammlungen verstärkt Einfluss auf weitreichende Unternehmensentscheidungen auszuüben, um Sondervorteile zu erzielen. Unabhängig davon ist jedenfalls zu berücksichtigen, dass bei geringer Hauptversammlungspräsenz unter Umständen eine kleine Kapitalminderheit Entscheidungen trifft, bei denen sie nicht von denjenigen, die diese Entscheidungen gleichfalls betrifft, kontrolliert und, falls erforderlich, korrigiert wird. Um dem Problem sinkender Hauptversammlungspräsenzen zu begegnen, werden auf nationaler wie internationaler Ebene verschiedene Maßnahmen erwogen. Im Zusammenhang mit der Vereinfachung der Vertretung der Aktionäre in der Hauptversammlung wird vorgeschlagen, über den in § 134 III S. 3 AktG bereits vorgesehenen Stimmrechtsvertreter der Gesellschaft (sog. Proxy-Stimmrecht) hinaus einen von der Gesellschaft unabhängigen Stimmrechtsvertreter gesetzlich vorzusehen. Im Übrigen gehen die Empfehlungen von der verstärkten Nutzung neuer technischer Kommunikationsmittel bei der Stimmabgabe (Stichwort „virtuelle Hauptversammlung“) bis zur verstärkten Einführung von Namensaktien, um die Kommunikation mit den Aktionären zu erleichtern. Als Antwort auf den zunehmenden Einfluss internationaler Investoren, die derzeit aus Zeit- und Kostengründen, wegen sprachlicher Probleme, zu knapp bemessener Einladungsfristen oder Störungen des Informationsflusses zwischen ihnen und der Gesellschaft regelmäßig nicht an den Hauptversammlungen europäischer Aktiengesellschaften teilnehmen, arbeitet die Europäische Kommission zudem an einem Richtlinienentwurf, der die grenzüberschreitende Stimmrechtsausübung fördern soll. Im Zusammenhang hiermit sind auch auf die Bemühungen der Europäischen Kommission zu sehen, mittelfristig eine verstärkte Offenlegung der Anlage- und Abstimmungsstrategien institutioneller Investoren zu erreichen. Hierdurch soll eine intensivere Mitwirkung dieser Aktionärsgruppe in den Angelegenheiten der Gesellschaft gewährleistet werden. Die verstärkte Teilnahme bzw. die Offenlegung des Abstimmungsverhaltens von Investmentfonds, Versicherungen und Pensionskassen ist auch Inhalt von Empfehlungen nationaler sowie internationaler Organisationen. Bereits in der letzten Legislaturperiode hat die Arbeitsgruppe Finanzmarktgesetzgebung des Justiz- und Finanzministeriums den Vorschlag eines sog. Dividendenbonus für diejenigen Aktionäre erwogen, die ihr Stimmrecht in der Hauptversammlung ausüben. Im Anschluss daran entwickelte sich eine lebhafte Diskussion, in der sich sowohl Stimmen in der Literatur als auch Interessenverbände für die Einführung eines finanziellen Anreizsystems für Aktionäre in Form eines Dividendenbonus aussprachen. Vorbildfunktion für eine entsprechende Regelung in Deutschland wird dabei der spanischen Hauptversammlungspraxis zugesprochen. Dort geben die meisten großen Unternehmen des spanischen Standardwerteindex Ibex 35 einen finanziellen Anreiz für die Hauptversammlungspräsenz. Die Zahlungen liegen zwischen zwei und zehn Cent pro Aktie. Hierdurch konnte das Interesse am Besuch der Hauptversammlung generell gesteigert werden. Der Energiekonzern Endesa schaffte es mit einem Bonus von zwei Cent, die Präsenz von 37 % auf 66 % nahezu zu verdoppeln. Diese Erfolge in Spanien sind darauf zurückzuführen, dass die dortigen Depotbanken durch die Auszahlung der sog. prima de asistencia dazu veranlasst wurden, sich im Dienste einer bestmöglichen Wahrnehmung der Interessen ihrer Kunden auch ohne ausdrückliche Aufforderung um eine entsprechende Stimmrechtsvollmacht zu bemühen. Im Folgenden wird versucht darzulegen, wie die Regelung eines finanziellen Anreizes zur Stärkung der Hauptversammlungspräsenzen sinnvoll gestaltet werden könnte und welche gesetzgeberischen Schritte notwendig sind, um die Zahlung eines Bonus für die Präsenz in der Hauptversammlung zu ermöglichen.
Unter Berücksichtigung der implementationsanalytischen und kausalen Analysen für die Einführungsphase der Vermittlungsgutscheine kommen die Autoren zu dem Schluss, dass die Erprobungsphase dieses arbeitsmarktpolitischen Instruments fortgesetzt werden sollte. Aus der Implementationsanalyse zeigt sich, dass der Verbreitungsgrad des Instruments auch nach 27 Monaten Erprobungsphase sehr gering ist. Die kausalen Analysen beziehen sich aufgrund begrenzter Datenverfügbarkeit lediglich auf zwei Ausgabemonate ein Jahr nach Einführung des Instruments (Mai und Juni 2003) und zeigen geringe positive Beschäftigungseffekte auf der Mikro-Ebene. Ob dadurch die Kosten der Vermittlungsgutscheine gerechtfertigt sind, lässt sich derzeit noch nicht abschließend beurteilen. Anzeichen für Mitnahmeeffekte und/oder Missbrauch existieren. Auch haben erfolgreiche Vermittlungen durch Gutscheine die Beschäftigungschancen in anderen Gruppen geschmälert. Deshalb werden verschiedene Vorschläge für eine kosteneffizientere Ausgestaltung der Vermittlungsgutscheine dargestellt und diskutiert. Insbesondere wird auf die Vorschläge des Bundeskabinetts vom 01.09.2004 eingegangen.
Die vorliegende Analyse untersucht die Beschäftigungseffekte von Vermittlungsgutscheinen und Personal-Service-Agenturen mit Hilfe einer makroökonometrischen Evaluation. Neben einer mikroökonometrischen Evaluation, welche die Wirkungen auf individueller Ebene untersucht, kann eine makroökonometrische Analyse Aussagen über die gesamtwirtschaftlichen Effekte der Maßnahmen machen. Die strukturellen Multiplikatorwirkungen im makroökonomischen Kreislaufzusammenhang werden jedoch nicht berücksichtigt. Das ökonometrische Modell zur Analyse der beiden Maßnahmen basiert auf einer Matching-Funktion, die den Suchprozess von Firmen und von Arbeitern nach einem Beschäftigungsverhältnis abbildet. Die empirischen Analysen werden getrennt für Ost- und Westdeutschland sowie für die Strategietypen der Bundesagentur für Arbeit durchgeführt. Sie zeigen, dass die Ausgabe von Vermittlungsgutscheinen nur in „großstädtisch geprägten Bezirken vorwiegend in Westdeutschland mit hoher Arbeitslosigkeit“ (Strategietyp II) einen signifikant positiven Effekt auf den Suchprozess hat. Für die Personal-Service-Agenturen zeigen sich signifikant positive Effekte für Ost- als auch für Westdeutschland. Allerdings fehlt für eine abschließende Bewertung der Ergebnisse für die Personal- Service-Agenturen aufgrund der relativ geringen Teilnehmerzahl noch ein Vergleich mit mikroökonometrischen Analysen.
In this paper we evaluate the employment effects of job creation schemes on the participating individuals in Germany. Job creation schemes are a major element of active labour market policy in Germany and are targeted at long-term unemployed and other hard-to-place individuals. Access to very informative administrative data of the Federal Employment Agency justifies the application of a matching estimator and allows to account for individual (group-specific) and regional effect heterogeneity. We extend previous studies in four directions. First, we are able to evaluate the effects on regular (unsubsidised) employment. Second, we observe the outcome of participants and non-participants for nearly three years after programme start and can therefore analyse mid- and long-term effects. Third, we test the sensitivity of the results with respect to various decisions which have to be made during implementation of the matching estimator, e.g. choosing the matching algorithm or estimating the propensity score. Finally, we check if a possible occurrence of 'unobserved heterogeneity' distorts our interpretation. The overall results are rather discouraging, since the employment effects are negative or insignificant for most of the analysed groups. One notable exception are long-term unemployed individuals who benefit from participation. Hence, one policy implication is to address programmes to this problem group more tightly. JEL Classification: J68, H43, C13
Vocational training programmes have been the most important active labour market policy instrument in Germany in the last years. However, the still unsatisfying situation of the labour market has raised doubt on the efficiency of these programmes. In this paper, we analyse the effects of the participation in vocational training programmes on the duration of unemployment in Eastern Germany. Based on administrative data for the time between the October 1999 and December 2002 of the Federal Employment Administration, we apply a bivariate mixed proportional hazards model. By doing so, we are able to use the information of the timing of treatment as well as observable and unobservable influences to identify the treatment effects. The results show that a participation in vocational training prolongates the unemployment duration in Eastern Germany. Furthermore, the results suggest that locking-in effects are a serious problem of vocational training programmes. JEL Classification: J64, J24, I28, J68
This paper evaluates the effects of job creation schemes on the participating individuals in Germany. Since previous empirical studies of these measures have been based on relatively small datasets and focussed on East Germany, this is the first study which allows to draw policy-relevant conclusions. The very informative and exhaustive dataset at hand not only justifies the application of a matching estimator but also allows to take account of threefold heterogeneity. The recently developed multiple treatment framework is used to evaluate the effects with respect to regional, individual and programme heterogeneity. The results show considerable differences with respect to these sources of heterogeneity, but the overall finding is very clear. At the end of our observation period, that is two years after the start of the programmes, participants in job creation schemes have a significantly lower success probability on the labour market in comparison to matched non-participants. JEL Classification: H43, J64, J68, C13, C40
This paper investigates the macroeconomic effects of job creation schemes and vocational training on the matching processes in West Germany. The empirical analysis is based on regional data for local employment office districts for the period from 1999 to 2003. The empirical model relies on a dynamic version of a matching function augmented by ALMP. In order to obtain consistent estimates in the presence of a dynamic panel data model, a first-differences GMM estimator and a transformed maximum likelihood estimator are applied. Furthermore the paper considers the endogeneity problem of the policy measures. The results obtained from our estimates indicate that vocational training does not significantly affect the matching process and that job creation schemes have a negative effect. JEL Classification: C23, E24, H43, J64, J68
Most evaluation studies of active labour market policies (ALMP) focus on the microeconometric evaluation approach using individual data. However, as the microeconometric approach usually ignores impacts on the non-participants, it should be seen as a first step to a complete evaluation which has to be followed by an analysis on the macroeconomic level. As a starting point for our analysis we discuss the effects of ALMP in a theoretical labour market framework augmented by ALMP. We estimate the impacts of ALMP in Germany for the time period 1999-2001 with regional data of 175 labour office districts. Due to the high persistence of German labour market data the application of a dynamic model is crucial. Furthermore our analysis accounts especially for the inherent simultaneity problem of ALMP. For West Germany we find positive effects of vocational training and job creation schemes on the labour market situation, whereas the results for East Germany do not allow profound statements. JEL Classification: C33, E24, H43, J64, J68.
Diese Arbeit gibt einen Überblick der Konzeption und der Evaluation der Aktiven Arbeitsmarktpolitik (AAMP) in Deutschland. Die rechtliche Grundlage der AAMP stellte von 1969 bis 1997 das Arbeitsförderungsgesetz (AFG) dar. 1998 wurde dieses durch das Sozialgesetzbuch (SGB) III abgelöst. Während das AFG noch unter Bedingungen der Vollbeschäftigung eingeführt wurde und auch eine generelle Verbesserung der Funktionsweise des Arbeitsmarktes vorsah, erfolgte im Zeitablauf eine stärkere Ausrichtung der AAMP auf die Wiedereingliederung von Problemgruppen in den Arbeitsmarkt. Das SGB III stellt die Eingliederung von Arbeitslosen in reguläre Beschäftigung in den Mittelpunkt. Obwohl das SGB III in Ansätzen eine Erfolgskontrolle der AAMP vorsieht und trotz der hohen fiskalischen Kosten (43 Mrd. DM im Jahr 2001) fehlt bisher eine umfassende Evaluation der Wirkungen der AAMP unter Berücksichtigung der Kosten. Die Arbeit stellt die grundlegenden methodischen Probleme einer aussagekräftigen Evaluation dar. Die mikroökonomische Evaluation untersucht, ob die Teilnahme an einem arbeitsmarktpolitischen Programm zu einem Erfolg im Hinblick auf individuelle Zielgrößen wie Beschäftigung oder Verdienst führt.
In dieser Studie werden die Wirkungen von Arbeitsbeschaffungsmaßnahmen (ABM) in Deutschland auf die individuellen Eingliederungswahrscheinlichkeiten der Teilnehmer in reguläre Beschäftigung evaluiert. Für die Untersuchung wird ein umfangreicher und informativer Datensatz aus den Datenquellen der Bundesagentur für Arbeit (BA) verwendet, der es ermöglicht, die Wirkungen der Programme differenziert nach individuellen Unterschieden der Teilnehmer und mit Berücksichtigung der heterogenen Arbeitsmarktstruktur zu untersuchen. Der Datensatz enthält Informationen zu allen Teilnehmern in ABM, die ihre Maßnahmen im Februar 2000 begonnen haben, und zu einer Kontrollgruppe von Nichtteilnehmern, die im Januar 2000 arbeitslos waren und im Februar 2000 nicht in die Programme eingetreten sind. Mit Hilfe der Informationen der Beschäftigtenstatistik ist es hierbei erstmals möglich, den Abgang in reguläre Beschäftigung auf Grundlage administrativer Daten zu untersuchen. Der vorliegende Verbleibszeitraum reicht bis Dezember 2002. Unter Verwendung von Matching-Methoden auf dem Ansatz potenzieller Ergebnisse werden die Effekte von ABM mit regionaler Unterscheidung und für besondere Problem- und Zielgruppen des Arbeitsmarktes geschätzt. Die Ergebnisse zeigen zwar deutliche Unterschiede in den Effekten für Subgruppen, insgesamt weisen die empirischen Befunde jedoch darauf hin, dass das Ziel der Eingliederung in reguläre ungeförderte Beschäftigung durch ABM weitgehend nicht realisiert werden konnte. JEL: C40 , C13 , J64 , H43 , J68
Previous empirical studies of job creation schemes in Germany have shown that the average effects for the participating individuals are negative. However, we find that this is not true for all strata of the population. Identifying individual characteristics that are responsible for the effect heterogeneity and using this information for a better allocation of individuals therefore bears some scope for improving programme efficiency. We present several stratification strategies and discuss the occurring effect heterogeneity. Our findings show that job creation schemes do neither harm nor improve the labour market chances for most of the groups. Exceptions are long-term unemployed men in West and long-term unemployed women in East and West Germany who benefit from participation in terms of higher employment rates. JEL: C13 , J68 , H43
Innovations are a key factor to ensure the competitiveness of establishments as well as to enhance the growth and wealth of nations. But more than any other economic activity, decisions about innovations are plagued by failures of the market mechanism. As a response, public instruments have been implemented to stimulate private innovation activities. The effectiveness of these measures, however, is ambiguous and calls for an empirical evaluation. In this paper we make use of the IAB Establishment Panel and apply various microeconometric methods to estimate the effect of public measures on innovation activities of German establishments. We find that neglecting sample selection due to observable as well as to unobservable characteristics leads to an overestimation of the treatment effect and that there are considerable differences with regard to size class and betweenWest and East German establishments.
Persistently high unemployment, tight government budgets and the growing scepticism regarding the effects of active labour market policies (ALMP) are the basis for a growing interest in evaluating these measures. This paper intends to explain the need for evaluation on the micro- and macroeconomic level, introduce the fundamental evaluation problem and solutions to it, give an overview of the newer developments in evaluation literature and finally take a look on empirical estimations of ALMP effects. JEL Classification: C14, C33, H43, J64, J68
This study analyses the effects of public sector sponsored vocational training (PSVT) on individuals’ unemployment duration in West Germany for the period from 1985 to 1993. The data is taken from the German Socio-Economic Panel (GSOEP). To resolve the intriguing sample selection problem, i.e. to find an adequate control group for the group of trainees, we employ matching methods. These matching methods use the individual propensity to participate in training, which is obtained by estimating a panel probit model as the main matching variable. On the basis of the matched sample a discrete time hazard rate model is utilized to assess the effects of training participation on unemployment duration. Our results indicate that a significant positive effect on reemployment chances due to PSVT can only be expected for courses with a duration of no longer than six months. No significant positive effects on post-training reemployment chances where found for courses lasting longer than six months. In fact these PSVT courses are significantly less effective at increasing reemployment chances than those lasting no longer than three months. JEL classification: C40, J20, J64
This paper provides a review of empirical evidence relating to the impact of training on employment performance. Since a central issue in estimating training effects is the sample selection problem a short theoretical discussion of different evaluation strategies is given. The empirical overview primarily focuses on non-experimental evidence for Germany. In addition selected studies for other countries and experimental investigations are discussed.
In this study we are concerned with the impact of vocational training on the individual’s unemployment duration in West Germany. The data basis used is the German Socio-Economic Panel (GSOEP) for the period from 1984 to 1994. To resolve the intriguing sample selection problem, i.e. to find an adequate control group for the group of trainees, we employ matching methods which were developed in the statistical literature. These matching methods uses as the main matching variable the individual propensity score to participate in training, which is obtained by estimating a random effects probit model. On the basis of the matched sample a discrete time hazard rate model is utilized to assess the impact of vocational training on unemployment duration. Our results indicate, that training significantly raises the transition rate of unemployed into employment in the short but not in the long run. JEL classification: C40, J20, J64
We estimate a semiparametric single-risk discrete-time duration model to assess the effect of vocational training on the duration of unemployment spells. The data basis used in this study is the German Socio-Economic-Panel (GSOEP) for West Germany for the period from 1986 to 1994. To take into account a possible selection bias actual participation in vocational training is instrumented using estimates of a randomeffects probit model for the participation in qualification measures. Our main results show that training does have a significant short term effect of reducing unemployment duration but that this effect does not persist in the long run. JEL classifications: C41, J20, J64
This paper is intended as a short survey of the most relevant methods for grouped transition data. The fundamentals of duration analysis are discussed in a continuous time framework, whereas the treatment of methods for discrete durations is limited to the peculiarity of these models. In addition, some recent empirical applications of the methods are discussed.
In recent econometric work, most analyses of female labour supply consider married women, whereas the results for unmarried women are provided rather as a by-product (Burtless/Greenberg, 1982, Johnson/Pencavel, 1984, Leu/Kugler, 1986, Merz, 1990,). When the particular interest is focused on unmarried women, data of the seventies or rather simple econometric models are used (Keeley et al., 1978, Hausman, 1980, Coverman/Kemp, 1987) . Often very specific populations are examined, like for example lone mothers in Blundell/Duncan/Meghir (1992), Jenkins (1992), Staat/Wagenhals (1993) or Laisney et al. (1993). Analysing the economic behaviour of unmarried women, one is confronted with the problem that the term ‘unmarried’ is not clearly defined. It includes single, divorced, separated and widowed women. They live in different types of households, like one-person households or family households, where they occupy different economic positions as for example head of the household or relative of the head. The present work considers unmarried female heads of household. We assume that the dominant economic position as head of household, voluntarily or involuntarily occupied, forces these women to a similar behaviour independent from their family status. Thus they are taken together in the analysis from the different family statuses: single, divorced, separated and widowed. Being unmarried often is regarded as a temporary state, voluntarily or involuntarily, for example in the case of young women before marriage or in the case of divorced women after their separation. Nevertheless the demographic development shows the increased importance of unmarried women in the population during the last decades. In the USA the portion of female headed households raised from 21,1% in 1970 to 26,2% in 1980 and 29,0% in 1992 (Statistical Abstracts of the United States, 1993. Own calculations). In the FRG, female headed households constitute 26,4% of total households in 1970, 27,4% in 1980 and 30,1% in 1992 (Stat.Bundesamt, FS 1, Reihe 3, 1970, 1980, 1992). Therefore it seems an interesting topic to analyse the labour supply behaviour of unmarried female heads. Especially the question whether the labour supply of unmarried women resembles rather that of married women or of prime-age males is of particular interest. Another purpose of this analysis is to apply modern econometric panel data models with special emphasis on the problem of unbalanced panel data. Most panel data analyses are carried out using balanced panel data, which is no problem if the selection process could be ignored and if enough cases are available to guarantee efficient estimation. Especially the last point was crucial for the present analysis of unmarried females. In the available panel data sets the unmarried female heads constitute only a rather small population. Therefore the estimation techniques were modified to take missing observations of the individuals into account. The paper is organized as follows: In section 2 the underlying theoretical model of intertemporal labour supply under uncertainty is shortly presented. Section 3 deals with the econometric specification and estimation techniques where the use of unbalanced panel data is considered. Section 4 contains the data description with a particular look on the unbalancedness of the samples. In the last section 5 the empirical results are presented. We compare the estimated parameters for the unmarried women between the USA and the FRG and also analyse the differences between unmarried and married women. Moreover a comparison between different samples of unmarried women is provided.
This paper provides an empirical assessment of hypotheses that identify causes of demand side constraints of individual labour supply. In a comparative study for the USA and the FRG we focus on analysing the effect of productivity gaps (industry wage growth beyond productivity growth), industry investment intensity and regional labour market conditions on individual employment probabilities. Furthermore, we investigate whether demand side constraints of labour supply can be caused by a spill over from commodity markets. Efficiency wage theory and the theory of inter-industry wage differentials are utilised to derive identifying restrictions that are applicable to the labour supply models for both countries. The econometric contribution of the paper is the derivation and application of a two step estimation method for the class of simultaneous random effects double hurdle models, of which the labour supply model employed in this paper is a special case. To provide the empirical basis for the comparative study, the Panel Study of Income Dynamics and the German Socio-Economic Panel are linked to the OECD’s International Sectoral Database. JEL classification: C33, C34, J64, O57
Modelling consumer behaviour in a profile design using a three equation generalised Tobit model
(1997)
We propose the application of a three equation generalised Tobit to model different aspects of consumer behaviour in a full profile study design. The model takes into account that consumer behaviour can be measured by preference scores, purchase probability and purchase volume. We aim to avoid the drawbacks of traditional conjoint analysis where the latter two aspects are disregarded. Starting from a full profile design, we develop the appropriate questionnaire layout, the econometric model, the likelihood function and tests. The model is applied in a market entry study for an innovative medicament after a reform of Germany´s public health system in 1993-1994. JEL Classification: C35,M31,L65
Sharing of substructures like subterms and subcontexts in terms is a common method for space-efficient representation of terms, which allows for example to represent exponentially large terms in polynomial space, or to represent terms with iterated substructures in a compact form. We present singleton tree grammars as a general formalism for the treatment of sharing in terms. Singleton tree grammars (STG) are recursion-free context-free tree grammars without alternatives for non-terminals and at most unary second-order nonterminals. STGs generalize Plandowski's singleton context free grammars to terms (trees). We show that the test, whether two different nonterminals in an STG generate the same term can be done in polynomial time, which implies that the equality test of terms with shared terms and contexts, where composition of contexts is permitted, can be done in polynomial time in the size of the representation. This will allow polynomial-time algorithms for terms exploiting sharing. We hope that this technique will lead to improved upper complexity bounds for variants of second order unification algorithms, in particular for variants of context unification and bounded second order unification.
Im Rahmen einer Zusammenschau werden im hier vorliegenden Bericht landwirtschaftliche und den ländlichen Raum betreffende Entwicklungen eingeschätzt und, in Verbindung hiermit, künftige Umweltentlastungen sowie mögliche neue Umweltgefährdungen dargestellt. Im Mittelpunkt der Betrachtungen steht die Nahrungsmittelproduktion in Deutschland, wobei die Integration der deutschen Landwirtschaft in die europäische Landwirtschaft und die Weltwirtschaft und die hiermit einhergehenden äußeren Einflüsse einbezogen werden. Der Zeithorizont der Betrachtungen ist der Zeitraum bis 2030. ...
A new method for the determination of S-matrices of devices in multimoded waveguides and first experimental experiences are presented. The theoretical foundations are given. The scattering matrix of a TESLA copper cavity at a frequency above the cut-off of the second waveguide mode has been measured.
Die soziale Dimension des europäischen Einigungsprozesses steht derzeit, nicht zuletzt wegen der geplanten Währungsunion im Rahmen der Europäischen Union, im Brennpunkt einer kontroversen Diskussion.Im Rahmen dieses Beitrags sollen Probleme der sozialen Sicherungsysteme erörtert werden, die sich explizit aus dem Verlauf des Integrationsprozesses ergeben könnten. Es wird zunächst ein knapper Überblick über die seit Gründung der Europäischen Gemeinschaften erfolgten Maßnahmen im Bereich der Sozialpolitik gegeben. Daran schließt sich eine Typologisierung der sozialen Sicherungssysteme in den Mitgliedstaaten an und eine zusammenfassende Darstellung der beiden grundlegenden ordnungspolitischen Konzeptionen für den europäischen Integrationsprozeß, des Wettbewerbskonzeptes einerseits und des Harmonisierungskonzeptes andereseits, an. Während das Wettbewerbskonzept von vielen, meist eher neoliberal orientierten Ökonomen als das prinzipiell überlegenere ordnungspolitische Paradigma angesehen wird, mehren sich die kritischen Stimmen, die das Wettbewerbskonzept zwar nicht unbedingt prinzipiell ablehnen, jedoch auf Schwächen einer zu starr an der neoliberalen Interpretation des Wettbewerbskonzeptes orientierten Umsetzung hinweisen. Im Bereich der Sozialpolitik wird vor allem von Seiten der Gewerkschaften vor einem „Sozialdumping“ gewarnt. Eine weitere Ineffizienz des Wettbewerbskonzeptes, wird in der Möglichkeit eines sog. „race to the bottom“ gesehen, dem bei einer Anwendung des Subsidiaritätsprinzips drohenden, ruinösen Wettbewerb der europäischen Sozialstaaten. Die theoretische und empirische Relevanz der Thesen vom „Sozialdumping“ und des „race to the bottom“ wird diskutiert. Abschließend wird ein Ausblick auf die künftige Entwicklung gewagt und es werden Lösungskonzepte für die befürchteten Fehlentwicklungen erörtert.
Die folgenden Ausführungen thematisieren die Praxis von Zeitgenossen, sich in besonderer Weise mit ihren Mitmenschen auseinanderzusetzen - frei nach dem Motto: Zur Rache, Schätzchen!ii Wer der Ex-Freundin, dem Nachbarn oder dem Chef eins ‚auswischen‘ will, ist im Internet zweifellos richtig: Anonym Rache zu nehmen, hat im World Wide Web Tradition. Alles hat - wie so häufig - in den Vereinigten Staaten mit einem Projekt begonnen, dem Stinky Meat Project: Seit Monaten ärgerte sich ein amerikanischer Programmierer über einen schwierigen, pöbelnden Nachbarn. Eines Tages war das Maß voll: Der Programmierer beschloß, sich zu rächen. Er fuhr in den nächsten Supermarkt, kaufte dort ein Steak, drei billige Würste und Hackfleisch und legte das Fleisch zu hause auf einen Teller und schob diesen unter dem Zaun hindurch in den Garten des Nachbarn. Von nun an kehrte der Rächer täglich zum Tatort zurück, fotografierte den Teller – und veröffentlichte die Bilder im Internet. Das Stinky Meat Project war geboren. Sein offizielles Ziel war herauszufinden, wie lange ein Teller mit verfaultem Fleisch in Nachbars Garten liegen kann, ohne dass dieser es bemerken und die Polizei rufen würde – so der Initiator. Diskussionsbeitrag auf dem Mediensymposium Luzern 2000, Stand 2.2.2001, http://www.edupolis.de/konferenz2001/texte/forum4_neumann_braun2.pdf Dokument 1 ist die Volltextversion, Dokument 2 ist ein Scan des Printexemplars.
A version of this paper was originally written for a plenary session about "The Futures of Ethnography" at the 1998 EASA conference in Frankfurt/Main. In the preparation of the paper, I sent out some questions to my former fellow researchers by e-mail. I thank Douglas Anthony, Jan-Patrick Heiß, Alaine Hutson, Matthias Krings, and Brian Larkin for their answers.
Hf-Fokussierung
(1989)
The paper analyzes the incentive for the ECB to establish reputation by pursuing a restrictive policy right at the start of its operation. The bank is modelled as risk averse with respect to deviations of both inflation and output from her target. The public, being imperfectly informed about the bank’s preferences uses observed inflation as (imperfect) signal for the unknown preferences. Under linear learning rules - which are commonly used in the literature - a gradual build up of reputation is the optimal response. The paper shows that such a linear learning rule is not consistent with efficient signaling. It is shown that in a game with efficient signaling, a cold turkey approach - allowing for deflation - is optimal for a strong bank - accepting high current output losses at the beginning in order to demonstrate its toughness. JEL classification: D 82, E 58
During the last years the relationship between financial development and economic growth has received widespread attention in the literature on growth and development. This paper summarises in its first part the results of this research, stressing the growth-enhancing effects of an increased interpersonal re-allocation of resources promoted by financial development. The second part of the paper seeks to identify the determinants of financial development based on Diamond's theory of financial intermediation as delegated monitoring. The analysis shows that the quality of corporate governance of banks is the key factor in financial system development. Accordingly, financial sector reforms in developing countries will only succeed if they strengthen the corporate governance of financial institutions. In this area, financial institution building has an important contribution to make. Paper presented at the First Annual Seminar on New Development Finance held at the Goethe University of Frankfurt, September 22 - October 3, 1997
Der internen Unternehmensrechnung werden im allgemeinen zwei Funktionen zugeschrieben (Ewert/Wagenhofer (1997), S. 6): Sie soll einerseits Informationen für Planungszwecke bereitstellen, andererseits der Verhaltenssteuerung von Entscheidungsträgern in hierarchischen, dezentralen Organisationen dienen. In der jüngeren Vergangenheit ist die Verhaltenssteuerungsfunktion zunehmend in das Blickfeld theoretischer und praktischer Überlegungen gerückt. Gleichzeitig läßt sich eine verstärkte Marktwertorientierung deutscher Unternehmen in der Unternehmenspolitik wie auch in der internen Unternehmensrechnung beobachten. Die betriebswirtschaftliche Literatur hat darauf mit einer wachsenden Zahl von Beiträgen reagiert, die die Marktwertorientierung der internen Unternehmensrechnung vor dem Hintergrund ihrer Verhaltenssteuerungsfunktion diskutieren.1) Das Interesse dieses Beitrags gilt der Rolle der Periodenerfolgsrechnung als Teil der internen Unternehmensrechnung bei der marktwertorientierten Steuerung von Investitionsentscheidungen über Periodenerfolgsbeteiligungen. Zentrale Bedeutung kommt hierbei dem Residualgewinnkonzept aufgrund seiner Kompatibilität mit dem Marktwertkriterium (vgl. Abschnitt 5.1) zu. Dieses Konzept hat in der Praxis unter dem Namen Economic Value Added zunehmend an Popularität - insbesondere auch als Grundlage für Erfolgsbeteiligungen (vgl. z.B. Stewart (1991), Ehrbar (1998), O'Hanlon/Peasnell (1998) ) - gewonnen. Gezeigt werden soll, welche Vorteile die Periodisierung von Cash Flows im Rahmen einer Periodenerfolgsrechnung auf der Basis des Residualgewinnkonzepts gegenüber einer unbelassenen Cash Flow-Rechnung bei der Steuerung von Investitionsentscheidungen über finanzielle Anreizsysteme bietet. Betrachtet wird eine einfache bilaterale Principal-Agent-Beziehung: Eine delegierende Instanz (Prinzipal) beauftragt einen Entscheidungsträger (Agenten) mit Investitionsentscheidungen und versucht, dessen Investitionsverhalten über eine „Erfolgsbeteiligung“ in ihrem Sinne auf das Ziel der Maximierung des Barwertes aller Cash Flows gerichtet zu beeinflussen. Die Rolle des internen Rechnungswesens ist dabei auf die Bereitstellung der Bemessungsgrundlage für die Erfolgsbeteiligung beschränkt. Es wird gezeigt, daß die Periodisierung von Cash Flows und die Zugrundelegung periodisierter Größen bei der Investitionssteuerung zu besseren Lösungen des Steuerungsproblems des Prinzipals führt als eine reine Cash Flow- Beteiligung. ...
Seit zwanzig Jahren befaßt sich die Finanzmarktforschung einerseits mit Fragen der Bewertung und des Managements von Finanztiteln auf effizienten Kapitalmärkten und mit Fragen der Managementkontrolle auf unvollkommenen Märkten. Der folgende selektive Überblick konzentriert sich auf zentrale Aspekte der Theorie und Empirie der Managementkontrolle bei asymmetrischer Information. Ziel ist die Auseinandersetzung mit der unlängst vorgetragenen These zu den Mythen der Unternehmenskontrolle (Martin Hellwig 1997). Der aktuelle Überblick wird entwickelt vor dem Hintergrund der Gutenberg’schen Position eines eigenständigen Unternehmensinteresses, losgelöst von den Interessen der shareholder oder anderer stakeholder. Diese Position von Gutenberg verbindet sich im dritten Band der „Grundlagen der BWL: Die Finanzen“ von 1969 mit der Forderung nach Einhaltung eines sog. finanziellen Gleichgewichts. Erst in jüngster Zeit werden auch kapitalmarkttheoretisch fundierte Modelle entwickelt, die auch Raum bieten für eine Autonomie des Managements gegenüber dessen stakeholders.
Wir verwenden eine neue, auf der Burr-Verteilung basierende Spezifikation aus der Familie der Autoregressive Conditional Duration (ACD) Modelle zur ökonometrischen Analyse der Transaktionsintensitäten während der Börseneinführung (IPO) der Deutsche Telekom Aktie. In diesem Fallbeispiel wird die Leistungsfähigkeit des neu entwickelten Burr-ACD-Modells mit den Standardmodellen von Engle und Russell verglichen, die im Burr-ACD Modell als Spezialfälle enthalten sind. Wir diskutieren außerdem alternative Möglichkeiten, Intra- Tagessaisonalitäten der Handelsintensität in ACD Modellen zu berücksichtigen.
Joseph E. Stiglitz (1943 - )
(2000)
Am 24.11.1999 gibt Joseph E. Stiglitz seinen vorzeitigen Rücktritt als Chief Economist und Senior Vice President der Weltbank zum Jahresende bekannt. Er will sich wieder ausschließlich der Forschung und Lehre widmen und kehrt auf seinen Lehrstuhl am Economics Department der Stanford University zurück. Stiglitzs Rückzug aus der aktiven Entwicklungspolitik erfolgt nicht ganz freiwillig. Er selbst kommentiert seinen Entschluß: „It has become obvious to me that it would be difficult to continue to speak out as forcefully and publicly as I have on a variety of issues and still remain as chief economist. Rather than muzzle myself, or be muzzled, I decided to leave.“ (New York Times, 1.12.1999). Seit geraumer Zeit galt seine öffentliche Kritik am Washington Consensus, dem ökonomischen Glaubensbekenntnis, auf das sich die politische Linie des US Treasury genauso stützt wie die Stabilisierungs- und Reformpolitik des IWF, als Dorn im Auge der Vertreter dieser Institutionen. Für sie war Stiglitz - so die Metapher der Financial Times vom 26.11.99 - „a veritable gadfly“, eine wahre Viehbremse, deren lästiges Summen aufgrund von Position und Intellekt nicht einfach ignoriert werden konnte. ...
Entwicklungsfinanzierung
(2000)
The extension of long-term loans, e.g. to finance housing, is adversely affected by inflation. For one thing, the higher nominal interest rates charged by the banks in response to inflation mean that borrowers have to make (nominally) higher interest payments, which unnecessarily reduces their borrowing capacity. For another, long-term loans with variable interest rates increase the probability that borrowers will become unable to meet their payment obligations. The present paper examines these two assertions in detail. At the same time, it presents a concept for substantially reducing the weaknesses of conventional lending methodologies. We start by investigating the consequences of a stable inflation rate on the borrowing capacity of credit clients, then go on to analyze the impact of fluctuating inflation rates on the risk of default.
Competition for order flow can be characterized as a coordination game with multiple equilibria. Analyzing competition between dealer markets and a crossing network, we show that the crossing network is more stable for lower traders’ disutilities from unexecuted orders. By introducing private information, we prove existence of a unique equilibrium with market consolidation. Assets with low volatility and large volumes are traded on crossing networks, others on dealer markets. Efficiency requires more assets to be traded on crossing networks. If traders’ disutilities differ sufficiently, a unique equilibrium with market fragmentation exists. Low disutility traders use the crossing network while high disutility traders use the dealer market. The crossing network’s market share is inefficiently small.
In this paper, we estimate the demand for homeowner insurance in Florida. Since we are interested in a number of factors influencing demand, we approach the problem from two directions. We first estimate two hedonic equations representing the premium per contract and the price mark-up. We analyze how the contracts are bundled and how contract provisions, insurer characteristics and insured risk characteristics and demographics influence the premium per contract and the price mark-up. Second, we estimate the demand for homeowners insurance using two-stage least squares regression. We employ ISO's indicated loss costs as our proxy for real insurance services demanded. We assume that the demand for coverage is essentially a joint demand and thus we can estimate the demand for catastrophe coverage separately from the demand for noncatastrophe coverage. We determine that price elasticities are less elastic for catastrophic coverage than for non-catastrophic coverage. Further estimated income elasticities suggest that homeowners insurance is an inferior good. Finally, we conclude based on the results of a selection model that our sample of ISO reporting companies well represents the demand for insurance in the Florida market as a whole.
At present, the question of how national pension or retirement payment systems should be organised is being hotly debated in various countries, and opinions vary widely as to what should be regarded as the optimal design for such systems. It appears to the authors of the present paper that in this entire discussion one aspect is largely overlooked: What relationships exist between the pension system and the financial system in a given country? As such relationships might prove to be important, the present paper investigates the following questions: (1) Are there differences between the national pension systems of three major European countries – Germany, France and the U.K. – and between the financial systems of these countries? (2) And if the existence of such differences can be demonstrated, is there a correspondence between the differences with respect to the various national pension systems and the differences as regards the countries’ financial systems? (3) And if such a correspondence exists, is there any kind of interrelationship between the national financial and pension systems of the individual countries which goes beyond a mere correspondence? Looking mainly at two aspects – namely, risk allocation and the incentives to create human capital – the authors of this paper argue (1) that there are indeed considerable differences between the financial and pension systems of the three countries; (2) that in both Germany and the U.K. there are also systematic correspondences between the respective pension systems and financial systems and their economic characteristics, but that such a correspondence cannot be identified in the case of France; and (3) that these parallels are, in the final analysis, based on complementarities and are therefore likely to contribute to the efficiency of the German and the British systems. The paper concludes with a brief look at policy implications which the existence of, or the lack of, consistency between national pension systems and national financial systems might have.
Although the world of banking and finance is becoming more integrated every day, in most aspects the world of financial regulation continues to be narrowly defined by national boundaries. The main players here are still national governments and governmental agencies. And until recently, they tended to follow a policy of shielding their activities from scrutiny by their peers and members of the academic community rather than inviting critical assessments and an exchange of ideas. The turbulence in international financial markets in the 1980s, and its impact on U.S. banks, gave rise to the notion that academics working in the field of banking and financial regulation might be in a position to make a contribution to the improvement of regulation in the United States, and thus ultimately to the stability of the entire financial sector. This provided the impetus for the creation of the “U.S. Shadow Financial Regulatory Committee”. In the meantime, similar shadow committees have been founded in Europe and Japan. The specific problems associated with financial regulation in Europe, as well as the specific features which distinguish the European Shadow Financial Regulatory Committee from its counterparts in the U.S. and Japan, derive from the fact that while Europe has already made substantial progress towards economic and political integration, it is still primarily a collection of distinct nation-states with differing institutional set-ups and political and economic traditions. Therefore, any attempt to work towards a European approach to financial regulation must include an effort to promote the development of a European culture of co-operation in this area, and this is precisely what the European Shadow Financial Regulatory Committee (ESFRC) seeks to do. In this paper, Harald Benink, chairman of the ESFRC, and Reinhard H. Schmidt, one of the two German members, discuss the origin, the objectives and the functioning of the committee and the thrust of its recommendations.
Auch sechs Jahre nach Einführung der Vorschriften zur Ad-hoc-Publizität nach § 15 WpHG besteht bei den Unternehmen weiterhin große Unsicherheit bezüglich ihrer ordnungsmäßigen Umsetzung. Dies gilt insbesondere für die Behandlung von ad-hoc-meldepflichtigen Sachverhalten, die sich aus der Regelberichterstattung ergeben. Der vorliegende Beitrag entwickelt hierzu Lösungsansätze im Sinne einer kapitalmarktorientierten Unternehmenspublizität.
Vorgestellt wird eine empirische Studie, welche den Zusammenhang zwischen Rendite und Risiko für ein Sample deutscher Versicherungsaktien im Zeitraum 1975-1998 untersucht. Als Methode wurde ein Multifaktorenmodell mit makroökonomischen Faktoren verwendet. Je nach Untersuchungszeitraum beläuft sich der Anteil der erklärten Varianz auf 9,29% bis 13,62%. Es konnte eine signifikanter negativer Einfluß zwischen der Veränderung des allgemeinen Zinsniveaus und den Risikoprämien von Versicherungsaktien identifiziert werden. Weiterhin ist Wechselkurses der DM zum US-Dollar signifikant.
Im Mittelpunkt dieses Beitrag stehen Verweildauermodelle und deren Verwendung als Analyseinstrumente für die Bewertung und Berechnung von Kreditausfallrisiken. Verschiedene Möglichkeiten zur Berechnung der Dauer des Nichtausfalls eines Kredites werden dabei vorgestellt. Die hier vorgestellten Verfahren werden auf einen aus Kreditakten von sechs deutschen Universalbanken zusammengestellten Datensatz angewendet. Beispiele und Interpretationshilfen zu den jeweils vorgestellten Methoden erleichtern den Zugang zu diesen Modellen. Es werden zahlreiche Hinweise auf weiterführende Literatur gegeben.
In den 1980er und den frühen 1990er Jahren waren japanische Banken die weltweit größten Finanzinstitute und galten als Inbegriff „globaler“ Banken. Der Crash der japanischen Wertpapier- und Immobilienmärkte Anfang der 1990er Jahre und die nachfolgende Rezession waren Anlass zu tiefgreifenden Reformen im japanischen Finanzsystem. Die japanischen Banken waren gezwungen, ihre internationalen Strategien zu reformulieren. Als Konsequenz zogen sie sich aus vielen Märkten zurück und strukturierten ihre internationalen Netzwerke um. Vor dem Hintergrund theoretischer Überlegungen zu der Bedeutung von „Globalität“ und einer empirischen Untersuchung der Entwicklung der Auslandsstellennetze japanischer Banken in den 1980er und 1990er Jahren stellt der vorliegende Beitrag die Globalität japanischer Banken in Frage.