Wirtschaftswissenschaften
Refine
Document Type
- Working Paper (11)
- Report (2)
Has Fulltext
- yes (13)
Is part of the Bibliography
- no (13) (remove)
Keywords
- Börsenkurs (4)
- Schätzung (3)
- asset pricing (3)
- Bias (2)
- Deutschland (2)
- Exponential smoothing (2)
- Schätzfunktion (2)
- Schätztheorie (2)
- Zeitreihenanalyse (2)
- simulated method of moments (2)
Wir verwenden eine neue, auf der Burr-Verteilung basierende Spezifikation aus der Familie der Autoregressive Conditional Duration (ACD) Modelle zur ökonometrischen Analyse der Transaktionsintensitäten während der Börseneinführung (IPO) der Deutsche Telekom Aktie. In diesem Fallbeispiel wird die Leistungsfähigkeit des neu entwickelten Burr-ACD-Modells mit den Standardmodellen von Engle und Russell verglichen, die im Burr-ACD Modell als Spezialfälle enthalten sind. Wir diskutieren außerdem alternative Möglichkeiten, Intra- Tagessaisonalitäten der Handelsintensität in ACD Modellen zu berücksichtigen.
Non-standard errors
(2021)
In statistics, samples are drawn from a population in a data-generating process (DGP). Standard errors measure the uncertainty in sample estimates of population parameters. In science, evidence is generated to test hypotheses in an evidence-generating process (EGP). We claim that EGP variation across researchers adds uncertainty: non-standard errors. To study them, we let 164 teams test six hypotheses on the same sample. We find that non-standard errors are sizeable, on par with standard errors. Their size (i) co-varies only weakly with team merits, reproducibility, or peer rating, (ii) declines significantly after peer-feedback, and (iii) is underestimated by participants.
Modelling consumer behaviour in a profile design using a three equation generalised Tobit model
(1997)
We propose the application of a three equation generalised Tobit to model different aspects of consumer behaviour in a full profile study design. The model takes into account that consumer behaviour can be measured by preference scores, purchase probability and purchase volume. We aim to avoid the drawbacks of traditional conjoint analysis where the latter two aspects are disregarded. Starting from a full profile design, we develop the appropriate questionnaire layout, the econometric model, the likelihood function and tests. The model is applied in a market entry study for an innovative medicament after a reform of Germany´s public health system in 1993-1994. JEL Classification: C35,M31,L65
This paper provides an empirical assessment of hypotheses that identify causes of demand side constraints of individual labour supply. In a comparative study for the USA and the FRG we focus on analysing the effect of productivity gaps (industry wage growth beyond productivity growth), industry investment intensity and regional labour market conditions on individual employment probabilities. Furthermore, we investigate whether demand side constraints of labour supply can be caused by a spill over from commodity markets. Efficiency wage theory and the theory of inter-industry wage differentials are utilised to derive identifying restrictions that are applicable to the labour supply models for both countries. The econometric contribution of the paper is the derivation and application of a two step estimation method for the class of simultaneous random effects double hurdle models, of which the labour supply model employed in this paper is a special case. To provide the empirical basis for the comparative study, the Panel Study of Income Dynamics and the German Socio-Economic Panel are linked to the OECD’s International Sectoral Database. JEL classification: C33, C34, J64, O57
We analyze exchange rates along with equity quotes for 3 German firms from New York (NYSE) and Frankfurt (XETRA) during overlapping trading hours to see where price discovery occurs and how stock prices adjust to an exchange rate shock. Findings include: (a) the exchange rate is exogenous with respect to the stock prices; (b) exchange rate innovations are more important in understanding the evolution of NYSE prices than XETRA prices; and (c) most (but not all) of the fundamental or random walk component of firm value is determined in Frankfurt.
Kursänderungen auf Aktienmärkten können informationsinduziert durch neu zu verarbeitende Informationen oder liquiditätsinduziert durch kurzfristige Angebots- bzw. Nachfrageüberhänge auftreten. Diese zwei so unterschiedlich verursachten Kursreaktionen sind in empirischen Untersuchungen nur schwer zu trennen. Das Modell von Easley, Kiefer, O’Hara und Paperman (1996) bietet eine theoretische Basis zur separaten Erfassung von liquiditätsorientiertem und informationsbasiertem Handel und eröffnet darüber hinaus auch einen Weg zur empirischen Quantifizierung dieser Größen.
In der vorliegenden Untersuchung nutzen wir diesen Ansatz zur Analyse des Handels deutscher Aktien über das Computerhandelssystem IBIS. Dabei zeigt sich, daß innerhalb der DAX-Werte Informationsereignisse bei den sehr stark gehandelten Aktien nicht häufiger als bei weniger oft gehandelten Werten auftreten. Die Unterschiede im Handelsvolumen sind auf unterschiedlich starke Handelsaktivität sowohl informierter als auch uninformierter Marktteilnehmer zurückzuführen. Weiterhin zeigt sich, daß das Risiko, mit informierten Marktteilnehmern zu handeln, bei den sehr umsatzstarken Aktien am geringsten ist.
In Einklang mit dem sogenannten Montagseffekt ist die Wahrscheinlichkeit für das Auftreten von negativen Informationsereignissen zu Wochenanfang besonders groß. Dieses Ergebnis könnte durch eine Tendenz von Managern erklärt werden, negative Informationen freitags nach Börsenschluß zu veröffentlichen. Eine getrennte Untersuchung für Handelstage mit niedriger und solche mit hoher Volatilität zeigt, daß an Handelstagen mit höherer Volatilität die Handelsintensität sowohl informierter als auch uninformierter Investoren größer ist. Auch die Wahrscheinlichkeit, an solchen Tagen mit besser informierten Marktteilnehmern zu handeln, steigt. Dieser Anstieg ist allerdings nicht statistisch signifikant.
The long-run consumption risk (LRR) model is a promising approach to resolve prominent asset pricing puzzles. The simulated method of moments (SMM) provides a natural framework to estimate its deep parameters, but caveats concern model solubility and weak identification. We propose a two-step estimation strategy that combines GMM and SMM, and for which we elicit informative macroeconomic and financial moment matches from the LRR model structure. In particular, we exploit the persistent serial correlation of consumption and dividend growth and the equilibrium conditions for market return and risk-free rate, as well as the model-implied predictability of the risk-free rate. We match analytical moments when possible and simulated moments when necessary and determine the crucial factors required for both identification and reasonable estimation precision. A simulation study – the first in the context of long-run risk modeling – delineates the pitfalls associated with SMM estimation of a non-linear dynamic asset pricing model. Our study provides a blueprint for successful estimation of the LRR model.