Refine
Year of publication
- 2004 (57) (remove)
Document Type
- Working Paper (34)
- Report (8)
- Article (5)
- diplomthesis (3)
- Conference Proceeding (2)
- Review (2)
- Diploma Thesis (1)
- Doctoral Thesis (1)
- Part of Periodical (1)
Has Fulltext
- yes (57)
Is part of the Bibliography
- no (57)
Keywords
- Deutschland (10)
- Schätzung (7)
- Bank (3)
- Corporate Governance (3)
- Evaluation (3)
- Matching (3)
- Theorie (3)
- Arbeitsbeschaffungsmaßnahme (2)
- Arbeitsbeschaffungsmaßnahmen (2)
- Börsenkurs (2)
Institute
- Wirtschaftswissenschaften (57) (remove)
The paper explores factors that influence the design of financing contracts between venture capital investors and European venture capital funds. 122 Private Placement Memoranda and 46 Partnership Agreements are investigated in respect to the use of covenant restrictions and compensation schemes. The analysis focuses on the impact of two key factors: the reputation of VC-funds and changes in the overall demand for venture capital services. We find that established funds are more severely restricted by contractual covenants. This contradicts the conventional wisdom which assumes that established market participants care more about their reputation, have less incentive to behave opportunistically and therefore need less covenant restrictions. We also find that managers of established funds are more often obliged to invest own capital alongside with investors money. We interpret this as evidence that established funds have actually less reason to care about their reputation as compared to young funds. One reason for this surprising result could be that managers of established VC funds are older and closer to retirement and therefore put less weight on the effects of their actions on future business opportunities. We also explore the effects of venture capital supply on contract design. Gompers and Lerner (1996) show that VC-funds in the US are able to reduce the number of restrictive covenants in years with high supply of venture capital and interpret this as a result of increased bargaining power by VC-funds. We do not find similar evidence for Europe. Instead, we find that VC-funds receive less base compensation and higher performance related compensation in years with strong capital inflows into the VC industry. This may be interpreted as a signal of overconfidence: Strong investor demand seems to coincide with overoptimistic expectations by fund managers which make them willing to accept higher powered incentive schemes. JEL: G32 Keywords: Venture Capital, Contracting, Limited Partnership, Funds, Principal Agent, Compensation, Covenants, Reputation, Bargaining Power
Much has been written on the success of the Indian software industry, enumerating systemic factors like first-class higher education and research institutions, both public and private; low labour costs, stimulating (state) policies etc. However, although most studies analyzing the 'Indian' software industry cover essentially the South (and West) Indian clusters, this issue has not been tackled explicitly. This paper supplements the economic geography explanations mentioned above with the additional factor social capital, which is not only important within the region, but also in transnational (ethnic) networks linking Indian software clusters with the Silicon Valley. In other words, spatial proximity is complemented with cultural proximity, thereby, extending the system of innovation. The main hypothesis is that some Indian regions are more apt to economic development and innovation due to their higher affinity to education and learning, as well as, their more general openness, which has been a main finding of my interviews. In addition, the transnational networks of Silicon Valley Indians seem to be dominated by South Indians, thus, corroborating the regional clustering of the Indian software industry. JEL Classifications: O30, R12, Z13, L86
This paper employs individual bidding data to analyze the empirical performance of the longer term refinancing operations (LTROs) of the European Central Bank (ECB). We investigate how banks’ bidding behavior is related to a series of exogenous variables such as collateral costs, interest rate expectations, market volatility and to individual bank characteristics like country of origin, size, and experience. Panel regressions reveal that a bank’s bidding depends on bank characteristics. Yet, different bidding behavior generally does not translate into differences concerning bidder success. In contrast to the ECB’s main refinancing operations, we find evidence for the winner’s curse effect in LTROs. Our results indicate that LTROs do neither lead to market distortions nor to unfair auction outcomes. JEL classification: E52, D44
As of today, estimating interest rate reaction functions for the Euro Area is hampered by the short time span since the conduct of a single monetary policy. In this paper we circumvent the common use of aggregated data before 1999 by estimating interest rate reaction functions based on a panel including actual EMU Member States. We find that exploiting the cross-section dimen- sion of a multi-country panel and accounting for cross-country heterogeneity in advance of the single monetary policy pays off with regard to the estimated reaction functions' ability to describe actual interest rate dynamics. We retrieve a panel reaction function which is demonstrated to be a valuable tool for evaluating episodes of monetary policy since 1999. JEL - Klassifikation: E43 , E58 , C33
To resolve the IPO underpricing puzzle it is essential to analyze who knows what when during the issuing process. In Germany, broker-dealers make a market in IPOs during the subscription period. We examine these pre-issue prices and find that they are highly informative. They are closer to the first price subsequently established on the exchange than both the midpoint of the bookbuilding range and the offer price. The pre-issue prices explain a large part of the underpricing left unexplained by other variables. The results imply that information asymmetries are much lower than the observed variance of underpricing suggests.
The paper is a follow-up to an article published in Technique Financière et Developpement in 2000 (see the appendix to the hardcopy version), which portrayed the first results of a new strategy in the field of development finance implemented in South-East Europe. This strategy consists in creating microfinance banks as greenfield investments, that is, of building up new banks which specialise in providing credit and other financial services to micro and small enterprises, instead of transforming existing credit-granting NGOs into formal banks, which had been the dominant approach in the 1990s. The present paper shows that this strategy has, in the course of the last five years, led to the emergence of a network of microfinance banks operating in several parts of the world. After discussing why financial sector development is a crucial determinant of general social and economic development and contrasting the new strategy to former approaches in the area of development finance, the paper provides information about the shareholder composition and the investment portfolio of what is at present the world's largest and most successful network of microfinance banks. This network is a good example of a well-functioning "private public partnership". The paper then provides performance figures and discusses why the creation of such a network seems to be a particularly promising approach to the creation of financially self-sustaining financial institutions with a clear developmental objective.
Open source projects produce goods or standards that do not allow for the appropriation of private returns by those who contribute to their production. In this paper we analyze why programmers will nevertheless invest their time and effort to code open source software. We argue that the particular way in which open source projects are managed and especially how contributions are attributed to individual agents, allows the best programmers to create a signal that more mediocre programmers cannot achieve. Through setting themselves apart they can turn this signal into monetary rewards that correspond to their superior capabilities. With this incentive they will forgo the immediate rewards they could earn in software companies producing proprietary software by restricting the access to the source code of their product. Whenever institutional arrangements are in place that enable the acquisition of such a signal and the subsequent substitution into monetary rewards, the contribution to open source projects and the resulting public good is a feasible outcome that can be explained by standard economic theory.
Hackethal and Schmidt (2003) criticize a large body of literature on the financing of corporate sectors in different countries that questions some of the distinctions conventionally drawn between financial systems. Their criticism is directed against the use of net flows of finance and they propose alternative measures based on gross flows which they claim re-establish conventional distinctions. This paper argues that their criticism is invalid and that their alternative measures are misleading. There are real issues raised by the use of aggregate data but they are not the ones discussed in Hackethal and Schmidt’s paper. JEL Classification: G30
The paper analyses the financial structure of German inward FDI. From a tax perspective, intra-company loans granted by the parent should be all the more strongly preferred over equity the lower the tax rate of the parent and the higher the tax rate of the German affiliate. From our study of a panel of more than 8,000 non-financial affiliates in Germany, we find only small effects of the tax rate of the foreign parent. However, our empirical results show that subsidiaries that on average are profitable react more strongly to changes in the German corporate tax rate than this is the case for less profitable firms. This gives support to the frequent concern that high German taxes are partly responsible for the high levels of intracompany loans. Taxation, however, does not fully explain the high levels of intra-company borrowing. Roughly 60% of the cross-border intra-company loans turn out to be held by firms that are running losses. JEL - Klassifikation H25 , F23 .
We investigate the connection between corporate governance system configurations and the role of intermediaries in the respective systems from a informational perspective. Building on the economics of information we show that it is meaningful to distinguish between internalisation and externalisation as two fundamentally different ways of dealing with information in corporate governance systems. This lays the groundwork for a description of two types of corporate governance systems, i.e. insider control system and outsider control system, in which we focus on the distinctive role of intermediaries in the production and use of information. It will be argued that internalisation is the prevailing mode of information processing in insider control system while externalisation dominates in outsider control system. We also discuss shortly the interrelations between the prevailing corporate governance system and types of activities or industry structures supported.
Empirical evidence suggests that even those firms presumably most in need of monitoring-intensive financing (young, small, and innovative firms) have a multitude of bank lenders, where one may be special in the sense of relationship lending. However, theory does not tell us a lot about the economic rationale for relationship lending in the context of multiple bank financing. To fill this gap, we analyze the optimal debt structure in a model that allows for multiple but asymmetric bank financing. The optimal debt structure balances the risk of lender coordination failure from multiple lending and the bargaining power of a pivotal relationship bank. We show that firms with low expected cash-flows or low interim liquidation values of assets prefer asymmetric financing, while firms with high expected cash-flow or high interim liquidation values of assets tend to finance without a relationship bank.
The question whether the adoption of International Financial Reporting Standards (IFRS) will result in measurable economic benefits is of special policy relevance in particular given the European Union’s decision to require the application of IFRS by listed companies from 2005/2007. In this paper, I investigate the common con-jecture that internationally recognized high quality reporting standards (IAS/IFRS or US-GAAP) reduce the cost of capital of adopting firms (e.g. Levitt 1998; IASB 2002). Building on Leuz/Verrecchia (2000), I use a set of German firms which pre-adopted such standards before 2005, but investigate the potential economic benefits by analyzing their expected cost of equity capital utilizing and customizing avail-able implied estimation methods (e.g. Gebhardt/Lee/Swaminathan 2001, Easton/Taylor/Shroff/Sougiannis 2002, Easton 2004). Evidence from a sample of about 13,000 HGB, 4,500 IAS/IFRS and 3,000 US-GAAP firm-month observations in the period 1993-2002 generally fails to document lower expected cost of equity capital and therefore measurable economic benefits for firms applying IAS/IFRS or US-GAAP. Accordingly, I caution to state that reporting under internationally accepted standards, per se, lowers the cost of equity capital of adopting firms.
Seit der Einführung des Deutschen Corporate Governance Kodex (Kodex) im Jahr 2002 sind deutsche börsennotierte Unternehmen zur Abgabe der Entsprechenserklärung gemäß § 161 AktG verpflichtet (Comply-or-Explain-Prinzip). Auf der Basis dieser Information soll durch den Druck des Kapitalmarkts die Einhaltung des Kodex überwacht und gegebenenfalls sanktioniert werden. Dabei wird regelmäßig postuliert, dass bei überdurchschnittlicher Befolgung bzw. Nichtbefolgung der Kodex-Empfehlungen eine Belohnung durch Kurszuschläge bzw. eine Sanktionierung durch Kursabschläge erfolgt. Die Ergebnisse einer Ereignisstudie zeigen, dass die Abgabe der Entsprechenserklärung keine erhebliche Kursbeeinflussung auslöst und die für das Enforcement des Kodex angenommene (und erforderliche) Selbstregulierung durch den Kapitalmarkt nicht stattfindet. Es wird daher kritisch hinterfragt, ob der für den Kodex gewählte und grundsätzlich zu begrüßende flexible Regulierungsansatz im System des zwingenden deutschen Gesellschaftsrechts einen geeigneten Enforcement-Mechanismus darstellt. This paper studies the short-run announcement effects of compliance with the German Corporate Governance Code (‘the Code’) on firm value. Event study results suggest that firm value is unaffected by the announcement, although such market reactions to the first time disclosure of the declaration of conformity were widely assumed by the private and public promoters of the Code. This result from acceptance of the German Code add evidence to the hypothesis that regulatory corporate governance initiatives that rely on mandatory disclosure without monitoring and enforcement are ineffective in civil law countries.
This paper suggests a motive for bank mergers that goes beyond alleged and typically unverifiable scale economies: preemtive resolution of banks´ financial distress. Such "distress mergers" can be a significant motivation for mergers because they can foster reorganizations, realize diversification gains, and avoid public attention. However, since none of these potential benefits comes without a cost, the overall assessment of distress mergers is unclear. We conduct an empirical analysis to provide evidence on consequences of distress mergers. The analysis is based on comprehensive data from Germany´s savings and cooperatives banks sectors over the period 1993 to 2001. During this period both sectors faced significant structural problems and superordinate institutions (associations) presumably have engaged in coordinated actions to manage distress mergers. The data comprise 3640 banks and 1484 mergers. Our results suggest that bank mergers as a means of preemtive distress resolution have moderate costs in terms of the economic impact on performance. We do find strong evidence consistent with diversification gains. Thus, distress mergers seem to have benefits without affecting systematic stability adversely.
Empirical evidence suggests that even those firms presumably most in need of monitoringintensive financing (young, small, and innovative firms) have a multitude of bank lenders, where one may be special in the sense of relationship lending. However, theory does not tell us a lot about the economic rationale for relationship lending in the context of multiple bank financing. To fill this gap, we analyze the optimal debt structure in a model that allows for multiple but asymmetric bank financing. The optimal debt structure balances the risk of lender coordination failure from multiple lending and the bargaining power of a pivotal relationship bank. We show that firms with low expected cash-flows or low interim liquidation values of assets prefer asymmetric financing, while firms with high expected cash-flow or high interim liquidation values of assets tend to finance without a relationship bank. JEL - Klassifikation: G21 , G78 , G33
In a framework closely related to Diamond and Rajan (2001) we characterize different financial systems and analyze the welfare implications of different LOLR-policies in these financial systems. We show that in a bank-dominated financial system it is less likely that a LOLR-policy that follows the Bagehot rules is preferable. In financial systems with rather illiquid assets a discretionary individual liquidity assistance might be welfare improving, while in market-based financial systems, with rather liquid assets in the banks' balance sheets, emergency liquidity assistance provided freely to the market at a penalty rate is likely to be efficient. Thus, a "one size fits all"-approach that does not take the differences of financial systems into account is misguiding. JEL - Klassifikation: D52 , E44 , G21 , E52 , E58
We propose a new framework for modelling the time dependence in duration processes being in force on financial markets. The pioneering ACD model introduced by Engle and Russell (1998) will be extended in a manner that the duration process will be accompanied by an unobservable stochastic process. The Discrete Mixture ACD framework provides us with a general methodology which puts the idea into practice. It is established by introducing a discrete-valued latent regime variable which can be justified in the light of recent market microstructure theories. The empirical application demonstrates its ability to capture specific characteristics of intraday transaction durations while alternative approaches fail. JEL classification: C41, C22, C25, C51, G14.
In recent methodological work the well known ACD approach, originally introduced by Engle and Russell (1998), has been supplemented by the involvement of an unobservable stochastic process which accompanies the underlying process of durations via a discrete mixture of distributions. The Mixture ACD model, emanating from the specialized proposal of De Luca and Gallo (2004), has proved to be a moderate tool for description of financial duration data. The use of one and the same family of ordinary distributions has been common practice until now. Our contribution incites to use the rich parameterized comprehensive family of distributions which allows for interacting different distributional idiosyncrasies. JEL classification: C41, C22, C25, C51, G14
Im Rahmen des Value Based Managements sollen alle Manahmen der Unternehmensfhrung auf die Steigerung des intrinsischen Marktwertes des Eigenkapitals ausgerichtet werden. Hauptanwendungsbereiche des Value Based Managements sind die Planung, Performancemessung, Managemententlohnung sowie die Bereichssteuerung. Eine konsequente shareholder-orientierte Steuerung beinhaltet eine adquate Ermittlung von Wertbeitrgen in den einzelnen Anwendungsbereichen. Hierzu dienen insbesondere absolute Wertbeitragskennzahlen in Form von Residualgewinnen. Residualgewinne sind dadurch gekennzeichnet, dass der Gewinn um eine auf das Gesamtkapital bezogene Capital bzw. Interest Charge reduziert wird. Der magebliche Gewinn sowie das Gesamtkapital ergeben sich, indem die handelsrechtlichen Gren durch mehr oder minder weitreichende Modifikationen angepasst werden. Die Berechnung der Interest Charge erfolgt entweder auf Basis eines risikoangepassten Zinssatzes oder auf Basis eines risikofreien Zinssatzes. In der Praxis finden sich zahlreiche unterschiedliche Residualgewinnkonzepte, die sich insbesondere durch die jeweils charakteristischen Modifikationen und durch den verwendeten Zinssatz zur Berechnung der Kapitalkosten unterscheiden.1) Herkmmliche Konzepte zeichnen sich dadurch aus, dass die Interest Charge auf Basis eines risikoangepassten Zinssatzes berechnet wird. Das in Velthuis (2003c) theoretisch entworfene und von der KPMG in der Praxis umgesetzte Konzept Earnings less Riskfree Interest Charge, ERIC , ist hingegen dadurch charakterisiert, dass zur Berechnung der Interest Charge ein risikofreier Zinssatz verwendet wird. Ferner werden Modifikationen nur insofern vorgenommen, als dass eine vollstndige Bercksichtigung aller Erfolgskomponenten gewhrleistet wird. Glaubt man den Vertretern herkmmlicher Konzepte, basieren diese Konzepte auf einer hinreichenden theoretischen Fundierung. Diesem Anspruch gengen solche Konzepte tatschlich jedoch nicht, sie zeichnen sich gerade durch eine mangelnde theoretische Fundierung aus.2) In Velthuis (2003c) wird verdeutlicht, dass die in der Praxis verbreitete Vorgehensweise gerade zum Ausweis von Wertbeitrgen fhrt, die inkonsistent mit der Zielsetzung der Shareholder sind. In allen Anwendungsbereichen des VBM zeigt sich nmlich aus theoretischer Sicht die Problematik der VerIm Rahmen des Value Based Managements sollen alle Maßnahmen der Unternehmensführung auf die Steigerung des intrinsischen Marktwertes des Eigenkapitals ausgerichtet werden. Hauptanwendungsbereiche des Value Based Managements sind die Planung, Performancemessung, Managemententlohnung sowie die Bereichssteuerung. Eine konsequente shareholder-orientierte Steuerung beinhaltet eine adäquate Ermittlung von Wertbeiträgen in den einzelnen Anwendungsbereichen. Hierzu dienen insbesondere absolute Wertbeitragskennzahlen in Form von Residualgewinnen. Residualgewinne sind dadurch gekennzeichnet, dass der Gewinn um eine auf das Gesamtkapital bezogene Capital bzw. Interest Charge reduziert wird. Der maßgebliche Gewinn sowie das Gesamtkapital ergeben sich, indem die handelsrechtlichen Größen durch mehr oder minder weitreichende Modifikationen angepasst werden. Die Berechnung der Interest Charge erfolgt entweder auf Basis eines risikoangepassten Zinssatzes oder auf Basis eines risikofreien Zinssatzes. In der Praxis finden sich zahlreiche unterschiedliche Residualgewinnkonzepte, die sich insbesondere durch die jeweils charakteristischen Modifikationen und durch den verwendeten Zinssatz zur Berechnung der Kapitalkosten unterscheiden.1) Herkömmliche Konzepte zeichnen sich dadurch aus, dass die Interest Charge auf Basis eines risikoangepassten Zinssatzes berechnet wird. Das in Velthuis (2003c) theoretisch entworfene und von der KPMG in der Praxis umgesetzte Konzept Earnings less Riskfree Interest Charge, ERIC Ò , ist hingegen dadurch charakterisiert, dass zur Berechnung der Interest Charge ein risikofreier Zinssatz verwendet wird. Ferner werden Modifikationen nur insofern vorgenommen, als dass eine vollständige Berücksichtigung aller Erfolgskomponenten gewährleistet wird. Glaubt man den Vertretern herkömmlicher Konzepte, basieren diese Konzepte auf einer hinreichenden theoretischen Fundierung. Diesem Anspruch genügen solche Konzepte tatsächlich jedoch nicht, sie zeichnen sich gerade durch eine mangelnde theoretische Fundierung aus.2) In Velthuis (2003c) wird verdeutlicht, dass die in der Praxis verbreitete Vorgehensweise gerade zum Ausweis von Wertbeiträgen führt, die inkonsistent mit der Zielsetzung der Shareholder sind. In allen Anwendungsbereichen des VBM zeigt sich nämlich aus theoretischer Sicht die Problematik der Verwendung eines risikoangepassten Zinssatzes zur Berechnung von Kapitalkosten: Schon die Verwendung eines risikoangepassten Kapitalkostensatzes im Rahmen der Planung kann problematisch sein. Die Verwendung risikoangepasster Kapitalkosten als Benchmark bei der Performancemessung ist sogar ganz abzulehnen, und bei der Managemententlohnung ist die Verrechnung von risikoangepassten Kapitalkosten zwingend mit Fehlanreizen verbunden. Aber auch praxisübliche Modifikationen erweisen sich als problematisch, da Erfolgskomponenten nicht bzw. nicht vollständig berücksichtigt werden. Im Gegensatz zu herkömmlichen Konzepten weist das VBM-Konzept ERIC eine tatsächliche theoretische Fundierung auf. In Velthuis (2003c) werden grundlegende theoretische und praktische Anforderungen für die einzelnen Anwendungsbereiche herausgearbeitet und es wird gezeigt, dass ein integriertes VBM-Konzept auf Basis des Residualgewinns ERIC diese Anforderungen stets erfüllt. Ziel dieses Aufsatzes ist es, die Grundkonzeption von ERIC theoretisch weiter zu entwickeln. Während in Velthuis (2003c) stets von einer sehr einfachen Idealwelt ausgegangen wird, soll hier zum einen verdeutlicht werden, wie ein erfolgreiches Value Based Management auf Basis von ERIC in komplexeren und realitätsnäheren Situationen erfolgen kann. Zum anderen gilt es, zusätzliche praktische Problembereiche zu erkennen und Lösungsmöglichkeiten aufzuzeigen. Der Aufsatz ist wie folgt aufgebaut: Zunächst wird gezeigt, wie der Residualgewinn ERIC zu berechnen ist, und es wird ein Überblick über die Anwendungsbereiche gegeben. Anschließend wird die grundlegende Entscheidungssituation für die späteren Darstellungen erörtert und es werden fundamentale Prinzipien des Value Based Managements und ihre Bedeutung für die einzelnen Anwendungsbereichen erläutert. Sodann wird für die einzelnen Bereichen des Value Based Managements, der Planung, Performancemessung, Managemententlohnung und der Bereichssteuerung gezeigt, wie ERIC anzuwenden ist, damit eine tatsächliche Shareholder-Orientierung gewährleistet wird. Die Darstellungen erfolgen dabei jeweils zunächst vor dem Hintergrund einer Idealwelt. In einem zweiten Schritt wird die Entscheidungssituation jeweils modifiziert, um der Realität ein Stück näher zu kommen.
This paper compares the accuracy of credit ratings of Moody s and Standard&Poors. Based on 11,428 issuer ratings and 350 defaults in several datasets from 1999 to 2003 a slight advantage for the rating system of Moody s is detected. Compared to former research the robustness of the results is increased by using nonparametric bootstrap approaches. Furthermore, robustness checks are made to control for the impact of Watchlist entries, staleness of ratings and the effect of unsolicited ratings on the results.
This paper investigates the magnitude and the main determinants of share price reactions to buy-back announcements of German corporations. For our comprehensive sample of 224 announcements that took place between May 1998 and April 2003 we find average cumulative abnormal returns around -7.5% for the thirty days preceding the announcement and around +7.0 % for the ten days following the announcement. We regress post-announcement abnormal returns with multiple firm characteristics and provide evidence which supports the undervaluation signaling hypothesis but not the excess cash hypothesis or the tax-efficiency hypothesis. In extending prior empirical work, we also analyze price effects from initial statements of firms that they intend to seek shareholder approval for a buy-back plan. Observed cumulative abnormal returns on this initial date are in excess of 5% implying a total average price effect between 12% and 15% from implementing a buy-back plan. We conjecture that the German regulatory environment is the main reason why market variations to buy-back announcements are much stronger in Germany than in other countries and conclude that initial statements by managers to seek shareholders’ approval for a buy-back plan should also be subject to legal ad-hoc disclosure requirements.
We show that multi-bank loan pools improve the risk-return profile of banks’ loan business. Banks write simple contracts on the proceeds from pooled loan portfolios, taking into account the free-rider problems in joint loan production. Thus, banks benefit greatly from diversifying credit risk while limiting the efficiency loss due to adverse incentives. We present calibration results that the formation of loan pools reduce the volatility in default rates, proxying for credit risk, of participating banks’ loan portfolios by roughly 70% in our sample. Under reasonable assumptions, the gain in return on equity (in certainty equivalent terms) is around 20 basis points annually.
Eine bedeutende Stelle der betrieblichen Funktionen nimmt die Beschaffung der Ware am Markt ein. Die Organisation des Beschaffungswesens ist dabei integraler Bestandteil der Unternehmensstrategie und führung. Die Beschaffung im engeren Sinne umfasst dabei den Einkauf von Anlagegütern, Roh-, Hilfs- und Betriebsstoffen, Fertigwaren sowie von Dienstleistungen (z. B. Transportleistungen) und Rechten (z. B. Lizenzen aus Patenten). Die Beschaffung ist neben der Produktions- und Absatzfunktion einer der Hauptbereiche betrieblicher Planung und Leistungserstellung [Bichler/Krohn 2001]. Die Hauptaufgabe des Einkaufs im Industrieunternehmen besteht in der Beschaffung von Materialen und Teilen nach den von den zuständigen Fachabteilungen vorgegebenen Qualitätsvorschriften, zu günstigen Konditionen und zum richtigen Zeitpunkt, wodurch die termingerechte Produktion sicher gestellt werden kann. Eine weiterführende Aufgabe des Einkaufs besteht in einer Analyse des Beschaffungsmarktes sowie in der Aufbereitung und Weitergabe von Informationen an den Vertrieb. Es sind die Hersteller auf dem Markt zu suchen und zu katalogisieren, welche die entsprechenden Materialien in gleich bleibender Qualität und zu günstigen Preisen liefern können [Bichler/Krohn 2001]. Die Organisation des Einkaufsprozesses stellt einen bedeutenden Problemfokus für die Unternehmensleitung dar. Gegenstand dieser Untersuchung ist die Fragestellung, wie sich Einkaufgenossenschaften im Bibliothekswesen optimal bilden sollen. Die Frage der Optimalität muss dazu zunächst präzisiert werden und wird vor dem Hintergrund verschiedener Zielsetzungen näher diskutiert. Einkaufsgenossenschaften und verbünde finden sich in der Praxis immer häufiger und stellen probate Mittel dar, die Kosten für den Bezug von nötigen Betriebsmaterialen nachhaltig zu senken. Im Sektor der wissenschaftlichen Informationsversorgung können seit einigen Jahren im Bereich der elektronischen Informationsressourcen ebenfalls Einkaufsverbünde in Form von Bibliothekskonsortien beobachtet werden. Ziel dieser Genossenschaften ist es, gemeinsam Lizenzen für elektronische Informationen zu erwerben. Die derzeitige Bezugspraxis zeigt, dass Konsortien überwiegend regional ausgerichtet sind und weniger auf thematischer Ebene agieren. Auch die Größe sowie Nachfragestruktur und intensität finden weitestgehend noch keine Beachtung. Diese Arbeit untersucht Vor- und Nachteile von Einkaufgenossenschaften und diskutiert verschiedene Entscheidungsmodelle zur Bestimmung einer optimalen Konsortialstruktur vor dem Hintergrund der derzeitig gegebenen Marktstrukturen im Sektor der wissenschaftlichen Informationsversorgung.
When performance measures are used for evaluation purposes, agents have some incentives to learn how their actions affect these measures. We show that the use of imperfect performance measures can cause an agent to devote too many resources (too much effort) to acquiring information. Doing so can be costly to the principal because the agent can use information to game the performance measure to the detriment of the principal. We analyze the impact of endogenous information acquisition on the optimal incentive strength and the quality of the performance measure used.
Durch die stetig zunehmende Implementierung von Informationssystemen in verschiedene Gesellschaftsbereiche gibt es in der Menschheitsgeschichte eine bisher noch nie dagewesene Entwicklung: ‚Kognitive Last’ kann dem Menschen durch technische ‚Denkzeuge’ sehr effektiv und effizient abgenommen werden. Dadurch können „typisch menschliche Bereiche wie Kreativität, Solidarität, Innovationsfähigkeit, Mitmenschlichkeit, Kommunikationsfähigkeit“ beim Einzelnen gefördert und entwickelt werden, wie es bisher nur bei ganz wenigen Menschen in einer Gesellschaft möglich war. „D. h. das Gehirn gewinnt - zumindest im Prinzip - völlig neue Freiheiten, nachdem es die kognitive Last abgeworfen und an die Computer übergeben hat. Diese Freiheit gilt es - insbesondere im Bildungswesen - zu nutzen!" Doch wird in der heutigen deutschen Schule und Hochschule nicht ‚Homo sapiens informaticus’ qualifiziert, „sondern den auf Abwicklung aller kognitiven Tätigkeiten im Gehirn trainierten Homo sapiens sapiens“. Früher oder später sieht dieser viele der mühsam erlernten kognitiven Leistungen durch technische Produkte in der realen Welt erfüllt (z.B. durch Arithmetik-Software), an die er sich nach seiner Ausbildung durch Fortbildung oder ‚learning by doing’ anzupassen versucht. In der Informationsgesellschaft wird der kompetente Umgang mit Neuen Medien als Schlüsselqualifikation gesehen, die es in jeglicher Ausbildung zu erwerben gilt. Um diese zu entwickeln reicht es jedoch nicht aus, Schulen mit entsprechender Technik auszustatten. Medienkompetente Schüler setzen den medienkompetenten Lehrer voraus. Aus diesem Grund wird einer entsprechenden Lehrerbildung eine Schlüsselrolle zur frühen und breiten Vermittlung von Medienkompetenz in der Gesellschaft zugeschrieben. Dazu müssen wiederum die Ausbilder der Lehrer selbst medienkompetent und die Bildungseinrichtungen mit Neuen Medien ausgestattet sein. Mit vorliegender Arbeit soll die von verschiedenen Bereichen der Gesellschaft gestellte Forderung, Neue Medien in der Bildung einzusetzen, nachvollzogen und auf ihre tatsächliche Implementierung in der derzeitigen Lehrerbildung untersucht werden. Dazu werden exemplarisch die Ergebnisse der Befragung einer kleinen Gruppe kaufmännischer Referendare herangezogen. Im Rahmen dieser Arbeit wird darauf verzichtet, eine ausführliche Darstellung unterschiedlicher Formen des multimedialen und telekommunikativen Lernens (Teleteaching, Lernsoftware etc.) vorzunehmen. Auf lernformenspezifische Aspekte wird, falls notwendig, an entsprechender Stelle eingegangen. Wirkungen, die Neue Medien auf Schulentwicklung, Bildungsinstitutionen als Kompetenzzentren und einhergehende Aspekte der Personalentwicklung haben, werden nicht systematisch untersucht.
A widely recognized paper by Colin Mayer (1988) has led to a profound revision of academic thinking about financing patterns of corporations in different countries. Using flow-of-funds data instead of balance sheet data, Mayer and others who followed his lead found that internal financing is the dominant mode of financing in all countries, that financing patterns do not differ very much between countries and that those differences which still seem to exist are not at all consistent with the common conviction that financial systems can be classified as being either bank-based or capital market-based. This leads to a puzzle insofar as it calls into question the empirical foundation of the widely held belief that there is a correspondence between the financing patterns of corporations on the one side, and the structure of the financial sector and the prevailing corporate governance system in a given country on the other side. The present paper addresses this puzzle on a methodological and an empirical basis. It starts by comparing and analyzing various ways of measuring financial structure and financing patterns and by demonstrating that the surprising empirical results found by studies that relied on net flows are due to a hidden assumption. It then derives an alternative method of measuring financing patterns, which also uses flow-of-funds data, but avoids the questionable assumption. This measurement concept is then applied to patterns of corporate financing in Germany, Japan and the United States. The empirical results, which use an estimation technique for determining gross flows of funds in those cases in which empirical data are not available, are very much in line with the commonly held belief prior to Mayer’s influential contribution and indicate that the financial systems of the three countries do indeed differ from one another in a substantial way, and moreover in a way which is largely in line with the general view of the differences between the financial systems of the countries covered in the present paper.
Tractable hedging - an implementation of robust hedging strategies : [This Version: March 30, 2004]
(2004)
This paper provides a theoretical and numerical analysis of robust hedging strategies in diffusion–type models including stochastic volatility models. A robust hedging strategy avoids any losses as long as the realised volatility stays within a given interval. We focus on the effects of restricting the set of admissible strategies to tractable strategies which are defined as the sum over Gaussian strategies. Although a trivial Gaussian hedge is either not robust or prohibitively expensive, this is not the case for the cheapest tractable robust hedge which consists of two Gaussian hedges for one long and one short position in convex claims which have to be chosen optimally.
This paper analyzes empirically the distribution of unemployment durations in West- Germany before and after the changes during the mid 1980s in the maximum entitlement periods for unemployment benefits for elderly unemployed. The analysis is based on the comprehensive IAB employment subsample containing register panel data for about 500.000 individuals in West Germany. We analyze two proxies for unemployment since the data do not precisely measure unemployment in an economic sense. We provide a theoretical analysis of the link between the durations of nonemployment and of unemployment between jobs. Our empirical analysis finds significant changes in the distributions of nonemployment durations for older unemployed individuals. At the same time, the distribution of unemployment durations between jobs did not change in response to the reforms. Our findings are consistent with an interpretation that many firms and workers used the more bene cial laws as a part of early retirement packages but those workers who were still looking for a job did not reduce their search effort in response to the extension of the maximum entitlement periods. This interpretation is consistent with our theoretical model under plausible assumptions. JEL: C24, J64, J65
Thema dieser Arbeit ist eine ökonomische Einordnung der Förderung der beruflichen Weiterbildung (FbW) als Teil der Aktiven Arbeitsmarktpolitik in Deutschland. Die Analyse erfolgt im Lichte des sektoralen Wandel, der Verschiebung der qualifikatorischen Arbeitsnachfrage und der vorrauszusehenden Produktivitätseffekte im Zusammenhang mit einer alternden Gesellschaft. Auf Basis der Humankapitaltheorie wird zunächst theoretisch erörtert, inwieweit sich FbW als Teil der Aktiven Arbeitsmarktpolitik aus Effizienz- und Verteiliungsgesichtspunkten rechtfertigen lässt und in welcher Form FbW sinnvoll sein kann.
This paper evaluates the effects of Public Sponsored Training in East Germany in the context of reiterated treatments. Selection bias based on observed characteristics is corrected for by applying kernel matching based on the propensity score. We control for further selection and the presence of Ashenfelter's Dip before the program with conditional difference-in-differences estimators. Training as a first treatment shows insignificant effects on the transition rates. The effect of program sequences and the incremental effect of a second program on the reemployment probability are insignificant. However, the incremental effect on the probability to remain employed is slightly positive. JEL - Klassifikation: H43 , C23 , J6 , J64 , C14
Unter dem Stichwort "Patchwork-Biografien" wird die Tatsache, dass ein großer Teil der abhängig Beschäftigten ihren erlernten Beruf nicht mehr ausüben, in jüngster Zeit viel diskutiert. Diese Studie liefert einen empirischen Beitrag zur Anatomie der Berufswechsel für westdeutsche Männer auf Basis der BIBB/IABDaten 1998/1999. Als Grundlage für die empirische Analyse wird ein theoretisches Modell der Wahl zwischen horizontal differenzierten Berufen entwickelt. Die wichtigsten Ergebnisse sind: Ex post beobachtete Berufswechsel hängen negativ vom Durchschnittslohn im Ausbildungsberuf und positiv vom Durchschnittslohn im Erwerbsberuf ab. Der deskriptiv beobachtete durchschnittliche Entlohnungseffekt eines Berufswechsels ist signifikant positiv, verstärkt sich noch, wenn für den Ausbildungsberuf kontrolliert wird, und ist demgegenüber signifikant negativ, wenn für den Erwerbsberuf kontrolliert wird. Der geschätzte kausale durchschnittliche Entlohnungseffekt ist positiv. Die Ergebnisse sind insgesamt damit konsistent, dass Berufswechsel vor allem damit zusammenhängen, dass Beschäftigte im neuen Erwerbsberuf größere Verdienst- und Karrierechancen wahrnehmen können. JEL - Klassifikation: J62 , J31 , J24 , C21
The Box-Cox quantile regression model using the two stage method introduced by Chamberlain (1994) and Buchinsky (1995) provides an attractive extension of linear quantile regression techniques. However, a major numerical problem exists when implementing this method which has not been addressed so far in the literature. We suggest a simple solution modifying the estimator slightly. This modification is easy to implement. The modified estimator is still [square root] n-consistent and its asymptotic distribution can easily be derived. A simulation study confirms that the modified estimator works well.
This paper sets out to analyze the influence of different types of venture capitalists on the performance of their portfolio firms around and after IPO. We investigate the hypothesis that different governance structures, objectives, and track records of different types of VCs have a significant impact on their respective IPOs. We explore this hypothesis using a data set embracing all IPOs that have occurred on Germany's Neuer Markt. Our main finding is that significant differences among the different VCs exist. Firms backed by independent VCs perform significantly better two years after IPO as compared to all other IPOs, and their share prices fluctuate less than those of their counterparts in this period of time. On the contrary, firms backed by public VCs show relative underperformance. The fact that this could occur implies that market participants did not correctly assess the role played by different types of VCs.
Using a normalized CES function with factor-augmenting technical progress, we estimate a supply-side system of the US economy from 1953 to 1998. Avoiding potential estimation biases that have occurred in earlier studies and putting a high emphasis on the consistency of the data set, required by the estimated system, we obtain robust results not only for the aggregate elasticity of substitution but also for the parameters of labor and capital augmenting technical change. We find that the elasticity of substitution is significantly below unity and that the growth rates of technical progress show an asymmetrical pattern where the growth of laboraugmenting technical progress is exponential, while that of capital is hyperbolic or logarithmic.
In this study, we develop a technique for estimating a firm’s expected cost of equity capital derived from analyst consensus forecasts and stock prices. Building on the work of Gebhardt/Lee/-Swaminathan (2001) and Easton/Taylor/Shroff/Sougiannis (2002), our approach allows daily estimation, using only publicly available information at that date. We then estimate the expected cost of equity capital at the market, industry and individual firm level using historical German data from 1989-2002 and examine firm characteristics which are systematically related to these estimates. Finally, we demonstrate the applicability of the concept in a contemporary case study for DaimlerChrysler and the European automobile industry.
Der Bestimmung risikoadäquater Diskontierungssätze kommt bei der Unternehmensbedeutung eine zentrale Bedeutung zu. Wird zu deren Bestimmung in der praktischen Anwendung das CAPM verwendet, gilt es dabei, risikolose Zinssätze und Risikoprämien zu bestimmen, für die erwartete Renditen des Marktportfeuilles und Beta-Faktoren als Maßgrößen für das systematische Risiko benötigt werden. Passend zu den zu bewertenden erwarteten Überschussgrößen sollten auch die zur Diskontierung verwendeten Renditeforderungen die im Bewertungszeitpunkt erwarteten künftigen Renditen vergleichbarer Anlagen widerspiegeln. Die weitaus meisten Beiträge zur Operationalisierung des CAPM leiten die Renditeforderungen jedoch aus historischen Kapitalmarktrenditen ab. Wir zeigen in diesem Beitrag auf, wie erwartete künftige Renditen aus beobachtbaren Größen, vor allen den Zinsstrukturkurven und den beobachtbaren Analystenprognosen, zukunftsorientiert abgeleitet werden können. Damit wird eine konzeptionell schlüssigere Bewertung der im Bewertungszeitpunkt erwarteten künftigen Überschüsse mit den zeitgleich erwarteten künftigen Renditen ermöglicht.
This study analyses the labour market effects of fixed-term contracts (FTCs) in West Germany by microeconometric methods using individual and establishment level data. In the first part of the study the role of FTCs in firms’ labour demand is analysed. An econometric investigation of the firms’ reasons for using FTCs focussing on the identification of the link between dismissal protection for permanent contract workers and the firms’ use of FTCs is presented. Furthermore, a descriptive analysis of the role of FTCs in worker and job flows at the firm level is provided. The second part of the study evaluates the short-run effects of being employed on an FTC on working conditions and wages using a large cross-sectional dataset of employees. The final part of the study analyses whether taking up an FTC increases the (permanent contract) employment opportunities in the long-run (stepping stone effect) and whether FTCs affect job finding behaviour of unemployed job searchers. Firstly, an econometric unemployment duration analysis distinguishing between both types of contracts as destination states is performed. Secondly, the effects of entering into FTCs from unemployment on future (permanent contract) employment opportunities are evaluated attempting to account for the sequential decision problem of job searchers.
This paper evaluates the effects of job creation schemes on the participating individuals in Germany. Since previous empirical studies of these measures have been based on relatively small datasets and focussed on East Germany, this is the first study which allows to draw policy-relevant conclusions. The very informative and exhaustive dataset at hand not only justifies the application of a matching estimator but also allows to take account of threefold heterogeneity. The recently developed multiple treatment framework is used to evaluate the effects with respect to regional, individual and programme heterogeneity. The results show considerable differences with respect to these sources of heterogeneity, but the overall finding is very clear. At the end of our observation period, that is two years after the start of the programmes, participants in job creation schemes have a significantly lower success probability on the labour market in comparison to matched non-participants.
In dieser Studie werden die Wirkungen von Arbeitsbeschaffungsmaßnahmen (ABM) in Deutschland auf die individuellen Eingliederungswahrscheinlichkeiten der Teilnehmer in reguläre Beschäftigung evaluiert. Für die Untersuchung wird ein umfangreicher und informativer Datensatz aus den Datenquellen der Bundesagentur für Arbeit (BA) verwendet, der es ermöglicht, die Wirkungen der Programme differenziert nach individuellen Unterschieden der Teilnehmer und mit Berücksichtigung der heterogenen Arbeitsmarktstruktur zu untersuchen. Der Datensatz enthält Informationen zu allen Teilnehmern in ABM, die ihre Maßnahmen im Februar 2000 begonnen haben, und zu einer Kontrollgruppe von Nichtteilnehmern, die im Januar 2000 arbeitslos waren und im Februar 2000 nicht in die Programme eingetreten sind. Mit Hilfe der Informationen der Beschäftigtenstatistik ist es hierbei erstmals möglich, den Abgang in reguläre Beschäftigung auf Grundlage administrativer Daten zu untersuchen. Der vorliegende Verbleibszeitraum reicht bis Dezember 2002. Unter Verwendung von Matching-Methoden auf dem Ansatz potenzieller Ergebnisse werden die Effekte von ABM mit regionaler Unterscheidung und für besondere Problem- und Zielgruppen des Arbeitsmarktes geschätzt. Die Ergebnisse zeigen zwar deutliche Unterschiede in den Effekten für Subgruppen, insgesamt weisen die empirischen Befunde jedoch darauf hin, dass das Ziel der Eingliederung in reguläre ungeförderte Beschäftigung durch ABM weitgehend nicht realisiert werden konnte. JEL: C40 , C13 , J64 , H43 , J68
In dieser Studie werden die Wirkungen von Arbeitsbeschaffungsmaßnahmen (ABM) in Deutschland auf die individuellen Eingliederungswahrscheinlichkeiten der Teilnehmer in reguläre Beschäftigung evaluiert. Für die Untersuchung wird ein umfangreicher und informativer Datensatz aus den Datenquellen der Bundesagentur für Arbeit (BA) verwendet, der es ermöglicht, die Wirkungen der Programme differenziert nach individuellen Unterschieden der Teilnehmer und mit Berücksichtigung der heterogenen Arbeitsmarktstruktur zu untersuchen. Der Datensatz enthält Informationen zu allen Teilnehmern in ABM, die ihre Maßnahmen im Februar 2000 begonnen haben, und zu einer Kontrollgruppe von Nichtteilnehmern, die im Januar 2000 arbeitslos waren und im Februar 2000 nicht in die Programme eingetreten sind. Mit Hilfe der Informationen der Beschäftigtenstatistik ist es hierbei erstmals möglich, den Abgang in reguläre Beschäftigung auf Grundlage administrativer Daten zu untersuchen. Der vorliegende Verbleibszeitraum reicht bis Dezember 2002. Unter Verwendung von Matching-Methoden auf dem Ansatz potenzieller Ergebnisse werden die Effekte von ABM mit regionaler Unterscheidung und für besondere Problem- und Zielgruppen des Arbeitsmarktes geschätzt. Die Ergebnisse zeigen zwar deutliche Unterschiede in den Effekten für Subgruppen, insgesamt weisen die empirischen Befunde jedoch darauf hin, dass das Ziel der Eingliederung in reguläre ungeförderte Beschäftigung durch ABM weitgehend nicht realisiert werden konnte. JEL: C40 , C13 , J64 , H43 , J68
In this paper, we calculate a transaction–based price index for apartments in Paris (France). The heterogeneous character of real estate is taken into account using an hedonic model. The functional form is specified using a general Box–Cox function. The data basis covers 84 686 transactions of the housing market in 1990:01–1999:12, which is one of the largest samples ever used in comparable studies. Low correlations of the price index with stock and bond indices (first differences) indicate diversification benefits from the inclusion of real estate in a mixed asset portfolio. JEL C43, C51, O18, R20.
In contrast to the United States and the United Kingdom, little empirical work exists about the distributional characteristics of appraisalbased real estate returns outside these countries. The purpose of this study is to fill this gap by focusing on Germany. In line with other studies, this paper offers an extensive investigation into the distribution of German real estate returns and compares them with and U.S. and U.K. data in the same period. Furthermore, the comovements with bonds and stocks are also examined. In the core, the distributional characteristics for German real estate are comparable to that for the U.S. and U.K.
Die Konvergenz von Medien, Telekommunikation sowie Informationstechnologie führt zu einer gesteigerten Interaktion zwischen den Computergeräten dieser drei Wirtschaftssektoren. Zugleich steigt die Anzahl mutierender Würmer, Viren und Trojanische Pferde, wie z.B. Varianten der Bagle- und Sober-Würmer oder der Netsky- und MyDoom-Viren, im Tagesrhythmus und bedrohen die Sicherheit von Computerplattformen. Die Daten der Systeme sind daher potenziellen Risiken ausgesetzt. Um dieser steigenden Bedrohung zu entgegnen, entwickelt die industrielle Initiative „Trusted Computing Group“ (TCG), ehemals „Trusted Computing Platform Alliance“ (TCPA), einen Standard, welcher die Sicherheit der verschiedenen Gerätetypen verbessern soll. Abbildung 1 dokumentiert dabei die Sicherheitsmängel, welche durch die verschiedenen Typen der Attacken oder den entdeckten Missbrauch veranschaulicht werden. Speziell Viren und der Missbrauch der Netzwerkzugänge innerhalb des Unternehmens können aus der Abbildung 1 als häufigste Ursache entnommen werden. Verlust des Laptops, nicht autorisierte Zugriffe durch Insider und Denial of Service Angriffe folgen auf den weiteren Plätzen. Die Gesamtkosten der Computerkriminalität sind zwar unter das Niveau vom Jahre 2000 gefallen, speziell von 2002 auf 2003 haben sich diese mehr als halbiert, obwohl seit 1999 besonders die Urheberrechtsverletzungen proprietärer Informationen stetig angestiegen sind. Der Verlust proprietärer Informationen steht mit 21 Prozent nicht direkt im Vordergrund der obigen Abbildung. Allerdings schlägt der Diebstahl von proprietären Informationen mit 35 Prozent der Gesamtkosten der Computerkriminalität zu buche und führt damit die geschätzten Verluste aus Abbildung 2 an. Auf Platz zwei folgen Denial of Service Angriffe, die Kosten von ca. 65,6 Millionen Dollar verursachen. Viren, Missbrauch des Netzes durch Insider sowie finanzieller Betrug folgen auf weiteren Plätzen. In der Studie vom Computer Security Institute werden die Bestrebungen der TCG, vertrauenswürdige Plattformen herzustellen, als mögliche Lösung des Problems des Diebstahls von proprietären Informationen betrachtet. Deren Effekte werden sich voraussichtlich in fünf bis zehn Jahren auf die Computersicherheit bemerkbar machen. Auch das „Federal Bureau of Investigation“ (FBI) hat mittlerweile eine Initiative zusammen mit der Entertainment- und Softwareindustrie gegen den Diebstahl von urheberrechtlich geschütztem Material abgeschlossen, da die Verluste in der Summe mehrere Billionen Dollar verursachen. Die beiden ersten Abbildungen in Verbindung mit dem dazugehörigen Zahlenmaterial belegen die Diskrepanz der TCG. Dazu stützt sich die TCG auf die steigende Anzahl an Attacken und Missbräuche, ohne die geschätzten Verluste der einzelnen Attacken zu berücksichtigen. Gerade die enorme wirtschaftliche Bedeutung von Information und deren Missbrauch offenbart allerdings einen möglichen Antrieb, die Sicherheit bestehender Rechnersysteme zu verbessern. Diese Erkenntnis ist jedoch nicht übereinstimmend mit der Triebkraft der TCG, die ihre Initiative auf die steigende Anzahl an Schwachstellen stützt, um vermutlich ihre eigentlichen Beweggründe zu verschleiern. Ziel dieser Arbeit ist zum einen den technischen Standard der TCG sowie mögliche Umsetzungen vorzustellen und zum anderen die Standardisierung unter ökonomischen Ansichten zu untersuchen, um sie anschließend zu bewerten. Dazu wird im zweiten Kapitel ein erster Einblick über das Standardisierungsgremium, deren Beweggründe sowie den historischen Kontext zwischen TCPA und TCG gegeben. Das dritte Kapitel dient als Grundlage und Einführung in die Informationsökonomie, um die Komplexität und Zusammenhänge hinsichtlich der Standardisierung und abschließenden Bewertung in den folgenden Kapiteln besser zu erfassen. Neben der Technologie und Information spielt die Auswahl der Erlöse in Verbindung mit der Preisdiskriminierung eine wichtige Rolle. Bezüglich der Standardisierung und Bewertung haben Lock-in sowie Wechselkosten erhebliche Auswirkungen auf die Kon-sumenten. Das gilt ebenfalls für die Größenvorteile, vor allem auf die Netzwerkexternalitäten. Die Standardisierung der TCG wird im vierten Kapitel ausführlicher behandelt, wobei Standards definiert, abgegrenzt und klassifiziert werden. Zudem wird die koope-rative Standardisierung in Form einer Allianz sowie die daraus folgende Problematik des Umgangs mit geistigem Eigentum eingegangen. Das fünfte Kapitel geht direkt auf die technischen Spezifikationen der TCG ein, erklärt das Grundkonzept vertrauenswürdiger Plattformen und behandelt als Schwerpunkt die Komponente des „Trusted Platform Modules“ (TPM) sowie dessen Implementierung in einen Computer. Im Anschluss daran werden im sechsten Abschnitt technischen Umsetzungen auf praktische Anwendungen und Szenarien vorgestellt. Dazu werden als Erstes verfügbare Umsetzungen sowie die Hardwarearchitektur am Beispiel von Intel LaGrande dargestellt, worauf die anschließenden Softwareanwendungen unter den beiden Betriebssystemen Windows und Linux aufbauen. Das siebte Kapitel behandelt die Bewertung der kooperativen Standardisierung und zeigt die Zusammenhänge zwischen Hardwarekompatibilität und Netzwerkexternalitäten auf. Darüber hinaus wird die Adoption dieser neuen Technologie unter statischen und dynamischen Ansätzen berechnet und abschließend die Schwächen und Risiken dieser neuen Technologie erläutert.
Despite a legal framework being in place for several years, the market share of qualified electronic signatures is disappointingly low. Mobile Signatures provide a new and promising opportunity for the deployment of an infrastructure for qualified electronic signatures. We analyzed two possible signing approaches (server based and client based signatures) and conclude that SIM-based signatures are the most secure and convenient solution. However, using the SIM-card as a secure signature creation device (SSCD) raises new challenges, because it would contain the user’s private key as well as the subscriber identification. Combining both functions in one card raises the question who will have the control over the keys and certificates. We propose a protocol called Certification on Demand (COD) that separates certification services from subscriber identification information and allows consumers to choose their appropriate certification services and service providers based on their needs. We also present some of the constraints that still have to be addressed before qualified mobile signatures are possible.
Despite a legal framework being in place for several years, the market share of qualified electronic signatures is disappointingly low. Mobile Signatures provide a new and promising opportunity for the deployment of an infrastructure for qualified electronic signatures. We that SIM-based signatures are the most secure and convenient solution. However, using the SIM-card as a secure signature creation device (SSCD) raises new challenges, because it would contain the user’s private key as well as the subscriber identification. Combining both functions in one card raises the question who will have the control over the keys and certificates. We propose a protocol called Certification on Demand (COD) that separates certification services from subscriber identification information and allows consumers to choose their appropriate certification services and service providers based on their needs. This infrastructure could be used to enable secure mobile brokerage services that can ommit the necessity of TAN lists and therefore allow a better integration of information and transaction services.
Multiplayer games have become very popular in the PC market. Almost none of the current games are shipped without some support for multiplayer gaming. At the same time mobile devices are becoming more powerful and popularity of games on these platforms increases. However, there are almost no games that support multiplayer gaming despite the multiple options of these devices to connect with each other and build mobile ad hoc networks. Reasons for this lack of multiplayer support are the high diversity of mobile devices as well as the different protocols and their properties that these devices support. With “SmartBlaster” we developed a multiplayer game for several different platforms that is using several different channels (Bluetooth, IrDa, 802.11 and other networks supporting TCP/IP) to communicate between them.
Diese Arbeit hat einen Überblick über das IMS Learning Design und die damit verbundenen Spezifikationen gegeben und aktuelle Bestrebungen einer Adaption untersucht. Das IMS Learning Design bietet die Grundlage für die Gestaltung pädagogischer Frameworks für die Wiederverwendung von einzelnen Aktivitäten bis hin zu ganzen Kursen. Einmal erstellter Content kann auf diese Weise für unterschiedliche Zielgruppen und Lernumgebungen angeboten werden (create once deliver many times). Vgl. Hummel, H. (2004), S. 111. Gleichzeitig kann durch die didaktische Gestaltung von Lehr-/ Lerneinheiten der Mehrwert eines Lernszenarios für die Teilnehmer erhöht werden, da eine teilnehmerfokussierte Wissensübermittlung möglich gemacht wird. Dies beruht jedoch prinzipiell auf den pädagogischen Fähigkeiten des Autors eines Kurses. Im Forschungsbereich Geisteswissenschaften wird zu diesem Thema noch einiges zu untersuchen sein, was die Gestaltung pädagogischer Lehr-/ Lerneinheiten betrifft, da e-Learning-Kurse aus pädagogischer Sicht nicht mit Präsenzveranstaltungen gleichzusetzen sind. Die Verwendung von Standards im Bereich e-Learning ist sowohl für Kunden als auch für die Anbieter von Learning Management Systemen profitabel. Während Kunden die Möglichkeit bekommen aus einer Vielzahl von Anbietern zu wählen, die Standardschnittstellen anbieten, wächst für Anbieter der Kundenkreis, an den ihre Produkte verkauft werden können. Der Adaptionsprozess und die Forschung bezüglich des IMS LD steckt aber noch in den Anfängen. In diesem Zusammenhang wird eine verstärkte Öffentlichkeitsarbeit notwendig sein, um die Potentiale und das Know How bezüglich dieser Spezifikation zu vermitteln, und so den Adaptionsprozess voranzutreiben. Die Integration des Learning Designs in bestehende Spezifikationspakete wie z.B. SCORM würde die Akzeptanz und die Adaption auf dem Markt für e-Learning-Produkte möglicherweise erhöhen, vernachlässigt jedoch die Auseinandersetzung mit der eigentlichen Spezifikation. Die Integration weiterer Spezifikationen in das Learning Design ist derzeit noch problematisch, da hierfür einerseits rechtliche Grundlagen ungeklärt sind (IMS LIP, PAPI) und anderseits das technische Zusammenspiel der Interpreter noch nicht realisiert wurde. Das IMS LD ist eine große Chance für die Durchsetzung einheitlicher e-Learning- Konzepte. Es bietet einen Ansatz für die standardisierte Gestaltung von e-Learning-Systemen, der bis dato häufig nur durch Customizing (create one deliver once) gelöst werden konnte.