Refine
Year of publication
- 2009 (116) (remove)
Document Type
- Working Paper (116) (remove)
Has Fulltext
- yes (116) (remove)
Is part of the Bibliography
- no (116)
Keywords
- Deutschland (10)
- Haushalt (6)
- Bank (5)
- Lambda-Kalkül (5)
- USA (5)
- Household Finance (4)
- Buffer Stock Saving (3)
- Europäische Union (3)
- Financial Crisis (3)
- Fiscal Stimulus (3)
Institute
- Center for Financial Studies (CFS) (35)
- Institute for Monetary and Financial Stability (IMFS) (19)
- Wirtschaftswissenschaften (16)
- Informatik (9)
- Rechtswissenschaft (9)
- Institut für sozial-ökologische Forschung (ISOE) (5)
- Institute for Law and Finance (ILF) (5)
- Interdisziplinäres Zentrum für Ostasienstudien (IZO) (2)
- Zentrum für Nordamerika-Forschung (ZENAF) (2)
- Geowissenschaften / Geographie (1)
Wohnungs‐ und Büroimmobilienmärkte unter Stress: Deregulierung, Privatisierung und Ökonomisierung
(2009)
The privatization of Old Age and Survivors Insurance and Disability Insurance was a top priority on president Bush’s domestic political agenda. Although Bush’s reform initiative has failed and president Obama has declared not to privatize social security, the system of public old age security in the United States is still in crisis, mainly because of demographic factors and the ensuing financial problems but also because of the recent and deep economic recession in the United States. This article reviews the initiative of the Bush-Administration to partially privatize social security and analyzes the main objectives behind Bush policy as well as the main arguments against and obstacles to it. By placing Bush politics of privatizing social security in a broader context of comparative welfare state reform, this article discusses the consequences of privatizing social security systems on equality and poverty, as well as on the legitimacy of the political system in general.
Die Natur unterliegt vielfältigen durch den Menschen hervorgerufenen Umweltbelastungen. Neben Veränderungen der Landnutzung oder Konsummuster stellt der anthropogen verursachte Klimawandel einen entscheidenden Einflussfaktor dar. Nicht nur der Temperaturanstieg an sich ist Auslöser für Ökosystemveränderungen, sondern auch die Folgen des Temperaturanstiegs führen zu massiven Änderungen der Biodiversität. Ökosysteme können so aus dem Gleichgewicht geraten und aufgrund starker Umweltbelastungen schließlich zusammenbrechen. Werden keine Maßnahmen zum Schutz der Biodiversität getroffen, wird es langfristig zu folgenschweren Auswirkungen kommen, die auch die Lebensgrundlage der Menschen stark gefährden. In Deutschland liegt die Verantwortung für den Erhalt der Biodiversität bei verschiedenen Ministerien und Ämtern, die eng miteinander vernetzt sind. Die zentrale Referenz der Bundesregierung stellt dabei die nationale Strategie zur biologischen Vielfalt dar.
Der vorliegende Band analysiert die Biodiversitätsstrategie und ihre Umsetzung als wichtige Diskursarena im Diskursfeld „Klimabedingte Biodiversitätsveränderungen“. Ausgehend von einer Analyse der Akteure auf Bundes- und Länderebene sowie aus Wissenschaft und Zivilgesellschaft werden wichtige gesellschaftliche Handlungsfelder und Forschungslücken ebenso aufgezeigt wie die darin erkennbaren Wissenskonflikte.
Der vorliegende Materialienband entstand im Rahmen der problemorientierten Diskursfeldanalyse zu „Klimabedingten Veränderungen der Biodiversität“. Ziel dabei ist es, prioritäre Themen und zentrale Akteure systematisch darzustellen, sowie Konfliktlinien und zukünftige Handlungsbedarfe innerhalb des Themenfeldes zu identifizieren. Das Millennium Ecosystem Assessment bildet dabei eine zentrale Diskursarena im Diskursfeld. Im Zentrum der Analyse des Millennium Ecosystem Assessments stehen wissenschaftlich beeinflusste Positionen und die Frage nach deren gesellschaftlicher Nutzung.
Es ist von wissenschaftlicher Seite unumstritten, dass die Auswirkungen des Klimawandels bereits heute die Biodiversität auf unterschiedliche Art und Weise stark beeinflussen. Der vorliegende Bericht analysiert daher den Diskurs zum Themenfeld klimabedingte Biodiversitätsveränderungen auf wissenschaftlicher Basis. Dabei werden zunächst kurz die Vorgeschichte und die zentralen Inhalte des Millennium Ecosystem Assessment skizziert. Die Darlegung und Diskussion übergreifender Themenfelder ermöglicht die Festlegung prioritärer Diskursstränge innerhalb der Diskursarena. Diese umfassen sowohl ökosystemare Aspekte als auch wirtschaftliche Handlungsfelder und forscherliche Herausforderungen. In einem weiteren Arbeitsschritt werden umstrittene Wirkungszusammenhänge sowie wissenschaftliche Forschungsbedarfe und gesellschaftliche Handlungsbedarfe erörtert.
Papers on pragmasemantics
(2009)
Optimality theory as used in linguistics (Prince & Smolensky, 1993/2004; Smolensky & Legendre, 2006) and cognitive psychology (Gigerenzer & Selten, 2001) is a theoretical framework that aims to integrate constraint based knowledge representation systems, generative grammar, cognitive skills, and aspects of neural network processing. In the last years considerable progress was made to overcome the artificial separation between the disciplines of linguistic on the one hand which are mainly concerned with the description of natural language competences and the psychological disciplines on the other hand which are interested in real language performance.
The semantics and pragmatics of natural language is a research topic that is asking for an integration of philosophical, linguistic, psycholinguistic aspects, including its neural underpinning. Especially recent work on experimental pragmatics (e.g. Noveck & Sperber, 2005; Garrett & Harnish, 2007) has shown that real progress in the area of pragmatics isn’t possible without using data from all available domains including data from language acquisition and actual language generation and comprehension performance. It is a conceivable research programme to use the optimality theoretic framework in order to realize the integration.
Game theoretic pragmatics is a relatively young development in pragmatics. The idea to view communication as a strategic interaction between speaker and hearer is not new. It is already present in Grice' (1975) classical paper on conversational implicatures. What game theory offers is a mathematical framework in which strategic interaction can be precisely described. It is a leading paradigm in economics as witnessed by a series of Nobel prizes in the field. It is also of growing importance to other disciplines of the social sciences. In linguistics, its main applications have been so far pragmatics and theoretical typology. For pragmatics, game theory promises a firm foundation, and a rigor which hopefully will allow studying pragmatic phenomena with the same precision as that achieved in formal semantics.
The development of game theoretic pragmatics is closely connected to the development of bidirectional optimality theory (Blutner, 2000). It can be easily seen that the game theoretic notion of a Nash equilibrium and the optimality theoretic notion of a strongly optimal form-meaning pair are closely related to each other. The main impulse that bidirectional optimality theory gave to research on game theoretic pragmatics stemmed from serious empirical problems that resulted from interpreting the principle of weak optimality as a synchronic interpretation principle.
In this volume, we have collected papers that are concerned with several aspects of game and optimality theoretic approaches to pragmatics.
Motivated by the question of correctness of a specific implementation of concurrent buffers in the lambda calculus with futures underlying Alice ML, we prove that concurrent buffers and handled futures can correctly encode each other. Correctness means that our encodings preserve and reflect the observations of may- and must-convergence, and as a consequence also yields soundness of the encodings with respect to a contextually defined notion of program equivalence. While these translations encode blocking into queuing and waiting, we also describe an adequate encoding of buffers in a calculus without handles, which is more low-level and uses busy-waiting instead of blocking. Furthermore we demonstrate that our correctness concept applies to the whole compilation process from high-level to low-level concurrent languages, by translating the calculus with buffers, handled futures and data constructors into a small core language without those constructs.
We investigate methods and tools for analyzing translations between programming languages with respect to observational semantics. The behavior of programs is observed in terms of may- and mustconvergence in arbitrary contexts, and adequacy of translations, i.e., the reflection of program equivalence, is taken to be the fundamental correctness condition. For compositional translations we propose a notion of convergence equivalence as a means for proving adequacy. This technique avoids explicit reasoning about contexts, and is able to deal with the subtle role of typing in implementations of language extensions.
The paper proposes a variation of simulation for checking and proving contextual equivalence in a non-deterministic call-by-need lambda-calculus with constructors, case, seq, and a letrec with cyclic dependencies. It also proposes a novel method to prove its correctness. The calculus’ semantics is based on a small-step rewrite semantics and on may-convergence. The cyclic nature of letrec bindings, as well as nondeterminism, makes known approaches to prove that simulation implies contextual equivalence, such as Howe’s proof technique, inapplicable in this setting. The basic technique for the simulation as well as the correctness proof is called pre-evaluation, which computes a set of answers for every closed expression. If simulation succeeds in finite computation depth, then it is guaranteed to show contextual preorder of expressions.
The goal of this report is to prove correctness of a considerable subset of transformations w.r.t. contextual equivalence in an extended lambda-calculus LS with case, constructors, seq, let, and choice, with a simple set of reduction rules; and to argue that an approximation calculus LA is equivalent to LS w.r.t. the contextual preorder, which enables the proof tool of simulation. Unfortunately, a direct proof appears to be impossible.
The correctness proof is by defining another calculus L comprising the complex variants of copy, case-reduction and seq-reductions that use variable-binding chains. This complex calculus has well-behaved diagrams and allows a proof of correctness of transformations, and that the simple calculus LS, the calculus L, and the calculus LA all have an equivalent contextual preorder.
Der starke Anstieg von nitrophytischen Flechten während der letzten 15 Jahren in landwirtschaftlich genutzten und städtischen Bereichen hat die Frage aufgeworfen, welche Stickstoffverbindung dafür verantwortlich sind, welche physiologischen Probleme diese machen, wo diese herkommen, welche Auswirkungen sie auf die Flechten haben, was mit dem Stickstoff in den Flechten passiert, wie sich Feinstaub und trockene Deposition auswirken und wieso Nitrophyten auch in unbelasteten Gebieten dominieren. Nach den Ergebnissen zahlreicher Einzelstudien, die hier mit neuen Daten ergänzt werden, ist Ammoniak die relevante Stickstoffquelle. Dieser wird als Ammoniumnitrat speziell in Form von trockener Deposition von den Flechten aufgenommen. Da Ammoniumnitrat ein Salz ist, haben Nitrophyten höhere osmotische Werte, weswegen sie in belasteten Gebieten konkurrenzkräftiger sind. Dies erlaubt Nitrophyten gleichzeitig die Existenz in Trockengebieten auch ohne Stickstoffemissionen, weswegen sie nicht unbedingt Stickstoffzeiger sondern auch Trockenzeiger sind. Der anfallende Stickstoff wird in Form von Aminosäuren in der Flechte passiv gespeichert, weswegen Nitrophyten nicht nitrophil sondern nitrotolerant, halotolerant und xerophytisch sind. Die momentane Temperaturerhöhung und die damit verbundene erhöhte Verdunstung sowie die Zunahme trockener Deposition (Feinstaubbelastung) führen zur Zeit trotz sinkender Gesamtstickstoffbelastung zu einem weiteren Anstieg der nitrophytischen Flechten.
Orientierende Untersuchungen zur Wirkung der Staubimprägnierung von Borken auf epiphytische Flechten
(2009)
Staubimprägnierung wird als wesentlicher Faktor für die Beeinflussung des Borkensubstrates von epiphytischen Flechten erachtet, da er das Nährstoffangebot und den pH-Wertes der Baumoberfläche beeinflusst. Es gibt jedoch bislang keine Untersuchungen und Daten über Art und Weise dieser Wirkung. Daher wurden im Stadtgebiet von Bonn die Leitfähigkeit (als Referenz für die Staubmenge) und der pH-Wert von Borken in verschiedenen verkehrsbeeinflussten Gebieten gemessen. Es zeigte sich, dass die Staubmenge verkehrsabhängig ist und der pH-Wert bei steigendem Staubeinfluss sinkt. Da der Staub bei Regenfällen jedoch immer wieder abgespült wird, wird der Staubeinfluss auf das Substrat insgesamt für gering erachtet. Hingegen wird der osmotische Effekt von löslichen Stäuben für wichtig gehalten.
Die Häufigkeit der beiden gegenüber Verkehrsimmissionen und städtischer Überwärmung toleranten Blattflechten Phaeophyscia nigricans und P. orbicularis bezogen auf die Deckung aller anderen epiphytischen Flechten wird als einfaches Instrument zur Bestimmung der Umweltbelastung einer Großstadt (Düsseldorf) überprüft.
In der Düsseldorfer Innenstadt und im südlichen Vorort Benrath wurde das Artenspektrum epiphytischer Flechten an freistehenden Bäumen erfasst. Unter den 26 Flechten sind fünf durch den Klimawandel begünstigte Arten (u.a. Punctelia borreri). Bis auf eine meiden diese die Innenstadt. Als Grund dafür wird die gegenüber dem Vorort höhere Immissionsbelastung und höhere relative Trockenheit vermutet (innerstädtische Wärmeinsel).
Ist der Anstieg nitrophiler Flechten an Bäumen auf eine Erhöhung des Borken-pHs zurückzuführen?
(2009)
Der Anstieg nitrophiler Flechten an Bäumen in den letzten zehn Jahren wirft die Frage nach den dafür verantwortlichen Ursachen auf. Einer Hypothese zur Folge soll dieser Anstieg auf eine Erhöhung des Borken-pH beruhen, hervorgerufen durch die gesunkenen SO2-Emissionen, gestiegene Ammoniakemissionen oder auch Verkehrsstäube. Um diese Hypothese zu testen, wurden im Rheinland pH-Messungen unterschiedlicher Trägerbaumarten durchgeführt und mit Faktoren wie der Frequenz bzw. Diversität nitrophyischer Flechten oder der Verkehrsdichte korreliert. Dabei zeigte sich, dass der stärkere Verkehr den pH von Eichen mit pufferarmer Borke anhebt. Bei Linden lässt sich ein geringer, bei Ahornen kein Zusammenhang zum Verkehr finden. Ein Zusammenhang zwischen Frequenz oder Diversität von nitrophytischen Flechtenarten mit dem Borken-pH konnte nicht gefunden werden. Deswegen kann ein Anstieg der nitrophytischen Flechten generell nicht auf die Änderung des Borken-pHs zurückgeführt werden. Im Vergleich mit pH-Werten von Borken aus den Fünfziger Jahren ist ein deutlicher Anstieg der Werte zu verzeichnen, der dann aber auf den Rückgang der Säurewirkung von SO2 und nicht auf die basische Wirkung von eutrophierenden Emissionen zurückzuführen ist. Als mögliche Ursache für den Anstieg nitrophytischer Flechten wird die Salzwirkung von trockenen Stickstoffdepositionen erwogen.
In contrast to the US and recently Europe, Japan appears to be unsuccessful in establishing new industries. An oft-cited example is Japan's practical invisibility in the global business software sector. Literature has ascribed Japan's weakness – or conversely, America's strength – to the specific institutional settings and competences of actors within the respective national innovation system. It has additionally been argued that unlike the American innovation system, with its proven ability to give birth to new industries, the inherent path dependency of the Japanese innovation system makes innovation and establishment of new industries quite difficult. However, there are two notable weaknesses underlying current propositions postulating that only certain innovation systems enable the creation of new industries: first, they mistakenly confound context specific with general empirical observations. And second, they grossly underestimate – or altogether fail to examine – the dynamics within innovation systems. This paper will show that it is precisely the dynamics within innovation systems – dynamics founded on the concept of path plasticity – which have enabled Japan to charge forward as a global leader in a highly innovative field: the game software sector as well as the biotechnology industry.
European scholars, colonial administrators, missionaries, bibliophiles and others were the main collectors of Malay books in the nineteenth century, both in manuscript or printed form. Among these persons were many well-known names in the field of Malay literature and culture like Raffles, Marsden, Crawfurd, Klinkert, van der Tuuk, von Dewall, Roorda, Favre, Maxwell, Overbeck, Wilkinson and Skeat, to name only a few. Their collections were often handed over to public libraries where they form an important part of the relevant Oriental or Southeast Asian manuscript collections.
Therefore the knowledge of the intellectual culture of the Malay Peninsula and the Malay World in general depended very much on these manuscripts and printed books collected often by chance or in a rather unsystematic way. The collections reflect in a strong sense the interests of its administrative or philologist collectors: court histories, genealogies of aristocratic lineages, law collections (adat-istiadat as well as undangundang) or prose belles-lettres build a vast bulk of these collections, while Islamic religious texts and poetry forms popular in the 19th century (especially syair) are fairly underrepresented. Malay manuscripts and books located in religious institutions like mosques or pondok/pesantren schools have not been searched for; until today there are more or less no systematic studies of these collections. As in some statistics religious texts build about 20% of all existing Malay manuscripts, their neglect by Europeans scholars leads to a distorted view of the literary culture in the Malay language.
Im vorliegenden Papier werden drei Ansätze zur Reform des Familienleistungsausgleichs (FLA) mit jeweils zwei Varianten dargestellt und hinsichtlich ihrer fiskalischen Effekte und Wirkungen in verschiedenen Segmenten der Einkommensverteilung systematisch verglichen. – Mit dem weitestgehenden Konzept, der Kindergrundsicherung, wird ein Existenz sicherndes und zu versteuerndes Kindergeld in Höhe von monatlich 502 Euro bzw. 454 Euro pro Kind vorgeschlagen. Die bisherigen kindbedingten Freibeträge und mehrere Sozialleis-tungen könnten entfallen bzw. reduziert werden. – Daneben werden Kindergelderhöhungen auf einheitlich 238 Euro bzw. 328 Euro pro Kind und Monat, die allen Kindern – auch denen im SGB II-Leistungsbezug – zugute kommen sollen, untersucht. Das Kindergeld wäre wie bisher nicht zu versteuern, die bisherigen kindbedingten Freibeträge würden aber entfallen. – Schließlich wird der Vorschlag einer deutlichen Erhöhung des Kinderzuschlags bei reduzierter Mindesteinkommensgrenze und Wegfall der Höchsteinkommensgrenze erörtert. Zudem ist bei diesem Ansatz ein nochmals erhöhter Kinderzuschlag bei Alleinerziehenden – analog zum Mehrbedarfszuschlag nach dem SGFB II – (erste Variante) oder eine Herabsetzung der Transferentzugsrate auf Nichterwerbseinkommen von 100% auf 70% (zweite Variante) vorgesehen. Die zu erwartenden fiskalischen Belastungen der einfachen Kindergelderhöhung (ohne Be-steuerung) können ohne Weiteres hochgerechnet werden (16 bzw. 35 Mrd. Euro p. a.), die der anderen Reformmodelle sind aber ohne mikroanalytische Fundierung unter Berücksichtigung der Einkommensverteilung kaum abschätzbar. Zwar lassen sich auch die Bruttokosten der Kindergrundsicherung auf einfachem Wege ermitteln (Multiplikation der Kindergeld-Kinder mit der Betragshöhe), die Aggregate der davon abzusetzenden zahlreichen Einsparungen bei anderen Sozialleistungen und insbesondere der Steuermehreinnahmen sind allerdings nicht offensichtlich. Eine erste Überschlagsrechnung hat ergeben, dass die Nettokosten der ersten „großzügigen“ Variante der Kindergrundsicherung (502 Euro) denen der Kindergelderhöhung auf das sächliche Existenzminimum (322 Euro) ohne Besteuerung ungefähr gleich sind (in der Größenordnung von 35 Mrd. Euro). Eine genauere Quantifizierung kann aber nur auf der Ba-sis repräsentativer Mikrodaten und eines Simulationsmodells erfolgen, da insbesondere der Besteuerungseffekt der Kindergrundsicherung von der faktischen Einkommensverteilung abhängt. Auch eine Kostenschätzung für die Kinderzuschlagsreform bedarf mikroanalytischer Verfahren; ungeachtet dessen würde diese auf einen begrenzten Einkommensbereich gerichte-te Reform aber eindeutig die geringsten Kosten verursachen. Für einen systematischen Vergleich der Verteilungswirkungen der Reformvorschläge werden in der vorliegenden Arbeit Modellrechnungen für zwei ausgewählte Haushaltstypen präsen-tiert. Dabei wird deutlich, dass mit dem vergleichsweise begrenzten Konzept der Ausweitung des Kinderzuschlags die Situation von Familien in prekären Einkommensverhältnissen bis zu Familien der unteren Mittelschicht deutlich verbessert werden könnte. Inwieweit dieser Effekt eintreten würde, hängt allerdings auch vom Inanspruchnahmeverhalten ab; bisher ist die Nicht-Inanspruchnahme von Kinderzuschlag und Wohngeld weit verbreitet. Zudem würde sich die Situation der ärmsten Familien, die auf SGB II-Leistungen angewiesen sind, nicht verbessern, und am oberen Rand würden die Entlastungseffekte des FLA als Folge der kind-bedingten Freibeträge weiterhin mit dem elterlichen Einkommen zunehmen. Demgegenüber würden sich bei den Varianten der Kindergelderhöhung (ohne Besteuerung) die deutlichen Verbesserungen gegenüber dem Status quo gleichmäßig über das Einkommensspektrum vom Niedriglohnsegment – bei unverändert problematischen Effekten des Kinderzuschlags (Ein-kommensbruchstelle bei Höchsteinkommensgrenze) – bis in obere Schichten verteilen und erst am oberen Rand mit steigendem Einkommen sinken (infolge des Wegfalls der bisherigen kindbedingten Freibeträge). Die Förderungen durch die Kindergrundsicherung schließlich würden am stärksten im unteren und unteren Mittelbereich ausfallen und – im Gegensatz zu anderen Konzepten – insbesondere verdeckte Armut systembedingt, also quasi „automatisch“, weitgehend abbauen. Im oberen Mittelbereich und hauptsächlich in höheren Schichten würden die Transfers dagegen mit zunehmendem Einkommen kontinuierlich abnehmen. Insgesamt würde dies zu einem vergleichsweise stetig steigenden Verlauf des verfügbaren Familieneinkommens führen; die wegen der hohen Transferentzugsraten des Kinderzuschlags – gegebenenfalls in Kombination mit Wohngeld – häufigen Befürchtungen negativer Arbeitsanreize im unteren Einkommensbereich wären gegenstandslos. Inwieweit die hier diskutierten Reformkonzepte zu einem Abbau von Kinder- und Familien-armut und zu weniger Ungleichheit der personellen Einkommensverteilung führen können, lässt sich allein auf der Basis von Modellrechnungen allerdings nicht absehen. Dazu bedarf es detaillierter Analysen auf der Basis von repräsentativen Mikrodaten, die die faktische Ein-kommensverteilung abbilden und Simulationsrechnungen zur Quantifizierung der Effekte der Reformvarianten – unter Einbeziehung der Finanzierung der jeweiligen Nettokosten – ermöglichen. Daran wird im Projekt „Vom Kindergeld zu einer Grundsicherung für Kinder“ auf Basis der Daten des Sozio-ökonomischen Panels (SOEP) 2007 gearbeitet; die Repräsentativität des Datensatzes hinsichtlich des Nachweises von Einkommens-, insbesondere Transferar-ten wurde bereits geprüft – mit gutem Ergebnis.
The selection of features for classification, clustering and approximation is an important task in pattern recognition, data mining and soft computing. For real-valued features, this contribution shows how feature selection for a high number of features can be implemented using mutual in-formation. Especially, the common problem for mutual information computation of computing joint probabilities for many dimensions using only a few samples is treated by using the Rènyi mutual information of order two as computational base. For this, the Grassberger-Takens corre-lation integral is used which was developed for estimating probability densities in chaos theory. Additionally, an adaptive procedure for computing the hypercube size is introduced and for real world applications, the treatment of missing values is included. The computation procedure is accelerated by exploiting the ranking of the set of real feature values especially for the example of time series. As example, a small blackbox-glassbox example shows how the relevant features and their time lags are determined in the time series even if the input feature time series determine nonlinearly the output. A more realistic example from chemical industry shows that this enables a better ap-proximation of the input-output mapping than the best neural network approach developed for an international contest. By the computationally efficient implementation, mutual information becomes an attractive tool for feature selection even for a high number of real-valued features.
Infokoffer Buddhismus
(2009)
Der Buddha setzte vor seinem Tod keinen Nachfolger ein. Vielmehr forderte er seine Jünger auf, die Lehre sollte fortan ihr Meister sein. Dies hatte zur Folge, dass sich seine Nachfolger über die Worte des Buddha uneins wurden und dass sich verschiedene Schulen bildeten. Tatsächlich bindend sind für die gläubigen buddhistischen Laien fünf Verpflichtungen: nicht zu töten, nicht zu stehlen, nicht zu lügen, nicht die Ehe zu brechen und keine berauschenden Getränke zu genießen.
Schaut man im Internet unter dem Stichwort "Gentechnik" nach, dann erhält man eine Fülle von Quellen, deren Inhalte in keiner Weise als wissenschaftlich und um Wahrheit bemüht gelten können. Da der Durchschnittsbürger über wenig Wissen über Gentechnik verfügt, kann er meist diese Quellen nicht von seriösen, ideologiefreien und wissenschaftlich korrekten Quellen unterscheiden. Aus diesem Grund sind in der Bevölkerung Meinungen über Gentechnik verbreitet, die in keiner Weise der wissenschaftlichen Erkenntnislage entsprechen.
This note shows that in non-deterministic extended lambda calculi with letrec, the tool of applicative (bi)simulation is in general not usable for contextual equivalence, by giving a counterexample adapted from data flow analysis. It also shown that there is a flaw in a lemma and a theorem concerning finite simulation in a conference paper by the first two authors.
»Wenn es einen Wirklichkeitssinn gibt, dann muß es« – so folgerte Robert Musil zu Beginn des 20. Jahrhunderts – »auch einen Möglichkeitssinn geben.« Darunter versteht er die Fähigkeit, »alles, was ebenso gut [auch] sein könnte, zu denken und das, was ist, nicht wichtiger zu nehmen, als das, was nicht ist.« Mit dem Begriff des Möglichkeitssinns, der auf die Relativität und Alternativität des individuellen Denkens sowie auf die Utopie eines anderen, hypothetischen Lebens verweist, hat Robert Musil in seinem Jahrhundertroman Der Mann ohne Eigenschaften dem Kontingenzbewusstsein des modernen Menschen Ausdruck gegeben, welches am Ende des 20. Jahrhunderts zum Grundmodus der Existenz und der Verfasstheit des Individuums überhaupt werden sollte. Dem Begriff der Kontingenz liegt bei aller Unschärfe ein grundlegendes, auf Aristoteles zurückgehendes Verständnis zugrunde, welches Niklas Luhmann folgendermaßen definiert: Kontingent ist etwas, was weder notwendig ist, noch unmöglich ist; was also so, wie es ist (war, sein wird), sein kann, aber auch anders möglich ist. Der Begriff bezeichnet mithin Gegebenes (zu Erfahrendes, Erwartetes, Gedachtes, Phantasiertes) im Hinblick auf mögliches Anderssein; er bezeichnet Gegenstände im Horizont möglicher Abwandlungen.
We use a novel disaggregate sectoral euro area dataset with a regional breakdown that allows explicit estimation of the sectoral component of price changes (rather than interpreting the idiosyncratic component as sectoral as done in other papers). Employing a new method to extract factors from over-lapping data blocks, we find for our euro area data set that the sectoral component explains much less of the variation in sectoral regional inflation rates and exhibits much less volatility than previous findings for the US indicate. Country- and region-specific factors play an important role in addition to the sector-specific factors. We conclude that sectoral price changes have a “geographical” dimension, as yet unexplored in the literature, that might lead to new insights regarding the properties of sectoral price changes.
We examine intra-day market reactions to news in stock-specific sentiment disclosures. Using pre-processed data from an automated news analytics tool based on linguistic pattern recognition we extract information on the relevance as well as the direction of company-specific news. Information-implied reactions in returns, volatility as well as liquidity demand and supply are quantified by a high-frequency VAR model using 20 second intervals. Analyzing a cross-section of stocks traded at the London Stock Exchange (LSE), we find market-wide robust news-dependent responses in volatility and trading volume. However, this is only true if news items are classified as highly relevant. Liquidity supply reacts less distinctly due to a stronger influence of idiosyncratic noise. Furthermore, evidence for abnormal highfrequency returns after news in sentiments is shown. JEL-Classification: G14, C32
This paper reviews the rationale for quantitative easing when central bank policy rates reach near zero levels in light of recent announcements regarding direct asset purchases by the Bank of England, the Bank of Japan, the U.S. Federal Reserve and the European Central Bank. Empirical evidence from the previous period of quantitative easing in Japan between 2001 and 2006 is presented. During this earlier period the Bank of Japan was able to expand the monetary base very quickly and significantly. Quantitative easing translated into a greater and more lasting expansion of M1 relative to nominal GDP. Deflation subsided by 2005. As soon as inflation appeared to stabilize near a rate of zero, the Bank of Japan rapidly reduced the monetary base as a share of nominal income as it had announced in 2001. The Bank was able to exit from extensive quantitative easing within less than a year. Some implications for the current situation in Europe and the United States are discussed.
We investigate the effects of both trust and sociability for stock market participation, the role of which has been examined separately by existing finance literature. We use internationally comparable household data from the Survey of Health, Ageing and Retirement in Europe supplemented with regional information on generalized trust from the World Value Survey and on specific trust to financial institutions from Eurobarometer. We show that trust and sociability have distinct and sizeable positive effects on stock market participation and that sociability is likely to partly balance the discouragement effect on stockholding induced by low generalized trust in the region of residence. We also show that specific trust in advice given by financial institutions represents a prominent factor for stock investing, compared to other tangible features of the banking environment. Probing further into various groups of households, we find that sociability can induce stockholding among the less well off in Sweden, Denmark, and Switzerland where stock market participation is widespread. On the other hand, the effect of generalized trust is strong in countries with limited participation and low average trust like Austria, Spain, and Italy, offering an explanation for the remarkably low participation rates of the wealthy living therein.
We investigate US households’ direct investment in stocks, bonds and liquid accounts and their foreign counterparts, in order to identify the different participation hurdles affecting asset investment domestically and overseas. To this end, we estimate a trivariate probit model with three further selection equations that allows correlations among unobservables of all possible asset choices. Our results point to the existence of a second hurdle that stock owners need to overcome in order to invest in foreign stocks. Among stockholders, we show that economic resources, willingness to assume greater financial risks, shopping around for the best investment opportunities all increase the probability to invest in foreign stocks. Furthermore, we find that households who seek financial advice from relatives, friends and work contacts are less likely to invest in foreign stocks. This result corroborates the conjecture by Hong et al. (2004) that social interactions should discourage investment in foreign stocks, given their limited popularity. On the other hand, we find little evidence for additional pecuniary or informational costs associated with investment in foreign bonds and liquid accounts. Finally, we show that ignoring correlations of unobservables across different asset choices can lead to very misleading results.
We reconsider the issue of price discovery in spot and futures markets. We use a threshold error correction model to allow for arbitrage operations to have an impact on the return dynamics. We estimate the model using quote midpoints, and we modify the model to account for time-varying transaction costs. We find that the futures market leads in the process of price discovery. The lead of the futures market is more pronounced in the presence of arbitrage signals. Thus, when the deviation between the spot and the futures market is large, the spot market tends to adjust to the futures market.
After the introduction of the euro in 1999, the debate on the financial stability architecture in the EU focused on the adequacy of a decentralised setting based on national responsibilities for preventing and managing crises. The Financial Services Action Plan in 1999 and the introduction of the Lamfalussy process for financial regulation and supervision in 2001 enhanced the decentralised arrangements by increasing significantly the level of legal harmonisation and supervisory cooperation. In addition, authorities adopted EU-wide MoUs to safeguard cross-border financial stability. In this context, the financial crisis has proved to be a major challenge to the ongoing process of European financial integration. In particular, momentous events such as the freezing of interbank markets, the loss of confidence in financial institutions, runs on banks and difficulties affecting cross-border financial groups, questioned the ability of the EU financial stability architecture to contain threats to the integrated single financial market. In particular, the crisis has demonstrated the importance of coupling to micro-prudential supervision a macro dimension aimed at a broad and effective monitoring and assessment of the potential risks covering all components of the financial system. In Europe, following the de Larosière Report, the European Commission has put forward proposals for establishing a European System of Financial Supervision and a European Systemic Risk Board, the latter body to be set up under the auspices of the ECB. While the details for the implementation of these structures still need to be spelt out, they should reinforce significantly – ten years after the introduction of the euro – the financial stability architecture at the EU level.
Misselling through agents
(2009)
This paper analyzes the implications of the inherent conflict between two tasks performed by direct marketing agents: prospecting for customers and advising on the product's "suitability" for the specific needs of customers. When structuring sales-force compensation, firms trade off the expected losses from "misselling" unsuitable products with the agency costs of providing marketing incentives. We characterize how the equilibrium amount of misselling (and thus the scope of policy intervention) depends on features of the agency problem including: the internal organization of a firm's sales process, the transparency of its commission structure, and the steepness of its agents' sales incentives. JEL Classification: D18 (Consumer Protection), D83 (Search; Learning; Information and Knowledge), M31 (Marketing), M52 (Compensation and Compensation Methods and Their Effects).
This paper considers a firm that has to delegate to an agent, such as a mortgage broker or a security dealer, the twin tasks of approaching and advising customers. The main contractual restriction, in particular in light of related research in Inderst and Ottaviani (2007), is that the firm can only compensate the agent through commissions. This standard contracting restriction has the following key implications. First, the firm can only ensure internal compliance to a "standard of sales", in terms of advice for the customer, if this standard is not too high. Second, if this is still feasible, then a higher standard is associated with higher, instead of lower, sales commissions. Third, once the limit for internal compliance is approached, tougher regulation and prosecution of "misselling" have (almost) no effect on the prevailing standard. Besides having practical implications, in particular on how to (re-)regulate the sale of financial products, the novel model, which embeds a problem of advice into a framework with repeated interactions, may also be of separate interest for future work on sales force compensation. JEL Classification: D18 (Consumer Protection), D83 (Search; Learning; Information and Knowledge), M31 (Marketing), M52 (Compensation and Compensation Methods and Their Effects).
This article shows that investors financing a portfolio of projects may use the depth of their financial pockets to overcome entrepreneurial incentive problems. Competition for scarce informed capital at the refinancing stage strengthens investors’ bargaining positions. And yet, entrepreneurs’ incentives may be improved, because projects funded by investors with ‘‘shallow pockets’’ must have not only a positive net present value at the refinancing stage, but one that is higher than that of competing portfolio projects. Our article may help understand provisions used in venture capital finance that limit a fund’s initial capital and make it difficult to add more capital once the initial venture capital fund is raised. (JEL G24, G31)
We analyze how two key managerial tasks interact: that of growing the business through creating new investment opportunities and that of providing accurate information about these opportunities in the corporate budgeting process. We show how this interaction endogenously biases managers toward overinvesting in their own projects. This bias is exacerbated if managers compete for limited resources in an internal capital market, which provides us with a novel theory of the boundaries of the firm. Finally, managers of more risky and less profitable divisions should obtain steeper incentives to facilitate efficient investment decisions.
We present a simple model of personal finance in which an incumbent lender has an information advantage vis-a-vis both potential competitors and households. In order to extract more consumer surplus, a lender with sufficient market power may engage in "irresponsible"lending, approving credit even if this is knowingly against a household’s best interest. Unless rival lenders are equally well informed, competition may reduce welfare. This holds, in particular, if less informed rivals can free ride on the incumbent’s superior screening ability.
This paper argues that banks must be sufficiently levered to have first-best incentives to make new risky loans. This result, which is at odds with the notion that leverage invariably leads to excessive risk taking, derives from two key premises that focus squarely on the role of banks as informed lenders. First, banks finance projects that they do not own, which implies that they cannot extract all the profits. Second, banks conduct a credit risk analysis before making new loans. Our model may help understand why banks take on additional unsecured debt, such as unsecured deposits and subordinated loans, over and above their existing deposit base. It may also help understand why banks and finance companies have similar leverage ratios, even though the latter are not deposit takers and hence not subject to the same regulatory capital requirements as banks.
This paper shows that active investors, such as venture capitalists, can affect the speed at which new ventures grow. In the absence of product market competition, new ventures financed by active investors grow faster initially, though in the long run those financed by passive investors are able to catch up. By contrast, in a competitive product market, new ventures financed by active investors may prey on rivals that are financed by passive investors by “strategically overinvesting” early on, resulting in long-run differences in investment, profits, and firm growth. The value of active investors is greater in highly competitive industries as well as in industries with learning curves, economies of scope, and network effects, as is typical for many “new economy” industries. For such industries, our model predicts that start-ups with access to venture capital may dominate their industry peers in the long run. JEL Classifications: G24; G32 Keywords: Venture capital; dynamic investment; product market competition
We study a model of “information-based entrenchment” in which the CEO has private information that the board needs to make an efficient replacement decision. Eliciting the CEO’s private information is costly, as it implies that the board must pay the CEO both higher severance pay and higher on-the-job pay. While higher CEO pay is associated with higher turnover in our model, there is too little turnover in equilibrium. Our model makes novel empirical predictions relating CEO turnover, severance pay, and on-the-job pay to firm-level attributes such as size, corporate governance, and the quality of the firm’s accounting system.
Corporate borrowers care about the overall riskiness of a bank’s operations as their continued access to credit may rely on the bank’s ability to roll over loans or to expand existing credit facilities. As we show, a key implication of this observation is that increasing competition among banks should have an asymmetric impact on banks’ incentives to take on risk: Banks that are already riskier will take on yet more risk, while their safer rivals will become even more prudent. Our results offer new guidance for bank supervision in an increasingly competitive environment and may help to explain existing, ambiguous findings on the relationship between competition and risk-taking in banking. Furthermore, our results stress the beneficial role that competition can have for financial stability as it turns a bank’s "prudence" into an important competitive advantage.
This paper presents a novel model of the lending process that takes into account that loan officers must spend time and effort to originate new loans. Besides generating predictions on loan officers’ compensation and its interaction with the loan review process, the model sheds light on why competition could lead to excessively low lending standards. We also show how more intense competition may fasten the adoption of credit scoring. More generally, hard-information lending techniques such as credit scoring allow to give loan officers high-powered incentives without compromising the integrity and quality of the loan approval process. The model is finally applied to study the implications of loan sales on the adopted lending process and lending standard.
Inhalt: Prof. Dr. Helmut Siekmann : Stellungnahme für die öffentliche Anhörung des Haushalts- und Finanzausschusses des Landtags Nordrhein-Westfalen am 29. Oktober 2009 Gesetzentwurf der Landesregierung NRW : LANDTAG NORDRHEIN-WESTFALEN 14. Wahlperiode - Drucksache 14/9380 - 10.06.2009 Gesetz über die Feststellung eines zweiten Nachtrags zum Haushaltsplan des Landes Nordrhein-Westfalen für das Haushaltsjahr 2009 und zur Änderung des Gesetzes zur Errichtung eines Fonds für eine Inanspruchnahme des Landes Nordrhein-Westfalen aus der im Zusammenhang mit der Risikoabschirmung zugunsten der WestLB AG erklärten Garantie (Zweites Nachtragshaushaltsgesetz 2009) - Auszug Ergänzung der Landesregierung NRW zu dem Gesetzentwurf der Landesregierung - Drucksache 14/9380 (Zweites Nachtragshaushaltsgesetz 2009) - Drucksache 14/9510 – 01.07.2009 - Auszug Zweite Ergänzung der Landesregierung zu dem Gesetzentwurf der Landesregierung - Drucksachen 14/9380 und 14/9510 (1. Ergänzung) - Drucksache 14/9910 – 02.10.2009 - Auszug
Aus der Vielzahl der damit verbundenen Probleme sollen im Folgenden einige Aspekte etwas näher betrachtet werden. Dabei sollen die Maßnahmen zur unmittelbaren Krisenbewältigung ausgeklammert werden. Auch können die drängenden Fragen nach der Rolle der Geldpolitik sowie der globalen außenwirtschaftlichen Ungleichgewichte, die beide einen erheblichen, wenn nicht gar entscheidenden Beitrag zur Entstehung der Instabilitäten geleistet haben,19 hier nicht näher behandelt werden. Das Hauptaugenmerk soll stattdessen auf folgende Fragenkreise gelegt werden: I. Der Beitrag der Rechtsordnung zu Entstehung und Verlauf der Krise II. Verbesserung von Aufsicht und Kontrolle als Kern einer Neugestaltung III. Die Rolle der Ratingagenturen IV. Die reale Bedeutung von Finanzmärkten und Finanzinstitutionen V. Überlegungen zur Prävention Dabei sollen nicht Detailregelungen im Vordergrund der Betrachtung stehen, sondern die grundsätzliche Rolle der Rechtsordnung für die Stabilisierung der Finanzmärkte.
Der Präsident der Europäischen Kommission, José Manuel Barroso, hat im Oktober 2008 eine Gruppe von Sachverständigen unter Vorsitz des früheren Präsidenten des Internationalen Währungsfonds (IWF) und der Banque de France, Jacques de Larosière, mit der Ausarbeitung von Ratschlägen zur Zukunft der europäischen Finanzregulierung („financial regulation“) und Aufsicht („supervision“) beauftragt. Die Gruppe hat ihren Bericht am 25. Februar 2009 vorgelegt. Kapitel III des Berichts behandelt das Aufsichtssystem auf EU-Ebene und gelangt im Wesentlichen zu zwei Empfehlungen: - Errichtung einer präventiv tätigen, institutsübergreifenden („macroprudential“) Aufsichtseinrichtung mit dem Namen „European Systemic Risk Council“ [ESRC] - Umwandlung der bestehenden Ebene-3 Ausschüsse („3L3 committees“) in ein neues europäisches System von Finanzaufsicht [ESFS] mit hoheitlichen Funktionen Vor allem die geforderte Neustrukturierung der Aufsicht ist unter verschiedenen Gesichtspunkten kritisch zu würdigen. Die Erwägungen konzentrieren sich dabei auf die Frage, ob die Umsetzung der Vorschläge ohne Änderung des primären Gemeinschaftsrechts möglich erscheint. Der Abschluss von separaten Verwaltungsabkommen oder von Staatsverträgen, mit denen ad hoc neue Einrichtungen geschaffen werden könnten, soll im Folgenden nicht weiter untersucht werden. Zwar könnte auf diese Weise ein vollständiger Rechtsrahmen für Aufsichtseinrichtungen auf EU-Ebene geschaffen werden. Er könnte auch die Grundlage für die Übertragung von Hoheitsbefugnissen bilden, doch wäre dies mit gravierenden Nachteilen verbunden. Es ist keineswegs sicher, dass alle Mitglieder der EU eine solche Vereinbarung unterzeichnen würden, so dass unterschiedliche Aufsichtssysteme entstehen würden. Einer der Hauptgründe für eine Aufsicht auf europäischer Ebene würde verfehlt. Zum anderen würde eine institutionelle Parallelstruktur im Kernbereich der EU, dem gemeinsamen Binnenmarkt mit den Grundfreiheiten, geschaffen, die zahlreiche gravierende Probleme der Koordination und Abstimmung zwischen diesen, voneinander unabhängigen Systemen hervorrufen würde.
This paper analyses the regulatory framework which applies to the determination of directors’ remuneration in Europe and examines the extent to which European firms follow best practices in corporate governance in this area, drawing on an empirical analysis of the governance systems that European firms adopt in setting remuneration and, in particular, on an empirical assessment of their diverging approaches to disclosure. These divergences persist despite recent reforms. After an examination of the link between optimal remuneration, corporate governance and regulation and an assessment of how regulatory reform has evolved in this area, the paper provides an overview of national laws and best practice corporate governance recommendations across the Member States, following the adoption of the important EC Recommendations on directors’ remuneration and on the role of non-executive directors in 2004 and 2005, respectively. This overview is largely based on the answers to questionnaires sent to legal experts from seventeen European Member States. The paper also provides an empirical analysis of governance practices and, in particular, firm disclosure of directors’ remuneration in Europe’s largest 300 listed firms by market capitalisation. The paper reveals that, notwithstanding a swathe of reforms across the Member States in recent years and related harmonisation efforts, disclosure levels still vary from country to country and are strongly dependent on the existence of regulations and best practice guidelines in the firm’s home Member State. Convergence in disclosure practices is not strong; only a few basic standards are followed by the majority of the firms examined and there is strong divergence with respect to most of the criteria considered in the study. Consistent with previous research, our study reveals clear differences not only with respect to remuneration disclosure, but also with respect to shareholder engagement and the board’s role in the remuneration process and in setting remuneration guidelines. Ownership structures still ‘matter’; these divergences tend to follow different corporate governance systems and, in particular, the dispersed ownership/block-holding ownership divide. They do not appear to have been smoothed since the EC Company Law Action Plan was launched and notwithstanding the harmonisation that has been attempted in this field. Keywords: Directors’ remuneration, corporate governance, disclosure, European regulation JEL Classifications: G30, G38, J33, K22, M52
Lessons from the crisis
(2009)
A lot happened even before the perceived beginning of this crisis in 2007, so although the events are recent, I will give an overview from a US perspective of the period from 2001 to date, in our search for the lessons to be learned. Much of it is probably familiar, but worth revisiting. I will break this necessarily simplified account into 3 stages: first, a look at the key factors that led to the increasing riskiness of US home mortgages; second, how those risks were transmitted as securities from US housing lenders to institutional investors around the globe; and third, how those risks led to huge losses and created a credit crunch that moved the impact from the financial economy to the real economy and produced a severe recession. Then we will have a factual foundation for deriving the lessons that ought to be taken away from this very expensive experience.
Seit 2003 wird die Krankenhausvergütung in Deutschland schrittweise auf ein neues, leistungsorientiertes System auf Basis von Fallpauschalen (diagnosis related groups – DRG) umgestellt. Die Über gangsphase, in der gesonderte gesetzliche Regelungen gegolten hatten, sollte Ende 2008 auslaufen, weshalb der gesetzlichen Rahmen für die Nachkonvergenzzeit neu geregelt werden musste. Neben diesen technischen Regelungen und einem einheitlichen Bundesbasisfallwert standen auch die Reform der Investitionsfinanzierung, der weitere Ausbau des Wettbewerbes und die schlechte Finanzsituation der Krankenhäuser auf der Agenda des Krankenhausfinanzierungsreformgesetzes (KHRG). Aufgrund der heterogenen Interessenslagen von Bund und Ländern, gestaltete sich auch bei diesem Reformgesetz die Kompromisssuche schwierig. Herausgekommen ist ein Gesetz, dass die Reformpolitik der letzten Jahre weiterführt, die Aufgabe der zukünftigen Sicherstellung der bedarfsgerechten Versorgung aber nicht löst und die problematischen Auswirkungen des DRG-Systems negiert. Das Diskussionspapier zeichnet die wichtigsten Schritte des Gesetzgebungsprozesses nach, präsentiert und diskutiert die wichtigsten Inhalte des Gesetzes und ordnet das KHRG in den Reformkontext der letzten Jahre ein.