Refine
Year of publication
Document Type
- Working Paper (64)
- Report (35)
- Article (22)
- Part of a Book (7)
- Doctoral Thesis (7)
- Review (7)
- Part of Periodical (4)
- Book (1)
- Conference Proceeding (1)
- diplomthesis (1)
Has Fulltext
- yes (151) (remove)
Is part of the Bibliography
- no (151) (remove)
Keywords
- USA (151) (remove)
Institute
- Center for Financial Studies (CFS) (45)
- Gesellschaftswissenschaften (42)
- Exzellenzcluster Die Herausbildung normativer Ordnungen (25)
- Rechtswissenschaft (11)
- Zentrum für Nordamerika-Forschung (ZENAF) (9)
- Wirtschaftswissenschaften (7)
- Hessische Stiftung für Friedens- und Konfliktforschung (HSFK) (4)
- Geschichtswissenschaften (2)
- Neuere Philologien (2)
- Philosophie (2)
Es handelt sich bei dem nachstehend referierten Aufsatz um die Wiedergabe eines Vortrages, den A. Kellock vom Text Film Department der McGraw-Hill Book Co., am 21. Oktober 1958 vor der Detroit Convention der SMPTE (Society of Motion Picture and Television Engineers) gehalten hat.
Der Vortrag befaßt sich mit den Anforderungen, die an einen Unterrichtsfilmhersteller gestellt werden müssen. Die Ausführungen gründen sich größtenteils auf die Unterrichtsfilmpraxis der McGraw-Hill-Filmproduktion. Jährlich stellen die größeren Unterrichtsfilmproduzenten der USA rund 400 Filme her. Weitere 800 Filme aus der Produktion der amtlichen Stellen, von Wirtschaftsverbänden und anderen Organisationen, werden jährlich veröffentlicht und gelangen zum Teil ebenfalls in die Unterrichtspraxis. Die letzte Ausgabe von WILSONs "Catalog of educational films" enthält über 17 000 Titel, von denen 6 000 in den letzten fUnf Jahren veröffentlicht worden sind.
Angesichts dieser großen Produktion sind die Hersteller von Unterrichtsfilmen zu besonderer Verantwortung aufgerufen, damit der unterrichtliche Wert des Films unter Anlegung strenger Maßstäbe erhalten bleibt, und die ganze Arbeit nicht eine rein quantitative Überschwemmung des Marktes einmündet. Wichtige Voraussetzungen für befriedigende Ergebnisse sind u.a.: strikte Anpassung der Filme an den jeweiligen Lehrplan, Auswahl qualifizierter wissenschaftlicher und pädagogischer Berater, Herstellung guter und pädagogisch brauchbarer Drehbücher, Erzielung einer guten technischen Qualität.
Bekanntlich hat der Handel von Anteilen deutscher Gesellschaften an US-amerikanischen Börsen in der Vergangenheit bisher ein Schattendasein geführt. An den beiden US-Börsen mit den meisten Notierungen ausländischer Gesellschaften, der New York Stock Exchange ("NYSE") und der American Stock Exchange ("AMEX") waren deutsche Aktiengesellschaften nicht vertreten. Im computergestützten Handelssystem National Association of Securities Dealers Automated Quotations System ("NASDAQ") waren gerade einmal die "ADRs" einer einzigen Gesellschaft zum Handel zugelassen. Daneben wurden Ende 1992 noch im Freiverkehr ("OTC") die "ADRs" von 12 weiteren Gesellschaften gehandelt. Die Notierung der Daimler Benz AG an der NYSE seit dem 5. Oktober 1993 sowie die bislang eher verhaltene Reaktion hierauf geben Anlaß, sich mit den Voraussetzungen und daraus erwachsenden Konsequenzen des Ganges an eine US-Börse zu befassen (11. - VI.). Insbesondere sollen aus dem Bezugsrecht der Aktionäre bei zukünftigen Kapitalerhöhungen entstehende Probleme erörtert werden (VII.).
Peter Raisch hat sich in seinen wissenschaftlichen Arbeiten immer wieder mit dem Verhältnis von Rechtsordnung und Markt, den Aufgaben des Rechts gegenüber dem Marktgeschehen, befaßt. Die folgenden Bemerkungen beziehen sich auf den Teilbereich des "Marktrechts", der in den letzten Jahren die vielleicht umfassendste Veränderung erfahren hat und für den auch weiterhin eine dynamische Entwicklung zu erwarten steht: das Kapitalmarktrecht. Der Begriff selbst hat sich erst im Verlauf dieser Entwicklung gebildet1, ist aber inzwischen fest etabliert. Die Internationalisierung der Kapitalmärkte bringt Fragen des Anwendungsbereichs, der Kollision und der Harmonisierung verschiedener Kapitalmarktrechte mit sich - Themen, die dem Kenner des Kartellrechts, des "Grundgesetzes" unserer Marktordnung, seit langem wohl vertraut sind. Der Verfasser darf daher auf das Interesse des Jubilars hoffen, wenn er im folgenden auf einige in diesem Bereich auftretende Fragen eingeht.
Inhalt: Vorbemerkung Multikulturalismus und der amerikanische consensus Hans-Jürgen Puhle Probleme der Institutionalisierung des Multikulturalismus Diskussionsbeitrag von Kurt L. Shell Anmerkungen zum Verhältnis von »Multiculturalism« und »Liberalism« in den USA Diskussionsbeitrag von Söhnke Schreyer Probleme der Institutionalisierung von Multikulturalismus im Politikfeld der Erziehung Diskussionsbeitrag von Ulrike Fischer Multikulturalismus im Bildungsbereich: Afrozentrismus Diskussionsbeitrag von Rüdiger Wersich Die in der vorliegenden Ausgabe der ZENAF Arbeits- und Forschungsberichte zusammengestellten Beiträge von Hans-Jürgen Puhle, Kurt L. Shell, Söhnke Schreyer, Ulrike Fischer und Rüdiger Wersich dokumentieren Aspekte einer in den zurückliegenden Semestern am ZENAF geführten Diskussion zur Problematik des Multikulturalismus in den USA. Die Diskussion begann anlässlich der Tagung der Sektion Politikwissenschaft der DGfA ("Die USA als multikulturelle Gesellschaft") in Frankfurt im November 1991. Im Sommersemester 1993 und im Wintersemester 1993/94 folgten zwei Diskussionsrunden im Rahmen des Jour Fixe des ZENAF unter dem Leitthema "Probleme der Institutionalisierung des Multikulturalismusll• Eine gemeinsame Diskussionsgrundlage bildete zunächst der in dieser ZAF-Ausgabe abgedruckte Aufsatz von Hans-Jürgen Puhle: "Multikulturalismus in den USA", der bereits (in englischer Fassung) als Vortrag auf der Jahrestagung der DGfA ("Multikulturalismus: Politische, soziale und kulturelle Konsequenzen am Beispiel der USA") in Berlin im Juni 1992 gehalten wurde. Die Publikation des Aufsatzes in einem von Berndt Ostendorf herausgegebenen Sammelband (''Multikulturelle Gesellschaft: Modell Amerika?", München) ist für 1994 vorgesehen. Die übrigen Beiträge dieser ZAF-Ausgabe sind überarbeitete Versionen von Kurz-Statements, die von den Autoren für die beiden Diskussions-Veranstaltungen am ZENAF vorbereitet wurden. Die angeregte und intensive Diskussion, an der sich eine erfreulich große Zahl von Teilnehmern aus verschiedenen Fachbereichen der Kultur- und Sozialwissenschaften beteiligten, kann diese Zusammenstellung allerdings nicht in ihrer vollen Breite repräsentieren. Für das Sommersemester 1994 ist eine Fortsetzung der Veranstaltungen am ZENAF geplant, die weitere Fragen der Problematik der Institutionalisierung des Multikulturalismus aufgreifen soll.
"Tracking Stock", zum Teil auch als "Targeted Stock" bezeichnet, ist eine Innovation des U.S.-amerikanischen Kapitalmarkts. Mit Tracking Stocks bezeichnet man Aktien, deren Gewinnbezugsrecht sich lediglich nach dem Ergebnis einer bestimmten Unternehmenssparte, nicht des Gesamtunternehmens, bemißt. Ein typisches Beispiel bildet die Schaffung von Tracking Stocks im Zusammenhang mit der Übernahme von Electronic Data Systems (EDS) durch General Motors im Jahre 1984. Die bisherigen Aktionäre von EDS, die EDS eingebracht hatten, erhielten zwar General Motors-Aktien, deren Dividendenbezugsrecht aber am - separat zu ermittelnden - Gewinn der künftigen EDS-Sparte von General Motors orientiert wurde. Damit sollte erreicht werden, die bisherigen Aktionäre der EDS auch weiterhin vorrangig an den Erträgen des - im Vergleich zum Kerngeschäft von General Motors als profitabler eingeschätzten - Elektronikgeschäfts teilhaben zu lassen. Im folgenden werden zunächst Gründe und Anwendungsbereich (II.) sowie die Vor- und Nachteile dieser Gestaltung (III.) näher erläutert. Ein weiterer Abschnitt (IV.) wendet sich dann ausgewählten Einzelfragen zu, die sich bei Einführung dieses Instruments nach deutschem Recht stellen würden.
Die nach dem Verfall des Moskauer Imperiums innerhalb der nordatlantischen Allianz entstandene Diskussion über eine eigenständigere europäische Sicherheitspolitik ist nicht neu. Ist diese Diskussion heute jedoch eingebunden in eine generelle Debatte über die künftigen sicherheitspolitischen Strukturen und einer stärkeren organisatorischen Verflechtung beispielsweise von Vereinten Nationen, Europäischer Union, OSZE und NATO, so stand in den späten fünfziger und frühen sechziger Jahren vor allem die Frage einer verstärkten politischen Konsultation und Kooperation innerhalb des Bündnisses und damit verbunden die Teilhabe der (kontinental-)europäischen Mitglieder der Atlantischen Allianz am nuklearen Entscheidungsprozeß auf der Tagesordnung. Dahinter stand die zwiespältige europäische Besorgnis, die USA könnten sich entweder mit Moskau einigen und ihre Streitkräfte in Europa reduzieren oder ganz abziehen, oder aber sie würden bleiben und die europäischen Staaten dominieren. Für beide Fälle wollten die Europäer, unter ihnen in vorderster Linie Bundeskanzler Konrad Adenauer und - als Sonderfall - Charles de Gaulle, Vorsorge treffen, wobei die nukleare Partizipation als Königsweg zu Macht und Einfluß in der Allianz galt. Die amerikanische Regierung hingegen war stets an einer stärkeren Teilung der Verteidigungslasten interessiert, ohne aber ihren Einfluß aufgeben oder von den Verbündeten zu abhängig werden zu wollen. Zur Vertrauensbildung und engeren Anbindung war Washington hierbei auch zu Zugeständnissen in der Teilhabe an der nuklearen Verfügungsgewalt bereit, womit jedoch möglichst neue nationale Nuklearstreitmächte vermieden werden sollten. ...
The article describes the legal structure of the Daimler-Chrysler merger. It asks why this specific structure rather than another cheaper way was chosen. This leads to the more general question of the pros and cons of mandatory corporate law as a regulatory device. The article advocates an "optional" approach: The legislator should offer various menus or sets of binding rules among which the parties may choose. (JEL: ...)
Derivatives usage in risk management by U.S. and German non-financial firms : a comparative survey
(1998)
This paper is a comparative study of the responses to the 1995 Wharton School survey of derivative usage among US non-financial firms and a 1997 companion survey on German non-financial firms. It is not a mere comparison of the results of both studies but a comparative study, drawing a comparable subsample of firms from the US study to match the sample of German firms on both size and industry composition. We find that German firms are more likely to use derivatives than US firms, with 78% of German firms using derivatives compared to 57% of US firms. Aside from this higher overall usage, the general pattern of usage across industry and size groupings is comparable across the two countries. In both countries, foreign currency derivative usage is most common, followed closely by interest rate derivatives, with commodity derivatives a distant third. Usage rates across all three classes of derivatives are higher for German firms than US firms. In contrast to the similarities, firms in the two countries differ notably on issues such as the primary goal of hedging, their choice of instruments, and the influence of their market view when taking derivative positions. These differences appear to be driven by the greater importance of financial accounting statements in Germany than the US and stricter German corporate policies of control over derivative activities within the firm. German firms also indicate significantly less concern about derivative related issues than US firms, which appears to arise from a more basic and simple strategy for using derivatives. Finally, among the derivative non-users, German firms tend to cite reasons suggesting derivatives were not needed whereas US firms tend to cite reasons suggesting a possible role for derivatives, but a hesitation to use them for some reason.
Das "Handbook of...", um das es in dieser Arbeit geht, wird, wenn es vollendet werden sollte, 20 Bände mit insgesamt ca. 16000 Seiten Informationen zu einer aus Anonymisierungsgründen hier nicht näher bezeichneten Bevölkerungsgruppe umfassen, die im gegenwärtigen Nordamerika als ethnische Minderheit gilt. Der komplette Titel des Handbook war länger, wird aber ebenfalls aus Gründen der Anonymisierung nicht erwähnt. Es war als eine Enzyklopädie geplant, die die bis dato gewonnenen wissenschaftlichen Kenntnisse über die Geschichte und Kultur dieser Gruppe von der frühesten Prähistorie bis zur Gegenwart mit dem Ziel zusammenfassen sollte, ein von ausgesuchten Wissenschaftlern geschriebenes enzyklopädisches Referenzwerk nicht nur für Fachleute, sondern auch für die Allgemeinheit zu schaffen (General Editor 1987). In Form einer Monographie wird dargestellt, wo und wie das Handbook produziert wurde, welche unterschiedlichen berufs- und branchenkulturellen Elemente im Redaktionsbüro zusammentrafen und welche von außen auf es einwirkten, wobei natürlich nur eine Auswahl beschrieben und keine komplette Auflistung vorgenommen werden konnte. Das "Handbook of ..." wurde Mitte der sechziger Jahre geplant, Anfang der siebziger konkret begonnen und war 1997 bei Band 10 von 20 geplanten Bänden angekommen. Im Redaktionsbüro wurden die von vielen verschiedenen Autoren geschriebenen Beiträge aneinander angeglichen, um eine für Enzyklopädien erforderliche Einheitlichkeit zu erreichen. Überprüft, und gegebenenfalls korrigiert, wurden die Texte auf die Einhaltung des Themas und ihre Schlüssigkeit hin, auf eine (in Angleichung an andere Beiträge des Bandes und der Serie) einheitliche Schreibweise von Namen und Begriffen, auf korrekte Sachangaben sowie auf fehlerfreie Zitate und Literaturangaben. Solche Überprüfungen wurden nicht nur für das Handbook vorgenommen, sondern genauso in anderen großen und renommierten Enzyklopädie- und Lexikonverlagen wie der Encyclopedia Britannica und dem Brockhausund Dudenverlag. Durch die Stellung als Wissensautorität und 'letzte Instanz' in der Klärung von strittigen Fragen waren sie es ihrem Ruf schuldig, (möglichst) fehlerfreie Werke herauszubringen. ...
Credit Unions are cooperative financial institutions specializing in the basic financial needs of certain groups of consumers. A distinguishing feature of credit unions is the legal requirement that members share a common bond. This organizing principle recently became the focus of national attention as the Supreme Court and the U.S. Congress took opposite sides in a controversy regarding the number of common bonds that could co-exist within the membership of a single credit union. Despite its importance, little research has been done into how common bonds affect how credit unions actually operate. We frame the issues with a simple theoretical model of credit-union formation and consolidation. To provide intuition into the flexibility of multiple-group credit unions in serving members, we simulate the model and present some comparative-static results. We then apply a semi-parametric empirical model to a large dataset drawn from federally chartered occupational credit unions in 1996 to investigate the effects of common bonds. Our results suggest that credit unions with multiple common bonds have higher participation rates than credit unions that are otherwise similar but whose membership shares a single common bond.
Wie in vielen anderen Bereichen unserer Gesellschaft hat das Internet auch in die Wertpapierbranche Einzug erhalten. Diesbezüglich haben die USA sowohl in tatsächlicher als auch in rechtlicher Hinsicht wieder einmal eine Vorbildfunktion inne. Dies nimmt der Verfasser zum Anlaß, um sich kritisch mit den dortigen Erfahrungen zu beschäftigen. Ferner werden USamerikanische Wertpapiervorschriften besprochen, die sich nicht auf die USA beschränken. Der Gesetzgeber hat neben den Vorschriften über die elektronische Informationsverbreitung bereits Spezialregeln aufgestellt, die alle ausländischen Anbieter betreffen, die das Internet zu Handelszwecken nutzen. Dafür ist es sogar ohne Bedeutung, ob die Anbieter überhaupt einen internationalen Handel betreiben. Die Ausführungen und Regeln betreffen zum Teil die gesamte Wertpapierbranche. Das Hauptaugenmerk des Beitrags ist aber auf Investmentfonds gerichtet. Dabei stützt sich der Verfasser auf eine Untersuchung, die er 1998/99 als „Visiting Scholar“ an der New York University durchführen konnte.
The globalization of markets and companies has increased the demand for internationally comparable high quality accounting information resulting from a common set of accounting rules. Despite remarkable efforts of international harmonization for more than 25 years, accounting regulation is still the domain of national legislators or delegated standard setters. The paper starts by outlining the reasons for this state of affairs and by characterizing the different institutional backgrounds of accounting standard setting in four selected countries as well as on the international level. This is followed by a summary of important international differences in accounting rules and a summary of the empirical evidence of the impact of different rules on the resulting numbers and their relevance to users. It is argued that neither a priori theoretical reasoning nor the evidence from empirical studies provides a convincing basis for choices between accounting regimes and even less so between specific accounting rules. As there is a broad consensus that there is a need for one set of global accounting standards the final sections of the paper discuss currently existing and proposed structures of international accounting standard setting. The evolving new IASC structure is critically evaluated.
Soziokulturelle Funktionen von daytime Talkshows: Die den Untersuchungen zugrundeliegenden Annahme war, TV-Talkshows als Teil eines gesellschaftlichen Diskurses, als eine mit spezifischen Merkmalen ausgestattete Art der Sprachverwendung zu betrachten, die gerade als kollektive, gesellschaftliche Praxis determinierende Faktoren und spezifische Wirkungen hat. Ihre Manifestationen als Programm, Videoband oder (in reduzierter Form) als verschriftetes Transkript wurden als "Text" definiert, der innerhalb der soziokulturellen Ordnung bestimmte Aufgaben hat, und dessen Funktionen sich nicht allein als lokale Funktionen (die sich auf die unmittelbare Situation als gelenktes Gespräch im Studio vor Publikum beziehen) erklären lassen. Der gesellschaftliche Effekt (die Funktion?) der hier untersuchten daytime talkshows ist ein öffentliches In-Erscheinung-Treten und ein komplementär dazu wirkendes Wahrnehmen des Privatmenschen in seiner Alltäglichkeit, des Durchschnittsmenschen im Medium Fernsehen. Dieser alltägliche Durchschnittsmensch kann durchaus als "the nigger of tv" gesehen werden, denn außer seiner (bisweilen nackten) Haut - oder seinem Innenleben hat er dem Fernsehen nichts zu verkaufen, denn er ist ja gerade nicht prominent, attraktiv, glamourös oder aus anderen Gründen begehrenswert für ein Publikum. Doch zu der Bedingung, seine seelischen Defekte öffentlich vorzuführen, ist auch ihm jederzeit ein Platz im Glanz der Scheinwerfer gewiß. Daß sich so viele zu einer öffentlichen Innenschau entschließen können, hängt vermutlich mit einem medialen Narzißmus zusammen, der die Spiegelung im Blick des Anderen zum Beweis seiner Existenz braucht. In einer von den visuellen Medien, insbesondere dem Fernsehen durchdrungene Lebenswelt, ist das Bedürfnis des namenlosen, unscheinbaren Alltagsmenschen, ebenfalls als ein in dieser TV-Welt existierendes Subjekt wahrgenommen zu werden, möglicherweise verständlich. Dieses Subjekt der Talkshow wird jedoch erst durch Konventionen des Sprachgebrauchs und der Interaktion, durch gezielte Bildführung und Auswahl der Einstellungen, durch sozial signifizierte Formen von Makeup und Dresscodes, aber auch durch Zuschreibungen und Kategorisierungen sowie durch Möglichkeiten (oder Unmöglichkeiten) der zumeist konversationell narrativ realisierten Selbstdarstellung etc. konstituiert und als "Typus" entwickelt. Es ist ein Effekt des Talkshowspezifischen Diskurses. Gleichzeitig ist es Objekt dieses Diskurses, insofern sich alle Teilnehmer über dieses Subjekt (über sein Innenleben, seine Probleme, geeignete Korrekturverfahren etc.) unterhalten. Die soziale (nicht die individuelle!) Identität als Durchschnittsmensch in seiner öffentlichen, gesellschaftlichen Erscheinungsform wird in solchen TVDiskursen erst produziert, und historisch betrachtet ist sie noch eine junge Erscheinung: TV-Talkshows dieses Zuschnitts haben sich erst Ende der achtziger Jahre herausgebildet. Die Showproduzenten sehen explizit eine auf Selbsterkenntnis ausgerichtete, beratende, (alltags-)problemlösende Funktion ihrer Programme, "der Alltagsmensch in Not wird hier geholfen", so würde V. Feldbusch von Sat1 vermutlich formulieren. Als selbsternannte Fernsehvariante eines Ratgeberdiskurstyps ist das Alltagssubjekt aufgefordert, einen Diskurs über es selbst zu halten (Gestehen), Diskursen anderer über es selbst zuzuhören (Informiert-/Belehrt-/Ermahnt-Werden). In dieser Hinsicht ist die hier untersuchte Form von Talkshows auch als gesellschaftliche Praxis zu verstehen, die auf ihre triviale Weise ein "Wissen vom Subjekt" (über sog. subjektive, innere Verfaßtheit, psychische Eigenschaften) hervorbringt, täglich reproduziert und massenhaft verbreitet. Dieses weitgehend durch eine therapeutische Weltanschauung strukturierte, entblößende "Wissen" wird zwischen den Beteiligten jedoch in Formen verhandelt, die die Strukturen und Merkmale eines privates Gespräch simulieren. Das Sprechen über den Privatbereich wird formal auch als privates Gespräch simuliert, weist aber eine hybride Struktur zwischen Abfrageformat und informellem Gespräch auf. Dabei war festzustellen, daß die Teile des Hybrids den Teilnehmerkategorien GUE und HOST nicht zu gleichen Teilen zufallen, sondern die Moderatorin die Optionen informeller Gesprächsorganistationen und Merkmale nutzt, während den Gästen nur die Optionen des reaktiven Parts im Interviewrahmen zustehen und sie auch im Bereich der Lexis selten Gebrauch vom informellen Register machen . In einer merkwürdigen Umkehrung des Faktischen erweist sich die "Redeweise des Volkes" gerade ausschließlich als Option der Moderatorin, die eben nicht die Massen, sondern die Institution, das Medium verkörpert. Talkshowdiskurse formieren öffentlich wahrnehmbare, medial konstituierte soziale Subjekte, die jedoch nicht als Rollen und Statusträger oder Repräsentanten von Institutionen, auch nicht als "Popstars", sondern gerade als "einfache Durchschnittsmenschen" konstituiert werden. Diese Typisierung bzw. Konturierung einer öffentlichen Form des Alltagsmenschen erfolgt jedoch nicht allein über Bilder und Repräsentationen, sondern weitgehend, aber unmerklicher durch diskursive Praktiken, durch den Umgang mit dem Subjekt der Talkshow, durch Interaktionskonventionen und anderen Modalitäten des Sprechens wie Höflichkeitsstrategien oder bestimmte narrative Verfahren, die in selbstdarstellerischer Absicht Sprecheridentitäten artikulieren. Die je Talkshow spezifische Konfiguration solcher subjektkonstitutiver Praktiken auf verschiedenen Ebenen des Diskurses ergibt eine Kontur, einen durch die Talkshow produzierten und nur vermittels der Praktiken, nie jedoch explizit charakterisierten "Entwurf" des Alltagsmenschen (z.B. ohnmächtig, Autoritäten unterworfen, selbstermächtigt, einsichtsfähig, vereinzelt, einer neben vielen usw.). Diese Typisierung bzw. implizite Charakterisierung durch Konventionen des Sprachgebrauchs und der Gesprächsstruktur wird maßgeblich in der Differenz zu den Positionen der anderen Diskursteilnehmer (Experten, Studiopublikum, Moderatorin) herausgebildet. Diese Diskurssubjekte stehen in einem für den Diskurstyp je charakteristischen Verhältnis zum Diskurs, zu den Modalitäten des Sprechens und zu anderen Subjektpositionen, von denen aus gesprochen werden kann. Subjektpositionen sind die unabhängig vom jeweils auf dem Podium platznehmenden Individuum vorstrukturierten, mit bestimmten Möglichkeiten des Sprechens ausgestatteten, an bestimmte kommunikative Handlungen gebundenen, mit bestimmten interaktionellen Vorrechten ausgestatteten etc. transindividuellen Äußerungsmöglichkeiten, die, realisiert, ein typisches Exemplar dieser Subjektposition zur öffentlichen Erscheinung bringen. Insofern sind diskursiv positionierte (konstituierte) Subjekte bzw. Subjektpositionen gleichzusetzen mit den spezifischen Äußerungsmodalitäten des jeweiligen Diskurstyps. Unter der Perspektive einer kritischen Diskursanalyse werden diese Vorgänge als moderne Form von Machtausübung und Ideologie betrachtet. Der Fokus auf die diskursiven Praktiken, die unscheinbare Normalisierungs und Disziplinierungseffekte bewirken als explizite Repräsentationen und Repression, lenkt das Augenmerk auf das, was Foucault den technologischen Aspekt von Macht bezeichnet. Machttechnologien stellen über konventionalisierte Diskurspraktiken gesellschaftliche Ordnung und Dominanz her, regulieren über Kommunikationsverhalten die Masse der Bevölkerung bzw. reproduzieren diese (hegemoniale) Ordnung in unzähligen, alltäglichen Mikropraktiken zwischen Institutionen und ihrer Klientel. Nicht nur in Talkshows handelt es sich bei solchen Praktiken weitgehend um sprachlich strukturierte Praktiken. Auch sprachlich konstituierte Verhältnisse artikulieren Machtverhältnisse, sie strukturieren sich nach Gleichheit/Nähe oder Ungleichheit/Distanz. Subjektpositionen sind die Pole in diesem Verhältnis. Da jedoch Subjektpositionen von diskursiven Positionen, d.h., Sprecherpositionen bestimmt werden, gilt es die Formen und Möglichkeiten des Sprechens der unterschiedlichen Teilnehmerkategorien im Talkshowdiskurs genau zu analysieren: In welcher Form zu welchen Bedingungen kann wer was wem gegenüber wie artikulieren? Wer mit wem in welcher Form interagieren? Welche Implikationen hat das? Welche sprachlichen Strukturen und Prozesse strukturieren dieses Sprechen und inwiefern strukturieren die sprachlich diskursiven Formen das Verhältnis der Diskurspositionen? In welchen sprachlichen Formen wird das Subjekt/ive verhandelt, und vor allem: Welches Sprechen legitimiert den medial konstituierten Durchschnittsmenschen? Prämissen, Vorgehensweise und Ergebnisse Um sich der Problemstellung zu nähern und die Mikropraktiken des Sprachgebrauchs funktional zu erfassen, wurde eine systemischlinguistische sprachtheoretische Perspektive eingenommen, die die primären Funktionen von Sprache in eine repräsentationsorientierte, eine interpersonell ausgerichtete und eine textuelle Dimension gliedert. Da es galt, diskursive Praktiken hervorzuheben, die sich nur durch den Bezug auf Akteure und Handlungen zwischen diesen beschreiben lassen, lag der Schwerpunkt der Untersuchung auf den sprachlichdiskursiven Merkmalen, die die Verhältnisse zwischen den Diskursbeteiligten bzw. die der Teilnehmer zum Diskurs regulieren und artikulieren. Die Entscheidung, zwei unterschiedliche Talkshowreihen zu untersuchen, beruht auf der Annahme, daß erst der kontrastierende Blick es ermöglicht, wesentliche Merkmale und Spezifika des Diskurstyps zu erfassen. Oft rücken nur über vergleichende Analysen kennzeichnende Aspekte in den Mittelpunkt, die bei homogeneren Daten möglicherweise unterbeleuchtet blieben. So konnten unterschiedliche Optionen der Realisierung bestimmter funktional definierter Vorgänge (z.B. das Vorstellen, die Einführung, die Befragung usw.), die innerhalb ähnlich strukturierter Diskurstypen zur Verfügung stehen und für z.T. signifikante Unterschiede sorgen, präzisiert werden. Die Auswahl der zu untersuchenden Phänomene und Merkmale wurden durch dieses vergleichende Lesen der Transkripte erheblich beeinflußt. Der Reihe nach wurden mit sprachwissenschaftlichem sowie interaktionsanalytischem Instrumentarium die Gesprächsorganisation, die Fremddefinitionen und Kategorisierungen des Subjekts der Talkshow durch die Einführungs und Einleitungsverfahren auf verschiedenen (visuellen, graphischen und sprachlichen) Ebenen untersucht. Im Anschluß daran standen kommunikative Handlungen zwischen den Diskursteilnehmern im Mittelpunkt, mit dem Schwerpunkt auf Analysen von Fragehandlungen und Frageformaten der Moderatorinnen und persönlichen Erzählungen der Alltagsmenschen/Gäste. Implikationen der sprachlichen Organisation und der verbalen oder kommunikativen Strukturen für die Subjektpositionen der Beteiligten wurden herausgearbeitet. Sodann habe ich mich auf den Diskurs der Experten konzentriert und Strategien der Subjektkonstitution dargestellt. Dabei ging es vor allem darum, wie das "ExpertenWissen" in diesen Shows auf das Subjekt zurückwirkt, welche Formen der "Beratungs/Ratgeberdiskurs" annimmt und welche SubjektEffekte dies zeitigt. Dabei wurde deutlich, daß beide Showreihen unterschiedliche Subjektpositionen für den Fernseh Durchschnittsmenschen konstituieren, die sich aus den ebenfalls unterschiedlichen Strukturierungen und Differenzen zu den anderen Positionen (Experten, Moderatorinnen, Studiopublikum) ergeben. Um den Aspekt der Macht und die gesellschaftliche Funktion der Talkshowpraktiken in die Untersuchungen einzuführen, wurde auf das Konzept der Machttechnologien zurückgegriffen, wie von Foucault (z.B. 1977) skizziert. Er verweist auf zwei grundlegende Metastrategien, die ungeregelte "Masse Mensch" gesellschaftlich (staatlich, hegemonialkulturell) zu disziplinieren, zu steuern und letztenendes verwaltbar zu machen, auf seinen gesellschaftlichen Platz zu verweisen, indem sie zu Subjekten (gemacht) werden. Es handelt sich dabei um die Machttechnologien der Objektivierung und der Subjektivierung von Individuen, die sich jeweils durch verschiedene Verfahren auszeichnen, wie ein Wissen vom Menschen hervorgebracht wird, das dann von den Individuen als "ihre Wahrheit" bzw. als die Beschreibung ihres "wahren Selbst" von ihnen selbst angenommen und diskursiv reproduziert wird. Die Möglichkeiten, sich als Selbst wahrzunehmen, die Formen, in denen dies geschieht und die Repräsentationen, die damit verbunden sind, stehen daher immer in einem sei's konservierenden, sei's subversiven Verhältnis zu Macht. Die Kennzeichen beider Machttechnologien habe ich in Anlehnung an Ausführungen von Foucault (1977;1983) bzw. seiner Interpreten Dreyfus und Rabinow (1987) versuchsweise und relativ frei auf interaktionelle und diskursive Verfahren in den Talkshows übertragen, was mir allerdings unproblematisch erscheint, denn die "Strategien" sind in aller Regel in Verbindung mit Sprache realisierte Vorgänge. Insofern entspricht es nur einer Präzision auf konkreter sprachlicher Ebene (was Foucault schuldig bleibt). Es wurde also der Versuch unternommen, diskursive Korrelate zu den von Foucault nur sehr allgemein formulierten Merkmalen der Technologien zur Subjektkonstitution zu finden und gesprächsanalytisch erfaßbar zu machen. Als Objektivierungsprozesse lassen sich die Verfahren beschreiben, die die Diskursteilnehmer zu AusstellungsObjekten (des Blicks und der Rede) machen. Andererseits gibt es subjektivierende diskursive Verfahren, die die Teilnehmer als Subjekt konstituieren, indem sie zur relativ ungelenkten, freigewählten Diskursproduktion, d.h. zu längerem und ggf. auch eigenintitiativen Sprechen animiert werden, allerdings immer in Erwartung, ihr "wahres Selbst" der Öffentlichkeit auszustellen ("gestehen"), das im Anschluß daran von einer Experteninstanz ausgedeutet wird. Sprachlichdiskursiv realisierte Objektivierungsstrategien definieren sich z.B. durch Verfahren der (mit negativ konnotierten Werten beladenen) Identifizierung, Fremdkategorisierung, Aussonderung und Vereinzelung, die in überaus großem Maß in den Shows von Rolonda festzustellen sind. Das impliziert den Fokus auf das konkrete Individuum und den Einzelfall, der vor den Augen der Öffentlichkeit vorgeführt, belehrt und ermahnt wird. Durch Identifikation und Fremdkategorisierung wird das Subjekt der Talkshow zum Objekt der Rede gemacht, anstatt es selbst sprechen zu lassen. In dieser Hinsicht spielen vor allem die Untertitel, die Einleitungsdefinitionen der Moderatorin (v.a. in Rolonda) und der Gebrauch der Personalpronomen, insbesondere des persönlich gebrauchten, definiten "you" eine große Rolle, die als personalisierende Identifizierungspraktiken stark vereinzelnde Effekte haben. Kategorisierungen der Personen, die im Dienste der Show operieren und sie von vornherein auf bestimmte Wahrnehmungen festlegen, sind ebenfalls objektivierende Talkshowpraktiken: Reduktionen auf die "Eigenschaft" der Familienzughörigkeit, Subsumtion unter das Tagesthema und Definitionen in Abhängigkeit von selbstdefinierten Absichten der Showgestalter ("helfen, glücklich machen, bessern") klassifizieren das TalkshowSubjekt jeden Tag aufs Neue in den immer gleichen Mustern als unfähig zur Selbsthilfe, als Schädling und Problem für die anderen und als disziplinierungsbedürftig. In Rolonda fand sich zudem ein spezielles Aussonderungsverfahren, das in der Moderationsstrategie des inhaltlichthematisch definierten "Stehenlassens" der Fragerunden bei spektakulären Details besteht. Das hat den Effekt, ein grelles Schlaglicht auf das Individuum zu werfen, es in einem Detail bloßzulegen, ohne ihm im Anschluß weitere Relativierungen und Kommentare zu ermöglichen (da die Moderatorin schon zum nächsten Gast und nächsten Thema gewechselt hat). Dazu gehören die auf Lupeneffekte und Details ausgerichtete Frageführung der Moderatorin, die Hinführung der persönlichen Erzählungen auf MiniSzenen und affektiv aufgeladene Einzelmomente, die das Subjektive auf spektakuläre Ereignisse reduzieren und aus seinem lebensweltlichen Zusammenhang reißen. Spiegelvorhaltungstechniken als verdinglichende Disziplinierungsmaßnahme wurden ebenfalls identifiziert. In visuellen Repräsentationen soll das Subjekt sich spiegeln und wiedererkennen. Ein Verfahren in Rolonda ist es, den ZuschauerInnen das Alltagsleben der als Gäste eingeladenen Durchschnittsmenschen in Form eines pseudo dokumentarischen Filmclips zu präsentieren und sie im Anschluß daran mit dem (darin gezeigten) Fehlverhalten zu konfrontieren, sie zu veranlassen, es zu verurteilen und andere Stimmen zu diesen Spiegelungen Stellung nehmen zu lassen (in Form von Verurteilung, Tadel, Zurechtweisung). Ein weiteres Spiegelungverfahren (mit disziplinierender oder kathartischer Absicht) in Rolonda stellt die Strategie dar, das Fehlverhalten im Studio zu provozieren und live auf dem Podium in Szene zu setzen (z.B. der Streit zwischen Mutter und Tochter, der vorführt, daß die Mutter ihre Tochter nicht disziplinieren kann in Anger; Zornausbruch und Kommunikationszusammenbruch in der Auseinandersetzung von Jeremy und dem Mann im Publikum, wobie vorführt wird, daß Jeremy nicht in der Lage ist, seinen Frustrationen Ausdruck zu verleihen etc.). Dabei wird jedoch eher dem Publikum als den Gästen ein Spiegel vorgehalten, der vermutlich als Abschreckung dienen soll. Zum Objekt der Rede wird der FernsehPrivatmensch auch im Expertendiskurs, der seine Innenwelt analysiert oder ggf. korrigiert. Das Interaktionsarrangement in Rolonda ist dabei so, daß nicht GUE Dialogpartner dieser Analysen sind, sondern die Moderatorin. Das Subjekt wird so zum Gegenstand der Analyse eines Autoritätendiskurses, der aber mit anderen Autoritäten (nämlich mit der medienspezifischen Machtposition HOST) geführt wird. Durch Befragungstechniken und Frageformate wird die Innenschau auf das Subjekt möglich und seine diskursive Position gleichzeitig stark beschränkt und kontrolliert. Auf linguistischer Ebene korrespondiert dies mit Frageformaten in Deklarativformen, die inhaltlich aus vollständigen Propositionen bestehen, die nur noch bestätigt werden müssen. Dies schränkt den inhaltlichen wie den kommunikativen Spielraum der Befragten ein, weil es konversationell präferiert ist, eine Bestätigungshandlung im Anschluß zu produzieren, und weil es kommunikativ nur einer minimalen Antwort (ja/nein) bedarf, um die Replik zu vollziehen. Dadurch sind die Gäste, bereits schon in reaktiver Position durch den Interviewrahmen, abhängig von einer weiteren, expliziten Aufforderung, einen längeren oder einen inhaltlich konträren Redebeitrag zu liefern. Andererseits ist auf der interpersonellen Ebene eine Deklarativfrage der HOSTs prekärer als ein klassisches Frageformat mit Fragewort und Verbinversion. Denn HOST kann ihr (interaktionell definiertes) Gesicht verlieren, wenn sie eine unrichtige oder nur teilweise richtige Proposition formuliert. In dieser Hinsicht wurde die Präferenz für Deklarativfragen als Modus des informellen Sprechens definiert, weil eine gegenseitige Abhängigkeit entsteht, die in der Regel mit dem egalitär strukturierten ChatModus assoziiert wird. Es wurde festgestellt, daß HOST/Rolonda kaum, HOST/Winfrey jedoch häufig mit diesem Format operiert, sich also auch als gleichwertiger Interaktionspartner ihren Gästen gegenüber konstituiert. Normalisierung und Messen an Standards ist ein weiteres Merkmal der Machttechnologie durch Objektivierungspraktiken. Normalisierungsversuche verweisen das Subjekt auf seinen Platz, häufig im Zusammenhang mit Normgeboten, Aufforderungen zur Veränderung usw. Normalisierende Disziplinierungsdiskurse werden in Talkshows u.a. durch die Warnungen und Zurechtweisungen des Studiopublikums gegenüber den Gästen bzw. durch den kategorischen, einflußnehmenden Redestil der ExpertInnen realisiert. Das Subjekt wird immer wieder Gegenstand und Zielscheibe für disziplinierende Interventionen und Eingriffe. Ein Äquivalent zu den objektivierenden Teilungspraktiken, die durch klare Entweder/OderTrennungen Individuen bestimmten Klassen und Ordnungen zuteilen, findet sich in der emotionell aufgeheizten, und von HOST durch Unterlassen von Schlichtungshandlungen aktive unterstützten Frontenbildung bei Rolonda zwischen den Teilnehmerkategorien GUE und AUD (Saalpublikum). An der Grenze von objektivierenden zu subjektivierenden Praktiken liegen die Verfahren, die den SprecherInnen zwar Rede abverlangen, diese aber durch kommunikative Strategien und Dynamiken in den Beteiligunsstrukturen inhaltlich bereits vorgegeben ist. Hierzu gehören u.a. Selektion von und Präferenz für bestimmte Frageformate (in der grammatischen Form des Deklarativs) und Dynamiken des Zitierens der Rede der Gäste sowie das Suggerieren, Soufflieren und Vorsprechen dessen, was das zu erkennende Subjekt erwidern muß indem ihm die Wahrheit über sein Selbst bereits fertig in den Mund gelegt wird. Zu den subjektivierenden Praktiken in Talkshows, die die Teilnehmer zum freien Reden über sich selbst bringen und diskursproduktiv wirken, zählen besonders ChatMomente in den Shows. Passagen, in denen die Gäste auch längere Redebeiträge machen ohne vorstrukturierende Fragestellungen. Die Abwesenheit von Interviewtechniken bzw. sehr offen strukturierte Frageformate geben einen Hinweis auf solche Stellen im TalkshowDiskurs. Narrative Sequenzen, die nicht von Zwischenfragen unterbrochen werden verweisen in der Interaktion zwischen den Gästen (den Alltagssubjekten) und anderen TeilnehmerInnen auf subjektivierende Momente, genauso wie die Häufung bzw. Anwesenheit von Rückmelde und Hörersignalen der Moderatorinnen denn sie sind ein Signal zum Verlängern ihres Redebeitrags, das in keiner Hinsicht strukturierend oder einschränkend wirkt. Die Analysen der Subjektpositionen und Positionierungen geben so meines Erachtens den Blick frei für zwei unterschiedliche Möglichkeiten, Diskurse mit dem Durchschnittsmenschen über seine subjektive Verfaßtheit in der Öffentlichkeit zu führen (und ein Bild von ihm in der Öffentlichkeit zu zeichnen). Es stellt sich heraus, daß die beiden TalkshowReihen unterschiedliche Präferenzen und Gewichtungen der diskursiven Korrelate subjektkonstituierender Machttechnologien aufweisen. Objektivierende Praktiken fanden sich zahlreiche in der RolondaShowreihe, viele Verfahren ausschließlich dort (Spiegelungen, derogative Untertitel, auf Kommunikationsakte ausgerichtete Dressur etc.). Der Diskurs ist auch auf der sprachlichinteraktionellen Mikroebene stark von objektiverenden Praktiken des Aussonderns, Isolierens, dem spektakulären BlickFreigebens auf Details und des inhaltlichen Vorgebens bzw. Repetition der fremden Rede (Aufoktroyieren der fremden Perspektive) geprägt. Als Objekte der analytischen und interpretierenden Rede werden sie in ihrem Subjektstatus (z.B. als eigenständige Sprecher) reduziert und mit den Regeln und Normen eines Kollektivs konfrontiert. Durch diskursive Mikropraktiken werden auf verschiedenen Ebenen Machtgefälle konstruiert, die das Talkshowsubjekt unterordnen unter die Stimmen der Autorität und des Kollektivs, die fordernd und zurechtweisend auf den einzelnen einwirken und direkten Einfluß nehmen. Konfrontative Sequenzen führen auf interpersoneller Ebene zu einem hohen Gesichtsverlust für die Gäste, die gesichtsbedrohliche Sprechhandlungen in der Regel nicht parieren können, weil HOST ihnen keine Gelegenheit gibt und der Interaktion einen "zurechtstutzenden" Grundton gibt. Durch gesichtsbedrohende Akte wie Zurechtweisung und Ermahnung wird die Distanz zu den Gästen gering gehalten, was einem umgangssprachlichen "Zunahetreten" entspricht. Zudem zeichnet sich der Diskurs durch eine extrem dramatisierende Verlaufsform aus, die eine kommunikative Katastrophe (Zusammenbruch der Interaktionsordnung), einen Dressur bzw. Disziplinierungsakt durch eine Autorität (Expertin) und die Katharsis einschließen (Reue, von HOST evozierte, nach außen gekehrte Einsichtsbekundungen und Gutheißen der "Lektion"). Der dramatische Konflikt samt Eskalationen und Konfrontationen mit den kollektiven Forderungen wird dann erst mit Hilfe von anweisenden Autoritäten gelöst. Die Ermächtigung der Autoritäten geht einher mit Objektivierungen, der Degradierung zum Objekt von fremden Blicken, fremder Rede und fremden Regeln. Allerdings auch mit der Reduzierung der Position der Moderatorin, die sich gegenüber den Experten stark zurücknimmt. Die Übernahme von Wissen ("Lernen" und Erkenntnis gewinnen) wird artikuliert als Drill und Gefügigmachen (inklusive Dankbarkeit, vgl. HOSTFrage an GUE/Kathy: Are you happy now?), und baut nicht auf Einsicht. Vorhaltungen und negative Spiegelungen sollen zur Abschreckung und Besserung dienen. Das Subjekt muß zum Nutzen der Gemeinschaft erzogen werden und sich ihren Normen unterordnen. Der SubjektEffekt dieses Diskurses ist ein Autoritäten untergeordnetes Subjekt, das bei Fehlverhalten isoliert und "an den Pranger" gestellt wird, korrekturbedürftig ist und durch Drill (nicht Einsichtsfähigkeit) an die Forderungen einer größeren Gemeinschaft anzupassen ist. Das Verhältnis zu den Autoritäten und zur Gemeinschaft ist ein stark personalisiertes und das Individuum ist gleichzeitig extrem abhängig von diesen, aber auch durch die Detaillierung und die Fokussierung auf den Einzelfall stark überhöht. Diese Entwürfe vom Subjekt lassen sich mühelos in hierarchischautoritären Kontexten wiederfinden und könnten innerhalb eines traditionellen sozio politischen "RechtsMitteLinks"Schemas möglicherweise als Bestandteil eines recht(spopulistisch)en Diskurses betrachtet werden. Die Daten aus der WinfreyReihe zeichnen sich durch insgesamt weniger objektivierende Strategien aus und weisen an manchen Stellen Spuren von subjektivierenden Verfahren auf (die Gäste kommen ausführlicher und weniger als Ausgefragte zu Wort, haben bisweilen Möglichkeiten, sich als Partner in einem informellen Gespräch zu konstituieren etc.). Mehr noch als das Vorhandensein von subjektivierenden Techniken fällt das NichtVorhandensein vieler Objektivierungsstrategien auf. D.h., eine Vereinzelung und Ausrichtung auf das Subjekt im Besonderen ist nicht auffällig ausgeprägt (sie ist vorhanden und im Fernsehen auch medienstrukturell verankert). Viel eher findet ein verallgemeinernder Diskurs statt, der das Subjekt und seine Erfahrung als Ausgangspunkt für generalisierbare Erörterungen nimmt. In den Daten gab es kaum dissentive Sequenzen, wenn es zu spontanen Frontbildungen kam, wurden diese von HOST geschlichtet, die hier untersuchten Shows weisen keine dramatisch strukturierten Formen auf jedenfalls nicht im selben Maß wie die ihrer Kollegin. Natürlich kann man im Mikrobereich sicher ebenfalls Zuspitzungen finden. Aber im Gesamtablauf ist die Show zyklisch strukturiert. Hier erscheint eine zweite Option, wie durch die Praktiken einer "Show für den Privatmenschen in seiner Alltäglichkeit" dieser medial konstituiert wird. Der einzelne wird weder auffällig häufig zum Objekt, noch wirklich frei in seiner Rede, sondern vielmehr zum Ausgangspunkt für Verallgemeinerungen gemacht. Der im Vergleich relativ weitgehende Verzicht auf Aussonderung des konkreten Falls und die Bezugnahme auf den generellen Fall hat als diskursive Korrelate Möglichkeiten der Gleichheit zwischen den Diskursteilnehmern und die Relativierung der Stimme der Autorität (der Experten). Die Übernahme von Wissen und Erkenntnis wird durch die Abhandlung der Problembereiche als denkbare Fälle und Optionen fürs Handeln der Eigenverantwortlichkeit der Subjekte anheimgestellt (ohne evozierte Affirmation und Ausstellung von Akten der Einsicht). SubjektEffekte sind: der einzelne wird als wichtiger Träger von verallgemeinerbaren Erfahrungen konstituiert, allerdings auch als einer neben vielen anderen (vgl. auch die Funktion der AUD, die die Perspektiven der Aussagen erweiteren, keine Fronten zu GUE bilden), das Verhältnis zu den anderen Diskurspositionen, v.a. zu den Autoritäten ist distanzierter, gesichtsbedrohende Sprechhandlungen sind nicht direkt an GUE gerichtet usw. Das Subjekt wird als lernfähig durch rationale Einsicht konstituiert. Analog zur Einordung in ein gesellschaftspolitisches Spektrum, könnte behauptet werden, diese Subjektkonzeptionen reflektieren Normen eines neoliberalen Diskurses der bürgerlichen Mittelschicht über das Individuum, der sich über die Besetzung der Position "egalitär" bzw. "antiautoritär" und "eigenverantwortlich" in Opposition zu "hierarchisch", "autoritär" und fremddefiniert bzw. abhängig von übergeordneten Instanzen definiert. Insofern stehen die beiden Pole der Möglichkeiten der Subjektkonzeption (und medialen Konstitution des Durchschnittsmenschen als Subjekt) in direkter Abfolge hintereinander auf dem Programm USamerikanischer Fernseh Nachmittage. Eine Entscheidung darüber, ob der immense Erfolg von Winfreys neoliberalem Diskurs, der jeden für sich allein und individuell "verantwortlich" macht, oder die Absetzung der ReiheRolonda mit ihrem autoritären und explizit hierarchisch operierenden Diskursmodus Anlaß zur Hoffnung geben sollte, muß anderen medien und sozialkritischen Untersuchungen überlassen bleiben.
Our study provides evidence on the share price reactions to the announcement of equity issues in Germany, where capital market is characterized by institutional features distinct from the U.S. market. German seasoned equity issues yield a positive market reaction which contrasts to the significant negative abnormal returns reported for the U.S. We provide evidence that these results are due to differences in both issuing characteristics and floatation methods, and in the corporate governance and ownership structures of the two countries. Our study explains much of the empirical puzzle of different market reactions to seemingly similar events across financial markets.
This paper investigates how US and European equity markets affected the US dollar-euro rate from the introduction of the euro through April 2001. More detailed the following questions are raised: First, do movements in the stock market help to explain movements in the exchange rate? Second, how large is the impact of stock market returns on the exchange rate? And third, does the exchange rate respond differently to different equity markets? The investigation was carried out using daily data within a vector-autoregression model (VAR). Surprisingly, positive returns on US equities as well as on European stock markets had a negative impact on the US dollar-euro rate. Quantitatively, the US dollar-euro rate seems to be more influenced by European stock markets compared to US stock markets. Further, there is evidence for a somewhat weaker impact of technology stock indices on the US dollar-euro rate compared with broader market indices. Finally, the long-term interest rate differential seems to contain more information about exchange rate movements than the short-term interest rate differential. This Version: August, 2001. Klassifikation: C32, F31
Recent empirical research found that the strong short-term relationship between monetary aggregates and US real output and inflation, as outlined in the classical study by M. Friedman and Schwartz, mostly disappeared since the early 1980s. In the light of the B. Friedman and Kuttner (1992) information value approach, we reevaluate the vanishing relationship between US monetary aggregates and these macroeconomic fundamentals by taking into account the international currency feature of the US dollar. In practice, by using official US data for foreign flows constructed by Porter and Judson (1996) we find that domestic money (currency component of M1 corrected for the foreign holdings of dollars) contains valuable information about future movements of US real output and inflation. Statistical evidence here provided thus suggests that the Friedman and Schwartz's stylized facts can be reestablished once the focus of analysis is back on the domestic monetary aggregates. This Version: August, 2001. Klassifikation: E3, E4, E5
Aufgrund der zunehmenden Marktbedeutung und der Fülle pflanzlicher Präparate in Europa und den USA stellte sich die Frage, ob - im Sinne des Patienten und rationaler Phytotherapie - eine ausreichende Qualität der Produkte deren Einsatz rechtfertigt. Die Qualität pflanzlicher Produkte ist aufgrund der Besonderheit eines Vielstoff-Gemisches mit oftmals unbekannten wirksamkeitsbestimmenden Inhaltsstoffen schwer zu beurteilen. In Europa sind deshalb schon vor Jahren Bestrebungen angestellt worden, pflanzliche Produkte aufgrund von Monographien (Kommission E) zumindest in ihren Ausgangsdrogen und ihrer Extraktspezifikation zu vereinheitlichen. Normierung und Standardisierung von Extrakten wurden gefordert. Während der Diskussion über die Qualität der Extrakte (Normierung/Standardisierung) ist dabei ein wesentlicher Aspekt hinsichtlich der Vergleichbarkeit von Qualität und Wirksamkeit von Fertigprodukten verloren gegangen: der Einfluß der Arzneistoff-Formulierung auf die in vivo-Situation. Ausmaß und Geschwindigkeit der Resorption des enthaltenen Pharmakons (Bioverfügbarkeit) können sowohl von den physiko-chemischen Wirkstoffeigenschaften, wie Löslichkeit und Permeabilität, als auch von Eigenschaften der Darreichungsform abhängen. Entscheidend ist, welcher Prozeß für die Resorption in den Organismus der geschwindigkeitsbestimmende ist: die Freisetzung des Wirkstoffes aus der Darreichungsform oder der Permeationsprozeß durch die Darmmembran. Ist letzterer der geschwindigkeitsbestimmende Schritt, so sind gewisse Veränderungen der Wirkstofffreisetzung ohne Belang. Das Vergleichen von Extraktqualitäten (Wirkstoffen), wie es durch die Kommission E-Monographie vorgeschlagen wird, ist folglich nicht ausreichend. Einflüsse der Darreichungsform (biopharmazeutische Eigenschaften) sind zu berücksichtigen. Wie bei chemisch-synthetischen Wirkstoffen sollte therapeutische Vergleichbarkeit über Bioäquivalenz-Studien belegt werden. Als bioäquivalent gelten zwei Produkte, wenn sie pharmazeutisch äquivalent sind und wenn ihre Bioverfügbarkeiten bei Gabe gleicher Dosen so ähnlich sind, daß die erzielten Effekte bezüglich Wirksamkeit und Sicherheit praktisch identisch sind. Das Problem des Belegs der pharmazeutischen Äquivalenz (gleiche Mengen gleicher Wirkstoffe in gleicher oder ähnlicher Darreichungsform) bei pflanzlichen Produkten ergibt sich aus der Tatsache, daß sie sich phytochemisch als Vielkomponenten-Gemische nur schwer charakterisieren lassen. Wirksamkeitsbestimmende Substanzen sind häufig nicht bekannt. Die Kenntnis wirksamkeitsmitbestimmender Komponenten ermöglicht nur einen partiellen Beleg der Äquivalenz, und pharmakologisch irrelevante Leitsubstanzen können höchstens Zwecken der Standardisierung dienen. Vergleichende Bioverfügbarkeitsuntersuchungen im Sinne von Analysen einzelner Bestandteile in Körperflüssigkeiten sind nur möglich, wenn die wirksamkeitsbestimmenden Komponenten des pflanzlichen Produktes bekannt sind. Alternativ werden Bestimmungen der Bioverfügbarkeit im Form pharmakodynamischer Ansätze diskutiert. Durch die Bestimmung pharmakodynamischer Parameter soll dabei die Aufnahme und Ausscheidung des gesamten „wirksamen Prinzips“ des pflanzlichen Produktes in den Organismus verfolgt werden. Voraussetzung ist natürlich, daß der untersuchte Effekt graduell quantifizierbar ist, in seiner Ausprägung eine Beschreibung von Ausmaß und Geschwindigkeit der Resorption erlaubt und vor allem mit der klinischen Wirksamkeit des betreffenden Produktes korreliert. Im Rahmen dieser Arbeit wurden Ginkgo biloba-haltige Fertigprodukte des US-amerikanischen Marktes hinsichtlich ihrer therapeutischen Vergleichbarkeit untersucht. Für Ginkgo biloba-Extrakte sind wirksamkeitsmitbestimmende Komponenten benannt worden: Flavonglykoside und Terpenlaktone. Anhand derer wurden Untersuchungen zur pharmazeutischen Qualität der Ginkgo-Präparate durchgeführt. Hinsichtlich der Gehalte an Flavonglykosiden und Terpenlaktonen ergaben sich beachtliche Unterschiede. Als Maßstab wurde die Spezifikation der Kommission E angelegt; viele der untersuchten Extrakte lagen signifikant außerhalb der vorgegebenen Spannen, andere wiederum erfüllten diese Anforderungen. Auch die Begleitstoffmuster und -gehalte der diversen Extrakte unterschieden sich deutlich voneinander. Als Beispiel seien hier die Ginkgolsäure-Gehalte angeführt, deren Spanne von < 5 ppm bis 90.000 ppm reichte. Die untersuchten Extrakte konnten also schon aufgrund der Gehalte an wirksamkeitsmitbestimmenden Inhaltsstoffen in der Mehrzahl nicht als miteinander pharmazeutisch äquivalent angesehen werden. Zusätzlich ergaben Untersuchungen zu biopharmazeutischen Qualitäten (in vitro-Freisetzungsverhalten) einiger Produkte deutliche Unterschiede. Da auch für Ginkgo biloba-Extrakt nicht alle wirksamkeitsbestimmenden Inhaltsstoffe bekannt sind, wäre es wünschenswert gewesen, die Produkte in einem pharmakodynamischen Ansatz hinsichtlich ihrer Bioverfügbarkeiten miteinander vergleichen zu können. Allerdings konnte im Rahmen dieser Arbeit kein in vitro-Modell gefunden werden, welches sich als sensitiv genug und als potentieller Bioassay geeignet erwiesen hätte. Deshalb wurde wenigstens eine vergleichende Bioverfügbarkeitsstudie zweier Präparate – im klassischen Sinne - durch Analyse einiger wirksamkeitsmitbestimmender Substanzen (Ginkgolid A, B und Bilobalid) in Körperflüssigkeiten (Blut) durchgeführt. Zwei Produkte mit stark differierendem Freisetzungsverhalten wurden gegeneinander verglichen. Die Studie ergab einen signifikanten Einfluß der Darreichungsform auf die Bioverfügbarkeit und letztendlich Bioinäquivalenz der untersuchten Produkte. Die vorliegende Arbeit zeigt, wie relevant die pharmazeutische Qualität der Produkte, inklusive ihrer biopharmazeutischen Eigenschaften, für die therapeutische Austauschbarkeit von Produkten sein kann. Auf dem Sektor pflanzlicher Produkte sind bis dato sehr wenige Untersuchungen hinsichtlich des Einflusses der Darreichungsform auf in vivo-Verhältnisse und der Bioverfügbarkeit durchgeführt worden. Des weiteren fehlen Kenntnisse zu wirksamkeitsbestimmenden Inhaltsstoffen oder alternativ pharmakodynamische Modelle, die eine Bestimmung der Bioverfügbarkeit ohne Kenntnis der pharmakologisch relevanten Inhaltsstoffe ermöglichen.
A number of recent studies have suggested that activist stabilization policy rules responding to inflation and the output gap can attain simultaneously a low and stable rate of inflation as well as a high degree of economic stability. The foremost example of such a strategy is the policy rule proposed by Taylor (1993). In this paper, I demonstrate that the policy settings that would have been suggested by this rule during the 1970s, based on real-time data published by the U.S. Commerce Department, do not greatly differ from actual policy during this period. To the extent macroeconomic outcomes during this period are considered unfavorable, this raises questions regarding the usefulness of this strategy for monetary policy. To the extent the Taylor rule is believed to provide a reasonable guide to monetary policy, this finding raises questions regarding earlier critiques of monetary policy during the 1970s.
Deutsche Börse AG plans to introduce a system (Xetra Best) allowing brokers and broker-dealers to internalize the orders of retail customers. Further, Xetra Best supports payment for order flow arrangements. Both internalization and payment for order flow may be detrimental to market quality. This paper discusses advantages and disadvantages of these arrangements. It draws on experiences made in the US. We derive policy implications that aim at a more stringent interpretation of "best execution", and at higher transparency. Klassifikation: G10, G14
Within a two step GARCH framework we estimate the time-varying spillover effects from European and US return innovations to 10 economic sectors within the euro area, the United States, and the United Kingdom. We use daily data from January 1988 - March 2002. At the beginning of our sample sectors in all three currency areas/blocks formed a quite homogeneous group exhibiting only minor sector-specific characteristics. However, over time sectors became more heterogeneous, that is the response to aggregate shocks increasingly varies across sectors. This provides evidence that sector-specific effects gained in importance. European industries show increased heterogeneity simultaneously with the start of the European Monetary Union, whereas in the US this trend started in the early 1990's. Information technology and non-cyclical services (including telecommunication services) became the most integrated sectors worldwide, which are most affected by aggregate European and US shocks. On the other hand, basic industries, non-cyclical consumer goods, resources, and utilities became less affected by aggregate shocks. Volatility spillovers proved to be small and volatile. JEL_Klassifikation: G1, F36
Recent changes in accounting regulation for financial instruments (SFAS 133, IAS 39) have been heavily criticized by representatives from the banking industry. They argue for retaining a historical cost based "mixed model" where accounting for financial instruments depends on their designation to either trading or nontrading activities. In order to demonstrate the impact of different accounting models for financial instruments on the financial statements of banks, we develop a bank simulation model capturing the essential characteristics of a modern universal bank with investment banking and commercial banking activities. In our simulations we look at different scenarios with periods of increasing/decreasing interest rates using historical data and with different banking strategies (fully hedged; partially hedged). The financial statements of our model bank are prepared under different accounting rules ("Old" IAS before implementation of IAS 39; current IAS) with and without hedge accounting as offered by the respective sets of rules. The paper identifies critical issues of applying the different accounting rules for financial instruments to the activities of a universal bank. It demonstrates important shortcomings of the "Old" IAS rules (before IAS 39), and of the current IAS rules. Under the current IAS rules the results of a fully hedged bank may have to show volatility in income statements due to changes in market interest rates. Accounting results of a partially hedged bank in the same scenario may be less affected even though there are economic gains or losses.
Both unconditional mixed-normal distributions and GARCH models with fat-tailed conditional distributions have been employed for modeling financial return data. We consider a mixed-normal distribution coupled with a GARCH-type structure which allows for conditional variance in each of the components as well as dynamic feedback between the components. Special cases and relationships with previously proposed specifications are discussed and stationarity conditions are derived. An empirical application to NASDAQ-index data indicates the appropriateness of the model class and illustrates that the approach can generate a plausible disaggregation of the conditional variance process, in which the components' volatility dynamics have a clearly distinct behavior that is, for example, compatible with the well-known leverage effect. Klassifikation: C22, C51, G10
Auf dem Internationalen Kongress für Kunstgeschichte in Berlin 1992 stellte Rosalind Krauss eine neue Interpretation von Pollocks Drip Painting vor, die sich gegen "sublimatorische" Lesarten richtete. Pollock habe nicht bestimmte künstlerische Intentionen verfolgt. Es gebe keinerlei Evidenz dafür, dass er über Ideen verfugt habe, die ihm nicht von anderen eingegeben oder durch die Erwartungen und Normierungen der Rezipienten gesteuert seien. Solche herkömmlichen Verständnisweisen hielten an einem traditionellen Gestaltsehen, am Prinzip der Repräsentation fest. Erst die auf Pollock folgende Künstlergeneration habe den eigentlichen Stellenwert seiner drip paintings "through a far more violent and desublimatory grid" erkannt. Cy Twomblys 'Graffiti', Robert Morris' 'anti-form' und Andy Warhols 'Piss Painting' hätten die triviale, biologisch-naturgesetzliche Dimension von Pollocks Tropftechnik bewusst gemacht und auf die in ihr vorgenommene Entweihung der vertikal anthropomorphisierten Bildebene verwiesen. Die neue Horizontalität oder auch 'Niedrigkeit' des Bildes entlasse es aus den Intentionen seines Schöpfers, bestimme die Form zur Spur eines Unbeabsichtigten, Unbewussten. ...
Kulturelle Bedeutungen und zivilreligiöse Vorstellungen in der amerikanischen Sicherheitspolitik
(2003)
Equal size, equal role? : interest rate interdependence between the Euro area and the United States
(2003)
This paper investigates whether the degree and the nature of economic and monetary policy interdependence between the United States and the euro area have changed with the advent of EMU. Using real-time data, it addresses this issue from the perspective of financial markets by analysing the effects of monetary policy announcements and macroeconomic news on daily interest rates in the United States and the euro area. First, the paper finds that the interdependence of money markets has increased strongly around EMU. Although spillover effects from the United States to the euro area remain stronger than in the opposite direction, we present evidence that US markets have started reacting also to euro area developments since the onset of EMU. Second, beyond these general linkages, the paper finds that certain macroeconomic news about the US economy have a large and significant effect on euro area money markets, and that these effects have become stronger in recent years. Finally, we show that US macroeconomic news have become good leading indicators for economic developments in the euro area. This indicates that the higher money market interdependence between the United States and the euro area is at least partly explained by the increased real integration of the two economies in recent years.
Taking shareholder protection seriously? : Corporate governance in the United States and Germany
(2003)
The paper undertakes a comparative study of the set of laws affecting corporate governance in the United States and Germany, and an evaluation of their design if one assumes that their objective were the protection of the interests of minority outside shareholders. The rationale for such an objective is reviewed, in terms of agency cost theory, and then the institutions that serve to bound agency costs are examined and critiqued. In particular, there is discussion of the applicable legal rules in each country, the role of the board of directors, the functioning of the market for corporate control, and (briefly) the use of incentive compensation. The paper concludes with the authors views on what taking shareholder protection seriously, in each country s legal system, would require.
The paper analyses the effects of three sets of accounting rules for financial instruments - Old IAS before IAS 39 became effective, Current IAS or US GAAP, and the Full Fair Value (FFV) model proposed by the Joint Working Group (JWG) - on the financial statements of banks. We develop a simulation model that captures the essential characteristics of a modern universal bank with investment banking and commercial banking activities. We run simulations for different strategies (fully hedged, partially hedged) using historical data from periods with rising and falling interest rates. We show that under Old IAS a fully hedged bank can portray its zero economic earnings in its financial statements. As Old IAS offer much discretion, this bank may also present income that is either positive or negative. We further show that because of the restrictive hedge accounting rules, banks cannot adequately portray their best practice risk management activities under Current IAS or US GAAP. We demonstrate that - contrary to assertions from the banking industry - mandatory FFV accounting adequately reflects the economics of banking activities. Our detailed analysis identifies, in addition, several critical issues of the accounting models that have not been covered in previous literature. December 2002. Revised: June 2003. Later version: http://publikationen.ub.uni-frankfurt.de/volltexte/2005/1026/ with the title: "Accounting for financial instruments in the banking industry : conclusions from a simulation model"
Accounting for financial instruments in the banking industry: conclusions from a simulation model
(2003)
The paper analyses the effects of three sets of accounting rules for financial instruments - Old IAS before IAS 39 became effective, Current IAS or US GAAP, and the Full Fair Value (FFV) model proposed by the Joint Working Group (JWG) - on the financial statements of banks. We develop a simulation model that captures the essential characteristics of a modern universal bank with investment banking and commercial banking activities. We run simulations for different strategies (fully hedged, partially hedged) using historical data from periods with rising and falling interest rates. We show that under Old IAS a fully hedged bank can portray its zero economic earnings in its financial statements. As Old IAS offer much discretion, this bank may also present income that is either positive or negative. We further show that because of the restrictive hedge accounting rules, banks cannot adequately portray their best practice risk management activities under Current IAS or US GAAP. We demonstrate that - contrary to assertions from the banking industry - mandatory FFV accounting adequately reflects the economics of banking activities. Our detailed analysis identifies, in addition, several critical issues of the accounting models that have not been covered in previous literature.
Die von Hegel übernommenen und in zahlreichen Romanen lancierten Stereotypen haben noch heute nichts von ihrem suggestiven Potential verloren, denn sie schaffen einfache Evidenzen in einer komplizierten Welt. Die Legende vom Durchschnittsbürgerkonsumenten, der nicht einmal weiß, wo Afghanistan liegt, ist symptomatisch für die Aktualität des Jahrhunderte alten Paradigmas der "Erfindung Amerikas".
We develop an estimated model of the U.S. economy in which agents form expectations by continually updating their beliefs regarding the behavior of the economy and monetary policy. We explore the effects of policymakers' misperceptions of the natural rate of unemployment during the late 1960s and 1970s on the formation of expectations and macroeconomic outcomes. We find that the combination of monetary policy directed at tight stabilization of unemployment near its perceived natural rate and large real-time errors in estimates of the natural rate uprooted heretofore quiescent in inflation expectations and destabilized the economy. Had monetary policy reacted less aggressively to perceived unemployment gaps, in inflation expectations would have remained anchored and the stag inflation of the 1970s would have been avoided. Indeed, we find that less activist policies would have been more effective at stabilizing both in inflation and unemployment. We argue that policymakers, learning from the experience of the 1970s, eschewed activist policies in favor of policies that concentrated on the achievement of price stability, contributing to the subsequent improvements in macroeconomic performance of the U.S. economy.
We characterize the response of U.S., German and British stock, bond and foreign exchange markets to real-time U.S. macroeconomic news. Our analysis is based on a unique data set of high-frequency futures returns for each of the markets. We find that news surprises produce conditional mean jumps; hence high-frequency stock, bond and exchange rate dynamics are linked to fundamentals. The details of the linkages are particularly intriguing as regards equity markets. We show that equity markets react differently to the same news depending on the state of the economy, with bad news having a positive impact during expansions and the traditionally-expected negative impact during recessions. We rationalize this by temporal variation in the competing "cash flow" and "discount rate" effects for equity valuation. This finding helps explain the time-varying correlation between stock and bond returns, and the relatively small equity market news effect when averaged across expansions and recessions. Lastly, relying on the pronounced heteroskedasticity in the high-frequency data, we document important contemporaneous linkages across all markets and countries over-and-above the direct news announcement effects. JEL Klassifikation: F3, F4, G1, C5
We take a simple time-series approach to modeling and forecasting daily average temperature in U.S. cities, and we inquire systematically as to whether it may prove useful from the vantage point of participants in the weather derivatives market. The answer is, perhaps surprisingly, yes. Time-series modeling reveals conditional mean dynamics, and crucially, strong conditional variance dynamics, in daily average temperature, and it reveals sharp differences between the distribution of temperature and the distribution of temperature surprises. As we argue, it also holds promise for producing the long-horizon predictive densities crucial for pricing weather derivatives, so that additional inquiry into time-series weather forecasting methods will likely prove useful in weather derivatives contexts.
Rezension zu Joachim Höppner/Waltraud Seidel-Höppner: Etienne Cabet und seine Ikarische Kolonie. Sein Weg vom Linksliberalen zum Kommunisten und seine Kolonie in Darstellung und Dokumentation. Schriftenreihe der Internationalen Forschungsstelle "Demokratische Bewegungen in Mitteleuropa 1770-1850", Bd. 33. Frankfurt/M.: Peter Lang, 2002.
Am Beginn des 21. Jahrhunderts wird der Zustand der US-Demokratie kontrovers diskutiert. Während manche Beobachter eine zu hohe Responsivität des politischen Systems gegenüber den Ansprüchen seiner Bürger entdeckt haben wollen und deshalb von demosclerosis und einer Hyperdemokratie sprechen, in welcher der Volkswille in einen unantastbaren, göttlichen Rang erhoben worden sei, kommen andere zu dem Schluss, dass die Gründerväter im Hinblick auf ihre handlungsanleitende Furcht vor einer »Tyrannei der Mehrheit« ganze Arbeit geleistet und ein nahezu unüberwindbares System von Vetopositionen geschaffen hätten, das Partikularinteressen strukturell bevorzuge und deshalb nur in Ausnahmesituationen die Mehrheitspräferenzen der Bürger in Politik umsetze. Kurzum: Die Furcht der Federalists vor einer »Mehrheitstyrannei« habe einer »Minderheitstyrannei« Tür und Tor geöffnet. Der Artikel versucht die Vereinigten Staaten in diesem Spannungsbogen zu verorten. Ziel ist es, die Qualität der amerikanischen Demokratie am Beginn des 21. Jahrhunderts zu problematisieren. Dabei werden auch die Entwicklungen nach dem 11. September berücksichtigt.
In der vorliegenden Studie werden die sozialpolitischen Reformen in den USA und Kanada während der 1990er Jahren in einer vergleichenden Perspektive analysiert. Dabei wird insbesondere die Rolle steuerpolitischer Instrumentarien in den Reformen thematisiert und der Frage nachgegangen, ob sich hier ein neuer Typ von Wohlfahrtsstaat herausbildet. Im ersten Teil des Papiers wird das in der vergleichenden Wohlfahrtsstaatsforschung etablierte Modell des liberalen Wohlfahrtsstaats skizziert, um vor diesem Hintergrund die Reformen in den USA und Kanada zu untersuchen und zu vergleichen. Anschließend wird in einer breiteren vergleichenden Perspektive die out-put-Leistung der beiden Wohlfahrtsstaaten analysiert. Al normative Kriterien hierbei gilt in erster Linie die Umverteilungsfunktion sozialpolitischer Instrumentarien, hier in erster Linie verstanden als Einkommensumverteilung.
Using a set of regional inflation rates we examine the dynamics of inflation dispersion within the U.S.A., Japan and across U.S. and Canadian regions. We find that inflation rate dispersion is significant throughout the sample period in all three samples. Based on methods applied in the empirical growth literature, we provide evidence in favor of significant mean reversion (ß-convergence) in inflation rates in all considered samples. The evidence on ó-convergence is mixed, however. Observed declines in dispersion are usually associated with decreasing overall inflation levels which indicates a positive relationship between mean inflation and overall inflation rate dispersion. Our findings for the within-distribution dynamics of regional inflation rates show that dynamics are largest for Japanese prefectures, followed by U.S. metropolitan areas. For the combined U.S.-Canadian sample, we find a pattern of within-distribution dynamics that is comparable to that found for regions within the European Monetary Union (EMU). In line with findings in the so-called 'border literature' these results suggest that frictions across European markets are at least as large as they are, e.g., across North American markets. Klassifikation: E31, E52, E58
What do academics have to offer market risk management practitioners in financial institutions? Current industry practice largely follows one of two extremely restrictive approaches: historical simulation or RiskMetrics. In contrast, we favor flexible methods based on recent developments in financial econometrics, which are likely to produce more accurate assessments of market risk. Clearly, the demands of real-world risk management in financial institutions - in particular, real-time risk tracking in very high-dimensional situations - impose strict limits on model complexity. Hence we stress parsimonious models that are easily estimated, and we discuss a variety of practical approaches for high-dimensional covariance matrix modeling, along with what we see as some of the pitfalls and problems in current practice. In so doing we hope to encourage further dialog between the academic and practitioner communities, hopefully stimulating the development of improved market risk management technologies that draw on the best of both worlds.
In Württemberg unterstützte der Kultusminister Karl von Wangenheim den Reformprozess. Er war auf den jungen, pragmatischen und scharfsinnigen Beamten Friedrich List aufmerksam geworden. Dieser kannte die Verwaltungssysteme von der Kommunalebene bis zu den zentralen Staatsorganen und konnte sowohl im Detail als auch in institutionellen Zusammenhängen denken. Als nach 1819 die Restaurationswelle Europa überrollte, gewannen die altständischen Kräfte die Initiative zurück. Von Wangenheim wurde als württembergischer Gesandter des Bundestags nach Frankfurt versetzt. Lists Eifer wurde nicht mehr gebraucht. Seine kleinbürgerliche Herkunft und sein temperamentvoller Charakter störten die Gediegenheit des wieder funktionierenden traditionellen Machtapparates. Als Abgeordneter hielt er im württembergischen Landtag eine zu kühne Rede, die sein Schicksal besiegelte. Er wurde aus Württemberg ausgewiesen und verbrachte sein Leben im Exil. Als einer der wenigen Vormärzdeutschen mit industriellen, medientechnischen und parteipolitischen Erfahrungen in der Schweiz, in Frankreich, Belgien, England und den Vereinigten Staaten von Amerika ist er im Zeitalter der beschleunigten Globalisierung eine besonders interessante Figur.
Als bevölkerungsstärkste Einwanderungsgruppe des 19. Jahrhunderts stellten deutsche Immigranten und Exilanten die Frage nach den Kennzeichen des amerikanischen Wertesystems besonders deutlich. Die eigene kulturelle Prägung diente bei der Suche nach Antworten als sowohl negative als auch positive Bezugsfläche. Nicht selten kam es bei der interkulturellen Begegnung zu Enttäuschungen, deren Ursachen in falschen Vorstellungen über die Realitäten des amerikanischen Wirtschafts-, Politik- und Gesellschaftssystems lagen. Bei der Wahl zwischen resignierender Anpassung an die neuen Verhältnisse oder aktiver Mitgestaltung der Wertegemeinschaft entschieden sich vor allem die Freiheitskämpfer des politischen Vormärz zugunsten einer reformerischen Haltung. Im Folgenden sollen daher nicht die ethnischen Kommunen untersucht werden, die sich um den Preis isolationistischer Vereinsmeierei der Bewahrung deutscher Traditionen, Gebräuche und Sprache verpflichteten, sondern jene Aktivisten, die in den USA ihre Vorstellung einer besseren, vorbildlichen Welt zu verwirklichen suchten. Die deutsch-amerikanische Geschichtsschreibung hat sich traditionell mit der Frage befasst, welche Beiträge deutsche Immigranten zur amerikanischen Kultur leisteten. Dabei ließen in der Vergangenheit viele Arbeiten einen wissenschaftlich analytischen Ansatz vermissen. Neue Zugänge zur von zwei Weltkriegen überschatteten deutsch-amerikanischen Einwanderungsgeschichte können, wie Werner Sollors betont, Analysen der internationalen, poly-ethnischen und multilingualen Kontexte eröffnen?
Rezension zu Christoph Ribbat: Blickkontakt: Zur Beziehungsgeschichte amerikanischer Literatur und Fotografie (1945-2000), München (Wilhelm Fink) 2003. 359 Seiten.
Dass das Verhältnis von Literatur und Fotografie nach wie vor als ein vergleichsweise unterakzentuiertes Forschungsfeld der medienwissenschaftlich zwar zusehends sensibilisierten, die fortschreitende Entpriviligierung des Skripturalen jedoch oftmals noch immer mit Skepsis verfolgenden Philologien gelten darf, steht außer Frage. Folglich ist jede Studie, die sich um die Aufarbeitung der mannigfaltigen Wechselbeziehungen von 'Schreiben' und 'Lichtschreiben' bemüht, zunächst einmal zu begrüßen. Wenn sie dann auch noch in qualitativer Hinsicht überzeugt - umso besser. Zumindest über weite Strecken gelingt dies der hier zur Diskussion stehenden Untersuchung durchaus, die sich den US-amerikanischen Literatur-Fotografie-Interdependenzen in der zweiten Hälfte des 20. Jahrhunderts widmet.
I propose that the rising number of dualearner couples in the United States impacts the trend toward declining residential mobility and rising commute times. I describe these mobility trends in the United States, first relocation trends and then daily commuting trends. My research views the commute as the bridge in time and space between home and work that a) reflects couples' negotiation of preferences, relative job importance, barriers, and opportunities; b) has consequences for family functioning, c) reflects gender differences in the ways time and place are organized, and d) varies across the life course, by race, class, and region. I describe differences in family type and family functioning based on the commuting pattern and suggest a course of future comparative research that may improve awareness of how families and couples handle labor market demands, what structures shape the picture of couples mobility, and how nation-specific circumstances orient couples toward certain kinds of mobility and away from others.
Die größeren deutschsprachigen Zeitungen enthielten in der Regel recht umfangreiche Nachrichten über deutsche und europäische Ereignisse und Entwicklungen, was offensichtlich einem starken Interesse der Leserschaft entsprach, Neuigkeiten über die alte Heimat und den europäischen Kontinent zu erfahren. Gleichzeitig spiegelte es auch ein Bedürfnis der eingewanderten Vormärzemigranten wider, den Lesern Informationen über die neuesten politischen Vorgänge in Europa zu vermitteln, um sie gegebenenfalls für eine Unterstützung demokratischer Bewegungen in der alten Heimat zu gewinnen, was auch materielle Zuwendungen einschließen konnte. Die deutschsprachigen Zeitungen in den USA besaßen zwar keine eigenen Korrespondenten in Europa – lediglich die "Alte und Neue Welt" hatte einen Mitarbeiter in Frankfurt/M., doch die in New York und Philadelphia erscheinenden Blätter erhielten größere Sendungen von europäischen Journalen, aus denen sie Auszüge abdruckten. Die Zeitungen des Binnenlandes wiederum kopierten dann diese Auszüge. Eine weitere Informationsquelle waren die vielfachen brieflichen Kontakte zwischen Deutschen in Amerika und Verwandten oder Freunden in der alten Heimat. Die Briefe wurden häufig ganz oder in Auszügen inverschiedenen Zeitungen abgedruckt, wenn sie im Hinblick auf einen interessanten Nachrichtenwert von öffentlichem Interesse waren.
Rezension zu Kurt Bayertz, Margit. Frölich u. Kurt W. Schmidt (Hg.): I'm the Law. Recht, Ethik und Ästhetik im Western, Frankfurt/Main (Haag + Herchen Verlag) 2004 (= Arnoldshainer Texte; Bd. 124). 170 Seiten.
Hervorgegangen aus einer Tagung im Jahre 2002, versammelt der Band insgesamt acht methodisch recht unterschiedliche Beiträge, die sich aus interdisziplinärer Perspektive mit dem Phänomen des Westerns auseinandersetzen.
Credit card debt puzzles
(2005)
Most US credit card holders revolve high-interest debt, often combined with substantial (i) asset accumulation by retirement, and (ii) low-rate liquid assets. Hyperbolic discounting can resolve only the former puzzle (Laibson et al., 2003). Bertaut and Haliassos (2002) proposed an 'accountant-shopper' framework for the latter. The current paper builds, solves, and simulates a fully-specified accountant-shopper model, to show that this framework can actually generate both types of co-existence, as well as target credit card utilization rates consistent with Gross and Souleles (2002). The benchmark model is compared to setups without self-control problems, with alternative mechanisms, and with impatient but fully rational shoppers. Klassifikation: E210, G110
This paper presents a simple new method for estimating the size of ‘wealth effects’ on aggregate consumption. The method exploits the well-documented sluggishness of consumption growth (often interpreted as ‘habits’ in the asset pricing literature) to distinguish between short-run and long-run wealth effects. In U.S. data, we estimate that the immediate (next-quarter) marginal propensity to consume from a $1 change in housing wealth is about 2 cents, with a final long-run effect around 9 cents. Consistent with several recent studies, we find a housing wealth effect that is substantially larger than the stock wealth effect. We believe that our approach is preferable to the currently popular cointegrationbased estimation methods, because neither theory nor evidence justifies faith in the existence of a stable cointegrating vector. JEL Classification: E21, E32, C22
Regional inflation dynamics within and across Euro area countries and a comparison with the US
(2006)
We investigate co-movements and heterogeneity in inflation dynamics of different regions within and across euro area countries using a novel disaggregate dataset to improve the understanding of inflation differentials in the European Monetary Union. We employ a model where regional inflation dynamics are explained by common euro area and country specific factors as well as an idiosyncratic regional component. Our findings indicate a substantial common area wide component, that can be related to the common monetary policy in the euro area and to external developments, in particular exchange rate movements and changes in oil prices. The effects of the area wide factors differ across regions, however. We relate these differences to structural economic characteristics of the various regions. We also find a substantial national component. Our findings do not differ substantially before and after the formal introduction of the euro in 1999, suggesting that convergence has largely taken place before the mid 90s. Analysing US regional inflation developments yields similar results regarding the relevance of common US factors. Finally, we find that disaggregate regional inflation information, as summarised by the area wide factors, is important in explaining aggregate euro area and US inflation rates, even after conditioning on macroeconomic variables. Therefore, monitoring regional inflation rates within euro area countries can enhance the monetary policy maker’s understanding of aggregate area wide inflation dynamics. JEL Classification: E31, E52, E58, C33
The paper constructs a global monetary aggregate, namely the sum of the key monetary aggregates of the G5 economies (US, Euro area, Japan, UK, and Canada), and analyses its indicator properties for global output and inflation. Using a structural VAR approach we find that after a monetary policy shock output declines temporarily, with the downward effect reaching a peak within the second year, and the global monetary aggregate drops significantly. In addition, the price level rises permanently in response to a positive shock to the global liquidity aggregate. The similarity of our results with those found in country studies might supports the use of a global monetary aggregate as a summary measure of worldwide monetary trends. JEL Classification: E52, F01
We examine the empirical predictions of a real option-pricing model using a large sample of data on mergers and acquisitions in the U.S. banking sector. We provide estimates for the option value that the target bank has in waiting for a higher bid instead of accepting an initial tender offer. We find empirical support for a model that estimates the value of an option to wait in accepting an initial tender offer. Market prices reflect a premium for the option to wait to accept an offer that has a mean value of almost 12.5% for a sample of 424 mergers and acquisitions between 1997 and 2005 in the U.S. banking industry. Regression analysis reveals that the option price is related to both the price to book market and the free cash flow of target banks. We conclude that it is certainly in the shareholders best interest if subsequent offers are awaited. JEL Classification: G34, C10
We study the relation between the credit cycle and macro economic fundamentals in an intensity based framework. Using rating transition and default data of U.S. corporates from Standard and Poor’s over the period 1980–2005 we directly estimate the credit cycle from the micro rating data. We relate this cycle to the business cycle, bank lending conditions, and financial market variables. In line with earlier studies, these variables appear to explain part of the credit cycle. As our main contribution, we test for the correct dynamic specification of these models. In all cases, the hypothesis of correct dynamic specification is strongly rejected. Moreover, accounting for dynamic mis-specification, many of the variables thought to explain the credit cycle, turn out to be insignificant. The main exceptions are GDP growth, and to some extent stock returns and stock return volatilities. Their economic significance appears low, however. This raises the puzzle of what macro-economic fundamentals explain default and rating dynamics. JEL Classification: G11, G21
Although many observers consider the Bush administration’s “faith-based initiative” a unique breach in the wall of separation between church and state, close ties between the federal government and religious agencies are no novelty in the history of American public policy. Since the end of the Second World War, billions of dollars of public funds have been made available to religiously-affiliated hospitals, nursing homes, educational institutions, and social services - institutions which were regarded as vital to Cold War preparedness. By the same token, government use of religious foreign aid agencies, the donation of surplus land and military facilities to religious charities, and the funding of the chaplaincy in the armed forces have undergirded Cold War foreign policy goals. Based on the principle of subsidiarity, post-war public policy thus integrated religious groups into the framework of the welfare and national security state in ways which underwrote both the expansion of the federal government and the growth of religious agencies. Crucially, public funding relations involved not only mainline Protestant, Jewish and Catholic organizations, but also white evangelicals, who had traditionally been the most outspoken opponents of closer ties between church and state. Cold War Anti-Communism, the fear of Catholic or secularist control of public funds, and pragmatic considerations, however, ushered in the gradual revision of their separatist views. Ironically, the programs of Lyndon Johnson’s Great Society, so vilified by the Christian Right, pioneered many of the funding streams most beneficial to evangelical providers. Considering that since 1945 the sprawling and loosely organized evangelical movement has become the largest single religious faction in the US, and that conservative Protestants now form the most strongly Republican group in the religious spectrum, these findings are of particular importance. They suggest that Cold War state-building and the resurgence of Evangelicalism mutually reinforced each other in ways which have been largely ignored by scholarship on conservatism and its focus on the “backlash” against the political and cultural upheaval of the 1960s. Based on newly accessible archival materials and a comprehensive review of secondary literature, this paper suggests that the institutional and ideological ties between evangelicals and the state, which developed in the aftermath of the Second World War, are as important in understanding the political mobilization of conservative Protestants as the more recent “culture war” sentiments.
This paper is intended to show how Latinos in general and Mexican Americans, Cuban Americans, and Puerto Ricans in particular, engage politically in the United States. Latinos execute their influence by voting or in non-electoral activities like campaign work or financial contributions. As an individual, one participates as a member of society and possibly as a member of an interest group, i.e. a party. Thus, to be successful, it is necessary to combine one’s personal interest with that of others in order to form an alliance that, due to its size, may have an impact on the political stage. This study will show which factors are necessary and which steps were taken to gain and enhance Latino political influence. In doing so, it will become clear that Mexican Americans, Cuban Americans, and Puerto Ricans all started their struggle from diverse backgrounds and possess significantly different goals. Although common language unites these three national-origin groups, they do not have the same political and economic resources at their disposal. Decisive differences in immigration politics, naturalization, and economic opportunities become visible and will prove a distinct heterogeneity of Latinos concerning political behavior and goals. Political activities of Mexican Americans, Cuban Americans, and Puerto Ricans will be outlined as well as how they differ from each other. In doing so, it is necessary to take notice of their specific histories and legal experiences upon arrival in the United States. Furthermore, different demographic factors of the three national-origin groups additionally affect political participation. An understanding of Latino political participation should be in the interest of the U.S. public as well as scholars engaging in American Studies. This biggest minority increasingly makes its presence felt in the electoral arena, especially at the state level. In states such as California, Texas, Florida and New Mexico Latinos constitute decisive voting blocs. But also, Latinos nationwide enlarge their political clout, due to cumulative numbers and a more developed political consciousness. With this national and state level significance of the Latino electorate, examining their policy preferences and goals has become progressively more important to the understanding of the U.S. political scene. The approach here is twofold. First, political participation of the Latino population as a whole will be researched; using numbers and results from the presidential election 2004. In this part of the paper, the concept of pan-ethnicity using the label Latino will be used to sum up Spanish-speaking nationalities and their political efforts. In order to be eligible to vote, certain legal requirements are to be met, so factors that account for voting will be outlined first. In accordance with the large share of non-citizens among the Latino population, it is also necessary to examine their non-electoral political activities. The second part will portray Latinos in more detail, examining the three largest national-origin groups. By demonstrating their specific histories and varied experiences and opportunities in U.S. politics, it will become clear that when talking about Latino Politics, it is indispensable to bear in mind the heterogeneity of America’s biggest minority and the side effects this has.
We evaluate the asset pricing implications of a class of models in which risk sharing is imperfect because of the limited enforcement of intertemporal contracts. Lustig (2004) has shown that in such a model the asset pricing kernel can be written as a simple function of the aggregate consumption growth rate and the growth rate of consumption of the set of households that do not face binding enforcement constraints in that state of the world. These unconstrained households have lower consumption growth rates than constrained households, i.e. they are located in the lower tail of the crosssectional consumption growth distribution. We use household consumption data from the U.S. Consumer Expenditure Survey to estimate the pricing kernel implied by the model and to evaluate its performance in pricing aggregate risk. We employ the same data to construct aggregate consumption and to derive the standard complete markets pricing kernel. We find that the limited enforcement pricing kernel generates a market price of risk that is substantially larger than the standard complete markets asset pricing kernel. Klassifizierung: G12, D53, D52, E44
This paper employs a multi-country large scale Overlapping Generations model with uninsurable labor productivity and mortality risk to quantify the impact of the demographic transition towards an older population in industrialized countries on world-wide rates of return, international capital flows and the distribution of wealth and welfare in the OECD. We find that for the U.S. as an open economy, rates of return are predicted to decline by 86 basis points between 2005 and 2080 and wages increase by about 4.1%. If the U.S. were a closed economy, rates of return would decline and wages increase by less. This is due to the fact that other regions in the OECD will age even more rapidly; therefore the U.S. is “importing” the more severe demographic transition from the rest of the OECD in the form of larger factor price changes. In terms of welfare, our model suggests that young agents with little assets and currently low labor productivity gain, up to 1% in consumption, from higher wages associated with population aging. Older, asset-rich households tend to lose, because of the predicted decline in real returns to capital. Klassifizierung: E17, E25, D33, C68
The paper presents an overview about some of the international relevant projects of digital resources in Germany. Online presentations of primary sources, e.g. photographic material, and bibliographic tools supporting research, such as cross searching, will be presented as potential partners of resource sharing with North America. Not only the possibility of cooperation will be sketched, but also necessary preliminary work and some obstacles will be outlined. This report is accompanied by a short characterization of African studies in Germany and the status quo of Open Access-initiatives.
Using data of US domestic mergers and acquisitions transactions, this paper shows that acquirers have a preference for geographically proximate target companies. We measure the ‘home bias’ against benchmark portfolios of hypothetical deals where the potential targets consist of firms of similar size in the same four-digit SIC code that have been targets in other transactions at about the same time or firms that have been listed at a stock exchange at that time. There is a strong and consistent home bias for M&A transactions in the US, which is significantly declining during the observation period, i.e. between 1990 and 2004. At the same time, the average distances between target and acquirer increase articulately. The home bias is stronger for small and relatively opaque target companies suggesting that local information is the decisive factor in explaining the results. Acquirers that diversify into new business lines also display a stronger preference for more proximate targets. With an event study we show that investors react relatively better to proximate acquisitions than to distant ones. That reaction is more important and becomes significant in times when the average distance between target and acquirer becomes larger, but never becomes economically significant. We interpret this as evidence for the familiarity hypothesis brought forward by Huberman (2001): Acquirers know about the existence of proximate targets and are more likely to merge with them without necessarily being better informed. However, when comparing the best and the worst deals, we are able to show a dramatic difference in distances and home bias: The most successful deals display on average a much stronger home bias and distinctively smaller distance between acquirer and target than the least successful deals. Proximity in M&A transactions therefore is a necessary but not sufficient condition for success. The paper contributes to the growing literature on the role of distance in financial decisions.
Der Präventivkrieg gegen den Irak, die sogenannte Operation Iraqi Freedom vom 20. März bis 1. Mai 2003, scheint es erneut zu bestätigen – demokratische Öffentlichkeiten sind manipulierbar. Wie sonst ließen sich die erheblichen Fehlwahrnehmungen der amerikanischen Bevölkerung erklären, die sich mit der "Vermarktung" des Militäreinsatzes durch die Administration von George W. Bush (vgl. Freedman 2004, Kaufmann 2004 u. Pfiffner 2004) so sehr im Einklang zu befinden scheinen? ...
In this paper, we examine three famous episodes of deliberate deflation (or disinflation) in U.S. history, including episodes following the Civil War, World War I, and the Volcker disinflation of the early 1980s. These episodes were associated with widely divergent effects on the real economy, which we attribute both to differences in the policy actions undertaken, and to the transparency and credibility of the monetary authorities. We attempt to account for the salient features of each episode within the context of a stylized DSGE model. Our model simulations indicate how a more predictable policy of gradual deflation could have helped avoid the sharp post-WWI depression. But our analysis also suggests that the strong argument for gradualism under a transparent monetary regime becomes less persuasive if the monetary authority lacks credibility; in this case, an aggressive policy stance (as under Volcker) can play a useful signalling role by making a policy shift more apparent to private agents. JEL Classification: E31, E32, E52
This paper proposes a possible way of assessing the effect of interest rate dynamics on changes in the decision-making approach, communication strategy and operational framework of a Central bank. Through a GARCH specification we show that the USA and Euro area displayed a limited but significant spillover of volatility from money market to longer-term rates. We then checked the stability of this phenomenon in the most recent period of improved policymaking and found empirical evidence that the transmission of overnight volatility along the yield curve vanished soon after specific policy changes of the FED and ECB.
This paper explores the role of trade integration—or openness—for monetary policy transmission in a medium-scale New Keynesian model. Allowing for strategic complementarities in price-setting, we highlight a new dimension of the exchange rate channel by which monetary policy directly impacts domestic inflation. Although the strength of this effect increases with economic openness, it also requires that import prices respond to exchange rate changes. In this case domestic producers find it optimal to adjust their prices to exchange rate changes which alter the domestic currency price of their foreign competitors. We pin down key parameters of the model by matching impulse responses obtained from a vector autoregression on U.S. time series relative to an aggregate of industrialized countries. While we find evidence for strong complementarities, exchange rate pass-through is limited. Openness has therefore little bearing on monetary transmission in the estimated model.
Increasingly, individuals are in charge of their own financial security and are confronted with ever more complex financial instruments. However, there is evidence that many individuals are not well-equipped to make sound saving decisions. This paper demonstrates widespread financial illiteracy among the U.S. population, particularly among specific demographic groups. Those with low education, women, African-Americans, and Hispanics display particularly low levels of literacy. Financial literacy impacts financial decision-making. Failure to plan for retirement, lack of participation in the stock market, and poor borrowing behavior can all be linked to ignorance of basic financial concepts. While financial education programs can result in improved saving behavior and financial decision-making, much can be done to improve these programs’ effectiveness.
We investigate, using the 2002 US Health and Retirement Study, the factors influencing individuals’ insecurity and expectations about terrorism, and study the effects these last have on households’ portfolio choices and spending patterns. We find that females, the religiously devout, those equipped with a better memory, the less educated, and those living close to where the events of September 2001 took place worry a lot about their safety. In addition, fear of terrorism discourages households from investing in stocks, mostly through the high levels of insecurity felt by females. Insecurity due to terrorism also makes single men less likely to own a business. Finally, we find evidence of expenditure shifting away from recreational activities that can potentially leave one exposed to a terrorist attack and towards goods that might help one cope with the consequences of terrorism materially (increased use of car and spending on the house) or psychologically (spending on personal care products by females in couples).
This paper addresses and resolves the issue of microstructure noise when measuring the relative importance of home and U.S. market in the price discovery process of Canadian interlisted stocks. In order to avoid large bounds for information shares, previous studies applying the Cholesky decomposition within the Hasbrouck (1995) framework had to rely on high frequency data. However, due to the considerable amount of microstructure noise inherent in return data at very high frequencies, these estimators are distorted. We offer a modified approach that identifies unique information shares based on distributional assumptions and thereby enables us to control for microstructure noise. Our results indicate that the role of the U.S. market in the price discovery process of Canadian interlisted stocks has been underestimated so far. Moreover, we suggest that rather than stock specific factors, market characteristics determine information shares.
How do fiscal and technology shocks affect real exchange rates? : New evidence for the United States
(2008)
Using vector autoregressions on U.S. time series relative to an aggregate of industrialized countries, this paper provides new evidence on the dynamic effects of government spending and technology shocks on the real exchange rate and the terms of trade. To achieve identification, we derive robust restrictions on the sign of several impulse responses from a two-country general equilibrium model. We find that both the real exchange rate and the terms of trade – whose responses are left unrestricted – depreciate in response to expansionary government spending shocks and appreciate in response to positive technology shocks.
While companies have emerged as very proactive donors in the wake of recent major disasters like Hurricane Katrina, it remains unclear whether that corporate generosity generates benefits to firms themselves. The literature on strategic philanthropy suggests that such philanthropic behavior may be valuable because it can generate direct and indirect benefits to the firm, yet it is not known whether investors interpret donations in this way. We develop hypotheses linking the strategic character of donations to positive abnormal returns. Using event study methodology, we investigate stock market reactions to corporate donation announcements by 108 US firms made in response to Hurricane Katrina. We then use regression analysis to examine if our hypothesized predictors are associated with positive abnormal returns. Our results show that overall, corporate donations were linked to neither positive nor negative abnormal returns. We do, however, see that a number of factors moderate the relationship between donation announcements and abnormal stock returns. Implications for theory and practice are discussed.
Many older US households have done little or no planning for retirement, and there is a substantial population that seems to undersave for retirement. Of particular concern is the relative position of older women, who are more vulnerable to old-age poverty due to their longer longevity. This paper uses data from a special module we devised on planning and financial literacy in the 2004 Health and Retirement Study. It shows that women display much lower levels of financial literacy than the older population as a whole. In addition, women who are less financially literate are also less likely to plan for retirement and be successful planners. These findings have important implications for policy and for programs aimed at fostering financial security at older ages.
We analyze a national sample of Americans with respect to their debt literacy, financial experiences, and their judgments about the extent of their indebtedness. Debt literacy is measured by questions testing knowledge of fundamental concepts related to debt and by selfassessed financial knowledge. Financial experiences are the participants’ reported experiences with traditional borrowing, alternative borrowing, and investing activities. Overindebtedness is a self-reported measure. Overall, we find that debt literacy is low: only about one-third of the population seems to comprehend interest compounding or the workings of credit cards. Even after controlling for demographics, we find a strong relationship between debt literacy and both financial experiences and debt loads. Specifically, individuals with lower levels of debt literacy tend to transact in high-cost manners, incurring higher fees and using high-cost borrowing. In applying our results to credit cards, we estimate that as much as one-third of the charges and fees paid by less knowledgeable individuals can be attributed to ignorance. The less knowledgeable also report that their debt loads are excessive or that they are unable to judge their debt position. JEL Classification: D14, D91
American households have received a triple dose of bad news since the beginning of the current recession: The greatest collapse in asset values since the Great Depression, a sharp tightening in credit availability, and a large increase in unemployment risk. We present measures of the size of these shocks and discuss what a benchmark theory says about their immediate and ultimate consequences. We then provide a forecast based on a simple empirical model that captures the effects of wealth shocks and unemployment fears. Our short-term forecast calls for somewhat weaker spending, and somewhat higher saving rates, than the Consensus survey of macroeconomic forecasters. Over the longer term, our best guess is that the personal saving rate will eventually approach the levels that preceded period of financial liberalization that began in the late 1970s. Classification: C61, D11, E24
We investigate US households’ direct investment in stocks, bonds and liquid accounts and their foreign counterparts, in order to identify the different participation hurdles affecting asset investment domestically and overseas. To this end, we estimate a trivariate probit model with three further selection equations that allows correlations among unobservables of all possible asset choices. Our results point to the existence of a second hurdle that stock owners need to overcome in order to invest in foreign stocks. Among stockholders, we show that economic resources, willingness to assume greater financial risks, shopping around for the best investment opportunities all increase the probability to invest in foreign stocks. Furthermore, we find that households who seek financial advice from relatives, friends and work contacts are less likely to invest in foreign stocks. This result corroborates the conjecture by Hong et al. (2004) that social interactions should discourage investment in foreign stocks, given their limited popularity. On the other hand, we find little evidence for additional pecuniary or informational costs associated with investment in foreign bonds and liquid accounts. Finally, we show that ignoring correlations of unobservables across different asset choices can lead to very misleading results.
In this paper we investigate the comparative properties of empirically-estimated monetary models of the U.S. economy. We make use of a new data base of models designed for such investigations. We focus on three representative models: the Christiano, Eichenbaum, Evans (2005) model, the Smets and Wouters (2007) model, and the Taylor (1993a) model. Although the three models differ in terms of structure, estimation method, sample period, and data vintage, we find surprisingly similar economic impacts of unanticipated changes in the federal funds rate. However, the optimal monetary policy responses to other sources of economic fluctuations are widely different in the different models. We show that simple optimal policy rules that respond to the growth rate of output and smooth the interest rate are not robust. In contrast, policy rules with no interest rate smoothing and no response to the growth rate, as distinct from the level, of output are more robust. Robustness can be improved further by optimizing rules with respect to the average loss across the three models.
It is well known that Luis Kutner (1908-1993) played an important role in the development of the living will (advance directive, Patientenverfügung). But it is not clear when he developed his concept. We have screened the Luis Kutner Papers,deposited at the Hoover Institution Archives at Stanford University to answer this question. We found out that in the second half of 1967, Kutner dealt intensively with the issue of euthanasia. On December 7, 1967, he delivered a speech at the annual meeting of the Euthanasia Society in New York and presented the concept of the living will to the audience. So Kutner surely was a pioneer in this field, but further research is necessary to clarify, if he (or maybe Elsa W. Simon or Abraham L. Wolbarst) was the "originator" of the living will concept in the sense of passive euthanasia.
This paper provides a joint analysis of household stockholding participation, stock location among stockholding modes, and participation spillovers, using data from the US Survey of Consumer Finances. Our multivariate choice model matches observed participation rates, conditional and unconditional, and asset location patterns. Financial education and sophistication strongly affect direct stockholding and mutual fund participation, while social interactions affect stockholding through retirement accounts only. Household characteristics influence stockholding through retirement accounts conditional on owning retirement accounts, unlike what happens with stockholding through mutual funds. Although stockholding is more common among retirement account owners, this fact is mainly due to their characteristics that led them to buy retirement accounts in the first place rather than to any informational advantages gained through retirement account ownership itself. Finally, our results suggest that, taking stockholding as given, stock location is not arbitrary but crucially depends on investor characteristics. JEL Classification: G11, E21, D14, C35
During the last decades households in the U.S. have experienced that residential house prices move in a persistent manner, i.e. that returns are positively serially correlated. Since an owner-occupied home is usually the largest investment of a household it is important to understand how households act when they base their consumption and investment decisions on this experience. We show in a setting with housing market cycles and households who can decide whether they rent or own the home, that - besides the consumption and the precautionary savings motive - serial correlation in house prices generates a new speculative motive for homeownership. In particular, we show how good and bad housing market cycles affect homeownership rates, leverage, stock investments and consumption and can explain empirically observed household behavior during housing market boom and bust periods. Keywords: Asset Allocation , Portfolio Choice , Housing Market Cycles , Real Estate JEL Classification: G11, D91
We show that average excess returns during the last two years of the presidential cycle are significantly higher than during the first two years: 9.8 percent over the period 1948 – 2008. This pattern in returns cannot be explained by business-cycle variables capturing time-varying risk premia, differences in risk levels, or by consumer and investor sentiment. In this paper, we formally test the presidential election cycle (PEC) hypothesis as the alternative explanation found in the literature for explaining the presidential cycle anomaly. PEC states that incumbent parties and presidents have an incentive to manipulate the economy (via budget expansions and taxes) to remain in power. We formulate eight empirically testable propositions relating to the fiscal, monetary, tax, unexpected inflation and political implications of the PEC hypothesis. We do not find statistically significant evidence confirming the PEC hypothesis as a plausible explanation for the presidential cycle effect. The existence of the presidential cycle effect in U.S. financial markets thus remains a puzzle that cannot be easily explained by politicians employing their economic influence to remain in power. JEL Classification: E32; G14; P16 Keywords: Political Economy, Market Efficiency, Anomalies, Calendar Effects
Discussions of the international dimension of the global economic crisis have frequently focused on the build-up of large current account "imbalances" since the mid-1990s. This paper examines the extent to which the U.S. current account can be understood in a purely real open-economy DSGE model, were agents' perception of long-run growth evolves over time in response to changes in productivity. We first show that long-run growth forecasts based on
ltering actual productivity growth comove strongly with survey measures of expectations. Simulating the model, we
nd that including data on U.S. TFP growth and the world real interest rate can, under standard parametrizations of our model, explain the evolution of the U.S. current account quite closely. With household preference that allow positive labor supply e¤ects after favorable news of future income, we can also generate output movements in line with the data.
How is it possible to write about "American" habitus in general, when the United States is socially, geographically, ethically and politically so diverse? "The USA", it has been observed, "is not a country, it is a continent". The social forces and social processes shaping the habitus of Americans are multifarious. There has not, for example, ever been a single elite in the USA as a whole that has succeeded in monopolising the social "model-setting" function to the extent that was common in the history of many Western European countries. For the development of American habitus, Stephen Mennell advances a central proposition: His thesis is that the central historic experience shaping the social habitus of Americans is that of their country constantly becoming more powerful relative to its neighbours. This has had long-term and all-pervasive effects on the way Americans see themselves, on how they perceive the rest of the world, and how others see them.
Christine Haug streicht die juristische Problematik auf dem Buchmarkt des Nachmärzes heraus und beschreibt die fortschreitende Globalisierung der Buchmärkte, wobei der Ausbau der internationalen Kommunikations- und Verkehrssysteme wichtige Katalysatoren waren. Haug verdeutlicht am Beispiel des New Yorker Buchhändlers und Verlegers Ernst Steiger, der in Süddeutschland zu den Vertretern der sogenannten 'speculativen Richtung' des Buchhandels gehörte, zum einen das Urheberrechtsverständnis auf dem deutschsprachigen Buchmarkt und zum anderen die Irritationen, die sich auf Verleger-, vor allem aber auf Schriftstellerseite (Berthold Auerbach, Paul Lindau, Friedrich Spielhagen) in der Konfrontation mit dem amerikanischen Copyright einstellten, als im Zuge der Auswanderungen in die USA die deutschsprachige Literatur sich auf dem amerikanischen Buchmarkt zu etablieren suchte. Das divergierende Rechtsverständnis ist, so wird deutlich, zugleich eng gekoppelt an ästhetische, produktionstechnische und ökonomische Vorstellungen zur Literatur und zum Literaturmarkt, die im Hinblick auf Vormärz-Verlage wie Otto Wigand oder Heinrich Hoff aufschlussreich sind.
Regulations in the pre-Sarbanes–Oxley era allowed corporate insiders considerable flexibility in strategically timing their trades and SEC filings, for example, by executing several trades and reporting them jointly after the last trade. We document that even these lax reporting requirements were frequently violated and that the strategic timing of trades and reports was common. Event study abnormal re-turns are larger after reports of strategic insider trades than after reports of otherwise similar nonstrategic trades. Our results also imply that delayed reporting is detrimental to market efficiency and lend strong support to the more stringent trade reporting requirements established by the Sarbanes–Oxley Act. JEL Classification: G14, G30, G32 Keywords: Insider Trading , Directors' Dealings , Corporate Governance , Market Efficiency
Das Studienfach Deutsch als Fremdsprache/Germanistik erlebt seit einigen Jahren an einer Vielzahl von ausländischen Universitäten eine tiefe Rezession. In diesem Beitrag stellen drei Germanistinnen der East Carolina University in Greenville, North Carolina, USA, ihre erfolgreichen Strategien zur Wiederbelebung eines Germanistikprogramms vor. Die Umwandlung eines traditionellen Germanistikstudiums in ein vielfältiges "German Studies" Programm erfolgte durch die Erweiterung des Lehrangebots mit interdisziplinären und praxisbezogenen Kursen, die Vermittlung von interkulturellen Kompetenzen und "Service-Learning" (Lernen durch Engagement) Aktivitäten.
This paper examines to what extent the build-up of 'global imbalances' since the mid-1990s can be explained in a purely real open-economy DSGE model in which agents' perceptions of long-run growth are based on filtering observed changes in productivity. We show that long-run growth estimates based on filtering U.S. productivity data comove strongly with long-horizon survey expectations. By simulating the model in which agents filter data on U.S. productivity growth, we closely match the U.S. current account evolution. Moreover, with household preferences that control the wealth effect on labor supply, we can generate output movements in line with the data.
This paper examines to what extent the build-up of "global imbalances" since the mid-1990s can be explained in a purely real open-economy DSGE model in which agents’ perceptions of long-run growth are based on filtering observed changes in productivity. We show that long-run growth estimates based on filtering U.S. productivity data comove strongly with long-horizon survey expectations. By simulating the model in which agents filter data on U.S. productivity growth, we closely match the U.S. current account evolution. Moreover, with household preferences that control the wealth effect on labor supply, we can generate output movements in line with the data. JEL Classification: E13, E32, D83, O40
During the Black Revolution, LeRoi Jones used a radical adaptation of Dante to express a new militant identity, turning himself into a new man with a new name, Amiri Baraka, whose experimental literary project culminated in "The System of Dante's Hell" in 1965. Dante’s poem (specifically, John Sinclair's translation) provides a grid for the narrative of Baraka's autobiographical novel; at the same time, the Italian poet's description of hell functions for Baraka as a gloss on many of his own experiences. Whereas for Ralph Ellison and Richard Wright, Dante marks a way into the world of European culture, Baraka uses Dante first to measure the growing distance between himself and European literature and then, paradoxically, to separate himself totally from it. Baraka's response to the poet at once confirms and belies Edward Said's claim that Dante's "Divine Comedy" is essentially an imperial text that is foundational to the imperial discipline of comparative literature. That Baraka can found his struggle against imperialist culture, as he sees it, on none other than this specific poem suggests the extent to which it is a richer and more complex text than even Said imagined. To see exactly how Baraka does this, Dennis Looney proposes to read several extended passages from "The System of Dante's Hell" to take stock of its allusiveness to the Italian model. For all the critical attention to Baraka, surprisingly no one has undertaken the necessary work of sorting out his allusions to Dante in any systematic way.
This paper reconsiders the effect of investor sentiment on stock prices. Using survey-based sentiment indicators from Germany and the US we confirm previous findings of predictability at intermediate time horizons. The main contribution of our paper is that we also analyze the immediate price reaction to the publication of sentiment indicators. We find that the sign of the immediate price reaction is the same as that of the predictability at intermediate time horizons. This is consistent with sentiment being related to mispricing but is inconsistent with the alternative explanation that sentiment indicators provide information about future expected returns. JEL Classification: G12, G14 Keywords: Investor Sentiment , Event Study , Return Predictability
Four more years!
(2012)
US-Präsident Barack Obama ist wiedergewählt. Das ist eine gute Entscheidung für Amerika. Denn ein Blick auf die drängendsten Probleme des Landes zeigt, dass der amtierende Präsident sie erkannt und angegangen hat. Sein Problem: Ihre Lösung wird viele Jahre brauchen. Wie schwer dies wird, zeigt allein, wie sehr die Kandidatur Obamas polarisiert. Ein Reiseeindruck aus dem wählenden Amerika.
Die Bedeutung staatlicher Souveränität und die Rolle des Staates werden seit einigen Jahren in Politik und Wissenschaft hitzig diskutiert und die Bedeutung staatlicher Souveränität in Frage gestellt: Die veränderten Problemlagen in Zeiten der Globalisierung hätten politische Bewältigungsstrategien notwendig gemacht, die nicht mehr durch intergouvernementale Kooperation zu lösen sei, argumentieren einige. Hinzu kommt der Ruf nach einer Stärkung kosmopolitischer Herrschaft. Doch es gibt auch Hinweise auf gegenteilige Entwicklungen.
Die Entscheidung scheint gefallen: die Bundesregierung wird bald bewaffnete Drohnen anschaffen. Dass die Politik sich den Wünschen des Militärs nach bewaffneten Systemen beugen würde, war letztlich nicht eine Frage des ob sondern nur noch des wann. Aber schon die Art und Weise, wie die Entscheidung an die Öffentlichkeit gelangt ist, zeigt, was die Bundesregierung offensichtlich vermeiden möchte. Anstelle eines „gesellschaftlichen Diskurses“ über Kampfdrohnen, den Verteidigungsminister de Maizière stets angekündigt hatte, war es eine kleine Anfrage der Bundestagsfraktion der Linkspartei, die Klarheit über die deutschen Absichten brachte. Völlig überrumpelt musste das Verteidigungsministerium schnell klarstellen, bewaffnete Drohnen seien „unbedingt erforderlich“. Diese dienten dem Schutz der deutschen Soldatinnen und Soldaten, in internationalen Einsätzen und jeder, der die Anschaffung bewaffneter Drohnen in Frage stelle, unterwandere die Sicherheit unserer Streitkräfte, so die offizielle Argumentation. Man könne einfach nicht auf diese Fähigkeit verzichten – nicht gerade ein Diskussionsangebot aus dem Verteidigungsministerium...
Es tut sich etwas in Folge der Snowden-Leaks: In den USA werden Untersuchungsausschüsse eingesetzt, Vorstöße, die Macht der NSA einzuschränken bzw.transparenter zu gestalten werden stärker – vor allem aber wird es wohl institutionelle Änderungen geben. Und diese hängen an einer Person: Keith Alexander.
Trotz der Annäherung der Begriffe 'Geschichte' und 'Evolution' unter dem Vorzeichen einer semantischen Verschiebung kulturellen Kapitals haben sich bis in die Gegenwart auch begriffliche Differenzen erhalten. So gibt es neben der unbekümmerten Anwendung von 'Geschichte' und 'Evolution' auf alle sich in der Zeit verändernden Dinge auch Versuche, die Begriffe terminologisch stark zu machen und in der Folge dessen 'Evolution' für den Bereich der Natur und 'Geschichte' für den der Kultur zu reservieren. Der Beitrag liefert eine historische Rekonstruktion dieser Entwicklung. Am Anfang stehen dabei einige quantitative sprachwissenschaftliche Beobachtungen zur Entwicklung der Häufigkeit der Begriffe in verschiedenen Textgattungen und zur gegenwärtigen Semantik durch einen Vergleich der häufigsten Genitivattribute. Im zweiten Abschnitt wird die Veränderung des Ausdrucks 'Geschichte' untersucht, zunächst in seiner terminologischen Bedeutung in den Geschichtswissenschaften, dann in seiner Ausweitung auf Gegenstände der Natur. Der dritte Abschnitt liefert eine analoge Untersuchung zu 'Evolution', ausgehend von den Naturwissenschaften und in der Ausweitung auf kulturelle Phänomene. Im vierten Abschnitt wird eine Verbindung der beiden Begriffe näher betrachtet, die im Sinne einer semantischen Verschränkung wirksam ist und sich unter anderem daraus ergibt, dass das Wort 'Evolution' eine teleologische Konnotation hat, die bei 'Geschichte' nicht vorliegt. Der fünfte Abschnitt schließlich beleuchtet die wissenschaftliche Stellung der Begriffe in der Gegenwart und erwägt die Aussichten ihrer terminologischen Differenzierung.
Am vergangenen Freitag wurde zum mittlerweile fünften Mal der Internationale Tag gegen Nuklearversuche begangen. Außenminister Steinmeier merkte dazu an: „Auch wenn die Krisendiplomatie derzeit oftmals das Tagesgeschäft bestimmt, dürfen wir unsere langfristigen Bemühungen um Abrüstung nicht aus den Augen verlieren. Deutschland setzt sich weiterhin mit großem Nachdruck für das Inkrafttreten des Atomteststoppvertrags ein, der die Neu- und Weiterentwicklung von Nuklearwaffen stark erschweren würde – ein enormer Sicherheitsgewinn für die Weltgemeinschaft.“ Das Schicksal des bereits 1996 zur Unterschrift aufgelegten Umfassenden Kernwaffenteststopp-Vertrags, oder CTBT, wie er international abgekürzt wird, hängt in den Augen der meisten Beobachter von der Ratifikation der Vereinigten Staaten ab. Diese ist 1999 gescheitert. Und obwohl die Obama-Administration schon früh während der ersten Amtszeit plante, den Vertrag erneut dem Senat vorzulegen, ist es dazu bis heute nicht gekommen. Ein Blick auf die Verhältnisse im Senat und den damit zusammenhängenden „Ratifikationsstau“ zahlreicher internationaler Abkommen lässt weder für die verbleibende Amtszeit von Obama Hoffnung aufkommen – noch für die Zeit danach...
"Wie man in den Wald hineinruft…": die Überraschung über chinesische Hyperschallwaffen ist naiv
(2014)
Letzte Woche hat China ein neues strategisches Trägersystem getestet. Dabei handelte es sich nicht um eine herkömmliche ballistische Rakete, sondern um einen Hyperschall-Flugkörper, der offenbar die zehnfache Schallgeschwindigkeit (etwa 12.350 km/h) erreichte. Die Aufregung in Washington war groß – zumindest in konservativen Kreisen...
Dass die EU und die USA auf die russischen Machenschaften in der Ukraine mit Sanktionen reagiert haben, ist ebenso verständlich wie richtig. Darauf zu bauen, dass diese Maßnahmen Russland zu einer Kurskorrektur bewegen, wäre dagegen fatal. Dass die Sanktionen wirkungslos bleiben, ist nämlich noch die eindeutig bessere Aussicht. Im schlimmeren Fall aber unterstützen die Sanktionen gefährliche Tendenzen der russischen Selbstisolation und sind damit sogar kontraproduktiv. Anstatt auf den Erfolg von Sanktionen zu hoffen, sollte Europa auf eine offene wie ebenbürtige, kritische Auseinandersetzung mit Russland und ein Appellieren an dessen Verantwortung als Großmacht setzen...
The known range of Oxybleptes meridionalis Smetana (Coleoptera: Staphylinidae) is expanded in Florida, USA, from Indian River and Manatee counties to now include Brevard, Highlands, Orange, Seminole and Volusia. Oxybleptes davisi (Notman) is confi rmed to exist in Florida, with records from Leon, Liberty and Wakulla counties in the Panhandle, and Orange County in central Florida. Lissohypnus texanus Casey is newly reported from Florida. A new species, Lissohypnus fullertoni, is described from Florida. Diochus schaumii Kraatz reverts to this original spelling; its widespread form in Florida is identical to that in the northeastern USA.