Refine
Year of publication
- 2009 (2435) (remove)
Document Type
- Article (981)
- Doctoral Thesis (391)
- Part of Periodical (311)
- Book (210)
- Review (128)
- Working Paper (116)
- Part of a Book (86)
- Report (65)
- Conference Proceeding (58)
- Preprint (15)
Language
- German (1439)
- English (858)
- Portuguese (55)
- Croatian (39)
- French (24)
- Multiple languages (5)
- Italian (4)
- Spanish (4)
- dut (2)
- Hungarian (2)
Keywords
- Deutsch (58)
- Linguistik (35)
- Literatur (30)
- Rezension (24)
- Filmmusik (21)
- Lehrdichtung (18)
- Reiseliteratur (16)
- Deutschland (14)
- Film (13)
- Literaturwissenschaft (13)
Institute
- Medizin (285)
- Extern (198)
- Biochemie und Chemie (158)
- Biowissenschaften (92)
- Präsidium (80)
- Physik (67)
- Gesellschaftswissenschaften (61)
- Rechtswissenschaft (51)
- Geowissenschaften (48)
- Geschichtswissenschaften (48)
Ein Therapeut und Gentleman
(2009)
Beginnen wir mit einem Ende. Die Großaufnahme zeigt einen Mann mittleren Alters, der gerade ein Telefonat beendet. „I do wish we could chat longer,“ erklärt er höflich und gibt auch gleich den Grund für den Abbruch des Gespräches an: „I’m having an old friend for dinner.“ Die Doppeldeutigkeit dieser Bemerkung erschließt sich nur demjenigen, der um die Identität des Sprechers weiß. Der distinguierte Herr ist der Se-rienmörder Hannibal Lecter, genannt ‚Hannibal, the cannibal’. Dieser Spitzname ist Programm: Lecter plant nicht etwa, mit seinem Gast zu speisen. Er hat stattdessen vor, den Gast zu verspeisen.
Die postmoderne Scream-Trilogie schien das Horror-Genre dekonstruiert zu haben. Als jedoch ab 2003 eine neue Welle von Genre-Filmen ohne Jugendfreigabe die Kinosäle füllte, erwies sich der „harte Horror“ als populär wie nie zuvor. Der folgende Beitrag fragt, wie der Terrorfilm der Falle der Postmoderne entkommen konnte, und findet die Antwort in einer noch jungen Theorie der Postpostmoderne.
2008 ist mit dem Film Nordwand ein spektakuläres Bergdrama über den Versuch der Erstbesteigung der Eiger Nordwand im Jahr 1936 in die Kinos gekommen. Der zitathaft an die filmischen Vorbilder der 20er und 30er Jahre anknüpfende Film hat das Genre des Bergfilms innovativ ästhetisch erweitert. In diesem Beitrag wird erläu-tert, wie sich„Nordwand“ aus dem Fundus der Kultur- und Mediengeschichte der Alpen bedient und kritisch eingeschätzt, wie sich dieser Film dadurch gegenüber sei-nem historischen Kontext situiert.
Paris je t´aime so lautet der Titel einer 18-teiligen Kurzfilmreihe des Jahres 2008, deren Filme jeweils nach einem Stadtteil von Paris benannt sind. Dieses außerordent-liche Filmprojekt, zu dem 21 internationale Regisseure ihren persönlichen Blick auf die Stadt der Liebe beitrugen und das vergleichsweise wenig Beachtung fand, kann mit einigen hervorragenden Kurzfilmen aufwarten. Besonders der fünfminütige Film 14ème Arrondissement von Alexander Payne, in dem eine amerikanische Touris-tin in einem Pariser Stadtpark einen emphatischen Liebesmoment erlebt, ist – so die These – ein anschauliches Beispiel, das die konstitutive Wechselbeziehungen von Me-dialität und Liebe illustrieren lässt. Im Folgenden wird dabei untersucht, welche (Medien-)Strategien der Nähe- und Distanzerzeugung dieser Kurzfilm einsetzt und so zwei in sich verschränkte Rezeptionsweisen provoziert.
300 todesmutige Spartaner metzeln in endloser stereotyper Wiederholung böse Perserhorden, bevor sie selbst den Heldentod erleiden. Daneben gibt's noch ein bisschen Liebe und Verrat. Zack Snyders Film 300 (2006) erzählt – ohne jegliche political und ohne jede historical correctness – eine Episode aus den Perserkriegen, nämlich die Geschichte der Schlacht bei den Thermopylen im Jahre 480 v Chr., bei der angeblich 300 Spartaner einem übermächtigen Heer von Persern bis zuletzt Widerstand geleistet haben.
Wenn von Stanley Kubricks Lolita als Skandal-Film die Rede sein soll, dann ist es unvermeidlich, zunächst einen anderen Skandal ins Auge zu fassen, und zwar einen, der den durch den Film ausgelösten an Intensität bei weitem übertrifft: den Skandal um das Buch nämlich, das dem Film zugrundeliegt, also Vladimir Nabokovs Roman Lolita. Der Skandal, den dieses Buch entfesselte – Nabokov selbst sprach von dem „Wirbelsturm Lolita“ –, war unter den nicht eben wenigen Skandalen in der Literaturgeschichte des 20. Jahrhunderts einer der größten und wirkungsreichsten. Welcher Roman sonst hätte es geschafft, dass nach seinem Erscheinen der Pfarrer einer Kleinstadt, die zufällig denselben Namen trägt wie der Roman, einen Antrag auf Namensänderung – der Stadt, nicht des Romans – gestellt hätte?
Die britische Autorin Caryl Churchill hat ein Stück gegen den israelischen Einmarsch in Gaza geschrieben – und sich den Vorwurf des Antisemitismus eingehandelt. Doch tatsächlich stellt dieses brutal-offene Stück einen mutigen Versuch der Einfühlung dar und zeigt so, was Politisches Theater sein kann.
Die reimaginierte TV-Serie Battlestar Galactica gilt als ein Höhepunkt gegenwärtiger Science Fiction. Sie spiegelt aktuelle soziopolitische Brennpunkte unserer Gesellschaft und unserer Zeit in all ihrer Kontroversität wider. Darüberhinaus stellt sie mithilfe der Zylonen, humanoiden kybernetischen Organismen, die Frage nach dem Menschen, seinem Bewusstsein und seiner Subjektivität radikal neu. Der folgende Beitrag versucht, diese Radikalität, mit der Battlestar Galactica das Verhältnis von Mensch und Maschine verhandelt, anhand von diversen Reloads herauszustellen.
Der dänische Anästhesist Björn Ibsen : ein Pionier der Langzeitbeatmung über die oberen Luftwege
(2009)
The Danish anaesthesiologist Björn Ibsen should be placed among the pioneers of the development of long term ventilation by the upper airways (in this publication I have only briefly mentioned his other contributions, in particular the development of Intensive care medicine). Ibsen learned the basics of anaesthesia in the USA (1949/50). Returning to Denmark he worked as independent anaesthesiologist. In 1952, together with Mogens Björneboe, he treated newborn child who suffered from Tetanus. The treatment consisted of barbiturates and curare, in an attempt to suppress the muscular cramps of the child. The child was ventilated with manual positive pressure during the treatment. The child died but this attempt of treatment proved to be an important step in the development of long term ventilation by the upper airways. The core of this work is Ibsen’s introduction of the new treatment for treating poliomyelitis patients with respiratory insufficiency. In 1952, a severe poliomyelitis epidemic hit Copenhagen. At the time the normal treatment of poliomyelitis patients with respiratory failure was passive negative pressure ventilation. At the hospital treating the poliomyelitis patients in Copenhagen there were by far not enough respirators to treat all the severely ill patients. As several patients died from respiratory failure the epidemiologist Lassen was lead to try out a new and untested treatment, and contacted Ibsen. Because I have been able to find the records of the patient, it has now been possible to describe exactly what happened on the 27. August 1952, as Ibsen demonstrated his new treatment on a 12-year old girl. Ibsen intended to ventilate the girl by a tracheotomy, with manual positive pressure from an oxygen filled bag (he had read about his method in an American paper from 1950. here the method was being used as supplement to the negative pressure ventilation from the Iron Lung). Ventilating the patient, however, was only possible after Ibsen had anaesthetised her with barbiturate. The girl survived. As a direct consequence the treatment of the poliomyelitis patients with respiratory problems was changed to follow Ibsen’s directions. Numerous helpers would within days ventilate until 75 patients until they recovered (or died). I do not know for how long the longest ventilation-period was, but I presume it was several weeks. After the epidemic Ibsen found time to develop his method. In 1953 he treated a child with tetanus with anaesthetic drugs and curare, and had it ventilated by a tracheotomy. This positive pressure ventilation by the upper airways of an unconscious patient lasted 17 days. This time the patient survived. It was only later in his life that Ibsen received international recognition for his work (directly after the poliomyelitis epidemic it was Lassen who took the glory). He remained a modest man, something I have been able to verify my self when I interviewed him shortly before his death. He died the 7th of August 2007.
Information sent to and received by cells is essential for a homeostatic development of tissues and organs. These same signals are responsible for the good functioning of lymphatic organs and therefore govern the immune response. Dysfunctioning of the signaling networks is related to pathological situations, among which one can find cancer and auto-immune diseases. Intercellular communication involves the synthesis and the adjustment of signals by the secreting/emitting cell in order to reach the needed threshold. Diffusion of the signal to the target cell in addition to its interpretation lead to functional changes like cell migration and aggregation. Individual cells such as bacteria find food or increase their virulence through taxis (directional stimulus) and/or kinesis (speed stimulus). Immune cells appear to use the same processes to find bacteria and cellular debris, as well as to perform the cellular dance observed in germinal centers. This behavior is a result of an up or down regulation of specific signals that suggest to B and T-cells the paths to follow. Furthermore, cell segregation in the white pulp of the spleen, was also shown to be a result of a tight adjustment of T-cell kinesis. Restriction to cellular tracks and other experimentally provided measurements does not ensure a full comprehension of the observed cellular behavior. Thus, the study of patterns opens new gates to our understanding of the immune system. With the help of the agent-based modeling technique, cellular migration and aggregation are investigated in response to various cell-cell interactions. This work aims to explore different mechanisms that lead to cellular migration and aggregation, by defining the emergent properties of interest and that will help distinguish between interactions, starting by a simple look at the emergent patterns, followed by an analysis of their size, their degree of aggregation and the effective communication distances. Finally, the results obtained from the in silico experiments provided a guideline to differentiate between many cell-cell interactions under specific circumstances. Chemotaxis and phototaxis with and without diffusive cellular motion were shown to be distinguishable through an analysis of the emerging aggregation profiles.
Loss of vascular barrier function causes leak of fluid and proteins into tissues, extensive leak leads to shock and death. Barriers are largely formed by endothelial cell-cell contacts built up by VE-cadherin and are under the control of RhoGTPases. Here we show that a natural plasmin digest product of fibrin, peptide Bß15-42 (also called FX06), significantly reduces vascular leak and mortality in animal models for Dengue shock syndrome. The ability of Bß15-42 to preserve endothelial barriers is confirmed in rats i.v.-injected with LPS. In endothelial cells, Bß15-42 prevents thrombin-induced stress fiber formation, myosin light chain phosphorylation and RhoA activation. The molecular key for the protective effect of Bß15-42 is the src kinase Fyn, which associates with VE-cadherin-containing junctions. Following exposure to Bß15-42 Fyn dissociates from VE-cadherin and associates with p190RhoGAP, a known antagonists of RhoA activation. The role of Fyn in transducing effects of Bß15-42 is confirmed in Fyn -/- mice, where the peptide is unable to reduce LPS-induced lung edema, whereas in wild type littermates the peptide significantly reduces leak. Our results demonstrate a novel function for Bß15-42. Formerly mainly considered as a degradation product occurring after fibrin inactivation, it has now to be considered as a signaling molecule. It stabilizes endothelial barriers and thus could be an attractive adjuvant in the treatment of shock.
Introduction: Immune paralysis with massive T-cell apoptosis is a central pathogenic event during sepsis and correlates with septic patient mortality. Previous observations implied a crucial role of peroxisome proliferator-activated receptor gamma (PPARγ) during T-cell apoptosis.
Methods: To elucidate mechanisms of PPARγ-induced T-cell depletion, we used an endotoxin model as well as the caecal ligation and puncture sepsis model to imitate septic conditions in wild-type versus conditional PPARγ knockout (KO) mice.
Results: PPARγ KO mice showed a marked survival advantage compared with control mice. Their T cells were substantially protected against sepsis-induced death and showed a significantly higher expression of the pro-survival factor IL-2. Since PPARγ is described to repress nuclear factor of activated T cells (NFAT) transactivation and concomitant IL-2 expression, we propose inhibition of NFAT as the underlying mechanism allowing T-cell apoptosis. Corroborating our hypothesis, we observed up-regulation of the pro-apoptotic protein BIM and downregulation of the anti-apoptotic protein Bcl-2 in control mice, which are downstream effector proteins of IL-2 receptor signaling. Application of a neutralizing anti-IL-2 antibody reversed the pro-survival effect of PPARγ-deficient T cells and confirmed IL-2-dependent apoptosis during sepsis.
Conclusion: Apparently antagonizing PPARγ in T cells might improve their survival during sepsis, which concomitantly enhances defence mechanisms and possibly provokes an increased survival of septic patients.
Background Gamma-aminobutyric acid (GABA) is an important inhibitory neurotransmitter which mainly mediates its effects on neurons via ionotropic (GABAA) and metabotropic (GABAB) receptors. GABAB receptors are widely expressed in the central and the peripheral nervous system. Although there is evidence for a key function of GABAB receptors in the modulation of pain, the relative contribution of peripherally- versus centrally-expressed GABAB receptors is unclear. Results In order to elucidate the functional relevance of GABAB receptors expressed in peripheral nociceptive neurons in pain modulation we generated and analyzed conditional mouse mutants lacking functional GABAB(1) subunit specifically in nociceptors, preserving expression in the spinal cord and brain (SNS-GABAB(1)-/- mice). Lack of the GABAB(1) subunit precludes the assembly of functional GABAB receptor. We analyzed SNS-GABAB(1)-/- mice and their control littermates in several models of acute and neuropathic pain. Electrophysiological studies on peripheral afferents revealed higher firing frequencies in SNS-GABAB(1)-/- mice compared to corresponding control littermates. However no differences were seen in basal nociceptive sensitivity between these groups. The development of neuropathic and chronic inflammatory pain was similar across the two genotypes. The duration of nocifensive responses evoked by intraplantar formalin injection was prolonged in the SNS-GABAB(1)-/- animals as compared to their control littermates. Pharmacological experiments revealed that systemic baclofen-induced inhibition of formalin-induced nociceptive behaviors was not dependent upon GABAB(1) expression in nociceptors. Conclusion This study addressed contribution of GABAB receptors expressed on primary afferent nociceptive fibers to the modulation of pain. We observed that neither the development of acute and chronic pain nor the analgesic effects of a systematically-delivered GABAB agonist was significantly changed upon a specific deletion of GABAB receptors from peripheral nociceptive neurons in vivo. This lets us conclude that GABAB receptors in the peripheral nervous system play a less important role than those in the central nervous system in the regulation of pain.
In der vorliegenden Arbeit wurden die Angaben von 355 Patientinnen ausgewertet, die zwischen Januar 2000 und September 2007 aufgrund eines metastasierten Brustkrebses im onkologischen Fachzentrum Frankfurt Nord-Ost behandelt worden sind. Die 5-JÜR nach Kaplan-Meier liegt im untersuchten Kollektiv bei 76 %. Die Wahrscheinlichkeit, fünf Jahre nach Erstdiagnose einer Metastasierung überlebt zu haben beträgt 50 %. Die mittlere Überlebenszeit ab Metastasierung liegt bei 7,4 Jahren. Die Wahrscheinlichkeit für metastasenfreies Überleben nach fünf bzw. zehn Jahren beträgt 60 % bzw. 44 %. Im univariaten Log-Rank-Verfahren weisen Patientinnen mit folgenden Charakteristika eine bessere Prognose hinsichtlich der Gesamtüberlebenswahrscheinlichkeit auf: Prämeno-pausaler Status bei ED, Ablatio mammae, CMF-Chemotherapie sowie operative und antihormonelle Therapie der Fernmetastasen. Als prognostisch ungünstig gelten: Positiver Nodalstatus, niedriger Differenzierungsgrad, invasiv duktaler oder lobulärer Tumortyp, höheres UICC-Stadium, Stadium > 2 der St. Gallener Risikoklassifikation, First-Line-Chemotherapie, R1-resezierte Tumoren, adjuvante Chemotherapie, > 3 verschiedene Metastasenorte und zytostatische Metastasentherapie. Die Lokalisation der Fernmetastasen ermöglicht eine differenziertere prognostische Einschätzung: Viszerale Metastasen, vor allem in der Leber und im ZNS, beeinflussen die Überlebenszeit negativ. Im Verlauf auftretende Metastasen im Abdomen/ Peritoneum gehen ebenfalls mit einer schlechteren Prognose einher. Bei ossärer Metastasierung hingegen kann mit einem benigneren Krankheitsverlauf gerechnet werden, ebenso bei Erstmanifestation der Metastasen in der Haut und/oder den Weichteilen. In der multivariaten Cox-Analyse übt die Leber als primärer Metastasierungsort den größten negativen Einfluss auf die Überlebens-wahrscheinlichkeit aus. Auch eine hohe Anzahl befallener Lymphknoten, Metastasen an > 3 verschiedenen Lokalisationen sowie ein positiver Resektionsrand führen zu signifikant schlechteren Überlebensraten. Bessere Prognosen besitzen Patientinnen, die zum Diagnosezeitpunkt prämenopausal gewesen sind und deren Metastasen im Verlauf antihormonell therapiert werden konnten. In der Cox-Regressionsanalyse erwiesen sich das Grading und der Nodalstatus als unabhängige Prognoseparameter hinsichtlich des metastasenfreien Überlebens. Demnach gilt: Je schlechter der Differenzierungsgrad eines Tumors und je mehr Lymphknoten befallen sind, desto niedriger ist die Wahrscheinlichkeit nach zehn Jahren metastasenfrei überlebt zu haben.
Misselling through agents
(2009)
This paper analyzes the implications of the inherent conflict between two tasks performed by direct marketing agents: prospecting for customers and advising on the product's "suitability" for the specific needs of customers. When structuring sales-force compensation, firms trade off the expected losses from "misselling" unsuitable products with the agency costs of providing marketing incentives. We characterize how the equilibrium amount of misselling (and thus the scope of policy intervention) depends on features of the agency problem including: the internal organization of a firm's sales process, the transparency of its commission structure, and the steepness of its agents' sales incentives. JEL Classification: D18 (Consumer Protection), D83 (Search; Learning; Information and Knowledge), M31 (Marketing), M52 (Compensation and Compensation Methods and Their Effects).
This paper considers a firm that has to delegate to an agent, such as a mortgage broker or a security dealer, the twin tasks of approaching and advising customers. The main contractual restriction, in particular in light of related research in Inderst and Ottaviani (2007), is that the firm can only compensate the agent through commissions. This standard contracting restriction has the following key implications. First, the firm can only ensure internal compliance to a "standard of sales", in terms of advice for the customer, if this standard is not too high. Second, if this is still feasible, then a higher standard is associated with higher, instead of lower, sales commissions. Third, once the limit for internal compliance is approached, tougher regulation and prosecution of "misselling" have (almost) no effect on the prevailing standard. Besides having practical implications, in particular on how to (re-)regulate the sale of financial products, the novel model, which embeds a problem of advice into a framework with repeated interactions, may also be of separate interest for future work on sales force compensation. JEL Classification: D18 (Consumer Protection), D83 (Search; Learning; Information and Knowledge), M31 (Marketing), M52 (Compensation and Compensation Methods and Their Effects).
This article shows that investors financing a portfolio of projects may use the depth of their financial pockets to overcome entrepreneurial incentive problems. Competition for scarce informed capital at the refinancing stage strengthens investors’ bargaining positions. And yet, entrepreneurs’ incentives may be improved, because projects funded by investors with ‘‘shallow pockets’’ must have not only a positive net present value at the refinancing stage, but one that is higher than that of competing portfolio projects. Our article may help understand provisions used in venture capital finance that limit a fund’s initial capital and make it difficult to add more capital once the initial venture capital fund is raised. (JEL G24, G31)
We analyze how two key managerial tasks interact: that of growing the business through creating new investment opportunities and that of providing accurate information about these opportunities in the corporate budgeting process. We show how this interaction endogenously biases managers toward overinvesting in their own projects. This bias is exacerbated if managers compete for limited resources in an internal capital market, which provides us with a novel theory of the boundaries of the firm. Finally, managers of more risky and less profitable divisions should obtain steeper incentives to facilitate efficient investment decisions.
We present a simple model of personal finance in which an incumbent lender has an information advantage vis-a-vis both potential competitors and households. In order to extract more consumer surplus, a lender with sufficient market power may engage in "irresponsible"lending, approving credit even if this is knowingly against a household’s best interest. Unless rival lenders are equally well informed, competition may reduce welfare. This holds, in particular, if less informed rivals can free ride on the incumbent’s superior screening ability.
This paper argues that banks must be sufficiently levered to have first-best incentives to make new risky loans. This result, which is at odds with the notion that leverage invariably leads to excessive risk taking, derives from two key premises that focus squarely on the role of banks as informed lenders. First, banks finance projects that they do not own, which implies that they cannot extract all the profits. Second, banks conduct a credit risk analysis before making new loans. Our model may help understand why banks take on additional unsecured debt, such as unsecured deposits and subordinated loans, over and above their existing deposit base. It may also help understand why banks and finance companies have similar leverage ratios, even though the latter are not deposit takers and hence not subject to the same regulatory capital requirements as banks.
This paper shows that active investors, such as venture capitalists, can affect the speed at which new ventures grow. In the absence of product market competition, new ventures financed by active investors grow faster initially, though in the long run those financed by passive investors are able to catch up. By contrast, in a competitive product market, new ventures financed by active investors may prey on rivals that are financed by passive investors by “strategically overinvesting” early on, resulting in long-run differences in investment, profits, and firm growth. The value of active investors is greater in highly competitive industries as well as in industries with learning curves, economies of scope, and network effects, as is typical for many “new economy” industries. For such industries, our model predicts that start-ups with access to venture capital may dominate their industry peers in the long run. JEL Classifications: G24; G32 Keywords: Venture capital; dynamic investment; product market competition
We study a model of “information-based entrenchment” in which the CEO has private information that the board needs to make an efficient replacement decision. Eliciting the CEO’s private information is costly, as it implies that the board must pay the CEO both higher severance pay and higher on-the-job pay. While higher CEO pay is associated with higher turnover in our model, there is too little turnover in equilibrium. Our model makes novel empirical predictions relating CEO turnover, severance pay, and on-the-job pay to firm-level attributes such as size, corporate governance, and the quality of the firm’s accounting system.
Corporate borrowers care about the overall riskiness of a bank’s operations as their continued access to credit may rely on the bank’s ability to roll over loans or to expand existing credit facilities. As we show, a key implication of this observation is that increasing competition among banks should have an asymmetric impact on banks’ incentives to take on risk: Banks that are already riskier will take on yet more risk, while their safer rivals will become even more prudent. Our results offer new guidance for bank supervision in an increasingly competitive environment and may help to explain existing, ambiguous findings on the relationship between competition and risk-taking in banking. Furthermore, our results stress the beneficial role that competition can have for financial stability as it turns a bank’s "prudence" into an important competitive advantage.
This paper presents a novel model of the lending process that takes into account that loan officers must spend time and effort to originate new loans. Besides generating predictions on loan officers’ compensation and its interaction with the loan review process, the model sheds light on why competition could lead to excessively low lending standards. We also show how more intense competition may fasten the adoption of credit scoring. More generally, hard-information lending techniques such as credit scoring allow to give loan officers high-powered incentives without compromising the integrity and quality of the loan approval process. The model is finally applied to study the implications of loan sales on the adopted lending process and lending standard.
Inhalt: Prof. Dr. Helmut Siekmann : Stellungnahme für die öffentliche Anhörung des Haushalts- und Finanzausschusses des Landtags Nordrhein-Westfalen am 29. Oktober 2009 Gesetzentwurf der Landesregierung NRW : LANDTAG NORDRHEIN-WESTFALEN 14. Wahlperiode - Drucksache 14/9380 - 10.06.2009 Gesetz über die Feststellung eines zweiten Nachtrags zum Haushaltsplan des Landes Nordrhein-Westfalen für das Haushaltsjahr 2009 und zur Änderung des Gesetzes zur Errichtung eines Fonds für eine Inanspruchnahme des Landes Nordrhein-Westfalen aus der im Zusammenhang mit der Risikoabschirmung zugunsten der WestLB AG erklärten Garantie (Zweites Nachtragshaushaltsgesetz 2009) - Auszug Ergänzung der Landesregierung NRW zu dem Gesetzentwurf der Landesregierung - Drucksache 14/9380 (Zweites Nachtragshaushaltsgesetz 2009) - Drucksache 14/9510 – 01.07.2009 - Auszug Zweite Ergänzung der Landesregierung zu dem Gesetzentwurf der Landesregierung - Drucksachen 14/9380 und 14/9510 (1. Ergänzung) - Drucksache 14/9910 – 02.10.2009 - Auszug
Aus der Vielzahl der damit verbundenen Probleme sollen im Folgenden einige Aspekte etwas näher betrachtet werden. Dabei sollen die Maßnahmen zur unmittelbaren Krisenbewältigung ausgeklammert werden. Auch können die drängenden Fragen nach der Rolle der Geldpolitik sowie der globalen außenwirtschaftlichen Ungleichgewichte, die beide einen erheblichen, wenn nicht gar entscheidenden Beitrag zur Entstehung der Instabilitäten geleistet haben,19 hier nicht näher behandelt werden. Das Hauptaugenmerk soll stattdessen auf folgende Fragenkreise gelegt werden: I. Der Beitrag der Rechtsordnung zu Entstehung und Verlauf der Krise II. Verbesserung von Aufsicht und Kontrolle als Kern einer Neugestaltung III. Die Rolle der Ratingagenturen IV. Die reale Bedeutung von Finanzmärkten und Finanzinstitutionen V. Überlegungen zur Prävention Dabei sollen nicht Detailregelungen im Vordergrund der Betrachtung stehen, sondern die grundsätzliche Rolle der Rechtsordnung für die Stabilisierung der Finanzmärkte.
Der Präsident der Europäischen Kommission, José Manuel Barroso, hat im Oktober 2008 eine Gruppe von Sachverständigen unter Vorsitz des früheren Präsidenten des Internationalen Währungsfonds (IWF) und der Banque de France, Jacques de Larosière, mit der Ausarbeitung von Ratschlägen zur Zukunft der europäischen Finanzregulierung („financial regulation“) und Aufsicht („supervision“) beauftragt. Die Gruppe hat ihren Bericht am 25. Februar 2009 vorgelegt. Kapitel III des Berichts behandelt das Aufsichtssystem auf EU-Ebene und gelangt im Wesentlichen zu zwei Empfehlungen: - Errichtung einer präventiv tätigen, institutsübergreifenden („macroprudential“) Aufsichtseinrichtung mit dem Namen „European Systemic Risk Council“ [ESRC] - Umwandlung der bestehenden Ebene-3 Ausschüsse („3L3 committees“) in ein neues europäisches System von Finanzaufsicht [ESFS] mit hoheitlichen Funktionen Vor allem die geforderte Neustrukturierung der Aufsicht ist unter verschiedenen Gesichtspunkten kritisch zu würdigen. Die Erwägungen konzentrieren sich dabei auf die Frage, ob die Umsetzung der Vorschläge ohne Änderung des primären Gemeinschaftsrechts möglich erscheint. Der Abschluss von separaten Verwaltungsabkommen oder von Staatsverträgen, mit denen ad hoc neue Einrichtungen geschaffen werden könnten, soll im Folgenden nicht weiter untersucht werden. Zwar könnte auf diese Weise ein vollständiger Rechtsrahmen für Aufsichtseinrichtungen auf EU-Ebene geschaffen werden. Er könnte auch die Grundlage für die Übertragung von Hoheitsbefugnissen bilden, doch wäre dies mit gravierenden Nachteilen verbunden. Es ist keineswegs sicher, dass alle Mitglieder der EU eine solche Vereinbarung unterzeichnen würden, so dass unterschiedliche Aufsichtssysteme entstehen würden. Einer der Hauptgründe für eine Aufsicht auf europäischer Ebene würde verfehlt. Zum anderen würde eine institutionelle Parallelstruktur im Kernbereich der EU, dem gemeinsamen Binnenmarkt mit den Grundfreiheiten, geschaffen, die zahlreiche gravierende Probleme der Koordination und Abstimmung zwischen diesen, voneinander unabhängigen Systemen hervorrufen würde.
Gegenstand dieser Arbeit sind Galoisoperationen auf quasiplatonischen Riemannschen Flächen mit einer Automorphismengruppe isomorph zu PSL(2,F(q)). Quasiplatonische Riemannsche Flächen werden durch torsionsfreie Normalteiler N in einer Dreiecksgruppe D uniformisiert, d.h. N ist die universelle Überlagerungsgruppe und die Flächen, die man auch als algebraische Kurven beschreiben kann, sind isomorph zu N\U, wenn U die obere Halbebene bezeichnet. Bzgl. der Größe der Automorphismengruppen bilden die quasiplatonischen Kurven die lokalen Maxima im Modulraum. Die absoluten Maxima liegen bei den Hurwitz-Kurven; hier hat die Automorphismengruppe die maximale Größe von 84(g-1), wenn g>1 das Geschlecht der Kurve ist. Der Normalisator in PSL(2,R) der Überlagerungsgruppe N ist dann die Dreiecksgruppe mit Signatur (2,3,7). Macbeath hat die Bedingungen dafür gefunden, wann PSL(2,F(q)) eine Hurwitz-Gruppe ist. Von besonderem Interesse ist dabei der Fall, dass q=p eine Primzahl kongruent +-1 mod 7 ist. Hier hat man drei nicht-isomorphe Kurven, die jedoch alle galoiskonjugiert zueinander sind. In der Arbeit werden Bedingungen angegeben, unter denen sich dieses Resultat auf Dreiecksgruppen D mit einer Signatur der Form (2,m_1,m_2) verallgemeinern lässt. Dabei gehen einerseits Ergebnisse von Frye ein, der die Anzahl der verschiedenen torsionsfreien Normalteiler N<D mit Quotienten PSL(2,F(q)) über die Spurtupel der Erzeugenden von D bestimmt hat. Andererseits wird eine Methode von Streit verwendet, mit der man die Galoisoperation auf den Kurven anhand des Verhaltens der Multiplikatoren der Erzeugenden in der Automorphismengruppe nachvollziehen kann. Es zeigt sich, dass sich Spur- und Multiplikatortupel entsprechen, woraus man die Anzahl und Länge der Galois-Orbits erhält. Außerdem lässt sich der Definitionskörper der Kurven bestimmen. Offen bleibt das genaue Verhalten bei Signaturen (m_0,m_1,m_2) mit m_i ungleich 2 für alle i. Hier gibt es zu jedem Multiplikatortupel zwei verschiedene Spurtupel. Kann man die Kurven durch die Multiplikatoren beschreiben, dann erhält man Projektionen D->>PSL(2,F(q)) auch über die Quaternionenalgebra, die die Dreiecksgruppe über ihrem Spurkörper erzeugt. Die Normalteiler erweisen sich dann als Schnitt der Dreiecksgruppe mit einer Hauptkongruenzuntergruppe nach einem Primideal P|char(F(q)) in der Norm-1-Gruppe einer Ordnung der Quaternionenalgebra. Dabei ist das Spurtripel in PSL(2,F(q)) gerade das Spurtripel aus D modulo P. Ändert man P, so erhält man ein anderes Spurtripel in PSL(2,F(q)), also auch einen anderen Normalteiler. Bilden die zugehörigen Kurven eine Bahn unter der Galoisoperation, dann ergeben sich alle Normalteiler auf diese Weise. Die Galoisoperation auf den Tripeln der Multiplikatoren, also die Galoisoperation auf den Kurven, ist verträglich mit der Operation, die die Primideale P|char(F(q)) permutiert. Wir erhalten also eine natürliche Korrespondenz zwischen der Galoisoperation auf den Kurven einerseits und der Operation auf den Primidealen andererseits.
Na+/H+ antiporters are ubiquitous membrane proteins involved in ion homeostasis and pH sensing. The amino acid sequence of one such antiporter, MjNhaP1, from Methanococcus jannaschii, shows a significant homology to eukaryotic sodium proton exchangers like NHE1 from Homo sapiens and SOS1 of Arabidopsis thaliana than to the well-characterized Escherichia coli NhaA or NhaB. MjNhaP1 shows activity at acidic pH unlike NhaA, which is active at basic pH. 13 transmembrane helices have been predicted to be present in NhaP1. A projection map, calculated by Cryo-EM of 2D crystals of MjNhaP1 grown at pH 4, showed it to be a dimer containing elongated densities in the centre of the dimer and a cluster of density peaks on either side of the dimer core (Vinothkumar et al., 2005). Incubation of 2D crystals at pH 8 on the EM grid resulted in well-defined conformational changes, clearly evident in a difference map as a major change in density distribution within the helix bundle (Vinothkumar et al., 2005). The aim of this dissertation is to understand the working mechanism of MjNhaP1 by determining its three-dimensional structure. The aim was initially approached by structure determination by X-ray crystallography. The limitation for this method was the low expression yield, which was 0.5–0.7mg/ml (Vinothkumar et al., 2005). After various optimization trials, the expression yield of the recombinant protein could be elevated to 2-2.5mg of pure protein per litre of culture by the method of autoinduction (Studier et al., 2005). To obtain well diffracting 3D crystals, purification conditions (Vinothkumar et al., 2005) were modified. 3D crystals were obtained under various conditions, which has so far not diffracted X-Ray beyond 8Å. Parallely, optimization of parameters (Vinothkumar et al., 2005) for 2D crystals formation was carried out. A combination of 1% DDM used for lipid solubilization, and 1% OG in the buffer of the purified protein produced 1-2 μm wide tubular 2D crystals of NhaP1. This batch of crystal proved to be the optimal for data collection at higher tilt angle with the electron microscope. A 3D map showed p22121 symmetry and revealed a tight dimer with an oval shape. The region in the central part of the dimer is composed of several tilted helices forming an interface between both monomers. On either side of the dimer interface, a group of six tightly packed helices form a bundle. This bundle contains three straight helices in the centre of the monomer and three helices in the periphery. Comparison of the structures of E.coli NhaA and M. jannaschii NhaP1 show substantial differences in length and slope of corresponding helices between both antiporters. A 3D model of NhaP1 based on the 3D map revealed 13 helices, which has been named as A-M to distinguish it from the NhaA helices. Overlaying the X-ray structure onto the 3D map revealed that the disrupted helices IV and XI of NhaA superimpose two central helices at similar position in the 3D map of NhaP1. The disrupted helices IV and XI in the X-ray structure of NhaA have been proposed as the putative ion-binding and translocation site (Hunte C et al, 2005; Arkin IT et al, 2007; Screpanti & Hunte (2007). This motif appears to be present also in NhaP1, as suggested by the close fit of NhaA helices IV and XI on the putative helices E and L of the NhaP1 model. These two putative helices E and L in NhaP1 contain the highly conserved TDP and GPRVVP motif, which are crucial for antiporter activity (Hellmer et al., 2002, Hellmer et al., 2003). In the overlay, helix V of NhaA containing the two essential, conserved aspartates D163 and D164 fits the density of the putative helix F of NhaP1, which contains the conserved motif FNDP. The homologous D161 in the FNDP motif of NhaP1 is essential for transport activity as show by mutagenesis (Hellmer at al., 2003). Significant differences are visible in the region of the dimer interface of the 3D map of NhaP1 occupied by helices VI, VII, and VIII in NhaA. This region shows an extra helical density (A) in the 3D map of NhaP1. By alignment of MjNhaP1 sequence with the amino acid sequences of several Na+/H+ exchangers, it was evident that the additional helix (A) is located in the N terminus of NhaP1. In our sequence alignment, a putative hydrophobic segment corresponding to this additional helix A is present in other archaeal and eukaryotic antiporters but not in any of the bacterial ones. The N-terminus of the human Na+/H+ exchanger NHE1 has been predicted to contain a highly hydrophobic signal peptide. This indicates the probability of the N-terminal helix A of NhaP1 to be an uncleaved signal peptide. Besides being a signal sequence targeting NhaP1 to the membrane, the map suggests that this helix might be involved in the formation of dimer contacts between both monomers. A gene duplication event is evident in the 3D map of NhaP1, as not only the helices D, E, F and K, L, M are related by an inverted repeat but also the helices B, C and I, J are related. We present here the three-dimensional architecture of a Na+/H+ antiporter from archaea. The presence of the 13th helix suggests the location of the N-terminus to be located in the cytosol and the C-terminus in the periplasm. This would orient NhaP1 in an inverted manner in the membrane in comparison to NhaA. Further structural information at higher resolution and biochemical and biophysical investigations are required to confirm the topology.
Die vorliegende Arbeit ist aus drei Teilen aufgebaut. Im ersten, relativ kurz gehaltenen Kapitel wird die klassische Standard-Industrie-Solarzelle auf der Basis monokristallinen Siliziums vorgestellt. Der bisherige Herstellungsprozess der Standard-Industrie-Solarzelle, der in wesentlichen Teilen darauf abzielt, diese Verluste zu minimieren, dient als Referenz für die Entwicklung neuer Fertigungsverfahren, wie sie in den Kapiteln 2 und 3 dieser Arbeit vorgestellt werden. Den ersten thematischen Schwerpunkt dieser Arbeit bildet die Entwicklung eines alternativen Wafering-Konzeptes zum Multi-Drahtsägen, der klassischen Technologie zur Fertigung von Silizium-Wafern. Die Basis des neuen, hier vorgestellten Wafering-Prozesses bildet das Laser-Micro-Jet-Verfahren (LMJTM). Dieses System besitzt eine Reihe von Vorteilen gegenüber klassischen „trockenen“ Laserverfahren. Das ursprünglich auf reinem, deionisiertem Wasser als Strahlmedium aufbauende System wurde im Rahmen dieser Arbeit so modifiziert, dass der Flüssigkeitsstrahl nunmehr nicht nur als flüssiger Lichtleiter dient, sondern gleichzeitig auch als Transportmedium für Ätzmittel, welche den thermischen Abtrag des Siliziums durch den Laserstrahl unterstützen. Ausgehend vom aus der Literatur bekannten chemischen Verhalten des Siliziums wurden 3 Ätzsysteme für Silizium vorgestellt. Dabei wurden Vor- und Nachteile für deren technischen Einsatz diskutiert. Den praktischen Teil dieses Arbeitspaketes bildete der Test zweier Ätzmedien im Experiment. Dabei konnte gezeigt werden, dass wasserfreie Strahlmedien basierend auf perfluorierten Lösemitteln mit bereits sehr geringen Zusätzen gasförmigen Chlors als Ätzmittel für Silizium wässrigen alkalischen Ätzsystemen jeder Konzentration prinzipiell überlegen sind- Parallel zur Evaluation des Einflusses der chemischen Beschaffenheit des Flüssigkeitsstrahls auf den Abtragsprozess fand auch eine Untersuchung verschiedener Prozessparametereinflüsse statt, etwa der Laserleistung, der Laserlichtwellenlänge, etc. Den zweiten thematischen Schwerpunkt der Arbeit bildet die Modifizierung der nasschemischen Schritte zwischen dem Wafering und dem ersten Hochtemperatur-Fertigungsschritt in der Solarzellen-Produktion, der Emitterdiffusion. Diese nasschemischen Schritte umfassen bei der Standard-Industrie-Solarzelle in der Regel eine zum Teil aufwändige Reinigung der Wafer-Oberflächen von partikulären und metallischen Kontaminationen, die vor allem vom Wafering-Prozess herrühren, als auch eine Texturierung der Substrate. Kernanliegen des praktischen Teils dieses Arbeitspaketes ist zum einen die Suche nach alternativen Texturmitteln zum 2-Propanol, dem klassischen Badadditiv in basischen Ätzbädern, das in der Praxis über zahlreiche Nachteile verfügt, etwa einem relativ niedrigen Siedepunkt, der zu seinem permanenten Ausgasen aus der Lösung führt. Zum anderen sollte der auf die Textur folgende Reinigungsprozess rationalisiert werden, um Prozesskosten zu minimieren, entweder durch eine Straffung des Prozesses durch Verringerung des Chemikalienverbrauchs und einer Reduzierung der Prozesszeit oder durch eine Verringerung der Chemikalienkosten. Bei der Suche nach neuen Texturmitteln wurden 45 verschiedene organische Substanzen verschiedener Verbindungsklassen hinsichtlich ihrer Texturwirkung auf monokristallinen Silizium-substraten getestet. Mit 1-Pentanol und p-Toluolsulfonsäure wurden zwei Substanzen ermittelt, welche in der Zukunft als praktikable Alternativen zu 2-Propanol als Texturadditive dienen könnten. Im Kontext der Suche nach neuen Reinigungsverfahren wurden eine Reihe verschiedener neuer Reinigungssequenzen getestet, die sich entweder durch veränderte - in der Regel verringerte - Badkonzentrationen, durch neue Badsequenzen, welche auf bestimmte Teilschritte verzichten oder durch neue Badkompositionen, etwa durch Hinzuziehen von Komplexbildnern für metallische Verunreinigungen von den klassischen Reinigungsprozessen unterscheiden. Der Erfolg des Reinigungseffektes der nasschemischen Sequenzen wurde anhand der Ladungsträger-Lebensdauer in den Wafern abgeschätzt. Dabei konnte gezeigt werden, dass mit Hilfe von LMJ produzierte (gelaserte) Wafer-Oberflächen wesentlich straffere Reinigungsprozesse erfordern als drahtgesägte Substrate. Neben einer deutlichen Straffung des Reinigungsprozesses ist auch eine Verkürzung der Texturzeit bei den mit Lasern geschnittenen Oberflächen möglich, die wiederum ihren Grund im geringeren Schädigungsgrad dieser Oberflächen hat, der einen geringeren Materialabtrag durch die Ätzbäder erfordert, als bei drahtgesägten Wafern. Abschließend konnte noch gezeigt werden, dass drahtgesägte Substrate, die bei gleicher Prozesszeit mit den neuen Texturmitteln prozessiert wurden, über erheblich höhere mechanische Stabilitäten verfügen, als jene, bei denen das klassische Texturmittel 2-Propanol eingesetzt wurde.
This paper analyses the regulatory framework which applies to the determination of directors’ remuneration in Europe and examines the extent to which European firms follow best practices in corporate governance in this area, drawing on an empirical analysis of the governance systems that European firms adopt in setting remuneration and, in particular, on an empirical assessment of their diverging approaches to disclosure. These divergences persist despite recent reforms. After an examination of the link between optimal remuneration, corporate governance and regulation and an assessment of how regulatory reform has evolved in this area, the paper provides an overview of national laws and best practice corporate governance recommendations across the Member States, following the adoption of the important EC Recommendations on directors’ remuneration and on the role of non-executive directors in 2004 and 2005, respectively. This overview is largely based on the answers to questionnaires sent to legal experts from seventeen European Member States. The paper also provides an empirical analysis of governance practices and, in particular, firm disclosure of directors’ remuneration in Europe’s largest 300 listed firms by market capitalisation. The paper reveals that, notwithstanding a swathe of reforms across the Member States in recent years and related harmonisation efforts, disclosure levels still vary from country to country and are strongly dependent on the existence of regulations and best practice guidelines in the firm’s home Member State. Convergence in disclosure practices is not strong; only a few basic standards are followed by the majority of the firms examined and there is strong divergence with respect to most of the criteria considered in the study. Consistent with previous research, our study reveals clear differences not only with respect to remuneration disclosure, but also with respect to shareholder engagement and the board’s role in the remuneration process and in setting remuneration guidelines. Ownership structures still ‘matter’; these divergences tend to follow different corporate governance systems and, in particular, the dispersed ownership/block-holding ownership divide. They do not appear to have been smoothed since the EC Company Law Action Plan was launched and notwithstanding the harmonisation that has been attempted in this field. Keywords: Directors’ remuneration, corporate governance, disclosure, European regulation JEL Classifications: G30, G38, J33, K22, M52
Lessons from the crisis
(2009)
A lot happened even before the perceived beginning of this crisis in 2007, so although the events are recent, I will give an overview from a US perspective of the period from 2001 to date, in our search for the lessons to be learned. Much of it is probably familiar, but worth revisiting. I will break this necessarily simplified account into 3 stages: first, a look at the key factors that led to the increasing riskiness of US home mortgages; second, how those risks were transmitted as securities from US housing lenders to institutional investors around the globe; and third, how those risks led to huge losses and created a credit crunch that moved the impact from the financial economy to the real economy and produced a severe recession. Then we will have a factual foundation for deriving the lessons that ought to be taken away from this very expensive experience.
Seit 2003 wird die Krankenhausvergütung in Deutschland schrittweise auf ein neues, leistungsorientiertes System auf Basis von Fallpauschalen (diagnosis related groups – DRG) umgestellt. Die Über gangsphase, in der gesonderte gesetzliche Regelungen gegolten hatten, sollte Ende 2008 auslaufen, weshalb der gesetzlichen Rahmen für die Nachkonvergenzzeit neu geregelt werden musste. Neben diesen technischen Regelungen und einem einheitlichen Bundesbasisfallwert standen auch die Reform der Investitionsfinanzierung, der weitere Ausbau des Wettbewerbes und die schlechte Finanzsituation der Krankenhäuser auf der Agenda des Krankenhausfinanzierungsreformgesetzes (KHRG). Aufgrund der heterogenen Interessenslagen von Bund und Ländern, gestaltete sich auch bei diesem Reformgesetz die Kompromisssuche schwierig. Herausgekommen ist ein Gesetz, dass die Reformpolitik der letzten Jahre weiterführt, die Aufgabe der zukünftigen Sicherstellung der bedarfsgerechten Versorgung aber nicht löst und die problematischen Auswirkungen des DRG-Systems negiert. Das Diskussionspapier zeichnet die wichtigsten Schritte des Gesetzgebungsprozesses nach, präsentiert und diskutiert die wichtigsten Inhalte des Gesetzes und ordnet das KHRG in den Reformkontext der letzten Jahre ein.
Die Analyse der Phosphorylierung mittels Massenspektrometrie stellt in vielerlei Hinsicht große Anforderungen an die Analysenmethoden, die eingesetzt werden. Durch die substöchiometrische Modifzierung einer Aminosäure mit einem Phosphatrest ist die grundlegende Herausforderung der Sensitivtät an anzuwendende Analysetechniken gegeben. Die Biomassenspektrometrie hat mit den weichen Ionisierungmethoden ESI und MALDI zwar die Techniken zur Verfügung gestellt, die eine routinemäßige Identifzierung von vorher per MS nicht zugänglichen Proteinen über die Untersuchung der enzymatischen Spaltpeptides ermöglicht, gleichwohl ist der Aufwand, der für die massenspektrometrische Charakterisierung eines bestimmten Proteins besteht, um ein vielfaches höher. Wegen des in vivo variablen und potentiell sehr geringen Phosphorylierungsgrades ist die genaue Identifizierung der Phosphorylierungstelle allein durch das Vermessen der Probe in einem modernen Massenspektrometer nicht zu bewerkstelligen. Die sich in der Probe befindlichen Phosphopeptide stehen nach einem Verdau des entsprechenden Proteins einer mengenmäßig großen Zahl unphosphorylierter Peptide gegenüber. Auch die hohe Sensitivität von modernen Massenspektrometern reicht in der Regel nicht aus, um das entsprechende Phosphopeptid zu analysieren. Soll die exakte Phosphorylierungstelle des untersuchten Phosphopeptids bestimmt werden, so müssen ausreichende Mengen an Analyten für eine MS/MS-Analyse generiert werden. Bei realen Proben kann der Phosphorlyierungsgrad nicht erhöht werden, somit ist auch die Menge an vorhandenen Phosphopeptiden begrenzt. Somit kommt man an eine Anreicherung von Phosphopeptiden bzw. Abreicherung von unmodifzierten Peptiden nicht vorbei. Im Rahmen dieser Arbeit wurden verschiedene Anreicherungstechniken für Phosphopeptide hinsichtlich ihrer Sensitivität und Spezifität untersucht. Hierfür wurden verschiedene Affinitätstechniken (Graphit, IMAC und TiO¬¬2) hinsichtlich Empfindlichkeit und Selektivität untersucht. Von diesen drei Methoden zeigte sich Graphit aufgrund zu geringer Wechselwirkung zwischen Analyt und Medium als ungeeigneteste Methode. IMAC zeigt bei verbesserter Sensitvität eine höhere Spezifität, gleichwohl saure Peptide nicht von Phosphopeptiden zu trennen sind. Von den drei genannten Methoden zeigte TiO¬¬2 die höchste Sensitivität und Selektivität. Da das TiO¬¬2 als Goldstandard in der Anreicherung von Phosphopeptiden angesehen wird, sollte im Rahmen dieser Dissertation eine neuartige Methode entwickelt werden, die dieser Technik sowohl im Hinblick auf Spezifität und Selektivität überlegen sein sollte. Im Rahmen dieser Arbeit wurden MALDI-Probenteller erstmals mit Hilfe von SAMs (Self Assembled Monolayers) mit Phosphonatgruppen modifiziert, aus denen durch Beladen mit vierwertigem Zirkonium eine neue funktionelle Oberfläche für die Anreicherung von Phoshopeptiden hergestellt werden kann, die der Titandioxid-Methode überlegen ist. Anhand von reproduzierbaren Modellsystemen von bekannten Phosphoproteinverdaus (z.B. Ovalbumin) konnte gezeigt werden, dass diese neue Technik Analyten im niedrigen Femtomol-Bereich auch vor einem großen nicht-phosphorlyierten Hintegrund selektiv anreichern kann. Um zu demonstrieren, dass die Phosphonat-Oberfläche auch bei realen Proben die massenspektrometrische Phosphorylierungsanalyse ermöglicht, wurden in der vorliegenden Arbeit zum einen die Mitogen Activated Protein Kinase 1 (MAPK-1) aus einem in-Lösungs-Verdau und das Heat Shock Protein (HSP), welches aus einem 2-D-Gel stammt, untersucht. Mit der neu etablierten Phosphonat-Oberfäche konnten die Phosphopeptide aus den Proben angereichert und mittels MALDI-MS/MS die Phosphatgruppe eindeutig der modifizierten Aminosäure zugeordnet werden. Neben dem Komplex der Anreicherungstechniken wurden im Rahmen dieser Dissertation noch andere relevante Fragestellungen für die Phosphoproteomanalytik untersucht. So konnte gezeigt werden, dass für phosphorylierte Peptide keine Suppression der Signale im MALDI-Gerät stattfindet, was eine noch weit verbreitete Meinung in vielen Arbeitsgruppen ist. Auch Versuche zur MALDI-Matrix und deren Kombination mit der Säurekomponente wurden durchgeführt. Es stellte sich heraus, dass es neben DHB in Kombination mit Phosphorsäure momentan keine bessere Matrix-Kombination gibt. Im Hinblick auf die Quantifizierung der Phosphorlyierung eines Proteins konnte exemplarisch am Ovalbumin als Modellsystem eine einfache und valide Quantifizierungsmethode mit Hilfe der Dephosphorylierung entwickelt werden, die nicht die Nachteile von sonst häufig eingesetzten Derivatisierungsreagenzien besitzt.
Recent evaluations of the fiscal stimulus packages recently enacted in the United States and Europe such as Cogan, Cwik, Taylor and Wieland (2009) and Cwik and Wieland (2009) suggest that the GDP effects will be modest due to crowding-out of private consumption and investment. Corsetti, Meier and Mueller (2009a,b) argue that spending shocks are typically followed by consolidations with substantive spending cuts, which enhance the short-run stimulus effect. This note investigates the implications of this argument for the estimated impact of recent stimulus packages and the case for discretionary fiscal policy.
The global financial crisis has lead to a renewed interest in discretionary fiscal stimulus. Advocates of discretionary measures emphasize that government spending can stimulate additional private spending — the so-called Keynesian multiplier effect. Thus, we investigate whether the discretionary spending announced by Euro area governments for 2009 and 2010 is likely to boost euro area GDP by more than one for one. Because of modeling uncertainty, it is essential that such policy evaluations be robust to alternative modeling assumptions and different parameterizations. Therefore, we use five different empirical macroeconomic models with Keynesian features such as price and wage rigidities to evaluate the impact of fiscal stimulus. Four of them suggest that the planned increase in government spending will reduce private spending for consumption and investment purposes significantly. If announced government expenditures are implemented with delay the initial effect on euro area GDP, when stimulus is most needed, may even be negative. Traditional Keynesian multiplier effects only arise in a model that ignores the forward-looking behavioral response of consumers and firms. Using a multi-country model, we find that spillovers between euro area countries are negligible or even negative, because direct demand effects are offset by the indirect effect of euro appreciation.
Despite their importance in modern electronic trading, virtually no systematic empirical evidence on the market impact of incoming orders is existing. We quantify the short-run and long-run price effect of posting a limit order by proposing a high-frequency cointegrated VAR model for ask and bid quotes and several levels of order book depth. Price impacts are estimated by means of appropriate impulse response functions. Analyzing order book data of 30 stocks traded at Euronext Amsterdam, we show that limit orders have significant market impacts and cause a dynamic (and typically asymmetric) rebalancing of the book. The strength and direction of quote and spread responses depend on the incoming orders’ aggressiveness, their size and the state of the book. We show that the effects are qualitatively quite stable across the market. Cross-sectional variations in the magnitudes of price impacts are well explained by the underlying trading frequency and relative tick size.
The recent financial crisis has led to a major debate about fair-value accounting. Many critics have argued that fair-value accounting, often also called mark-to-market accounting, has significantly contributed to the financial crisis or, at least, exacerbated its severity. In this paper, we assess these arguments and examine the role of fair-value accounting in the financial crisis using descriptive data and empirical evidence. Based on our analysis, it is unlikely that fair-value accounting added to the severity of the current financial crisis in a major way. While there may have been downward spirals or asset-fire sales in certain markets, we find little evidence that these effects are the result of fair-value accounting. We also find little support for claims that fair-value accounting leads to excessive write-downs of banks’ assets. If anything, empirical evidence to date points in the opposite direction, that is, towards overvaluation of bank assets.
In this paper we investigate the comparative properties of empirically-estimated monetary models of the U.S. economy. We make use of a new data base of models designed for such investigations. We focus on three representative models: the Christiano, Eichenbaum, Evans (2005) model, the Smets and Wouters (2007) model, and the Taylor (1993a) model. Although the three models differ in terms of structure, estimation method, sample period, and data vintage, we find surprisingly similar economic impacts of unanticipated changes in the federal funds rate. However, the optimal monetary policy responses to other sources of economic fluctuations are widely different in the different models. We show that simple optimal policy rules that respond to the growth rate of output and smooth the interest rate are not robust. In contrast, policy rules with no interest rate smoothing and no response to the growth rate, as distinct from the level, of output are more robust. Robustness can be improved further by optimizing rules with respect to the average loss across the three models.
We introduce a regularization and blocking estimator for well-conditioned high-dimensional daily covariances using high-frequency data. Using the Barndorff-Nielsen, Hansen, Lunde, and Shephard (2008a) kernel estimator, we estimate the covariance matrix block-wise and regularize it. A data-driven grouping of assets of similar trading frequency ensures the reduction of data loss due to refresh time sampling. In an extensive simulation study mimicking the empirical features of the S&P 1500 universe we show that the ’RnB’ estimator yields efficiency gains and outperforms competing kernel estimators for varying liquidity settings, noise-to-signal ratios, and dimensions. An empirical application of forecasting daily covariances of the S&P 500 index confirms the simulation results.
Der Aufenthalt in einem Krankenhaus beginnt in der Regel mit der präklinischen Versorgung des Patienten durch den Rettungsdienst. Hier ist die Schnittstelle zwischen nichtärztlicher und ärztlicher Versorgung. Umso wichtiger ist hier ein reibungsloser und vor allem komplikationsloser Verlauf. Aus diesem Grund wurde, basierend auf Ergebnissen dieser Studie, eine Schulung zur fehlerfreien und effizienten Kommunikation für Rettungsassistenten entwickelt. Sie beinhaltete Hintergrundwissen, fünf klare Kommunikationsregeln (Schaffen einer eindeutigen Sprache, Setzen von Prioritäten, Bilden von Kommunikationsschleifen, Abschaffen eines „übertriebenen Wir-Gefühls“, Bestimmen eines Teamführers) und das BAUM-Schema zur Patientenübergabe. BAUM ist ein Akronym für Bestand, Anamnese, klinische Untersuchungsergebnisse und getroffene Maßnahmen. Fragestellung: Lassen sich durch eine kurze Schulung und die Einführung des BAUM-Schemas die Kommunikation in einem Rettungsdienstteam und die Patientenübergabe zwischen Rettungsdienstmitarbeitern und Notarzt verbessern? Methoden: In der vorliegenden Studie bildeten simulierte Notfallszenarien, die von zwei Rettungsassistenten zu bearbeiten waren, die Basis. Es wurde die Kommunikation zwischen den Teammitgliedern und das jeweilige Patientenübergabegespräch vor (Projektstufe 1) und nach einer Schulung (Projektstufe 2) evaluiert. Dabei gab es vier verschiedene Arten von Notfallszenarien; drei wurden von einem echten Patientendarsteller gespielt (Asthma bronchiale, Lungenembolie, Polytrauma) und eines mit einer Simulationspuppe dargestellt (kardiopulmonale Reanimation). Jedes Rettungsdienstteam hatte einen Fall in einem realitätsnahen Umfeld zu bearbeiten. Die Szenarien wurden digital aufgezeichnet und mit den dafür entwickelten Analysewerkzeugen evaluiert. Dabei wurde auf negative Kommunikationsereignisse, wie beispielsweise „Missverständnisse“ oder „Kompetenzgerangel“, geschaut und der Informationsfluss von Rettungsassistent zum Notarzt beobachtet. Die Schulung nach der ersten Projektstufe erfolgte in drei Unterrichtseinheiten und wurde interaktiv gestaltet; die aktive Mitarbeit durch das Bearbeiten von Arbeitsblättern sollte möglichst viele Lerntypen ansprechen. Im Anschluss an jede Schulung wurden Fragen diskutiert und Übungsaufgaben bearbeitet. Alle Probanden waren Rettungsassistenten der Berufsfeuerwehr Frankfurt am Main und nahmen nur ein einziges Mal an einer Simulation teil. Die Patientenschauspieler mussten ausreichende medizinische Kenntnisse vorweisen. Ergebnisse: In der ersten Projektstufe wurden 20 Szenarien simuliert, in der zweiten 14. Somit wurden insgesamt 68 Rettungsassistenten und 34 Übergaben evaluiert. Auf ein ausgewogenes Verhältnis der einzelnen Notfallszenarien wurde geachtet. Die Gesamtzahl der aufgezeichneten negativen Kommunikationsereignisse pro simuliertem Szenario wurde von 3,9 auf 1,4 vermindert (p=0,003). Gleichzeitig wurden die einzelnen negativen Kommunikationsereignisse pro Notfall ausgewertet. Durch die Schulung sollten sie in Projektstufe 2 vermindert werden. Hier ergab sich aber kein eindeutiger Trend zur Veränderung. Dagegen steigerte sich nach Einführung des BAUM-Schemas der Informationsgehalt in allen Übergaben von Rettungsassistenten zum Notarzt von 52,6 % auf 67,8 % (p=0,021), beim Szenario Lungenembolie wurde sogar eine Steigerung von 77,1 % erreicht. Konklusion: Die kurzen Schulungen zur Kommunikation während eines Rettungsdiensteinsatzes blieben in ihrer Effizienz hinter den Erwartungen zurück. Hier muss davon ausgegangen werden, dass andere Faktoren wie unterschiedliche Vorkenntnisse der Probanden bezüglich der Kommunikationsfähigkeit die Ursache waren. Die Patientenübergabe nach Einführung des BAUM-Schemas konnte dagegen nachweislich verbessert werden. Es führte nicht nur zu einer inhaltlichen Vervollständigung, sondern bot dem Rettungsassistenten gleichzeitig eine Gliederung zur Wiedergabe. Somit war eine sinnvolle Strukturierung der Informationen über den Patienten erreichbar. Es wurde damit dem Notarzt ermöglicht, mehr Informationen über den Patienten zu erhalten und mehr über die Lage am Notfallort zu erfahren.
Unter meinen nassen Füßen warmer Stein. Schritt für Schritt hinterlasse ich meine Spuren auf dem Boden, auf dem bereits die Fußabdrücke anderer Badender, die vor mir diesen Raum betreten haben, die Richtung weisen. Eine breitstufige flache Treppe führt nach unten zu den Wasserbecken. Hier nimmt die Nässe unter den Füßen zu. Ganze Pfade von Fußspuren ziehen sich über den Boden, von denen einzelne Wege abzweigen, sich verlaufen, im Nichts enden. Mein Körper gleitet in das Wasser, das sich blau von den grauen Wänden des Beckens abhebt. Mauern aus steinernen Schichten, die sich bis in die Höhe ziehen. Von oben fällt Sonnenlicht ein. Und doch ist es hier dunkel. Ein Raum im Innern, der sich im Anblick von Himmel und Wolken vom Außen ab- und eingegrenzt zeigt. Durch kleine quadratische Fensterausschnitte in den Mauern des Gebäudes wird der Blick in die Landschaft frei. In Stein gefasste Bilder vom Steilhang, von den Dächern des Dorfes, von himmelhohen Bergen.
In this thesis, we studied the single impurity Anderson model and developed a new and fast impurity solver for the dynamical mean field theory (DMFT). Using this new impurity solver, we studied the Hubbard model and periodic Anderson model for various parameters. This work is motivated by the fact that the dynamical mean field theory is widely used for the studies of strongly correlated systems, and the most frequently used methods, e.g. the quantum Monte-Carlo method (QMC), and the exact digonalization method are much CPU time consuming and usually limited by the available computers. Therefore, a fast and reliable impurity solver is needed. This new impurity solver was explored based on the equation-of-motion method (also called Green's function and decoupling method in some literature). Using the retarded Green's function, we first derived the equations of motion of Green's functions. Then, we employed a decoupling scheme to close the equations. By solving self-consistently the obtained closed set of integral equations, we obtained the single particle Green's function for the single impurity Anderson model. After that, the single impurity Anderson model was solved along with self-consistency conditions within the framework of DMFT. In this work, we studied and compared two decoupling schemes. Moreover, we also derived possible higher order approximations which will be tested in future work. Besides the theoretical work, we tested the method in numerical calculations. The integral equations are first solved by iterative methods with linear mixing and Broyden mixing, respectively. However, these two methods are not sufficient for finding the self-consistent solutions of the DMFT equations because converged results are difficult to obtain. Moreover, the computing speed of the two methods is also not satisfactory. Especially the iterative method with linear mixing costs always a lot of CPU time due to the required small mixing. Hence, we developed a new method, which is a combination of genetic algorithm and iterative method. This new method converges very fast and removes artifacts appearing in the results from the iterative method with linear and Broyden mixing. It can directly operate on the real axis, where no numerical error from the high frequency tail corrections and the analytical continuation is introduced. In addition, our new technique strongly improves the precision of the numerical results by removing the broadening. With this newly developed impurity solver and numerical technique, we studied the single impurity Anderson model, the single band Hubbard model and the periodic Anderson model with arbitrary spin and orbital degeneracy N on the real axis. For the single impurity Anderson model, the spectral functions are calculated for the infinite and finite Coulomb interaction strength. We also studied the spectral functions in dependence of the parameters of impurity position and hybridization. For the Hubbard model, we studied the bandwidth control and filling control Mott metal-insulator transition for spin and orbital degeneracy N = 2. It gives qualitatively the critical value of Coulomb interaction strength for the Mott metal-insulator transition, and the spectral functions which are comparable to those obtained in QMC and numerical renormalization group methods. We also studied the quasiparticle weight and the self-energy in metallic states. The latter shows almost Fermi liquid behavior. At last we calculated the densities of states for the Hubbard model with arbitrary spin and orbital degeneracy N. The periodic Anderson model (PAM) is also studied as another important lattice model. It was solved for various combinations of parameters: the Coulomb interaction strength, the impurity position, the center position of the conduction band, the hybridization, the spin and orbital degeneracy. The PAM results represents the physics of impurities in a metal. In short, our method works for the Hubbard model and the periodic Anderson model in a large range of parameters, and gives good results. Therefore, our impurity solver could be very useful in calculations within LDA+DMFT. Finally, we also made a preliminary investigation of the multi-band system based on the success in single band case. We first studied the two-band system in a simplified treatment by neglecting the interaction between the two bands through the bath. This has given promising numerical results for the two-band Hubbard model. Moreover, we have studied theoretically the two-band system with mean field approximation and Hubbard-I approximation in dealing with the higher order cross Green's functions which are related to both the two bands. In the mean field approximation, we even generalized the two-band system to arbitrary M=N/2 band system. Potential improvement can be carried out on the basis of this work.