Refine
Year of publication
- 2009 (2437) (remove)
Document Type
- Article (983)
- Doctoral Thesis (391)
- Part of Periodical (311)
- Book (210)
- Review (128)
- Working Paper (116)
- Part of a Book (86)
- Report (65)
- Conference Proceeding (58)
- Preprint (15)
Language
- German (1440)
- English (859)
- Portuguese (55)
- Croatian (39)
- French (24)
- Multiple languages (5)
- Italian (4)
- Spanish (4)
- dut (2)
- Hungarian (2)
Keywords
- Deutsch (58)
- Linguistik (35)
- Literatur (30)
- Rezension (24)
- Filmmusik (21)
- Lehrdichtung (18)
- Reiseliteratur (16)
- Deutschland (14)
- Film (13)
- Literaturwissenschaft (13)
Institute
- Medizin (287)
- Extern (198)
- Biochemie und Chemie (158)
- Biowissenschaften (92)
- Präsidium (80)
- Physik (67)
- Gesellschaftswissenschaften (61)
- Rechtswissenschaft (51)
- Geowissenschaften (48)
- Geschichtswissenschaften (48)
Augenzwinkernd stellt dieser Beitrag diese These auf, dass der Animationsfilm, wie am Beispiel von BOLT gezeigt werden kann, aufgrund neuer technischer Möglichkeiten der Filmproduktion und Filmrezeption auf jene filmischen Strategien zurückgreift, auf die schon der Film in seiner Frühgeschichte zurückgegriffen hat, insbesondere auf die Inszenierung von Bewegung. Der Film BOLT tut dies, indem er diesen Rückgriff zudem noch als Film über den Film reflexiv einholt und überholt.
Der Film, den ich Ihnen heute vorzustellen habe, ist – ich scheue mich nicht, dies so unumwunden auszusprechen – ein grandioses Meisterwerk, und er ist furchtbar, schrecklich, quälend, im eigentlichen Wortsinne ekelerregend. Beide normativen Urteile widersprechen sich nicht, sondern haben zugleich im vollen Umfang Geltung. Sie, liebe Zuschauerinnen und Zuschauer, werden gleich Bilder extremer und extrem sexuali-sierter Gewalt sehen, eingebettet nicht nur in den Rahmen eines faschistischen Terrorregimes, sondern auch eingebettet in eine bisweilen geradezu poetische Bildregie.
Ein Therapeut und Gentleman
(2009)
Beginnen wir mit einem Ende. Die Großaufnahme zeigt einen Mann mittleren Alters, der gerade ein Telefonat beendet. „I do wish we could chat longer,“ erklärt er höflich und gibt auch gleich den Grund für den Abbruch des Gespräches an: „I’m having an old friend for dinner.“ Die Doppeldeutigkeit dieser Bemerkung erschließt sich nur demjenigen, der um die Identität des Sprechers weiß. Der distinguierte Herr ist der Se-rienmörder Hannibal Lecter, genannt ‚Hannibal, the cannibal’. Dieser Spitzname ist Programm: Lecter plant nicht etwa, mit seinem Gast zu speisen. Er hat stattdessen vor, den Gast zu verspeisen.
Die postmoderne Scream-Trilogie schien das Horror-Genre dekonstruiert zu haben. Als jedoch ab 2003 eine neue Welle von Genre-Filmen ohne Jugendfreigabe die Kinosäle füllte, erwies sich der „harte Horror“ als populär wie nie zuvor. Der folgende Beitrag fragt, wie der Terrorfilm der Falle der Postmoderne entkommen konnte, und findet die Antwort in einer noch jungen Theorie der Postpostmoderne.
2008 ist mit dem Film Nordwand ein spektakuläres Bergdrama über den Versuch der Erstbesteigung der Eiger Nordwand im Jahr 1936 in die Kinos gekommen. Der zitathaft an die filmischen Vorbilder der 20er und 30er Jahre anknüpfende Film hat das Genre des Bergfilms innovativ ästhetisch erweitert. In diesem Beitrag wird erläu-tert, wie sich„Nordwand“ aus dem Fundus der Kultur- und Mediengeschichte der Alpen bedient und kritisch eingeschätzt, wie sich dieser Film dadurch gegenüber sei-nem historischen Kontext situiert.
Paris je t´aime so lautet der Titel einer 18-teiligen Kurzfilmreihe des Jahres 2008, deren Filme jeweils nach einem Stadtteil von Paris benannt sind. Dieses außerordent-liche Filmprojekt, zu dem 21 internationale Regisseure ihren persönlichen Blick auf die Stadt der Liebe beitrugen und das vergleichsweise wenig Beachtung fand, kann mit einigen hervorragenden Kurzfilmen aufwarten. Besonders der fünfminütige Film 14ème Arrondissement von Alexander Payne, in dem eine amerikanische Touris-tin in einem Pariser Stadtpark einen emphatischen Liebesmoment erlebt, ist – so die These – ein anschauliches Beispiel, das die konstitutive Wechselbeziehungen von Me-dialität und Liebe illustrieren lässt. Im Folgenden wird dabei untersucht, welche (Medien-)Strategien der Nähe- und Distanzerzeugung dieser Kurzfilm einsetzt und so zwei in sich verschränkte Rezeptionsweisen provoziert.
300 todesmutige Spartaner metzeln in endloser stereotyper Wiederholung böse Perserhorden, bevor sie selbst den Heldentod erleiden. Daneben gibt's noch ein bisschen Liebe und Verrat. Zack Snyders Film 300 (2006) erzählt – ohne jegliche political und ohne jede historical correctness – eine Episode aus den Perserkriegen, nämlich die Geschichte der Schlacht bei den Thermopylen im Jahre 480 v Chr., bei der angeblich 300 Spartaner einem übermächtigen Heer von Persern bis zuletzt Widerstand geleistet haben.
Wenn von Stanley Kubricks Lolita als Skandal-Film die Rede sein soll, dann ist es unvermeidlich, zunächst einen anderen Skandal ins Auge zu fassen, und zwar einen, der den durch den Film ausgelösten an Intensität bei weitem übertrifft: den Skandal um das Buch nämlich, das dem Film zugrundeliegt, also Vladimir Nabokovs Roman Lolita. Der Skandal, den dieses Buch entfesselte – Nabokov selbst sprach von dem „Wirbelsturm Lolita“ –, war unter den nicht eben wenigen Skandalen in der Literaturgeschichte des 20. Jahrhunderts einer der größten und wirkungsreichsten. Welcher Roman sonst hätte es geschafft, dass nach seinem Erscheinen der Pfarrer einer Kleinstadt, die zufällig denselben Namen trägt wie der Roman, einen Antrag auf Namensänderung – der Stadt, nicht des Romans – gestellt hätte?
Die britische Autorin Caryl Churchill hat ein Stück gegen den israelischen Einmarsch in Gaza geschrieben – und sich den Vorwurf des Antisemitismus eingehandelt. Doch tatsächlich stellt dieses brutal-offene Stück einen mutigen Versuch der Einfühlung dar und zeigt so, was Politisches Theater sein kann.
Die reimaginierte TV-Serie Battlestar Galactica gilt als ein Höhepunkt gegenwärtiger Science Fiction. Sie spiegelt aktuelle soziopolitische Brennpunkte unserer Gesellschaft und unserer Zeit in all ihrer Kontroversität wider. Darüberhinaus stellt sie mithilfe der Zylonen, humanoiden kybernetischen Organismen, die Frage nach dem Menschen, seinem Bewusstsein und seiner Subjektivität radikal neu. Der folgende Beitrag versucht, diese Radikalität, mit der Battlestar Galactica das Verhältnis von Mensch und Maschine verhandelt, anhand von diversen Reloads herauszustellen.
Der dänische Anästhesist Björn Ibsen : ein Pionier der Langzeitbeatmung über die oberen Luftwege
(2009)
The Danish anaesthesiologist Björn Ibsen should be placed among the pioneers of the development of long term ventilation by the upper airways (in this publication I have only briefly mentioned his other contributions, in particular the development of Intensive care medicine). Ibsen learned the basics of anaesthesia in the USA (1949/50). Returning to Denmark he worked as independent anaesthesiologist. In 1952, together with Mogens Björneboe, he treated newborn child who suffered from Tetanus. The treatment consisted of barbiturates and curare, in an attempt to suppress the muscular cramps of the child. The child was ventilated with manual positive pressure during the treatment. The child died but this attempt of treatment proved to be an important step in the development of long term ventilation by the upper airways. The core of this work is Ibsen’s introduction of the new treatment for treating poliomyelitis patients with respiratory insufficiency. In 1952, a severe poliomyelitis epidemic hit Copenhagen. At the time the normal treatment of poliomyelitis patients with respiratory failure was passive negative pressure ventilation. At the hospital treating the poliomyelitis patients in Copenhagen there were by far not enough respirators to treat all the severely ill patients. As several patients died from respiratory failure the epidemiologist Lassen was lead to try out a new and untested treatment, and contacted Ibsen. Because I have been able to find the records of the patient, it has now been possible to describe exactly what happened on the 27. August 1952, as Ibsen demonstrated his new treatment on a 12-year old girl. Ibsen intended to ventilate the girl by a tracheotomy, with manual positive pressure from an oxygen filled bag (he had read about his method in an American paper from 1950. here the method was being used as supplement to the negative pressure ventilation from the Iron Lung). Ventilating the patient, however, was only possible after Ibsen had anaesthetised her with barbiturate. The girl survived. As a direct consequence the treatment of the poliomyelitis patients with respiratory problems was changed to follow Ibsen’s directions. Numerous helpers would within days ventilate until 75 patients until they recovered (or died). I do not know for how long the longest ventilation-period was, but I presume it was several weeks. After the epidemic Ibsen found time to develop his method. In 1953 he treated a child with tetanus with anaesthetic drugs and curare, and had it ventilated by a tracheotomy. This positive pressure ventilation by the upper airways of an unconscious patient lasted 17 days. This time the patient survived. It was only later in his life that Ibsen received international recognition for his work (directly after the poliomyelitis epidemic it was Lassen who took the glory). He remained a modest man, something I have been able to verify my self when I interviewed him shortly before his death. He died the 7th of August 2007.
Information sent to and received by cells is essential for a homeostatic development of tissues and organs. These same signals are responsible for the good functioning of lymphatic organs and therefore govern the immune response. Dysfunctioning of the signaling networks is related to pathological situations, among which one can find cancer and auto-immune diseases. Intercellular communication involves the synthesis and the adjustment of signals by the secreting/emitting cell in order to reach the needed threshold. Diffusion of the signal to the target cell in addition to its interpretation lead to functional changes like cell migration and aggregation. Individual cells such as bacteria find food or increase their virulence through taxis (directional stimulus) and/or kinesis (speed stimulus). Immune cells appear to use the same processes to find bacteria and cellular debris, as well as to perform the cellular dance observed in germinal centers. This behavior is a result of an up or down regulation of specific signals that suggest to B and T-cells the paths to follow. Furthermore, cell segregation in the white pulp of the spleen, was also shown to be a result of a tight adjustment of T-cell kinesis. Restriction to cellular tracks and other experimentally provided measurements does not ensure a full comprehension of the observed cellular behavior. Thus, the study of patterns opens new gates to our understanding of the immune system. With the help of the agent-based modeling technique, cellular migration and aggregation are investigated in response to various cell-cell interactions. This work aims to explore different mechanisms that lead to cellular migration and aggregation, by defining the emergent properties of interest and that will help distinguish between interactions, starting by a simple look at the emergent patterns, followed by an analysis of their size, their degree of aggregation and the effective communication distances. Finally, the results obtained from the in silico experiments provided a guideline to differentiate between many cell-cell interactions under specific circumstances. Chemotaxis and phototaxis with and without diffusive cellular motion were shown to be distinguishable through an analysis of the emerging aggregation profiles.
Loss of vascular barrier function causes leak of fluid and proteins into tissues, extensive leak leads to shock and death. Barriers are largely formed by endothelial cell-cell contacts built up by VE-cadherin and are under the control of RhoGTPases. Here we show that a natural plasmin digest product of fibrin, peptide Bß15-42 (also called FX06), significantly reduces vascular leak and mortality in animal models for Dengue shock syndrome. The ability of Bß15-42 to preserve endothelial barriers is confirmed in rats i.v.-injected with LPS. In endothelial cells, Bß15-42 prevents thrombin-induced stress fiber formation, myosin light chain phosphorylation and RhoA activation. The molecular key for the protective effect of Bß15-42 is the src kinase Fyn, which associates with VE-cadherin-containing junctions. Following exposure to Bß15-42 Fyn dissociates from VE-cadherin and associates with p190RhoGAP, a known antagonists of RhoA activation. The role of Fyn in transducing effects of Bß15-42 is confirmed in Fyn -/- mice, where the peptide is unable to reduce LPS-induced lung edema, whereas in wild type littermates the peptide significantly reduces leak. Our results demonstrate a novel function for Bß15-42. Formerly mainly considered as a degradation product occurring after fibrin inactivation, it has now to be considered as a signaling molecule. It stabilizes endothelial barriers and thus could be an attractive adjuvant in the treatment of shock.
Introduction: Immune paralysis with massive T-cell apoptosis is a central pathogenic event during sepsis and correlates with septic patient mortality. Previous observations implied a crucial role of peroxisome proliferator-activated receptor gamma (PPARγ) during T-cell apoptosis.
Methods: To elucidate mechanisms of PPARγ-induced T-cell depletion, we used an endotoxin model as well as the caecal ligation and puncture sepsis model to imitate septic conditions in wild-type versus conditional PPARγ knockout (KO) mice.
Results: PPARγ KO mice showed a marked survival advantage compared with control mice. Their T cells were substantially protected against sepsis-induced death and showed a significantly higher expression of the pro-survival factor IL-2. Since PPARγ is described to repress nuclear factor of activated T cells (NFAT) transactivation and concomitant IL-2 expression, we propose inhibition of NFAT as the underlying mechanism allowing T-cell apoptosis. Corroborating our hypothesis, we observed up-regulation of the pro-apoptotic protein BIM and downregulation of the anti-apoptotic protein Bcl-2 in control mice, which are downstream effector proteins of IL-2 receptor signaling. Application of a neutralizing anti-IL-2 antibody reversed the pro-survival effect of PPARγ-deficient T cells and confirmed IL-2-dependent apoptosis during sepsis.
Conclusion: Apparently antagonizing PPARγ in T cells might improve their survival during sepsis, which concomitantly enhances defence mechanisms and possibly provokes an increased survival of septic patients.
Background Gamma-aminobutyric acid (GABA) is an important inhibitory neurotransmitter which mainly mediates its effects on neurons via ionotropic (GABAA) and metabotropic (GABAB) receptors. GABAB receptors are widely expressed in the central and the peripheral nervous system. Although there is evidence for a key function of GABAB receptors in the modulation of pain, the relative contribution of peripherally- versus centrally-expressed GABAB receptors is unclear. Results In order to elucidate the functional relevance of GABAB receptors expressed in peripheral nociceptive neurons in pain modulation we generated and analyzed conditional mouse mutants lacking functional GABAB(1) subunit specifically in nociceptors, preserving expression in the spinal cord and brain (SNS-GABAB(1)-/- mice). Lack of the GABAB(1) subunit precludes the assembly of functional GABAB receptor. We analyzed SNS-GABAB(1)-/- mice and their control littermates in several models of acute and neuropathic pain. Electrophysiological studies on peripheral afferents revealed higher firing frequencies in SNS-GABAB(1)-/- mice compared to corresponding control littermates. However no differences were seen in basal nociceptive sensitivity between these groups. The development of neuropathic and chronic inflammatory pain was similar across the two genotypes. The duration of nocifensive responses evoked by intraplantar formalin injection was prolonged in the SNS-GABAB(1)-/- animals as compared to their control littermates. Pharmacological experiments revealed that systemic baclofen-induced inhibition of formalin-induced nociceptive behaviors was not dependent upon GABAB(1) expression in nociceptors. Conclusion This study addressed contribution of GABAB receptors expressed on primary afferent nociceptive fibers to the modulation of pain. We observed that neither the development of acute and chronic pain nor the analgesic effects of a systematically-delivered GABAB agonist was significantly changed upon a specific deletion of GABAB receptors from peripheral nociceptive neurons in vivo. This lets us conclude that GABAB receptors in the peripheral nervous system play a less important role than those in the central nervous system in the regulation of pain.
In der vorliegenden Arbeit wurden die Angaben von 355 Patientinnen ausgewertet, die zwischen Januar 2000 und September 2007 aufgrund eines metastasierten Brustkrebses im onkologischen Fachzentrum Frankfurt Nord-Ost behandelt worden sind. Die 5-JÜR nach Kaplan-Meier liegt im untersuchten Kollektiv bei 76 %. Die Wahrscheinlichkeit, fünf Jahre nach Erstdiagnose einer Metastasierung überlebt zu haben beträgt 50 %. Die mittlere Überlebenszeit ab Metastasierung liegt bei 7,4 Jahren. Die Wahrscheinlichkeit für metastasenfreies Überleben nach fünf bzw. zehn Jahren beträgt 60 % bzw. 44 %. Im univariaten Log-Rank-Verfahren weisen Patientinnen mit folgenden Charakteristika eine bessere Prognose hinsichtlich der Gesamtüberlebenswahrscheinlichkeit auf: Prämeno-pausaler Status bei ED, Ablatio mammae, CMF-Chemotherapie sowie operative und antihormonelle Therapie der Fernmetastasen. Als prognostisch ungünstig gelten: Positiver Nodalstatus, niedriger Differenzierungsgrad, invasiv duktaler oder lobulärer Tumortyp, höheres UICC-Stadium, Stadium > 2 der St. Gallener Risikoklassifikation, First-Line-Chemotherapie, R1-resezierte Tumoren, adjuvante Chemotherapie, > 3 verschiedene Metastasenorte und zytostatische Metastasentherapie. Die Lokalisation der Fernmetastasen ermöglicht eine differenziertere prognostische Einschätzung: Viszerale Metastasen, vor allem in der Leber und im ZNS, beeinflussen die Überlebenszeit negativ. Im Verlauf auftretende Metastasen im Abdomen/ Peritoneum gehen ebenfalls mit einer schlechteren Prognose einher. Bei ossärer Metastasierung hingegen kann mit einem benigneren Krankheitsverlauf gerechnet werden, ebenso bei Erstmanifestation der Metastasen in der Haut und/oder den Weichteilen. In der multivariaten Cox-Analyse übt die Leber als primärer Metastasierungsort den größten negativen Einfluss auf die Überlebens-wahrscheinlichkeit aus. Auch eine hohe Anzahl befallener Lymphknoten, Metastasen an > 3 verschiedenen Lokalisationen sowie ein positiver Resektionsrand führen zu signifikant schlechteren Überlebensraten. Bessere Prognosen besitzen Patientinnen, die zum Diagnosezeitpunkt prämenopausal gewesen sind und deren Metastasen im Verlauf antihormonell therapiert werden konnten. In der Cox-Regressionsanalyse erwiesen sich das Grading und der Nodalstatus als unabhängige Prognoseparameter hinsichtlich des metastasenfreien Überlebens. Demnach gilt: Je schlechter der Differenzierungsgrad eines Tumors und je mehr Lymphknoten befallen sind, desto niedriger ist die Wahrscheinlichkeit nach zehn Jahren metastasenfrei überlebt zu haben.
Misselling through agents
(2009)
This paper analyzes the implications of the inherent conflict between two tasks performed by direct marketing agents: prospecting for customers and advising on the product's "suitability" for the specific needs of customers. When structuring sales-force compensation, firms trade off the expected losses from "misselling" unsuitable products with the agency costs of providing marketing incentives. We characterize how the equilibrium amount of misselling (and thus the scope of policy intervention) depends on features of the agency problem including: the internal organization of a firm's sales process, the transparency of its commission structure, and the steepness of its agents' sales incentives. JEL Classification: D18 (Consumer Protection), D83 (Search; Learning; Information and Knowledge), M31 (Marketing), M52 (Compensation and Compensation Methods and Their Effects).
This paper considers a firm that has to delegate to an agent, such as a mortgage broker or a security dealer, the twin tasks of approaching and advising customers. The main contractual restriction, in particular in light of related research in Inderst and Ottaviani (2007), is that the firm can only compensate the agent through commissions. This standard contracting restriction has the following key implications. First, the firm can only ensure internal compliance to a "standard of sales", in terms of advice for the customer, if this standard is not too high. Second, if this is still feasible, then a higher standard is associated with higher, instead of lower, sales commissions. Third, once the limit for internal compliance is approached, tougher regulation and prosecution of "misselling" have (almost) no effect on the prevailing standard. Besides having practical implications, in particular on how to (re-)regulate the sale of financial products, the novel model, which embeds a problem of advice into a framework with repeated interactions, may also be of separate interest for future work on sales force compensation. JEL Classification: D18 (Consumer Protection), D83 (Search; Learning; Information and Knowledge), M31 (Marketing), M52 (Compensation and Compensation Methods and Their Effects).
This article shows that investors financing a portfolio of projects may use the depth of their financial pockets to overcome entrepreneurial incentive problems. Competition for scarce informed capital at the refinancing stage strengthens investors’ bargaining positions. And yet, entrepreneurs’ incentives may be improved, because projects funded by investors with ‘‘shallow pockets’’ must have not only a positive net present value at the refinancing stage, but one that is higher than that of competing portfolio projects. Our article may help understand provisions used in venture capital finance that limit a fund’s initial capital and make it difficult to add more capital once the initial venture capital fund is raised. (JEL G24, G31)
We analyze how two key managerial tasks interact: that of growing the business through creating new investment opportunities and that of providing accurate information about these opportunities in the corporate budgeting process. We show how this interaction endogenously biases managers toward overinvesting in their own projects. This bias is exacerbated if managers compete for limited resources in an internal capital market, which provides us with a novel theory of the boundaries of the firm. Finally, managers of more risky and less profitable divisions should obtain steeper incentives to facilitate efficient investment decisions.
We present a simple model of personal finance in which an incumbent lender has an information advantage vis-a-vis both potential competitors and households. In order to extract more consumer surplus, a lender with sufficient market power may engage in "irresponsible"lending, approving credit even if this is knowingly against a household’s best interest. Unless rival lenders are equally well informed, competition may reduce welfare. This holds, in particular, if less informed rivals can free ride on the incumbent’s superior screening ability.
This paper argues that banks must be sufficiently levered to have first-best incentives to make new risky loans. This result, which is at odds with the notion that leverage invariably leads to excessive risk taking, derives from two key premises that focus squarely on the role of banks as informed lenders. First, banks finance projects that they do not own, which implies that they cannot extract all the profits. Second, banks conduct a credit risk analysis before making new loans. Our model may help understand why banks take on additional unsecured debt, such as unsecured deposits and subordinated loans, over and above their existing deposit base. It may also help understand why banks and finance companies have similar leverage ratios, even though the latter are not deposit takers and hence not subject to the same regulatory capital requirements as banks.
This paper shows that active investors, such as venture capitalists, can affect the speed at which new ventures grow. In the absence of product market competition, new ventures financed by active investors grow faster initially, though in the long run those financed by passive investors are able to catch up. By contrast, in a competitive product market, new ventures financed by active investors may prey on rivals that are financed by passive investors by “strategically overinvesting” early on, resulting in long-run differences in investment, profits, and firm growth. The value of active investors is greater in highly competitive industries as well as in industries with learning curves, economies of scope, and network effects, as is typical for many “new economy” industries. For such industries, our model predicts that start-ups with access to venture capital may dominate their industry peers in the long run. JEL Classifications: G24; G32 Keywords: Venture capital; dynamic investment; product market competition
We study a model of “information-based entrenchment” in which the CEO has private information that the board needs to make an efficient replacement decision. Eliciting the CEO’s private information is costly, as it implies that the board must pay the CEO both higher severance pay and higher on-the-job pay. While higher CEO pay is associated with higher turnover in our model, there is too little turnover in equilibrium. Our model makes novel empirical predictions relating CEO turnover, severance pay, and on-the-job pay to firm-level attributes such as size, corporate governance, and the quality of the firm’s accounting system.
Corporate borrowers care about the overall riskiness of a bank’s operations as their continued access to credit may rely on the bank’s ability to roll over loans or to expand existing credit facilities. As we show, a key implication of this observation is that increasing competition among banks should have an asymmetric impact on banks’ incentives to take on risk: Banks that are already riskier will take on yet more risk, while their safer rivals will become even more prudent. Our results offer new guidance for bank supervision in an increasingly competitive environment and may help to explain existing, ambiguous findings on the relationship between competition and risk-taking in banking. Furthermore, our results stress the beneficial role that competition can have for financial stability as it turns a bank’s "prudence" into an important competitive advantage.
This paper presents a novel model of the lending process that takes into account that loan officers must spend time and effort to originate new loans. Besides generating predictions on loan officers’ compensation and its interaction with the loan review process, the model sheds light on why competition could lead to excessively low lending standards. We also show how more intense competition may fasten the adoption of credit scoring. More generally, hard-information lending techniques such as credit scoring allow to give loan officers high-powered incentives without compromising the integrity and quality of the loan approval process. The model is finally applied to study the implications of loan sales on the adopted lending process and lending standard.
Inhalt: Prof. Dr. Helmut Siekmann : Stellungnahme für die öffentliche Anhörung des Haushalts- und Finanzausschusses des Landtags Nordrhein-Westfalen am 29. Oktober 2009 Gesetzentwurf der Landesregierung NRW : LANDTAG NORDRHEIN-WESTFALEN 14. Wahlperiode - Drucksache 14/9380 - 10.06.2009 Gesetz über die Feststellung eines zweiten Nachtrags zum Haushaltsplan des Landes Nordrhein-Westfalen für das Haushaltsjahr 2009 und zur Änderung des Gesetzes zur Errichtung eines Fonds für eine Inanspruchnahme des Landes Nordrhein-Westfalen aus der im Zusammenhang mit der Risikoabschirmung zugunsten der WestLB AG erklärten Garantie (Zweites Nachtragshaushaltsgesetz 2009) - Auszug Ergänzung der Landesregierung NRW zu dem Gesetzentwurf der Landesregierung - Drucksache 14/9380 (Zweites Nachtragshaushaltsgesetz 2009) - Drucksache 14/9510 – 01.07.2009 - Auszug Zweite Ergänzung der Landesregierung zu dem Gesetzentwurf der Landesregierung - Drucksachen 14/9380 und 14/9510 (1. Ergänzung) - Drucksache 14/9910 – 02.10.2009 - Auszug
Aus der Vielzahl der damit verbundenen Probleme sollen im Folgenden einige Aspekte etwas näher betrachtet werden. Dabei sollen die Maßnahmen zur unmittelbaren Krisenbewältigung ausgeklammert werden. Auch können die drängenden Fragen nach der Rolle der Geldpolitik sowie der globalen außenwirtschaftlichen Ungleichgewichte, die beide einen erheblichen, wenn nicht gar entscheidenden Beitrag zur Entstehung der Instabilitäten geleistet haben,19 hier nicht näher behandelt werden. Das Hauptaugenmerk soll stattdessen auf folgende Fragenkreise gelegt werden: I. Der Beitrag der Rechtsordnung zu Entstehung und Verlauf der Krise II. Verbesserung von Aufsicht und Kontrolle als Kern einer Neugestaltung III. Die Rolle der Ratingagenturen IV. Die reale Bedeutung von Finanzmärkten und Finanzinstitutionen V. Überlegungen zur Prävention Dabei sollen nicht Detailregelungen im Vordergrund der Betrachtung stehen, sondern die grundsätzliche Rolle der Rechtsordnung für die Stabilisierung der Finanzmärkte.
Der Präsident der Europäischen Kommission, José Manuel Barroso, hat im Oktober 2008 eine Gruppe von Sachverständigen unter Vorsitz des früheren Präsidenten des Internationalen Währungsfonds (IWF) und der Banque de France, Jacques de Larosière, mit der Ausarbeitung von Ratschlägen zur Zukunft der europäischen Finanzregulierung („financial regulation“) und Aufsicht („supervision“) beauftragt. Die Gruppe hat ihren Bericht am 25. Februar 2009 vorgelegt. Kapitel III des Berichts behandelt das Aufsichtssystem auf EU-Ebene und gelangt im Wesentlichen zu zwei Empfehlungen: - Errichtung einer präventiv tätigen, institutsübergreifenden („macroprudential“) Aufsichtseinrichtung mit dem Namen „European Systemic Risk Council“ [ESRC] - Umwandlung der bestehenden Ebene-3 Ausschüsse („3L3 committees“) in ein neues europäisches System von Finanzaufsicht [ESFS] mit hoheitlichen Funktionen Vor allem die geforderte Neustrukturierung der Aufsicht ist unter verschiedenen Gesichtspunkten kritisch zu würdigen. Die Erwägungen konzentrieren sich dabei auf die Frage, ob die Umsetzung der Vorschläge ohne Änderung des primären Gemeinschaftsrechts möglich erscheint. Der Abschluss von separaten Verwaltungsabkommen oder von Staatsverträgen, mit denen ad hoc neue Einrichtungen geschaffen werden könnten, soll im Folgenden nicht weiter untersucht werden. Zwar könnte auf diese Weise ein vollständiger Rechtsrahmen für Aufsichtseinrichtungen auf EU-Ebene geschaffen werden. Er könnte auch die Grundlage für die Übertragung von Hoheitsbefugnissen bilden, doch wäre dies mit gravierenden Nachteilen verbunden. Es ist keineswegs sicher, dass alle Mitglieder der EU eine solche Vereinbarung unterzeichnen würden, so dass unterschiedliche Aufsichtssysteme entstehen würden. Einer der Hauptgründe für eine Aufsicht auf europäischer Ebene würde verfehlt. Zum anderen würde eine institutionelle Parallelstruktur im Kernbereich der EU, dem gemeinsamen Binnenmarkt mit den Grundfreiheiten, geschaffen, die zahlreiche gravierende Probleme der Koordination und Abstimmung zwischen diesen, voneinander unabhängigen Systemen hervorrufen würde.
Gegenstand dieser Arbeit sind Galoisoperationen auf quasiplatonischen Riemannschen Flächen mit einer Automorphismengruppe isomorph zu PSL(2,F(q)). Quasiplatonische Riemannsche Flächen werden durch torsionsfreie Normalteiler N in einer Dreiecksgruppe D uniformisiert, d.h. N ist die universelle Überlagerungsgruppe und die Flächen, die man auch als algebraische Kurven beschreiben kann, sind isomorph zu N\U, wenn U die obere Halbebene bezeichnet. Bzgl. der Größe der Automorphismengruppen bilden die quasiplatonischen Kurven die lokalen Maxima im Modulraum. Die absoluten Maxima liegen bei den Hurwitz-Kurven; hier hat die Automorphismengruppe die maximale Größe von 84(g-1), wenn g>1 das Geschlecht der Kurve ist. Der Normalisator in PSL(2,R) der Überlagerungsgruppe N ist dann die Dreiecksgruppe mit Signatur (2,3,7). Macbeath hat die Bedingungen dafür gefunden, wann PSL(2,F(q)) eine Hurwitz-Gruppe ist. Von besonderem Interesse ist dabei der Fall, dass q=p eine Primzahl kongruent +-1 mod 7 ist. Hier hat man drei nicht-isomorphe Kurven, die jedoch alle galoiskonjugiert zueinander sind. In der Arbeit werden Bedingungen angegeben, unter denen sich dieses Resultat auf Dreiecksgruppen D mit einer Signatur der Form (2,m_1,m_2) verallgemeinern lässt. Dabei gehen einerseits Ergebnisse von Frye ein, der die Anzahl der verschiedenen torsionsfreien Normalteiler N<D mit Quotienten PSL(2,F(q)) über die Spurtupel der Erzeugenden von D bestimmt hat. Andererseits wird eine Methode von Streit verwendet, mit der man die Galoisoperation auf den Kurven anhand des Verhaltens der Multiplikatoren der Erzeugenden in der Automorphismengruppe nachvollziehen kann. Es zeigt sich, dass sich Spur- und Multiplikatortupel entsprechen, woraus man die Anzahl und Länge der Galois-Orbits erhält. Außerdem lässt sich der Definitionskörper der Kurven bestimmen. Offen bleibt das genaue Verhalten bei Signaturen (m_0,m_1,m_2) mit m_i ungleich 2 für alle i. Hier gibt es zu jedem Multiplikatortupel zwei verschiedene Spurtupel. Kann man die Kurven durch die Multiplikatoren beschreiben, dann erhält man Projektionen D->>PSL(2,F(q)) auch über die Quaternionenalgebra, die die Dreiecksgruppe über ihrem Spurkörper erzeugt. Die Normalteiler erweisen sich dann als Schnitt der Dreiecksgruppe mit einer Hauptkongruenzuntergruppe nach einem Primideal P|char(F(q)) in der Norm-1-Gruppe einer Ordnung der Quaternionenalgebra. Dabei ist das Spurtripel in PSL(2,F(q)) gerade das Spurtripel aus D modulo P. Ändert man P, so erhält man ein anderes Spurtripel in PSL(2,F(q)), also auch einen anderen Normalteiler. Bilden die zugehörigen Kurven eine Bahn unter der Galoisoperation, dann ergeben sich alle Normalteiler auf diese Weise. Die Galoisoperation auf den Tripeln der Multiplikatoren, also die Galoisoperation auf den Kurven, ist verträglich mit der Operation, die die Primideale P|char(F(q)) permutiert. Wir erhalten also eine natürliche Korrespondenz zwischen der Galoisoperation auf den Kurven einerseits und der Operation auf den Primidealen andererseits.
Na+/H+ antiporters are ubiquitous membrane proteins involved in ion homeostasis and pH sensing. The amino acid sequence of one such antiporter, MjNhaP1, from Methanococcus jannaschii, shows a significant homology to eukaryotic sodium proton exchangers like NHE1 from Homo sapiens and SOS1 of Arabidopsis thaliana than to the well-characterized Escherichia coli NhaA or NhaB. MjNhaP1 shows activity at acidic pH unlike NhaA, which is active at basic pH. 13 transmembrane helices have been predicted to be present in NhaP1. A projection map, calculated by Cryo-EM of 2D crystals of MjNhaP1 grown at pH 4, showed it to be a dimer containing elongated densities in the centre of the dimer and a cluster of density peaks on either side of the dimer core (Vinothkumar et al., 2005). Incubation of 2D crystals at pH 8 on the EM grid resulted in well-defined conformational changes, clearly evident in a difference map as a major change in density distribution within the helix bundle (Vinothkumar et al., 2005). The aim of this dissertation is to understand the working mechanism of MjNhaP1 by determining its three-dimensional structure. The aim was initially approached by structure determination by X-ray crystallography. The limitation for this method was the low expression yield, which was 0.5–0.7mg/ml (Vinothkumar et al., 2005). After various optimization trials, the expression yield of the recombinant protein could be elevated to 2-2.5mg of pure protein per litre of culture by the method of autoinduction (Studier et al., 2005). To obtain well diffracting 3D crystals, purification conditions (Vinothkumar et al., 2005) were modified. 3D crystals were obtained under various conditions, which has so far not diffracted X-Ray beyond 8Å. Parallely, optimization of parameters (Vinothkumar et al., 2005) for 2D crystals formation was carried out. A combination of 1% DDM used for lipid solubilization, and 1% OG in the buffer of the purified protein produced 1-2 μm wide tubular 2D crystals of NhaP1. This batch of crystal proved to be the optimal for data collection at higher tilt angle with the electron microscope. A 3D map showed p22121 symmetry and revealed a tight dimer with an oval shape. The region in the central part of the dimer is composed of several tilted helices forming an interface between both monomers. On either side of the dimer interface, a group of six tightly packed helices form a bundle. This bundle contains three straight helices in the centre of the monomer and three helices in the periphery. Comparison of the structures of E.coli NhaA and M. jannaschii NhaP1 show substantial differences in length and slope of corresponding helices between both antiporters. A 3D model of NhaP1 based on the 3D map revealed 13 helices, which has been named as A-M to distinguish it from the NhaA helices. Overlaying the X-ray structure onto the 3D map revealed that the disrupted helices IV and XI of NhaA superimpose two central helices at similar position in the 3D map of NhaP1. The disrupted helices IV and XI in the X-ray structure of NhaA have been proposed as the putative ion-binding and translocation site (Hunte C et al, 2005; Arkin IT et al, 2007; Screpanti & Hunte (2007). This motif appears to be present also in NhaP1, as suggested by the close fit of NhaA helices IV and XI on the putative helices E and L of the NhaP1 model. These two putative helices E and L in NhaP1 contain the highly conserved TDP and GPRVVP motif, which are crucial for antiporter activity (Hellmer et al., 2002, Hellmer et al., 2003). In the overlay, helix V of NhaA containing the two essential, conserved aspartates D163 and D164 fits the density of the putative helix F of NhaP1, which contains the conserved motif FNDP. The homologous D161 in the FNDP motif of NhaP1 is essential for transport activity as show by mutagenesis (Hellmer at al., 2003). Significant differences are visible in the region of the dimer interface of the 3D map of NhaP1 occupied by helices VI, VII, and VIII in NhaA. This region shows an extra helical density (A) in the 3D map of NhaP1. By alignment of MjNhaP1 sequence with the amino acid sequences of several Na+/H+ exchangers, it was evident that the additional helix (A) is located in the N terminus of NhaP1. In our sequence alignment, a putative hydrophobic segment corresponding to this additional helix A is present in other archaeal and eukaryotic antiporters but not in any of the bacterial ones. The N-terminus of the human Na+/H+ exchanger NHE1 has been predicted to contain a highly hydrophobic signal peptide. This indicates the probability of the N-terminal helix A of NhaP1 to be an uncleaved signal peptide. Besides being a signal sequence targeting NhaP1 to the membrane, the map suggests that this helix might be involved in the formation of dimer contacts between both monomers. A gene duplication event is evident in the 3D map of NhaP1, as not only the helices D, E, F and K, L, M are related by an inverted repeat but also the helices B, C and I, J are related. We present here the three-dimensional architecture of a Na+/H+ antiporter from archaea. The presence of the 13th helix suggests the location of the N-terminus to be located in the cytosol and the C-terminus in the periplasm. This would orient NhaP1 in an inverted manner in the membrane in comparison to NhaA. Further structural information at higher resolution and biochemical and biophysical investigations are required to confirm the topology.
Die vorliegende Arbeit ist aus drei Teilen aufgebaut. Im ersten, relativ kurz gehaltenen Kapitel wird die klassische Standard-Industrie-Solarzelle auf der Basis monokristallinen Siliziums vorgestellt. Der bisherige Herstellungsprozess der Standard-Industrie-Solarzelle, der in wesentlichen Teilen darauf abzielt, diese Verluste zu minimieren, dient als Referenz für die Entwicklung neuer Fertigungsverfahren, wie sie in den Kapiteln 2 und 3 dieser Arbeit vorgestellt werden. Den ersten thematischen Schwerpunkt dieser Arbeit bildet die Entwicklung eines alternativen Wafering-Konzeptes zum Multi-Drahtsägen, der klassischen Technologie zur Fertigung von Silizium-Wafern. Die Basis des neuen, hier vorgestellten Wafering-Prozesses bildet das Laser-Micro-Jet-Verfahren (LMJTM). Dieses System besitzt eine Reihe von Vorteilen gegenüber klassischen „trockenen“ Laserverfahren. Das ursprünglich auf reinem, deionisiertem Wasser als Strahlmedium aufbauende System wurde im Rahmen dieser Arbeit so modifiziert, dass der Flüssigkeitsstrahl nunmehr nicht nur als flüssiger Lichtleiter dient, sondern gleichzeitig auch als Transportmedium für Ätzmittel, welche den thermischen Abtrag des Siliziums durch den Laserstrahl unterstützen. Ausgehend vom aus der Literatur bekannten chemischen Verhalten des Siliziums wurden 3 Ätzsysteme für Silizium vorgestellt. Dabei wurden Vor- und Nachteile für deren technischen Einsatz diskutiert. Den praktischen Teil dieses Arbeitspaketes bildete der Test zweier Ätzmedien im Experiment. Dabei konnte gezeigt werden, dass wasserfreie Strahlmedien basierend auf perfluorierten Lösemitteln mit bereits sehr geringen Zusätzen gasförmigen Chlors als Ätzmittel für Silizium wässrigen alkalischen Ätzsystemen jeder Konzentration prinzipiell überlegen sind- Parallel zur Evaluation des Einflusses der chemischen Beschaffenheit des Flüssigkeitsstrahls auf den Abtragsprozess fand auch eine Untersuchung verschiedener Prozessparametereinflüsse statt, etwa der Laserleistung, der Laserlichtwellenlänge, etc. Den zweiten thematischen Schwerpunkt der Arbeit bildet die Modifizierung der nasschemischen Schritte zwischen dem Wafering und dem ersten Hochtemperatur-Fertigungsschritt in der Solarzellen-Produktion, der Emitterdiffusion. Diese nasschemischen Schritte umfassen bei der Standard-Industrie-Solarzelle in der Regel eine zum Teil aufwändige Reinigung der Wafer-Oberflächen von partikulären und metallischen Kontaminationen, die vor allem vom Wafering-Prozess herrühren, als auch eine Texturierung der Substrate. Kernanliegen des praktischen Teils dieses Arbeitspaketes ist zum einen die Suche nach alternativen Texturmitteln zum 2-Propanol, dem klassischen Badadditiv in basischen Ätzbädern, das in der Praxis über zahlreiche Nachteile verfügt, etwa einem relativ niedrigen Siedepunkt, der zu seinem permanenten Ausgasen aus der Lösung führt. Zum anderen sollte der auf die Textur folgende Reinigungsprozess rationalisiert werden, um Prozesskosten zu minimieren, entweder durch eine Straffung des Prozesses durch Verringerung des Chemikalienverbrauchs und einer Reduzierung der Prozesszeit oder durch eine Verringerung der Chemikalienkosten. Bei der Suche nach neuen Texturmitteln wurden 45 verschiedene organische Substanzen verschiedener Verbindungsklassen hinsichtlich ihrer Texturwirkung auf monokristallinen Silizium-substraten getestet. Mit 1-Pentanol und p-Toluolsulfonsäure wurden zwei Substanzen ermittelt, welche in der Zukunft als praktikable Alternativen zu 2-Propanol als Texturadditive dienen könnten. Im Kontext der Suche nach neuen Reinigungsverfahren wurden eine Reihe verschiedener neuer Reinigungssequenzen getestet, die sich entweder durch veränderte - in der Regel verringerte - Badkonzentrationen, durch neue Badsequenzen, welche auf bestimmte Teilschritte verzichten oder durch neue Badkompositionen, etwa durch Hinzuziehen von Komplexbildnern für metallische Verunreinigungen von den klassischen Reinigungsprozessen unterscheiden. Der Erfolg des Reinigungseffektes der nasschemischen Sequenzen wurde anhand der Ladungsträger-Lebensdauer in den Wafern abgeschätzt. Dabei konnte gezeigt werden, dass mit Hilfe von LMJ produzierte (gelaserte) Wafer-Oberflächen wesentlich straffere Reinigungsprozesse erfordern als drahtgesägte Substrate. Neben einer deutlichen Straffung des Reinigungsprozesses ist auch eine Verkürzung der Texturzeit bei den mit Lasern geschnittenen Oberflächen möglich, die wiederum ihren Grund im geringeren Schädigungsgrad dieser Oberflächen hat, der einen geringeren Materialabtrag durch die Ätzbäder erfordert, als bei drahtgesägten Wafern. Abschließend konnte noch gezeigt werden, dass drahtgesägte Substrate, die bei gleicher Prozesszeit mit den neuen Texturmitteln prozessiert wurden, über erheblich höhere mechanische Stabilitäten verfügen, als jene, bei denen das klassische Texturmittel 2-Propanol eingesetzt wurde.
This paper analyses the regulatory framework which applies to the determination of directors’ remuneration in Europe and examines the extent to which European firms follow best practices in corporate governance in this area, drawing on an empirical analysis of the governance systems that European firms adopt in setting remuneration and, in particular, on an empirical assessment of their diverging approaches to disclosure. These divergences persist despite recent reforms. After an examination of the link between optimal remuneration, corporate governance and regulation and an assessment of how regulatory reform has evolved in this area, the paper provides an overview of national laws and best practice corporate governance recommendations across the Member States, following the adoption of the important EC Recommendations on directors’ remuneration and on the role of non-executive directors in 2004 and 2005, respectively. This overview is largely based on the answers to questionnaires sent to legal experts from seventeen European Member States. The paper also provides an empirical analysis of governance practices and, in particular, firm disclosure of directors’ remuneration in Europe’s largest 300 listed firms by market capitalisation. The paper reveals that, notwithstanding a swathe of reforms across the Member States in recent years and related harmonisation efforts, disclosure levels still vary from country to country and are strongly dependent on the existence of regulations and best practice guidelines in the firm’s home Member State. Convergence in disclosure practices is not strong; only a few basic standards are followed by the majority of the firms examined and there is strong divergence with respect to most of the criteria considered in the study. Consistent with previous research, our study reveals clear differences not only with respect to remuneration disclosure, but also with respect to shareholder engagement and the board’s role in the remuneration process and in setting remuneration guidelines. Ownership structures still ‘matter’; these divergences tend to follow different corporate governance systems and, in particular, the dispersed ownership/block-holding ownership divide. They do not appear to have been smoothed since the EC Company Law Action Plan was launched and notwithstanding the harmonisation that has been attempted in this field. Keywords: Directors’ remuneration, corporate governance, disclosure, European regulation JEL Classifications: G30, G38, J33, K22, M52
Lessons from the crisis
(2009)
A lot happened even before the perceived beginning of this crisis in 2007, so although the events are recent, I will give an overview from a US perspective of the period from 2001 to date, in our search for the lessons to be learned. Much of it is probably familiar, but worth revisiting. I will break this necessarily simplified account into 3 stages: first, a look at the key factors that led to the increasing riskiness of US home mortgages; second, how those risks were transmitted as securities from US housing lenders to institutional investors around the globe; and third, how those risks led to huge losses and created a credit crunch that moved the impact from the financial economy to the real economy and produced a severe recession. Then we will have a factual foundation for deriving the lessons that ought to be taken away from this very expensive experience.
Seit 2003 wird die Krankenhausvergütung in Deutschland schrittweise auf ein neues, leistungsorientiertes System auf Basis von Fallpauschalen (diagnosis related groups – DRG) umgestellt. Die Über gangsphase, in der gesonderte gesetzliche Regelungen gegolten hatten, sollte Ende 2008 auslaufen, weshalb der gesetzlichen Rahmen für die Nachkonvergenzzeit neu geregelt werden musste. Neben diesen technischen Regelungen und einem einheitlichen Bundesbasisfallwert standen auch die Reform der Investitionsfinanzierung, der weitere Ausbau des Wettbewerbes und die schlechte Finanzsituation der Krankenhäuser auf der Agenda des Krankenhausfinanzierungsreformgesetzes (KHRG). Aufgrund der heterogenen Interessenslagen von Bund und Ländern, gestaltete sich auch bei diesem Reformgesetz die Kompromisssuche schwierig. Herausgekommen ist ein Gesetz, dass die Reformpolitik der letzten Jahre weiterführt, die Aufgabe der zukünftigen Sicherstellung der bedarfsgerechten Versorgung aber nicht löst und die problematischen Auswirkungen des DRG-Systems negiert. Das Diskussionspapier zeichnet die wichtigsten Schritte des Gesetzgebungsprozesses nach, präsentiert und diskutiert die wichtigsten Inhalte des Gesetzes und ordnet das KHRG in den Reformkontext der letzten Jahre ein.
Die Analyse der Phosphorylierung mittels Massenspektrometrie stellt in vielerlei Hinsicht große Anforderungen an die Analysenmethoden, die eingesetzt werden. Durch die substöchiometrische Modifzierung einer Aminosäure mit einem Phosphatrest ist die grundlegende Herausforderung der Sensitivtät an anzuwendende Analysetechniken gegeben. Die Biomassenspektrometrie hat mit den weichen Ionisierungmethoden ESI und MALDI zwar die Techniken zur Verfügung gestellt, die eine routinemäßige Identifzierung von vorher per MS nicht zugänglichen Proteinen über die Untersuchung der enzymatischen Spaltpeptides ermöglicht, gleichwohl ist der Aufwand, der für die massenspektrometrische Charakterisierung eines bestimmten Proteins besteht, um ein vielfaches höher. Wegen des in vivo variablen und potentiell sehr geringen Phosphorylierungsgrades ist die genaue Identifizierung der Phosphorylierungstelle allein durch das Vermessen der Probe in einem modernen Massenspektrometer nicht zu bewerkstelligen. Die sich in der Probe befindlichen Phosphopeptide stehen nach einem Verdau des entsprechenden Proteins einer mengenmäßig großen Zahl unphosphorylierter Peptide gegenüber. Auch die hohe Sensitivität von modernen Massenspektrometern reicht in der Regel nicht aus, um das entsprechende Phosphopeptid zu analysieren. Soll die exakte Phosphorylierungstelle des untersuchten Phosphopeptids bestimmt werden, so müssen ausreichende Mengen an Analyten für eine MS/MS-Analyse generiert werden. Bei realen Proben kann der Phosphorlyierungsgrad nicht erhöht werden, somit ist auch die Menge an vorhandenen Phosphopeptiden begrenzt. Somit kommt man an eine Anreicherung von Phosphopeptiden bzw. Abreicherung von unmodifzierten Peptiden nicht vorbei. Im Rahmen dieser Arbeit wurden verschiedene Anreicherungstechniken für Phosphopeptide hinsichtlich ihrer Sensitivität und Spezifität untersucht. Hierfür wurden verschiedene Affinitätstechniken (Graphit, IMAC und TiO¬¬2) hinsichtlich Empfindlichkeit und Selektivität untersucht. Von diesen drei Methoden zeigte sich Graphit aufgrund zu geringer Wechselwirkung zwischen Analyt und Medium als ungeeigneteste Methode. IMAC zeigt bei verbesserter Sensitvität eine höhere Spezifität, gleichwohl saure Peptide nicht von Phosphopeptiden zu trennen sind. Von den drei genannten Methoden zeigte TiO¬¬2 die höchste Sensitivität und Selektivität. Da das TiO¬¬2 als Goldstandard in der Anreicherung von Phosphopeptiden angesehen wird, sollte im Rahmen dieser Dissertation eine neuartige Methode entwickelt werden, die dieser Technik sowohl im Hinblick auf Spezifität und Selektivität überlegen sein sollte. Im Rahmen dieser Arbeit wurden MALDI-Probenteller erstmals mit Hilfe von SAMs (Self Assembled Monolayers) mit Phosphonatgruppen modifiziert, aus denen durch Beladen mit vierwertigem Zirkonium eine neue funktionelle Oberfläche für die Anreicherung von Phoshopeptiden hergestellt werden kann, die der Titandioxid-Methode überlegen ist. Anhand von reproduzierbaren Modellsystemen von bekannten Phosphoproteinverdaus (z.B. Ovalbumin) konnte gezeigt werden, dass diese neue Technik Analyten im niedrigen Femtomol-Bereich auch vor einem großen nicht-phosphorlyierten Hintegrund selektiv anreichern kann. Um zu demonstrieren, dass die Phosphonat-Oberfläche auch bei realen Proben die massenspektrometrische Phosphorylierungsanalyse ermöglicht, wurden in der vorliegenden Arbeit zum einen die Mitogen Activated Protein Kinase 1 (MAPK-1) aus einem in-Lösungs-Verdau und das Heat Shock Protein (HSP), welches aus einem 2-D-Gel stammt, untersucht. Mit der neu etablierten Phosphonat-Oberfäche konnten die Phosphopeptide aus den Proben angereichert und mittels MALDI-MS/MS die Phosphatgruppe eindeutig der modifizierten Aminosäure zugeordnet werden. Neben dem Komplex der Anreicherungstechniken wurden im Rahmen dieser Dissertation noch andere relevante Fragestellungen für die Phosphoproteomanalytik untersucht. So konnte gezeigt werden, dass für phosphorylierte Peptide keine Suppression der Signale im MALDI-Gerät stattfindet, was eine noch weit verbreitete Meinung in vielen Arbeitsgruppen ist. Auch Versuche zur MALDI-Matrix und deren Kombination mit der Säurekomponente wurden durchgeführt. Es stellte sich heraus, dass es neben DHB in Kombination mit Phosphorsäure momentan keine bessere Matrix-Kombination gibt. Im Hinblick auf die Quantifizierung der Phosphorlyierung eines Proteins konnte exemplarisch am Ovalbumin als Modellsystem eine einfache und valide Quantifizierungsmethode mit Hilfe der Dephosphorylierung entwickelt werden, die nicht die Nachteile von sonst häufig eingesetzten Derivatisierungsreagenzien besitzt.
Recent evaluations of the fiscal stimulus packages recently enacted in the United States and Europe such as Cogan, Cwik, Taylor and Wieland (2009) and Cwik and Wieland (2009) suggest that the GDP effects will be modest due to crowding-out of private consumption and investment. Corsetti, Meier and Mueller (2009a,b) argue that spending shocks are typically followed by consolidations with substantive spending cuts, which enhance the short-run stimulus effect. This note investigates the implications of this argument for the estimated impact of recent stimulus packages and the case for discretionary fiscal policy.
The global financial crisis has lead to a renewed interest in discretionary fiscal stimulus. Advocates of discretionary measures emphasize that government spending can stimulate additional private spending — the so-called Keynesian multiplier effect. Thus, we investigate whether the discretionary spending announced by Euro area governments for 2009 and 2010 is likely to boost euro area GDP by more than one for one. Because of modeling uncertainty, it is essential that such policy evaluations be robust to alternative modeling assumptions and different parameterizations. Therefore, we use five different empirical macroeconomic models with Keynesian features such as price and wage rigidities to evaluate the impact of fiscal stimulus. Four of them suggest that the planned increase in government spending will reduce private spending for consumption and investment purposes significantly. If announced government expenditures are implemented with delay the initial effect on euro area GDP, when stimulus is most needed, may even be negative. Traditional Keynesian multiplier effects only arise in a model that ignores the forward-looking behavioral response of consumers and firms. Using a multi-country model, we find that spillovers between euro area countries are negligible or even negative, because direct demand effects are offset by the indirect effect of euro appreciation.
Despite their importance in modern electronic trading, virtually no systematic empirical evidence on the market impact of incoming orders is existing. We quantify the short-run and long-run price effect of posting a limit order by proposing a high-frequency cointegrated VAR model for ask and bid quotes and several levels of order book depth. Price impacts are estimated by means of appropriate impulse response functions. Analyzing order book data of 30 stocks traded at Euronext Amsterdam, we show that limit orders have significant market impacts and cause a dynamic (and typically asymmetric) rebalancing of the book. The strength and direction of quote and spread responses depend on the incoming orders’ aggressiveness, their size and the state of the book. We show that the effects are qualitatively quite stable across the market. Cross-sectional variations in the magnitudes of price impacts are well explained by the underlying trading frequency and relative tick size.
The recent financial crisis has led to a major debate about fair-value accounting. Many critics have argued that fair-value accounting, often also called mark-to-market accounting, has significantly contributed to the financial crisis or, at least, exacerbated its severity. In this paper, we assess these arguments and examine the role of fair-value accounting in the financial crisis using descriptive data and empirical evidence. Based on our analysis, it is unlikely that fair-value accounting added to the severity of the current financial crisis in a major way. While there may have been downward spirals or asset-fire sales in certain markets, we find little evidence that these effects are the result of fair-value accounting. We also find little support for claims that fair-value accounting leads to excessive write-downs of banks’ assets. If anything, empirical evidence to date points in the opposite direction, that is, towards overvaluation of bank assets.
In this paper we investigate the comparative properties of empirically-estimated monetary models of the U.S. economy. We make use of a new data base of models designed for such investigations. We focus on three representative models: the Christiano, Eichenbaum, Evans (2005) model, the Smets and Wouters (2007) model, and the Taylor (1993a) model. Although the three models differ in terms of structure, estimation method, sample period, and data vintage, we find surprisingly similar economic impacts of unanticipated changes in the federal funds rate. However, the optimal monetary policy responses to other sources of economic fluctuations are widely different in the different models. We show that simple optimal policy rules that respond to the growth rate of output and smooth the interest rate are not robust. In contrast, policy rules with no interest rate smoothing and no response to the growth rate, as distinct from the level, of output are more robust. Robustness can be improved further by optimizing rules with respect to the average loss across the three models.
We introduce a regularization and blocking estimator for well-conditioned high-dimensional daily covariances using high-frequency data. Using the Barndorff-Nielsen, Hansen, Lunde, and Shephard (2008a) kernel estimator, we estimate the covariance matrix block-wise and regularize it. A data-driven grouping of assets of similar trading frequency ensures the reduction of data loss due to refresh time sampling. In an extensive simulation study mimicking the empirical features of the S&P 1500 universe we show that the ’RnB’ estimator yields efficiency gains and outperforms competing kernel estimators for varying liquidity settings, noise-to-signal ratios, and dimensions. An empirical application of forecasting daily covariances of the S&P 500 index confirms the simulation results.
Der Aufenthalt in einem Krankenhaus beginnt in der Regel mit der präklinischen Versorgung des Patienten durch den Rettungsdienst. Hier ist die Schnittstelle zwischen nichtärztlicher und ärztlicher Versorgung. Umso wichtiger ist hier ein reibungsloser und vor allem komplikationsloser Verlauf. Aus diesem Grund wurde, basierend auf Ergebnissen dieser Studie, eine Schulung zur fehlerfreien und effizienten Kommunikation für Rettungsassistenten entwickelt. Sie beinhaltete Hintergrundwissen, fünf klare Kommunikationsregeln (Schaffen einer eindeutigen Sprache, Setzen von Prioritäten, Bilden von Kommunikationsschleifen, Abschaffen eines „übertriebenen Wir-Gefühls“, Bestimmen eines Teamführers) und das BAUM-Schema zur Patientenübergabe. BAUM ist ein Akronym für Bestand, Anamnese, klinische Untersuchungsergebnisse und getroffene Maßnahmen. Fragestellung: Lassen sich durch eine kurze Schulung und die Einführung des BAUM-Schemas die Kommunikation in einem Rettungsdienstteam und die Patientenübergabe zwischen Rettungsdienstmitarbeitern und Notarzt verbessern? Methoden: In der vorliegenden Studie bildeten simulierte Notfallszenarien, die von zwei Rettungsassistenten zu bearbeiten waren, die Basis. Es wurde die Kommunikation zwischen den Teammitgliedern und das jeweilige Patientenübergabegespräch vor (Projektstufe 1) und nach einer Schulung (Projektstufe 2) evaluiert. Dabei gab es vier verschiedene Arten von Notfallszenarien; drei wurden von einem echten Patientendarsteller gespielt (Asthma bronchiale, Lungenembolie, Polytrauma) und eines mit einer Simulationspuppe dargestellt (kardiopulmonale Reanimation). Jedes Rettungsdienstteam hatte einen Fall in einem realitätsnahen Umfeld zu bearbeiten. Die Szenarien wurden digital aufgezeichnet und mit den dafür entwickelten Analysewerkzeugen evaluiert. Dabei wurde auf negative Kommunikationsereignisse, wie beispielsweise „Missverständnisse“ oder „Kompetenzgerangel“, geschaut und der Informationsfluss von Rettungsassistent zum Notarzt beobachtet. Die Schulung nach der ersten Projektstufe erfolgte in drei Unterrichtseinheiten und wurde interaktiv gestaltet; die aktive Mitarbeit durch das Bearbeiten von Arbeitsblättern sollte möglichst viele Lerntypen ansprechen. Im Anschluss an jede Schulung wurden Fragen diskutiert und Übungsaufgaben bearbeitet. Alle Probanden waren Rettungsassistenten der Berufsfeuerwehr Frankfurt am Main und nahmen nur ein einziges Mal an einer Simulation teil. Die Patientenschauspieler mussten ausreichende medizinische Kenntnisse vorweisen. Ergebnisse: In der ersten Projektstufe wurden 20 Szenarien simuliert, in der zweiten 14. Somit wurden insgesamt 68 Rettungsassistenten und 34 Übergaben evaluiert. Auf ein ausgewogenes Verhältnis der einzelnen Notfallszenarien wurde geachtet. Die Gesamtzahl der aufgezeichneten negativen Kommunikationsereignisse pro simuliertem Szenario wurde von 3,9 auf 1,4 vermindert (p=0,003). Gleichzeitig wurden die einzelnen negativen Kommunikationsereignisse pro Notfall ausgewertet. Durch die Schulung sollten sie in Projektstufe 2 vermindert werden. Hier ergab sich aber kein eindeutiger Trend zur Veränderung. Dagegen steigerte sich nach Einführung des BAUM-Schemas der Informationsgehalt in allen Übergaben von Rettungsassistenten zum Notarzt von 52,6 % auf 67,8 % (p=0,021), beim Szenario Lungenembolie wurde sogar eine Steigerung von 77,1 % erreicht. Konklusion: Die kurzen Schulungen zur Kommunikation während eines Rettungsdiensteinsatzes blieben in ihrer Effizienz hinter den Erwartungen zurück. Hier muss davon ausgegangen werden, dass andere Faktoren wie unterschiedliche Vorkenntnisse der Probanden bezüglich der Kommunikationsfähigkeit die Ursache waren. Die Patientenübergabe nach Einführung des BAUM-Schemas konnte dagegen nachweislich verbessert werden. Es führte nicht nur zu einer inhaltlichen Vervollständigung, sondern bot dem Rettungsassistenten gleichzeitig eine Gliederung zur Wiedergabe. Somit war eine sinnvolle Strukturierung der Informationen über den Patienten erreichbar. Es wurde damit dem Notarzt ermöglicht, mehr Informationen über den Patienten zu erhalten und mehr über die Lage am Notfallort zu erfahren.
Unter meinen nassen Füßen warmer Stein. Schritt für Schritt hinterlasse ich meine Spuren auf dem Boden, auf dem bereits die Fußabdrücke anderer Badender, die vor mir diesen Raum betreten haben, die Richtung weisen. Eine breitstufige flache Treppe führt nach unten zu den Wasserbecken. Hier nimmt die Nässe unter den Füßen zu. Ganze Pfade von Fußspuren ziehen sich über den Boden, von denen einzelne Wege abzweigen, sich verlaufen, im Nichts enden. Mein Körper gleitet in das Wasser, das sich blau von den grauen Wänden des Beckens abhebt. Mauern aus steinernen Schichten, die sich bis in die Höhe ziehen. Von oben fällt Sonnenlicht ein. Und doch ist es hier dunkel. Ein Raum im Innern, der sich im Anblick von Himmel und Wolken vom Außen ab- und eingegrenzt zeigt. Durch kleine quadratische Fensterausschnitte in den Mauern des Gebäudes wird der Blick in die Landschaft frei. In Stein gefasste Bilder vom Steilhang, von den Dächern des Dorfes, von himmelhohen Bergen.
In this thesis, we studied the single impurity Anderson model and developed a new and fast impurity solver for the dynamical mean field theory (DMFT). Using this new impurity solver, we studied the Hubbard model and periodic Anderson model for various parameters. This work is motivated by the fact that the dynamical mean field theory is widely used for the studies of strongly correlated systems, and the most frequently used methods, e.g. the quantum Monte-Carlo method (QMC), and the exact digonalization method are much CPU time consuming and usually limited by the available computers. Therefore, a fast and reliable impurity solver is needed. This new impurity solver was explored based on the equation-of-motion method (also called Green's function and decoupling method in some literature). Using the retarded Green's function, we first derived the equations of motion of Green's functions. Then, we employed a decoupling scheme to close the equations. By solving self-consistently the obtained closed set of integral equations, we obtained the single particle Green's function for the single impurity Anderson model. After that, the single impurity Anderson model was solved along with self-consistency conditions within the framework of DMFT. In this work, we studied and compared two decoupling schemes. Moreover, we also derived possible higher order approximations which will be tested in future work. Besides the theoretical work, we tested the method in numerical calculations. The integral equations are first solved by iterative methods with linear mixing and Broyden mixing, respectively. However, these two methods are not sufficient for finding the self-consistent solutions of the DMFT equations because converged results are difficult to obtain. Moreover, the computing speed of the two methods is also not satisfactory. Especially the iterative method with linear mixing costs always a lot of CPU time due to the required small mixing. Hence, we developed a new method, which is a combination of genetic algorithm and iterative method. This new method converges very fast and removes artifacts appearing in the results from the iterative method with linear and Broyden mixing. It can directly operate on the real axis, where no numerical error from the high frequency tail corrections and the analytical continuation is introduced. In addition, our new technique strongly improves the precision of the numerical results by removing the broadening. With this newly developed impurity solver and numerical technique, we studied the single impurity Anderson model, the single band Hubbard model and the periodic Anderson model with arbitrary spin and orbital degeneracy N on the real axis. For the single impurity Anderson model, the spectral functions are calculated for the infinite and finite Coulomb interaction strength. We also studied the spectral functions in dependence of the parameters of impurity position and hybridization. For the Hubbard model, we studied the bandwidth control and filling control Mott metal-insulator transition for spin and orbital degeneracy N = 2. It gives qualitatively the critical value of Coulomb interaction strength for the Mott metal-insulator transition, and the spectral functions which are comparable to those obtained in QMC and numerical renormalization group methods. We also studied the quasiparticle weight and the self-energy in metallic states. The latter shows almost Fermi liquid behavior. At last we calculated the densities of states for the Hubbard model with arbitrary spin and orbital degeneracy N. The periodic Anderson model (PAM) is also studied as another important lattice model. It was solved for various combinations of parameters: the Coulomb interaction strength, the impurity position, the center position of the conduction band, the hybridization, the spin and orbital degeneracy. The PAM results represents the physics of impurities in a metal. In short, our method works for the Hubbard model and the periodic Anderson model in a large range of parameters, and gives good results. Therefore, our impurity solver could be very useful in calculations within LDA+DMFT. Finally, we also made a preliminary investigation of the multi-band system based on the success in single band case. We first studied the two-band system in a simplified treatment by neglecting the interaction between the two bands through the bath. This has given promising numerical results for the two-band Hubbard model. Moreover, we have studied theoretically the two-band system with mean field approximation and Hubbard-I approximation in dealing with the higher order cross Green's functions which are related to both the two bands. In the mean field approximation, we even generalized the two-band system to arbitrary M=N/2 band system. Potential improvement can be carried out on the basis of this work.
Bei der vorliegenden prospektiven und verblindeten klinischen Vergleichsstudie wurde die Wirkung prophylaktisch inhalierten Iloprosts bei 40 Patienten ohne bekannte pulmonale Hypertonie untersucht, die sich einer elektiven chirurgischen Revaskularisierung der Koronargefäße unter Verwendung einer extrakorporalen Zirkulation (EKZ) unterzogen. Bei derartigen Operationen kommt es regelhaft zu einer generalisierten Entzündungsreaktion gefolgt von einer Rechtsherzbelastung unterschiedlichen Ausmaßes, was den postoperativen Verlauf teilweise erheblich kompliziert. Zur Therapie einer in diesem Rahmen aufgetretenen Rechtsherzbelastung hat sich inhaliertes Iloprost bereits vielfach als sehr wirksam erwiesen. Zusätzlich ist seit einiger Zeit auch eine antiinflammatorische Wirkung von Iloprost bekannt. Zielsetzung dieser Studie war es daher herauszufinden, ob auch die prophylaktische Applikation eine vorteilhafte Wirkung auf perioperative Hämodynamik und Oxygenierung sowie auf perioperative Inflammationsreaktion zeigen kann. Dazu wurde vor EKZ 20 Patienten 10µg aerosolisiertes Iloprost per inhalationem appliziert, 20 Patienten der Kontrollgruppe inhalierten 0,9%ige NaCl–Lösung. Nach Ende der EKZ wurden hämodynamische Parameter mittels Pulskonturanalyse (PiCCO®) und dessen Rechtsherz–Erweiterungsmonitors (VoLEF®) protokolliert sowie arterielle und gemischtvenöse Blutgasanalysen durchgeführt. Weiterhin wurden pro– und antiinflammatorische Zytokine (Interleukin–1beta, 6, 8 und 10 sowie Tumor–Nekrose–Faktor alpha) in Blutplasma und bronchoalveolärer Lavageflüssigkeit bestimmt Die Ergebnisse bei den meisten beobachteten Parametern in Studien– und Kontrollguppe unterschieden sich nicht signifikant voneinander. Jedoch zeigte sich in der Studiengruppe ein erhöhtes HZV sowie ein höherer kardialer Funktionsindex als Marker der Inotropie bei gleichzeitig niedrigerem systemischem Gefäßwiderstand. Da diese Wirkung nach Ende der üblichen Wirkdauer von Iloprost auftrat, interpretieren wir dies als einen Hinweis auf eine verbesserte hämodynamische Stabilität durch die prophylaktische Inhalation von Iloprost. Ein weiteres Ergebnis war ein etwas besseres Sauerstoffangebot in der Studiengruppe gegen Ende der Untersuchung. Die Analyse der Zytokinbestimmungen aus Blutplasma und Bronchialsekret konnte keine signifikanten Unterschiede zwischen den beiden Gruppen zeigen, eine antiinflammatorische Wirkung inhalierten Iloprosts konnte hier nicht dargestellt werden. Auch eine relevante Rechtsherzbelastung wurde nicht beobachtet. Da inhaliertes Iloprost seine vorteilhafte Wirkung auf postoperative Hämodynamik und kardiale Pumpleistung vor allem durch Senkung pathologisch erhöhter intrapulmonaler Widerstände entfaltet und eine antiinflammatorische Wirkung erst bei einer Inflammation zum Tragen kommen kann, ist zu erwägen ob nicht der inflammatorische Reiz bei dem untersuchten verhältnismäßig gesunden Patientenkollektiv zu gering war, um die vermuteten Effekte zu zeigen. Im Verlauf der Studie ist kein schwerer Zwischenfall aufgetreten, auch konnte kein nachteiliger Effekt prophylaktisch inhalierten Iloprosts bei dem vorliegenden Patientenkollektiv nachgewiesen werden. Eine Studie, die die Auswirkung von inhaliertem Iloprost auf Hämodynamik, Oxygenierung und Inflammation an kardial vorbelasteten Patienten mit langer Operations– und EKZ–Dauer untersucht, erscheint daher sinnvoll.
Die vorliegende Arbeit befasste sich in erster Linie mit der Regulation des P2X2 Rezeptors (P2X2R) durch Phosphoinositide (PI). P2X Rezeptoren sind durch extrazelluläres ATP aktivierte Kationenkanäle, die ubiquitär unter Vertebraten, v. a. im zentralen wie peripheren Nervensystem exprimiert werden. Bis heute sind 7 verschiedene Untereinheiten dieser Rezeptorfamilie bekannt, die nach homo- oder heterotrimerer Assemblierung unterschiedliche funktionelle Phänotypen ausbilden. Die P2X Rezeptoren sind an einer Vielzahl von physiologischen und pathophysiologischen Prozessen beteiligt. Für ihre Beteiligung am zellulären Signalgeschehen wurde in der Vergangenheit der Begriff der purinergen Signaltransduktion geprägt. PI4,5P2 ist ein zelluläres, an der Innenseite der Plasmamembran verankertes Phospholipid, dem zahlreiche, essentielle Funktionen zukommen. Dass es auch Signalfunktion besitzen kann, wurde erst spät (1980) bekannt; dass es darüber hinaus zudem membranäre Transportsysteme reguliert, konnte erst in den letzten Jahren gezeigt werden. Die ersten Kanäle, für die eine Phosphoniositid (PI)-Beeinflussung nachgewiesen wurde, waren die einwärts gleichrichtenden K+-Kanäle. 2006 wurden die ersten vorläufigen Hinweise publiziert, dass auch die Kanalfunktion der P2X Rezeptoren durch Phosphoinositide beeinflusst werden kann. Darauf aufbauend wurde in der vorliegenden Arbeit der P2X2R nach Expression in Xenopus Oozyten elektrophysiologisch auf eine mögliche Regulation durch PIPns untersucht. Um die in der Oozyte vorliegenden PI-Level gezielt während der Messung ändern zu können, wurde die spannungsgesteuerte Phosphoinositid-Phosphatase Ci-VSP coexprimiert. Ci-VSP, die der PTEN-Phosphatase strukturell sehr ähnlich ist, wurde 2005 aus der Schlauchascidie Ciona intestinalis kloniert. In der veröffentlichten Klonierungsarbeit wurde bereits gezeigt, dass Ci-VSP in der Lage ist, bekannte PI4,5P2-sensitive Membrankanäle, wie z. B. bestimmte K+-Kanäle, spannungsabhängig zu inhibieren. Es konnte in TEVC-Experimenten gezeigt werden, dass die durch Depolarisation induzierte Aktivierung dieser Phosphatase den P2X2 Rezeptorstrom in seiner Desensibilisierung sowohl beschleunigt als auch verstärkt. Dieser Effekt war spannungsabhängig und nahm mit höherer Depolarisation zu. Die ermittelte Spannungsabhängigkeit stimmte dabei mit dem sensitiven Potentialbereich der spannungsgesteuerten Ci-VSP-Domäne, gemessen an ihren gating-Strömen, überein. Der „Ci-VSP-Effekt“ auf den P2X Rezeptor konnte nur in Anwesenheit von ATP, d.h. bei aktiviertem Rezeptor, beobachtet werden. Wurden die Oozyten mit Wortmannin, einem PI4-Kinase(PI4K)-Inhibitor, behandelt, zeigte sich eine vergleichbare Veränderung des Rezeptorstroms. Eine PI4K-Inhibition zielt demnach offensichtlich auf die gleichen Regulationsmechanismen wie die Ci-VSP-Aktivierung. In weiterführenden zellfreien Patch Clamp-Messungen an Oozytenmembranen wurden sowohl Einzelkanal- als auch makroskopische Ströme des P2X2R unter Einfluss verschiedener, intrazellulär verabreichter PIs und PI-beeinflussender Enzyme untersucht. Einzig die Zugabe von PI4,5P2 hatte einen deutlich aktivierenden Einfluss auf den makroskopischen Rezeptorstrom, andere getestete PIs (wie auch PI3-Kinase und PTEN-Phosphatase) zeigten keinerlei Wirkung. Vergleichbare Ergebnisse konnten in vorläufigen Einzelkanal-Messungen an diesem Rezeptor Subtyp beobachtet werden. Da die PI4-Kinase offensichtlich an der beobachteten Beeinflussung der P2X2R Desensibilisierung beteiligt ist, wurde die P2X2-Rezeptorsequenz auf potentielle - über sogenannte SH3-Epitope vermittelte - PI4K-Interaktionsbereiche hin untersucht. Diese SH3-Epitope kommen in vielen zellulären Proteinen vor, um Protein-Protein-Interaktionen zu vermitteln. Nach Sequenzanalyse des maßgeblich am Desensibilisierungsgeschehen beteiligten C-Terminus des P2X2R konnte im distalen Teil ein SH3-Bindungsmotiv lokalisiert werden, das daraufhin durch gerichtete Mutagenese (P2X2-P451A/P454A) unwirksam gemacht wurde. Dieser mutierte Rezeptor verhielt sich in seiner Desensibilisierung wie der Wildtyp nach Wortmannin-Behandlung, zeigte also eine intrinsisch verstärkte Desensibilisierung. Eine Wortmannin-Behandlung der Oozyten, die den mutierten Rezeptor exprimierten, führte hingegen zu keiner weiteren Beeinflussung des Rezeptorstroms. Somit konnte letztlich der Schluss gezogen werden, dass die PI4K, und das mit ihr in direkter Verbindung stehende PI4,5P2, einen maßgeblichen Einfluss auf das Desensibilisierungsverhalten des P2X2R hat. Auf Basis der erarbeiteten Befunde wurde ein kinetisches Reaktionsmodell des P2X2R erstellt, das bisher aufgestellte Modelle mit den Ergebnissen dieser Arbeit vereint, aber auch in teilweisem Gegensatz zu dem von FUJIWARA & KUBO [2006] steht. Des Weiteren wurde im Verlauf dieser Arbeit die reversible Inhibition des P2X2R durch eine Reihe von Aminoglykosid-Antibiotika untersucht. Durch Analyse der Dosis-Wirkungs-Beziehungen, der Spannungs- sowie wie ATP-Konzentrations-Abhängigkeit der Inhibition konnte gezeigt werden, dass es sich dabei um einen nicht-kompetitiven open pore block handelte. Durch weiterführende Untersuchungen an einer nicht-desensibilisierenden P2X2/1 Rezeptorchimäre wurde gezeigt, dass eine Aminoglykosid-Inhibition die ATP-Dissoziation von der Rezeptorbindungsstelle signifikant verlangsamte. Dieser Befund deutet auf eine im Vergleich zum geschlossenen Zustand erhöhte Affinität des offenen Zustands für ATP hin. Neben den hier untersuchten Aminglykosiden sind bislang keine weiteren Substanzklassen bekannt, die den P2X2R durch einen derartigen Mechanismus hemmen.
Background: The c-Cbl-associated protein (CAP), also known as ponsin, localizes to focal adhesions and stress fibers and is involved in signaling events. Phosphorylation has been described for the other two members of the sorbin homology family, vinexin and ArgBP2, but no data exist about the putative phosphorylation of CAP. According to previous findings, CAP binds to tyrosine kinase c-Abl. However, it is not known if CAP is a substrate of c-Abl or other tyrosine kinases or if phosphorylation regulates its localization.
Results: We here show that CAP is Tyr phosphorylated by and interacts with both c-Abl and c-Src. One major phosphorylation site, Tyr360, and two minor contributors Tyr326 and Tyr632 were identified as Abl phosphorylation sites, whereas Src preferentially phosphorylates Tyr326 and Tyr360. Phosphorylation of CAP was not necessary for its localization to focal adhesions and stress fibers, but Tyr326Phe substitution alters the function of CAP during cell spreading.
Conclusion: This is the first demonstration of phosphorylation of CAP by any kinase. Our findings suggest that coordinated action of Src and Abl might regulate the function of CAP and reveal a functional role especially for the Src-mediated Tyr phosphorylation of CAP in cell spreading.
Im Rahmen der vorliegenden Dissertation wurde die Rolle des Transkriptionsfaktors Meis2 als Ko-Faktor in der Entwicklung des anterioren Neuralrohrs untersucht. Hierbei gaben funktionelle Untersuchungen durch Fehl- und Überexpressionsstudien mittels in ovo Mikroelektroporation im Hühnchenembryo, Aufschluss über eine besondere Rolle von Meis2 bei der Spezifizierung und Entwicklung des Tectum opticums. Überdies führten bio-chemische Untersuchungen zur Identifizierung neuer, bislang noch nicht beschriebener Interaktionspartner von Meis2 im sich entwickelnden optischen Tektum und in den Anlagen der Augen. Diese Untersuchungen geben einen weiteren Einblick in die Funktionsweise von Meis2 als Ko-Transkriptionsfaktor. Zusammengefasst lieferten die Untersuchungen der vorliegenden Arbeit folgende Erkenntnisse: I) Im Mittelhirn ist Meis2-Expression unter den bislang beschriebenen Regulatoren der Mittelhirnentwicklung einzigartig: es ist von Beginn an nicht dynamisch und kennzeichnet ausschließlich die dorsalen Alarplatten des Mittelhirns, den Bereich des zukünftigen optischen Tektums (Kapitel 3.1). Diese Expression unterliegt einer strikten negativen Regulation durch sezernierte Moleküle und Transkriptionsfaktoren der benachbarten Regionen des Neuralrohrs (Kapitel 3.2). II) Meis2 ist für tektale Entwicklung erforderlich: Die Überexpression des dominant negativ wirkenden Konstruktes Meis2EnR störte die Entwicklung tektumspezifischer Strukturen sowohl in der frühen als auch in der späteren Entwicklung (Kapitel 3.3.1 und 3.3.2). Zudem kam es zur Unterdrückung der tektalen Gene ephrinB1 und Dbx1 (Kapitel 3.3.3 und 3.3.4). III) Meis2 ist für tektale Entwicklung ausreichend: Die Fehlexpression von Meis2 führte zur Induktion und Entwicklung ektopischer tektaler Strukturen im Dienzephalon (Kapitel 3.3.5). Dabei führte Meis2 bereits 24 h nach Fehlexpression zur Transdifferenzierung des dienzephalischen in mesenzephalisches Zellschicksal, veränderte jedoch nicht das Schick-sal des metenzephalischen Gewebes (Kapitel 3.3.7). IV) Bei der Induktion tektaler Strukturen ist Meis2 nicht Bestandteil des regulatorischen Netzwerks des Mittel-Hinterhirn Organisators (MHO), eines sekundären Organisators, welcher die Entwicklung der Mittel-Hinterhirn Region steuert (Kapitel 3.3.8). V) Meis2 bildet jedoch im Mittelhirn in vivo Komplexe mit Otx2, einem Schlüsselmolekül zur Spezifizierung des anterioren Neuralrohrs (Kapitel 3.4.1 - 3.4.3). VI) Meis2 kann in vitro durch Bindung an Otx2 einer Grg4/Tle4-vermittelten Unter-drückung der transkriptionellen Aktivität von Otx2 entgegenwirken (Kapitel 3.4.4). Otx2 kann, wie bereits in Arbeiten anderer Labors beschrieben, kontext-abhängig entweder als transkriptioneller Repressor oder Aktivator wirken. Die in dieser Arbeit dargestellten Ergebnisse zeigen daher einen möglichen molekularen Mechanismus auf, wie durch zeitlich und räumlich kontrollierte Bindung eines Ko-Aktivators an Otx2 dessen transkrip-tionelle Aktivität wieder hergestellt werden kann. Die Ergebnisse dieser Arbeit beschreiben zum ersten Mal einen Transkriptionsfaktor, der unabhängig vom regulatorischen Netzwerk des MHO, die Entwicklung des optischen Tektums induziert. Sie liefern somit ein neuartiges mögliches Modell zur Spezifizierung anteriorer Hirnstrukturen: Die Induktion tektaler Entwicklung erfolgt nach Etablierung der Mittel-Hinterhirn Region durch Meis2, einem tektumspezifischen Ko-Faktor von Otx2. VII) Meis2 bildet, im sich entwickelnden Mittelhirn, auch Komplexe mit den beiden Regulatoren der Tektumentwicklung Pax3 und Pax7 (Kapitel 3.4.5). VIII) Außerdem konnten im Rahmen dieser Arbeit zwei weitere mögliche Interaktions-partner von Meis2 in den Anlagen der Augen identifiziert werden: Pax6, einem „master control gene“ der Augenentwicklung (Kapitel 3.4.6) und das Enzym Parp-1 (Kapitel 3.4.7), einem weit verbreiteten und vielseitigen Regulator der Genexpression. Diese Ergebnisse liefern Hinweise auf weitere wichtige Funktionen des Ko-Transkriptions-faktors Meis2 in der Entwicklung des anterioren Zentralnervensystems.
Factsheet Bioenergie
(2009)
Bioenergie und insbesondere Biokraftstoffe haben ein turbulentes Auf und Ab hinter sich. „Teller oder Tank“ ist ein oft genanntes Schlagwort. Bei der Bioenergie geht es aber nicht um ein pauschales ja oder nein. Der WBGU zeigt in seinem aktuellen Gutachten „Zukunftsfähige Bioenergie und nachhaltige Landnutzung“ (2009), dass für die Bewertung entscheidend ist, wie Bioenergie produziert oder genutzt wird.
Immunsuppressiva sind essentiell für die allogene Organtransplantation. Graff et al konnten in drei vorangegangenen Studien zeigen, dass Immunsuppressiva zu einer verstärkten Thrombozytenaktivierung führen. Diese ist für die verschiedenen Substanzen unterschiedlich stark ausgeprägt. Eine verstärkte Thrombozytenaktivierung könnte zu vermehrten kardiovaskulären Ereignissen führen. Insbesondere bei nierentransplantierten Patienten ist das kardiovaskuläre Risiko ohnehin deutlich erhöht. Es stellt sich die Frage ob diese medikamentös induzierte Plättchenaktivierung als Ko-Faktor kardiovaskulärer Ereignisse bei nierentransplantierten anzusehen ist. Im Vorfeld dieser Studie wurden in den Studien NTX, RAPA und PLANT bei insgesamt 176 nierentransplantierten Patienten mit einer Mono-Immunsuppression flowzytometrische Plättchenfunktionsmessungen durchgeführt, dabei wurden insbesondere der Degranulationsmarker CD62 und der aktivierte GP IIb/IIIa-Rezeptor PAC-1 gemessen. Diese Ergebnisse wurden in Relation zum Mittelwert der jeweiligen Kontrollgruppen gesetzt: Messwert(Patient) / Mittelwert(Gesunde_Kontrolle) Diese relativen Plättchenfunktionswerte waren zwischen den Studien vergleichbar. Des Weiteren wurden epidemiologische Eckdaten und klinische Endpunkte bis zu 5 Jahre nach der Thrombozytenmessung erfasst, im Mittel 3,7 Jahre. Aufgrund des Studiendesigns der vorangegangenen Studien wurde hier ein Kollektiv mit relativ niedrigem kardiovaskulärem Risiko untersucht, jedoch sollte durch diese Reduktion klassischer Risikofaktoren der Einfluss der Plättchenaktivität besser sichtbar sein. Die retrospektive Analyse untersuchte ob die Plättchenfunktionsparameter CD62 und PAC-1 als prädiktiver Marker für kardiovaskuläre Ereignisse geeignet sind. Insgesamt traten seit den Messungen 21 kardiovaskuläre Ereignisse auf, davon 9 akute. Es gab keine signifikanten Unterschiede zwischen den Werten bei Patienten mit Ereignissen und denen ohne Ereignis: Bei CD62 (baseline) lag der Mittelwert bei 2,82±1,9 mit Ereignis vs. 2,73±1,47 ohne, für PAC-1 bei 1,76 ±1,97 vs. 1,93±1,53. Nach Aktivierung mit TRAP lag der Mittelwert für CD62 bei Ereignispatienten bei 1,57±0,88 vs. 1,76±0,83, für PAC-1 bei 1,56±1,65 vs. 1,44±1,04. In einem weiteren Schritt wurden die Patienten nach dem Ausmaß der Plättchenaktivierung klassifiziert, als Cut-Off-Werte wurden die Mittelwerte und Mediane der jeweiligen Plättchenfunktion aller Patienten gewählt, ferner noch willkürlich eine 3- bzw 5-fache Aktivierung gegenüber den gesunden Kontrollen. Hierbei wurden in den Gruppen mit hohen Funktionswerten nicht signifikant mehr Ereignisse beobachtet als in den Gruppen mit niedrigen Werten. In einer daraufhin durchgeführten Time-to-event-Analyse nach Kaplan-Meyer zeigte sich allerdings für CD62 (baseline) > 5 ein früheres Eintreten kardiovaskulärer Ereignisse, im Mittel 47,6 vs. 69,9 Monate, p = 0,05. Als Risikofaktoren in dieser Studie erwiesen sich insbesondere das Alter und das Alter bei Transplantation, letzteres erwies sich in einer logistischen Regressionsanalyse als der wichtigster Faktor. Dies ist nach unserem Wissen die erste Untersuchung, die den prädiktiven Wert von Thrombozyten-gebundenem CD62 sowie von PAC-1 für kardiovaskuläre Ereignisse evaluiert. Es ergibt sich kein Hinweis, dass diese Marker einen prädiktiven Wert haben. Somit erscheint auch eine direkte pharmakologische Beeinflussung der Thrombozytenfunktion oder eine Veränderung der Immunsuppression nicht wegweisend, um die Inzidenz kardiovaskulärer Ereignisse bei nierentransplantierten Patienten zu senken.
Von Friedrich von Matthisson (1761-1831), „dem Landschaftsmaler unter den Dichtern, dem Sänger der Elegien und Mondscheinnächte, der Frühlingsbilder und Elfentänze, einem der Lieblinge unserer Lyrik“, wie das Damen Conversations Lexikon einige Jahre nach seinem Tod formuliert, publiziert das Goethezeitportal die Gedichte „Elysium“ und „Der Genfersee“. Beigefügt sind die Kritiken von Wieland und Schiller, Buchschmuck und Illustrationen sowie eine Kurzbiografie des Dichters.
Die „Wunderbaren Reisen zu Wasser und zu Lande, Feldzüge und lustige Abenteuer des Freiherrn von Münchhausen, wie er dieselben bei der Flasche im Zirkel seiner Freunde selbst zu erzählen pflegt“, die sprichwörtlich gewordenen „Münchhausiaden“, werden im Goethezeitportal in Illustrationen verschiedener Künstler vorgestellt. Die erste Postkartenserie von Oskar von Herrfurth (1862-1913) wird hier durch eine zweite Folge mit weiteren 6 Lügengeschichten ergänzt. Wiederum gelingen dem Künstler effektvolle und witzige Umsetzungen ins Bild.
„Die Entstehungsgeschichte dieses Totentanzes dokumentiert die Umstrittenheit der Todesthematik im späten 18. Jahrhundert. Chodowiecki versuchte bereits 1780 erfolglos eine entsprechende Bildfolge zu veröffentlichen, stellte dieses Vorhaben nach verschiedenen Absagen für mehr als zehn Jahre zurück, stieß dann aber immer noch auf Widerstand.“ (Ulli Wunderlich) Schließlich gelang die Publikation in einem Kalender auf das Jahr 1791. Das Goethezeitportal publiziert die Kupferstiche mit den kurzen Beschreibungen, die der Künstlers in einem Brief gab, sowie den gedruckten Erklärungen im Kalender.
Das Werk „Freund Heins Erscheinungen in Holbeins Manier“, erschienen 1785 in Winterthur, vereinigt einen Totentanz des Schweizer Malers und Radierers Johann Rudolf Schellenberg in 25 Kupfern mit Texten des Weimarer Schriftstellers Johann Karl August Musäus. Innovativ sind beide Teile, die Motive der Blätter wie die Vers-Prosa-Mischung der Texte. Das Werk, von dem das Goethezeitportal eine Auswahl bietet, ist eine der wenigen Totentanzdarstellungen der Zeit.
Die Burg „Weibertreu“ (bei Weinsberg) verdankt ihren Namen einer „Weiberlist“. Die Frauen in der belagerten Feste nutzten ein Kaiserwort, das ihnen freien Abzug mit allem, was sie tragen können, versprach, und nahmen als ihr kostbarstes Gut ihre Männer Huckepack. Die Sage hat Bürger und Chamisso zu Balladen angeregt. Der schwäbische Dichter Justinus Kerner, der am Fuße der Weibertreu sein Heim hatte, sorgte sich um die Erhaltung der Ruine und regte zu diesem Zweck die Bildung eines Frauenvereins an, dem die Burg vom König von Württemberg geschenkt wurde. So wurde Weibertreu zu einem „romantischen Wallfahrtsort“. Das Goethezeitportal publiziert eine Auswahl von Ansichten, Historienbildern und Texten.
Mit der vorgelegten Dissertation wird ein Beitrag zur Diskussion um Beschäftigungssicherung unter veränderten globalen und betrieblichen Beziehungen geleistet. Aufgezeigt werden betriebliche Strategien im Umgang mit Beschäftigungskrisen in der Metall- und Elektroindustrie und der Beitrag einer aktiven Arbeitsmarktpolitik zur Sicherung von Beschäftigung. Hintergrund bilden die massiven Beschäftigungseinbrüche, insbesondere Anfang der 1990er Jahre, in der Metall- und Elektroindustrie. Veränderte wirtschaftliche Rahmenbedingungen im Verlauf des Strukturwandels führten zu einer Umorientierung bei den Unternehmens- und Managementstrategien, um auf veränderte Marktanforderungen und verschärfte Wettbewerbsbedingungen zu reagieren und auch weiterhin Gewinnspannen realisieren zu können. Neue Reorganisationskonzepte in den Unternehmen und der zunehmende Druck der von Shareholder Value-Strategien ausgeht, führen immer wieder zu unternehmerischen Anpassungsstrategien, die mit Stelleneinsparungen einhergehen. Am Ende betrieblicher Reorganisation steht häufig der Verlust von Arbeitsplätzen. Allein der Blick auf das Endresultat Personalabbau reicht allerdings nicht aus, um die Auswirkungen dieser Maßnahmen auf Betrieb, Beschäftigte und nicht zuletzt den Arbeitsmarkt erfassen zu können. Ziel der Arbeit ist es, anhand der Analyse von vier Fallstudien Ansatzpunkte dafür zu finden, wie Prozesse im Rahmen von Beschäftigungsabbau beeinflusst und gestaltet werden können. Dabei werden neben betriebsinternen Möglichkeiten der Beschäftigungssicherung ebenfalls Beschäftigungsperspektiven in der Region in den Blick genommen. Für diese Studie wurde ein disziplinenübergreifender Ansatz gewählt, in dem Elemente der Industriesoziologie und der Arbeitsmarktforschung integriert sind. Im Bereich der Industriesoziologie wird auf die Arbeitspolitik und damit einen handlungsorientierten Ansatz der Industriesoziologie zurückgegriffen. Aus dem Bereich der Arbeitsmarktforschung dient der segmentationstheoretische Ansatz als theoretische Grundlage, um die Strukturierung des Arbeitsmarktes und ihre Verfestigung aufzeigen zu können. Präventive Beschäftigungssicherung zu untersuchen setzt voraus, die Grenzen zwischen industriesoziologischen und arbeitsmarktpolitischen Fragestellungen zu überschreiten. Diese Forschungsperspektive ermöglicht es, den in der Regel zu engen Blick auf die Bestandssicherung der vom Abbau bedrohten Arbeitsplätze zu erweitern und ihn für die Beschäftigungsperspektiven im Unternehmen selbst und über das Unternehmen hinaus zu öffnen.
Trotz der Potenziale, die der Einsatz von E-Learning-Angeboten in der Hochschullehre bietet, werden diese häufig noch immer in Eigeninitiative einiger weniger Lehrender eingesetzt, so dass es zu keiner flächendeckenden Bereitstellung der Angebote kommt. Die Erkenntnisse zahlreicher Förderprojekte gingen auf diese Weise in der Vergangenheit verloren. Der Aspekt der Nachhaltigkeit von E-Learning-Angeboten spielt daher in der aktuellen wissenschaftlichen Diskussion eine zentrale Rolle. Nur wenn die Nachhaltigkeit des Einsatzes der E-Learning-Angebote sichergestellt werden kann, werden sich diese auf Dauer etablieren können. Darüber hinaus stellt die nicht hierarchische Organisationsstruktur deutscher Hochschulen für die Implementierung von E-Learning-Angeboten eine besondere Herausforderung dar. In der Arbeit werden Faktoren ermittelt, die eine nachhaltige Implementierung der E-Learning-Angebote in nicht hierarchisch strukturierten Organisationen fördern. Hierzu werden durch eine Literaturrecherche die allgemein diskutierten Erfolgsfaktoren der Implementierung von E-Learning-Angeboten identifiziert und dargestellt. Ein zentraler Erfolgsfaktor wird anschließend sowohl theoriebasiert als auch empirisch analysiert. Während die theoriebasierte Analyse auf sprachkritische und managementkybernetische Grundlagen zurückgreift, wird zur empirischen Analyse eine Multiple Case Study an der Goethe-Universität Frankfurt am Main durchgeführt. Alle drei Ansätze untermauern die besondere Bedeutung dieses Erfolgsfaktors in nicht hierarchischen Organisationen. Mit diesen Ergebnissen können für zukünftige E-Learning-Initiativen Handlungsempfehlungen abgegeben werden, die einen nachhaltigen Einsatz der E-Learning-Angebote unterstützen.
The transcription factor p63 is part of the p53 protein family, which consists of three members, p53, p63 and p73. P63 shares structural similarity with all family members, but is associated to different biological functions than p53 or p73. While p53 is mainly linked to tumor suppression and p73 is connected with neuronal development, p63 has been connected to critical biological roles within ectodermal development and skin stem cell biology as well as supervision of the genetic stability of oocytes. Due to its gene structure p63 is expressed as at least six different isoforms, three of them containing a N-terminal transactivation domain. The isoforms that are of biological relevance both have a C-terminal inhibitory domain that negatively regulates the transcriptional activity. This inhibitory domain is supposed to contain two individual components of which one is internally binding and masking the transactivation domain while the other one can be sumoylated. To further investigate this domain a mutational analysis with the help of transactivation assays in SAOS2 cells was carried out to identify the critical amino acids within the inhibitory domain and the impact on transcriptional activity of TAp63alpha, the p63-isoform which is essential for the integrity of the female germline. The results of these experiments show that a stretch of approximately 13 amino acids seems to be important for the regulation of transcriptional activity in TAp63alpha, due to the increased transcriptional activity occurring in this region after mutation. Additional experiments showed that this mechanism is distinct from sumoylation, which seems to have only implications for the intracellular level of TAp63alpha. As a conclusion, the C-terminus of the Tap63alpha is essential for two different mechanisms, which control the transcriptional activity of the protein. Both regulatory elements are independent from each other and can now be restricted to certain amino acids. Activation of the wild type protein might take place in the identified region via post-translational modification. Furthermore an inhibition assay was carried out to test if the same region might have implications on the second biological relevant isoform deltaNp63alpha. The results show that the same amino acids which show an impact on transcriptional activity in Tap63alpha lead to a significant change in functional behaviour of deltaNp63alpha. There is a possibility that both proteins are regulated with opposite effects via the same mechanisms, based at the C-terminus of the p63alpha-isoforms. In both cases a modification of these residues could lead to a more opened conformation of the protein with consequences on promoter binding, which can be even important for deltaNp63alpha with respect to promoter squelching. Both alpha-isoforms seem to be regulated via the C-terminus and to elucidate if that is also the case for TAp63gamma a deletion analysis was carried out. The results show that there are also amino acids within the C-terminus of TAp63gamma, which have implications on the transcriptional activity of the protein. Therefore the C-terminus seems to play a major role for regulation of diverse p63 isoforms.
Der Verlag von K. Ad. Emil Müller in Stuttgart gab eine Serie von 12 Postkarten mit Werken des Münchner Malers Wilhelm von Kaulbach (1804-1874) heraus. In ihr finden sich 6 Illustrationen zu Werken Schillers und zwei Karten mit Goethe-Motiven. Das Goethezeitportal publiziert die gesamte Folge und fügt hinzu: Zwei Bildbeschreibungen und Figurencharakteristiken von Ernst Förster aus Kaulbachs "Schiller-Gallerie" sowie Kurzbiografien von Kaulbach und Förster.
Johann Karl August Musäus und Ludwig Bechstein : Sagen von Rübezahl ; Texte und Illustrationen
(2009)
In seinen »Volksmärchen der Deutschen« (1782-86) erzählt J. K. A. Musäus fünf Sagen von Rübezahl, dem schlesischen Berggeist. Eine davon illustrierte Ludwig Richter in einer großformatigen Radierung, die der Sächsische Kunstverein für seine Mitglieder als Jahresgabe 1848 auswählte. Das Goethezeitportal publiziert die Sage zum Vergleich auch in der Fassung von Ludwig Bechstein und fügt die bekannteste Darstellung Rübezahls, durch Moritz von Schwind um 1845, bei. Biografische Notizen mit zwei Bildnissen von Musäus ergänzen die Seite.
Die 1689 zerstörte Burg Hohenbaden beim Kurort Baden-Baden, heute eine großartige Ruine mit prachtvoller Aussicht, war mehrfach Gegenstand von Sagen und Dichtungen. Das Goethezeitportal publiziert eine Sage mit dem romantischen Motiv vom Marmorbild und Gedichte von Max von Schenkendorf (1783-1817), der als ‚Sänger’ der Befreiungskriege gegen Napoleon bekannt wurde. In diesen Gedichten verbindet sich auf exemplarische Weise die Ruinenromantik mit dem Willen zur Wiederbelebung der altdeutschen Welt und dem religiös überhöhten Aufruf zur nationalen Erneuerung.
In der Idylle „Vom alten Turmhahn“ bezieht sich Eduard Mörike auf sein Pfarrleben in dem Dorf Kleversulzbach (1834-1843). Der Text, der zu den Hauptwerken des Dichters zählt, ist von Ludwig Richter illustriert worden. Das Goethezeitportal veröffentlicht den Text mit den Illustrationen, zwei Zeichnungen Mörikes aus Kleversulzbach sowie biografische Notizen und Porträts von Dichter und Illustrator.
Tiere, alt und lästig geworden, werden aus dem Dienst gejagt oder zur Schlachtung bestimmt. Esel, Hund, Hahn und Katze, die auf solche Weise der Welt Dank erfahren, solidarisieren sich und formieren sich, indem sie ihre Kräfte zusammen legen, erfolgreich zu einer Gang der Alten und Ausgestoßenen. So etwa geht die leicht aktualisierte Geschichte von den Bremer Stadtmusikanten. Das Goethezeitportal publiziert die Fassungen aus den „Kinder- und Hausmärchen“ der Brüder Grimm und von Ludwig Bechstein, der die Geschichte um einen Bäckergesellen erweitert, der von seinem Meister vor die Tür gesetzt wird, weil er die Kundschaft nicht betrügen will. Zuletzt bilden die Tiere eine Wohn- und Lebensgemeinschaft, eine Altenkommune sozusagen. Illustriert werden die Texte durch Postkarten, darunter eine Serie von Oskar Herrfurth (1862-1934), einem beliebten Illustrator von Märchen, und das Fresko von Max Slevogt aus dem Bremer Ratskeller.
Das Weserlied (“Hier hab' ich so manches liebe Mal / mit meiner Laute gesessen …") von Franz Dingelstedt, vertont durch Gustav Pressel, erlangte volkstümliche Berühmtheit. Die schmerzliche Rückerinnerung an die unerfüllte Jugendliebe, Lautenklang und Talblick, oben die rauschenden Bäume und unten die glitzernde Welle und das brausende Wehr – all dies entspricht literarischen Gemeinplätzen bürgerlicher Empfindung. Die Seite bringt 34 Illustrationen, darunter mehrere Postkartenserien, orientiert über den Dichter und Dramaturgen Franz von Dingelstedt (1814-1881) und stellt weiterführende Weblinks bereit. Die Reihe von Volksliedern wird fortgesetzt.
Von Mai bis August 1788 wohnte Schiller in Volkstedt, in der Nähe von Rudolstadt, Ende August zog er nach Rudolstadt um. Er verkehrte im Hause Lengefeld – heute „Schillerhaus“ mit Museum - und lernte die Schwestern Charlotte und Caroline kennen und lieben. So kam es im „Rudolstädter Sommer“ 1788 – wie Biographen annehmen - zu einem „romantisch-erotischen Dreiecksverhältnis“ (Eckhard Fuhr). 1790 heiratete er Charlotte. In der Inflationszeit nach dem Ersten Weltkrieg widmete Rudolstadt den Schiller-Stätten und dem Lied von der Glocke zwei Serien Notgeld, die das Goethezeitportal mit Erläuterungen publiziert.
Die sechs Genreszenen zur Ballade „Die Glocke“ von Schiller, aus dem Verlag von L. Stottmeister in Braunschweig, verweisen durch die Aussparung des Zitat- und Textfeldes auf ihre Entstehung um 1900 (auf der Rückseite durfte nur die Adresse stehen). Wie an den Kostümen ersichtlich, lässt der Künstler die Handlung am Übergang des späten Rokoko zum Empire spielen, mischt aber auch realistisch gegebene Szenen darunter.
Der von Goethe geschätzte Maler und Zeichner Johann Heinrich Ramberg (1763-1840) war der beliebteste Lieferant von „Almanachküpferchen“ für die Taschenbücher seiner Zeit. Sein Talent gilt als „fruchtbar, beweglich, liebenswürdig“ (Max von Boehn), die Almanachkupfer werden als gefällig, launig und schalkhaft gelobt, manchmal mit vorzüglichen Charakterisierungen und bildnerischen Einfällen (wie dem aus dem Pudel sich entwickelnden Mephisto). Von den 16 Faust-Illustrationen für „Minerva. Taschenbuch für das Jahr 1828“ und 1829 werden hier 9 aus einer bibliophilen, einer Handschrift nachgebildeten, in Pergament gebundenen Ausgabe von Goethes Faust publiziert. Mit einer Kurzbiografie und 2 Bildnissen von Ramberg sowie einer Würdigung der Illustrationen durch den Kulturhistoriker Max von Boehn.
Unter den Liebigbildern, den berühmtesten und am weitesten verbreiteten Sammelbildern, erschien 1911 eine Serie von Illustrationen zur Symphoniekantate „Fausts Verdammung“ von Hector Berlioz (1803-1869). Für Berlioz, „eine künstlerische Vielfachbegabung von äußerstem Anspruch und Raffinement“ (Hans Joachim Kreutzer), wurde Goethes Faust zu einem entscheidenden Bildungserlebnis. Sein Frühwerk, „Huit scènes de Faust“ ließ er Goethe zukommen, aber der wandte sich an Zelter, der ein vernichtendes Urteil abgab. Mit „La damnation de Faust“, 1869 uraufgeführt, schuf Berlioz eine eigenständige romantische Deutung des Faust-Mythos. Das Goethezeitportal publiziert diese Bilder mit Hinweisen und Dokumenten zur Entstehung und Aufnahme des Werkes.
Die einer Handschrift nachgebildete bibliophile Faust-Ausgabe im Askanischen Verlag von 1924 enthält eine umfängliche Sammlung von Illustrationen zum Werk. Daraus publiziert das Goethezeitportal 5 wenig bekannte Holzschnitte nach Zeichnungen von Gabriel Max (1840-1915), die 1879 bzw. 1886 erstmals erschienen sind. Darunter eine hinreißende Komposition zum „Hexen-Einmaleins“. Max, der einige Jahre als Professor der Historienmalerei an der Münchner Akademie tätig war, wurde durch seine „mystische Richtung“ bekannt. Die Kritik bescheinigt ihm, dass er „das Sentimentale mit dem Grauenhaften und Nervenerregenden geschickt zu mischen versteht“. Beigefügt sind die Bezugstexte und eine Kurzbiografie von Gabriel Max.
Zu dem Volksmärchen "Der Wolf und die sieben Geislein" publiziert das Goethezeitportal die Postkartenserie des populären Malers Oskar Herrfurth (1862-1934) sowie Illustrationen von Ludwig Richter. Zur Lektüre laden ein die Texte des Volksmärchens in den Fassungen der Brüder Grimm und von Ludwig Bechstein.
Von dem populären Maler und Illustrator Oskar Herrfurth (1862-1934) publiziert das Goethezeitportal eine Postkartenserie zum Märchen vom „Schlaraffenland“. Beigefügt sind Holzstiche von Ludwig Richter. Zur Lektüre laden ein die Texte des Volksmärchens in den Fassungen der Brüder Grimm und von Ludwig Bechstein sowie das reizvolle Kinderlied „Vom Schlaraffenlande“ von Hoffmann von Fallersleben.
Elektronentransferprozesse in Pd-Komplexen 1,4-Chinon-basierter Bis(pyrazol-1-yl)methan-Liganden
(2009)
PdII-katalysierte Oxidationsreaktionen organischer Verbindungen stellen wichtige synthetische Werkzeuge dar. Um das Übergangsmetall in katalytischen Mengen einsetzen zu können ist es nötig, das im Zuge der Substratumwandlung entstehende Pd0 seinerseits wieder zu reoxidieren. Im großtechnischen Wacker-Prozess setzt man zu diesem Zweck das Redoxsystem CuII/CuI ein, welches Elektronen von Pd0 aufnimmt und sie auf molekularen Sauerstoff überträgt, so dass als einziges Abfallprodukt Wasser entsteht. Da beim Einsatz von Kupfersalzen allerdings Probleme durch unerwünschte Nebenreaktionen auftreten können, stieß man auf der Suche nach alternativen Redox-Cokatalysatoren auf 1,4-Benzochinon. Man nimmt an, dass der Reoxidation von Pd0 eine Koordination des 1,4-Benzochinons an das Übergangsmetallatom vorausgeht. Vor diesem Hintergrund wurde in der vorliegenden Arbeit ein 1,4-Naphthochinon-basierter Bis(pyrazol-1-yl)methan-Ligand entwickelt, dessen Pd-Komplex das katalytisch aktive Übergangsmetallatom und den Redox-Cokatalysator in einem einzigen Molekül vereint. Eine direkte intra- und intermolekulare 1,4-Chinon/Pd-Koordination wird durch das Ligandendesign jedoch verhindert. Anhand dieses Modellsystems sollte dann untersucht werden, ob alternativ zu den etablierten mechanistischen Vorstellungen zum Ablauf des Elektronentransfers, eine durch den Raum verlaufende elektronische Kommunikation der beiden redoxaktiven Zentren möglich ist. Sollte das der Fall sein, wäre man künftig bei der Entwicklung und Optimierung solcher Hybridkatalysatoren nicht auf die Miteinbeziehung des 1,4-Chinons in die Koordinationssphäre des Übergangsmetallions angewiesen, sondern könnte diese ausschließlich an die koordinationschemischen Erfordernisse des Pd-Zentrums anpassen. Nachdem das Modellsystem zur Verfügung stand, galt es im ersten Schritt, die elektrochemischen Eigenschaften von freiem Ligand und PdII-Komplex mittels Cyclovoltammetrie zu bestimmen. Mit Kenntnis der Redoxpotentiale wurden daraufhin elektrochemisch selektiv reduzierte Spezies des Liganden bzw. seines PdII-Komplexes erzeugt und deren UV-vis-Spektren in situ aufgenommen. Letztere lieferten nötige Referenzwerte für die folgenden Experimente. Auf Grundlage dieser Vorarbeiten konnte nun die elektronische Kommunikation der redoxaktiven Zentren in dem Komplex untersucht werden. Da im Modellsystem zunächst beide redoxaktive Zentren in der oxidierten Form vorliegen, war es erforderlich, das PdII-Ion selektiv zu reduzieren, um dem System an der richtigen Stelle Elektronen zuzuführen. Als Reduktionsmittel wurde Triethylamin gewählt; entsprechende Vergleichsexperimente stellten zuvor sicher, dass dieses keine Nebenreaktionen mit dem Liganden selbst eingeht. Im Zuge der Reduktion des PdII-Zentrums ist eine Änderung der UV-vis-spektroskopischen Eigenschaften des Liganden zu beobachten. Ein Vergleich der erhaltenen Daten mit den Referenzspektren der elektrochemisch erzeugten reduzierten Spezies legt den Schluss nahe, dass nach Überführung des PdII-Zentrums in die nullwertige Stufe der durch den Raum verlaufende Übergang eines Elektrons auf den 1,4-Naphthochinon-basierten Liganden erfolgt. Das hierbei entstehende 1,4-Naphthosemichinonradikal wurde zusätzlich ESR-spektroskopisch nachgewiesen.
Wertherschriften
(2009)
Das Erscheinen von Goethes Briefroman "Die Leiden des jungen Werthers" 1774 wurde zum Medienereignis und Skandalon. Es erschienen Rezensionen, die das Werk überschwenglich lobten oder – vor allem als Verteidigung des Rechtes auf Freitod – skandalisierten, es kamen Nachbildungen, Umbildungen und Parodien auf den Markt, die Geschichte wurde zum Stoff von Gedichten und Dramen, Non-books – wie man heute sagen würde – ergänzten das Angebot: Werther in Bildern als Wandschmuck, auf Porzellan, als Feuerwerk etc. Werther wurde zur Kultfigur: Man kleidete sich wie Werther, wallfahrte zu seinem (bzw. Jerusalems) Grab, manch einer ließ das Büchlein seinen Freund sein und schied gar aus dem Leben mit ihm in der Tasche.
Goethes Werther im gesellschaftlichen Kontext : Rezeptionsdokumente als Interpretationshilfen
(2009)
In seinem Werther-Aufsatz von 1936 hat Lukács ein bis heute häufig wiederholtes Interpretationsmuster skizziert: Werther als »Repräsentant einer >progressiven Bourgeoisie< in der >revolutionären Periode< ihrer frühen ideologischen und ökonomischen Entwicklung«. Das Werk wird von der DDR-Germanistik einem umfassenden Geschichtsprozeß eingeordnet, der Aufklärung, Sturm und Drang und Klassik umfaßt, und bei dem es »um den Aufstieg bürgerlichen Selbstbewußtseins, das Wachstum gesellschaftlicher Einsichten und die Eroberung immer neuer poetischer Provinzen« geht. Reuter betrachtet den Roman in diesem Sinn als »Brennspiegel des gesamten sozialen und politischen Zustandes in Deutschland« des späten 18.Jahrhunderts, wobei Werther im Streben nach allseitiger Entfaltung der menschlichen Persönlichkeit ein »fortgeschrittenes bürgerliches Selbstbewußtsein« vertritt.
Die neuen Leiden des jungen W. wurden »bewußt auf Auslegbarkeit geschrieben« und irritierten die Kritiker durch »die ungeheure Breite der Assoziationsmöglichkeiten«. Durch die vier »strukturtragenden Schichten« oder Informationsebenen des Textes kommt es zu interferierenden Perspektiven: 1. die voranstehenden Dokumente (Zeitungsnotiz, drei Todesanzeigen), 2. »die szenisch-dialogisch objektivierte Erinnerungsperspektive der Eltern und Arbeitskollegen«, 3. die Kommentare Edgars »von jenseits des Jordans«, 4. »die Brechung und Verfremdung der gesellschaftlichen Beziehungen des Helden im Spiegel des Werther-Zitats und der Werther-Fabel«. Plenzdorf führt »seinen Edgar Wibeau gegen Edgar Wibeau« vor, indem er ihn aus dem Jenseits kritisch und ironisch zu sich Stellung nehmen läßt. Der Leser / Zuschauer wird vom Autor geschickt in »eine Mittelstellung zwischen Identifikation (Verständnis) und Distanz (Kritik)« manövriert, sein »Beurteilungs- und Wertungspotential« wird aktiviert.
Helicobacter pylori (H. pylori) ist ein gram-negatives, mikroaerophiles Bakterium. Es kolonisiert die menschliche Magenschleimhaut, wobei mehr als 50% der Menschheit befallen sind. Als Pathogen begünstigt es die Entstehung von Magengeschwüren und –krebs. Experimentelle Befunde deuten darauf hin, dass H. pylori während der Infektion Kontakt zu Membranproteinen der Wirtszellen aufnimmt, um ein Typ IV Sekretionssystem aufzubauen und den primären Virulenzfaktor CagA (Cytotoxin Associated Antigen A) in die Wirtszelle zu translokieren. Diese Integrine genannten Membranproteine werden bei polaren Epithelzellen allerdings bevorzugt basolateral expremiert. Außerdem können extrazellulär geschnittene E-Cadherinfragmente im Medium mit H. pylori infizierter Zellkulturen nachgewiesen werden. Beide Beobachtungen legen den Schluss nahe, dass eine Protease von H. pylori sekretiert wird und die Zell-Zell-Kontakte degradiert, um H. pylori den Zugang zur basolateralen Seite der Wirtszellen zu ermöglichen. Das vom Gen hp1019 des Stammes H. pylori 26695 codierte Protein HtrA konnte im Rahmen einer Kooperation mit dem Paul-Ehrlich-Institut in Langen im Überstand von H. pylori mit proteolytischer Aktivität nachgewiesen werden. Um den Einfluss dieser extrazellulären Protease auf die Infektion von Kulturzellen mir H. pylori zu untersuchen, sollte ein niedermolekularer Inhibitor für HtrA gefunden werden. Ein Homologiemodell als Grundlage für ein strukturbasiertes virtuelles Screening wurde berechnet, wobei die aktive Konformation der Protease DegP von Escherichia coli als Vorlage diente (PDB Identifikation 3cs0). Für einen neue, im Rahmen dieser Untersuchung entwickelten Methode wurde PocketPicker eingesetzt, um Größe und Form der die Bindetaschen auf der Proteinoberfläche vorherzusagen. Durch die komplementäre Projektion von Proteinatomtypen auf diese definierte Volumen kann so für eine von PocketPicker vorgesagte Bindetasche ein potentielles Pharmakophormodell berechnet und für Datenbanksuchen eingesetzt werden. In retrospektiven Studien konnte die Funktion dieser Berechungen für eine Auswahl an pharmakologisch wichtigen Proteinen aus verschiedenen Strukturklassen validiert werden. Dabei stellte sich vor allem eine Abhängigkeit der Güte der Modelle von der Güte der Vorhersage von PocketPicker heraus, was den Schluss zulässt, dass eine möglichst genaue Definition der Bindetasche für das Gelingen eines strukturbasierten virtuellen Screening unerlässlich ist. Für die Protease HtrA von H. pylori konnten erfolgreich drei strukturabgeleitete Pharmakophormodelle berechnet werden, wobei jeweils verschiedene von PocketPicker vorhergesagte Bindetaschen einbezogen wurden. Die Molekülkataloge der Firmen Asinex und Specs wurden nach Ähnlichkeit zu diesen Modellen sortiert und nach Begutachtung der jeweils ähnlichsten 100 Substanzen wurden 26 Substanzen ausgewählt und bestellt. In einem in vitro Assay mit der rekombinanten Protease HtrA inhibierten 6 Substanzen den Verdau eines rekombinanten Substrats. Die beste Verbindung erreichte in dem Assay eine maximale Inhibition von ca. 77 % bei einer mittleren inhibitorischen Konzentration bei halbmaximaler Inhibition (IC50) von ca. 26 µM.
The current thesis is devoted to a systematic study of fluctuations and correlations in heavy-ion collisions, which might be considered as probes for the phase transition and the critical point in the phase diagram, within the Hadron-String- Dynamics (HSD) microscopic transport approach. This is a powerful tool to study nucleus-nucleus collisions and allows to completely simulate experimental collisions on an event-by-event basis. Thus, the transport model has been used to study fluctuations and correlations including the influence of experimental acceptance as well as centrality, system size and collision energy. The comparison to experimental data can separate the effects induced by a phase transition since there is no phase transition in the HSD version used here. Firstly the centrality dependence of multiplicity fluctuations has been studied. Different centrality selections have been performed in the analysis in correspondence to the experimental situation. For the fixed target experiment NA49 events with fixed numbers of the projectile participants have been studied while in the collider experiment PHENIX centrality classes of events have been defined by the multiplicity in certain phase space region. A decrease of participant number fluctuations (and thus volume fluctuations) in more central collisions for both experiments has been obtained. Another area of this work addresses to transport model calculations of multiplicity fluctuations in nucleus-nucleus collisions as a function of colliding energy and system size. This study is in full correspondence to the experimental program of the NA61 Collaboration at the SPS. Central C+C, S+S, In+In, and Pb+Pb nuclear collisions at Elab = 10, 20, 30, 40, 80, 158 AGeV have been investigated. The expected enhanced fluctuations - attributed to the critical point and phase transition - can be observed experimentally on top of a monotonic and smooth ‘hadronic background’. These findings should be helpful for the optimal choice of collision systems and collision energies for the experimental search of the QCD critical point. Other observables are fluctuations of ratios of hadrons (e.g. pions, kaons, protons, etc.) which are not so much affected by volume fluctuations. In particular HSD results for the kaon-to-pion ratio fluctuations, which has been regarded as promising observable for a long time, are presented from low SPS energies up to high energies at RHIC. In addition to the HSD calculations statistical model is also used in terms of microcanonical, canonical and grand canonical ensembles. Further a study of the system size event-by-event fluctuations causing rapidity forward-backward correlations in relativistic heavy-ion collisions is presented. The HSD simulations reveal strong forward-backward correlations and reproduce the main qualitative features of the STAR data in A+A collisions at RHIC energies. It has been shown that strong forward-backward correlations arise due to an averaging over many different events that belong to one centrality bin. An optimization of the experimental selection of centrality classes is presented, which is relevant for the program of the NA61 collaboration at CERN, the low-energy program at RHIC, as well as future experiments at FAIR.
Die Erforschung der neuartigen Materialien BST, PZT und SBT für den Einsatz in neuartigen Speichertechnologien wie dem FeRAM besteht aus vielen unterschiedlichen Teilbereichen. Im Rahmen dieser Dissertation wurden primär zwei Hauptbereiche analysiert. Als Erstes wurden sowohl die Mechanismen der Oberflächenausbildung (Wachstumsverfahren, Prozeßparameter, Substrat Einflüsse) von einzelnen Filmen, als auch die Wechselwirkungen der Schichten untereinander und deren Auswirkung auf das Schichtsystem, untersucht. Im zweiten Schritt wurde das elektrische Verhalten, und die auftretenden Phänomene sowohl qualitativ als auch quantitativ erfaßt und bewertet. Als Elektrodenmaterial für die di/ferroelektrische Speicher kann nicht wie gewohnt dotiertes Silizium/Polysilizium verwenden werden. Da Platin den chemischen und thermischen Belastungen bei der Herstellung dieser Filme besonders gut gewachsen ist, wird es bevorzugt als Elektrode eingesetzt. Bei dem Aufbau der Pt-Elektrode erfolgt die größte Veränderung des Systems durch die RTP-Oxidation des reaktiven Titans. Die Rauhigkeit des vorher sehr fein kristallinen Ti-Films steigt auf das Vierfache bei einer gleichzeitigen Verdreifachung der Korngröße. Da in vielen Bauelementen Si oder Poly-Si in Kombination mit einer Ti/TiN-Barriere als Basis für den Pt-Film fungieren, wurde bei den nächsten Experimenten der Einfluß des Substrates und der TiN-Sputtertemperatur auf die Topologie/Morphologie der Elektrode untersucht. Nur durch Anpassung der TiN Sputterleistung, eine niedrige Substrattemperatur und der Kombination aus N2-RTP Temperung (nach TiN) und O2-Temperung (nach Pt), gelingt es die Rauhigkeit und Kristallitgrößen des entstandenen Filmsystems zu minimieren. Bei der Charakterisierung der di/ferroelektrischen Materialien BST, PZT und SBT wurden zum einen das Wachstum und die beim Aufbau der Schichten auftretenden Phänomene anhand verschiedener Abscheidungstechniken untersucht/verglichen. Zum anderen sind mehrere Schichtdicken, Schichtabfolgen und eine Reihe unterschiedlich getemperter Proben analysiert worden. Die mittels Sputtern hergestellten BST Filme belegen, dieses Material hat typischerweise ein columnares Kristallwachstum und läßt sich sehr fein kristallin aufbringen. Bei der reaktiven Abscheidung aus der Gasphase (MOCVD) hat sich schnell gezeigt, das komplexe Material System BST reagiert bereits bei Variation eines Parameters extrem unterschiedlich. So findet bei einer hohen Substrattemperatur (690°C) ein fließender Übergang vom zwei dimensionalen (2D, Frank-van der Merwe), zum drei dimensionalen (3D, Stranski-Krastanov) Wachstum statt. Wird BST bei 600°C abgeschieden, liegt von Anfang an ein gemischter 2D/3D Schichtaufbau vor, der überwiegend in einen 3D inselartigen Aufbau (Vollmer-Weber) übergeht. Senkt man die Temperatur auf 450°C, bildet sich auf der Oberfläche Haze, der durch eine instabile Gasphasenreaktion an der Oberfläche entsteht und sich hauptsächlich aus Strontium- und Bariumoxid zusammensetzt. Gesputtertes PZT besitzt im Vergleich zu BST eine um den Faktor 6 höhere Wachstumsrate, und bildet zweimal so breite Kristallite aus. Es hat eine relativ feinkörnige Struktur und seine Kristalle wachsen wie beim BST columnar auf. Die MOD Technik erzeugt einen relativ homogenen SBT-Schichtaufbau mit Korngrößen bis zu 135 nm. Erst nach dem Ferroanneal entstehen bis zu dreimal größere Kristalle, die von markanten Korngrenzen getrennt werden und große Kristallflächen mit Unterstrukturen haben. Die mit der MOCVD Methode hergestellten SBT-Proben zeigen teilweise Wachstumsphänomene in Form von Hillocks, die im EDX allerdings keine Unterschiede in der Zusammensetzung aufweisen. Die systematische Untersuchung der Wechselwirkung von Temperatur (600-800°C) und Schichtdicke (ca. 80-175 nm) bei konstanter Temperzeit hat ergeben, daß die Filme bei einem 600°C Ferroanneal kleine Hillocks besitzen, die erst ab 700°C nicht mehr zu beobachten sind. Neben der topographischen Analyse von Di- und Ferroelektrika gibt es einen zweiten sehr wichtigen Aufgabenbereich, die elektrische Charakterisierung dieser Materialien. Da alle herkömmlichen Verfahren diese Daten nur Integral erfassen können, eröffnet die Rastersondenmikroskopie hier erstmalig die Chance, sowohl Topographie als auch elektrische Parameter simultan und mit hoher Ortsauflösung (10-50 nm) zu analysieren. Die ersten Versuchsreihen wurden mit dem EFM gemacht und haben sich mit dem Polarisationsverhalten von PZT und SBT beschäftigt. Zu diesem Zweck wurde ein Experiment entwickelt, bei dem das Ferroelektrikum durch gezielte Polarisationen in zwei definierte Zustände entgegengesetzter maximaler Polarisation versetzt wird. Die Ergebnisse konnten mit dem Oberflächenpotential Mikroskop reproduziert werden, allerdings reagiert das Oberflächenpotential Mikroskop deutlich stärker auf freie Ladungen als das EFM. Um zwischen Ladungsartefakt und realer Beobachtung unterscheiden zu können, wurde ein Verfahren zur Konditionierung und Ladungsentfernung der Probe entwickelt, ohne die Probe merklich zu manipulieren. Da bei den EFM-Untersuchungen viele verschiedene elektrostatische Phänomene aufgetreten sind, ist eine generelle Betrachtung zur Fragestellung, was bildet das erhaltene EFM-Signal eigentlich ab, gemacht worden. Dazu wurde ein deutlich vereinfachtes Ladungsmodell vorgestellt, das den Polarisationsvorgang mit seinen unterschiedlichen Einzelprozessen beschreibt. Zusammenfassend ist zu sagen, daß EFM ein elektrostatisches Gesamtfeld detektiert, das aus verschiedenen Komponenten besteht, die in der Regel qualitativ und nicht quantitativ miteinander verknüpft sind. Im Gegensatz zu makroskopischen Messungen haben zeitabhängige Untersuchungen an SBT gezeigt, die abgebildete Polarisation verringert sich bereits nach wenigen Tagen signifikant. Eine Erklärung für den Signalverlust ist die Annahme, daß sich über die Zeit primär nur die SBT-Oberfläche verändert, da ihr die elektrisch und chemisch stabilisierende Pt-Elektrode fehlt. Eine weitere Überlegung geht davon aus, durch die EFM-Spitze hat eine wesentlich höhere Feldstärke auf das Ferroelektrikum eingewirkt und das Material dadurch stärker gestreßt. Die Untersuchung der temperaturabhängigen Relaxation von ferroelektrischen Filmen liefert weitere interessante Erkenntnisse. Ohne obere Pt-Elektrode kann man bereits ab 130°C einen deutlichen Polarisationsverlust beobachten (Curie-Punkt SBT: 310°C). Die Temperversuche sprechen damit für die Hypothese, durch die fehlende obere Elektrode wurde bei der Polarisation erhöhter Streß in das SBT eingeprägt und das System hat darauf mit stark beschleunigter Relaxation reagiert. Es kann jedoch nicht abschließend geklärt werden, was auf das Materialverhalten einen größeren Einfluß ausübt, die Oberflächenladungen oder die fehlende obere Pt-Elektrode. In weiteren Experimenten wurde die Bildung der ferroelektrischen Phase und deren Störungen untersucht. Versuche mit unterschiedlicher Ferroannealtemperatur bei MOD SBT-Schichten haben gezeigt, die Kristallphasenbildung wird hauptsächlich von der Annealtemperatur gesteuert. Bei einer Temperatur von 600°C wird nur eine partielle Phasenumwandlung erzielt, dagegen liegt bei 800°C eine vollständige Umwandlung in den pseudotetragonalen Perowskit vor. Die Untersuchung eines mittels MOCVD-Verfahren abgeschiedenen SBT-Films ergab eine nicht vollständig polarisierte Oberfläche. Da sich bei einer Substrattemperatur von 640°C primär eine a/b-Kristallachsenorientierung ausbildet, die Probe jedoch nur partiell polarisierbar war, ist höchstwahrscheinlich die Substrattemperatur während der Abscheidung zu niedrig gewesen. Zum Abschluß der Versuche wurde der Polarisationsbereich zunächst auf wenige Mikrometer verkleinert und schließlich sogar auf einzelne Kristalle eingeschenkt. Obwohl es gelingt, einzelne Kristalle zu polarisieren, zeigen diese Experimente deutlich die Limitierungen des EFMs auf. Die ersten Messungen mit dem Piezoresponse-SPM haben ergeben, daß es möglich ist, subkristalline Polarisationsstrukturen ohne nennenswerte Topographieartefakte und „Übersprechen“ abzubilden. Mit dem C-AFM ist in sehr hoher Orts- und Stromauflösung das Leckstromverhalten von BST, PZT und SBT untersucht worden. Da diese di- und ferroelektrischen Materialien eine polykristalline Struktur haben, treten neben Fehlertypen wie Fremdatomdefekten und Leerstellen auch noch eine Vielzahl anderer Kristallbaufehler (Versetzungen, Korngrenzen, ...) auf, die zu erhöhten Leckströmen führen. Auch die Morphologie der Filme beeinflußt das elektrische Verhalten der Materialien. Bei den als Erstes vermessenen BST-Proben ist eine starke Schichtdicken- und Feldstärken-Abhängigkeit zu beobachten. So wird das Leckstromverhalten bei dünnen BST-Proben und niedrigem Potential von extrinsischen Fehlern in Form von Fremdatomdefekten, Leerstellen und verschiedenen Kristallbaufehlern dominiert. Erhöht man allerdings die Feldstärke, so bestimmen die intrinsischen Fehler die Leckstrompfade, da durch das hohe Potential die Bandstruktur solange degradiert bis ein elektrischer Durchbruch vorliegt. Bei höheren Schichtdicken (70 nm) werden durch den intrinsischen Streß des Films hervorgerufene Leckströme erkennbar. Sie treten erst ab einem kritischen Zug- oder Druckstreßniveau in Insel/Domänen-ähnlicher Form auf, der in der topographischen Aufnahme nicht sichtbar ist. Im Gegensatz zu amorphen Materialien wie dem SiO2 spielt bei BST, PZT und SBT die Filmdicke nur eine untergeordnete Rolle, da eine partielle Dünnung nicht automatisch einen erhöhten Leckstrom zur Folge hat. Da ferroelektrische Materialien eine Leckstromgenerierung besitzen die komplexer ist, und einem anderen Zeitablauf folgt, als bei einem Dielektrikum, wurde zuerst das ferroelektrische PZT mit dem C-AFM analysiert. Die ersten Untersuchungen an einer PZT-Probe haben allerdings sehr schnell gezeigt, zwischen BST und PZT gibt es keine nennenswerten Unterschiede im Leckstromverhalten. Für die Herstellung von SBT-Schichten werden hauptsächlich das MOD und das MOCVD Verfahren verwendet. Um festzustellen welche der beiden Abscheidetechniken das bessere Leckstromverhalten hat, wurden MOD und MOCVD SBT-Filme charakterisiert. Diese Untersuchungen haben gezeigt, bei MOCVD Filmen treten die Leckströme hauptsächlich in den Bereichen auf, die leicht vereinzelte oder nicht dicht verwachsene Korngrenzen und Kristallecken besitzen. Im Vergleich dazu weisen die MOD Schichten in ähnlichen Bereichen deutlich wenigere und niedrigere Leckströme auf. Den Einfluß von Topologie und Filmdicke hat die Analyse einer mit 90 nm MOD SBT beschichteten Stufe (120 nm) belegt, da dort nur im Kantenbereich extrem erhöhte Leckströme zu beobachten sind. Das Degradationsverhalten von SBT ist außerdem auch noch dickenabhängig. Dies beweisen I/V Spektren, die bei C-AFM Messungen an unterschiedlich dicken MOD SBT-Schichten (90/180 nm) aufgenommen wurden. Es zeigt sich, speziell bei höheren Feldstärken liegt bei der dünnen SBT-Probe (90 nm) eine um den Faktor vier steilere Degradation vor.
Kaon and pion production in centrality selected minimum bias Pb+Pb collisions at 40 and 158A GeV
(2009)
Results on charged kaon and negatively charged pion production and spectra for centrality selected Pb+Pb mininimum bias events at 40 and 158A GeV have been presented in this thesis. All analysis are based on data taken by the NA49 experiment at the accelerator Super Proton Synchrotron (SPS) at the European Organization for Nuclear Research (CERN) in Geneva, Switzerland. The kaon results are based on an analysis of the mean energy loss <dE/dx> of the charged particles traversing the detector gas of the time projection chambers (TPCs). The pion results are from an analysis of all negatively charged particles h- corrected for contributions from particle decays and secondary interactions. For the dE/dx analysis of charged kaons, main TPC tracks with a total momentum between 4 and 50 GeV have been analyzed in logarithmic momentum log(p) and transverse momentum pt bins. The resulting dE/dx spectra have been fitted by the sum of 5 Gaussians, one for each main particle type (electrons, pions, kaons, protons, deuterons). The amplitude of the Gaussian used for the kaon part of the spectra has been corrected for efficiency and acceptance and the binning has been transformed to rapidity y and transverse momentum pt bins. The multiplicity dN/dy of the single rapidity bins has been derived by summing the measured range of the transverse momentum spectra and an extrapolation to full coverage with a single exponential function fitted to the measured range. The results have been combined with the mid-rapidity measurements from the time-of-flight detectors and a double Gaussian fit to the dN/dy spectra has been used for extrapolation to rapidity outside of the acceptance of the dE/dx analysis. For the h- analysis of negatively charged pions, all negatively charged tracks have been analyzed. The background from secondary reactions, particle decays, and gamma-conversions has been corrected with the VENUS event generator. The results were also corrected for efficiency and acceptance and the pt spectra were analyzed and extrapolated where necessary to derive the mean yield per rapidity bin dN/dy. The mean multiplicity <pi-> has been derived by summing up the measured dN/dy and extrapolating the rapidity spectrum with a double Gaussian fit to 4pi coverage. The results have been discussed in detail and compared to various model calculations. Microscopical models like URQMD and HSD do not describe the full complexity of Pb+Pb collisions. Especially the production of the positively charged kaons, which carry the major part of strange quarks, cannot be consistently reproduced by the model calculations. Centrality selected minimum bias Pb+Pb collisions can be described as a mixture of a high-density region of multiply colliding nucleons (core) and practically independent nucleon-nucleon collisions (corona). This leads to a smooth evolution from peripheral to central collisions. A more detailed approach derives the ensemble volume from a percolation of elementary clusters. In the percolation model all clusters are formed from coalescing strings that are assumed to decay statistically with the volume dependence of canonical strangeness suppression. The percolation model describes the measured data for top SPS and RHIC energies. At 40A GeV, the system size dependence of the relative strangeness production starts to evolve from the saturation seen at higher energies from peripheral events onwards towards a linear dependence at SIS and AGS. This change of the dependence on system size occurs in the energy region of the observed maximum of the K+ to pi ratio for central Pb+Pb collisions. Future measurements with heavy ion beam energies around this maximum at RHIC and FAIR as well as the upgraded NA49 successor experiment NA61 will further improve our understanding of quark matter and its reflection in modern heavy ion physics and theories.
Die vorliegende, in kumulativer Schreibweise verfasste Arbeit erläutert die Entwicklung, Charakterisierung und Optimierung zweier unterschiedlicher Leitstrukturen, die als Agonisten von Peroxisomen Proliferator-aktivierten Rezeptoren (PPAR) und gleichsam als duale Inhibitoren der mikrosomalen Prostaglandin E2 Synthase-1 (mPGES-1) und der 5-Lipoxygenase (5-LO) wirken. Chemisch betrachtet sind dies zum ersten die Gruppe der alpha-n-Hexyl-Pirinixinsäurederivate und zum zweiten die Gruppe der 2-(Phenylthio)-hexansäurederivate. Die Publikation zur Synthese und in vitro-pharmakologischen Charakterisierung der alpha-n-Hexyl-Pirinixinsäurederivate an PPAR (Zettl et al., QSAR & Combinatorial Science, 28:576–586, 2009) enthält einerseits die strukturelle Optimierung durch Variation der Aryl-Substitution des zentralen Pyrimidinringes der Leitstruktur und andererseits die durch Docking-Verfahren gestützte Untersuchung des Einflusses der Stereochemie auf die PPAR-Aktivierung. Letztlich konnte durch die Einführung von Biphenyl-Substituenten eine Verbesserung insbesondere der PPARalpha-Aktivität gegenüber der als strukturellen Referenz dienenden alpha-n-Hexyl-Pirinixinsäure (Rau et al., Archiv der Pharmazie, 341:191–195, 2008) erreicht werden. Mit Hilfe von präparativer enantioselektiver HPLC wurde eine ausgewählte Verbindung in ihre beiden Enantiomere getrennt. Deren in vitro-pharmakologische Charakterisierung ergab, dass das (R)-Enantiomer insbesondere bei PPARalpha als Eutomer fungiert. Dieses Ergebnis konnte mit Hilfe von Docking-Studien weiter untermauert werden. Hierbei wurde deutlich, dass die Besetzung der linken proximalen Bindetasche der PPARalpha-Liganden-Bindungs-Domäne durch den alpha-n-Hexyl-Rest lediglich im Fall einer (R)-Konfiguration optimal erfolgen kann. Die Synthese und die in vitro-pharmakologische Charakterisierung der Substanzklasse der 2-(Phenylthio)-hexansäurederivate an PPAR sind in Zettl et al., Bioorganic & Medicinal Chemistry Letters, 19: 4421-4426, 2009 zusammengefasst. Bei der Analyse der Struktur-Wirkungs-Beziehungen erwies sich die Leitstruktur als hochaktiv und sehr robust. Je nach Substitutionsmuster des lipophilen Molekülteils wurden potente selektive PPARalpha-Agonisten wie auch PPARalpha-präferenzielle duale PPARalpha/gamma-Agonisten dargestellt. Durch die Synthese von Kohlenstoff-Analoga und alpha-unsubstituierten Verbindungen wurde des Weiteren der Einfluss des Schwefelatoms und des n-Butylrestes in alpha-Position zur Carbonsäure auf die PPAR-Aktivität untersucht. Hierbei konnte gezeigt werden, dass beide Strukturelemente einen großen Beitrag zur hohen PPARalpha-Aktivität der Leitstruktur leisten. Wie auch bei den alpha-n-Hexyl-Pirinixinsäurederivaten wurde eine ausgewählte Verbindung in ihre Enantiomere getrennt und der Einfluss des Stereozentrums in alpha-Position zur Carbonsäure untersucht. Das Ergebnis bestätigte die Resultate der vorangegangenen Studie: Das (R)-Enantiomer wirkte als Eutomer, wobei der stereochemische Einfluss bei PPARalpha besonders deutlich war. Ausgewählte Synthesen und die in vitro-pharmakologische Charakterisierung von Pirinixinsäurederivaten an mPGES-1, 5-LO sowie der Cyclooxygenase (COX) sind in Koeberle und Zettl et al., Journal of Medicinal Chemistry, 51:8068–8076, 2009 publiziert. Die Arbeit beinhaltet eine umfassende Reihe an Pirinixinsäurederivaten mit Strukturvariationen in alpha-Position zur Carbonsäure und im Aryl-Substitutionsmuster des Pyrimidinringes. Hinsichtlich der alpha-Substitution zeigte sich, dass für Alkylreste eine Kettenlänge von mindestens 6 Kohlenstoffatomen für einen dualen Wirkmechanismus erforderlich ist. Als Leitstruktur für duale mPGES-1/5-LO-Inhibitoren ergab sich somit alpha-n-Hexyl-substituierte Pirinixinsäure, deren Aryl-Substitutionsmuster am zentralen Pyrimidin weiter optimiert wurde. Als vorteilhaft erwies sich die Substitution mit Biphenylresten, wodurch die Darstellung von niedrig mikromolar aktiven dualen mPGES-1/5-LO-Inhibitoren gelang. Bei der Analyse der Strukur-Wirkungs-Beziehungen von unterschiedlichen Biphenylresten zeigte sich eine hohe strukturelle Toleranz hinsichtlich der dualen inhibitorischen Aktivität an der mPGES-1 und der 5-LO. Somit stellen die alpha-n-Hexyl-Pirinixinsäurederivate die ersten publizierten dualen mPGES-1/5-LO-Inhibitoren dar.
Durch die vorliegende Arbeit wird die Genese von Nyong- und Ntem-Einzugsgebiet seit der Öffnung des Südatlantiks unter Berücksichtigung neotektonischer Vorgänge nachgezeichnet. Die Ergebnisse unterstützen die Identifikation geeigneter Sedimentfallen als Proxydatenarchive zur Paläoumweltrekonstruktion. Mithilfe von Fernerkundung und Geländearbeit wird der Formenschatz in den Einzugsgebieten hinsichtlich ihrer Morphogenese untersucht. Vier Formengesellschaften werden unterschieden: (1) Rumpfflächen und Inselberge, (2) ‚demi-oranges’ und ‚bas-fonds’, (3) anastomosierender Flusslauf und (4) Rumpfstufe mit Inselgebirge und Kerbtälern. Sie werden morphodynamisch-genetisch interpretiert. (1) Ein Pisolithhorizont unter einer hillwash-Decke wird als Ferricretresiduum einer Paläooberfläche gedeutet und als Ergebnis der Pedimentierung gewertet. Die Morphogenese eines Inselbergs ergänzt die Diskussion zur Einrumpfung. Die Entwicklung zweier Altarme zeigt einen dritten Prozess, der vermutlich LGM-zeitlich die Region veränderte. Die Kuppe eines Inselbergs gibt ein ehemaliges Flächenniveau wieder. Durch die rückschreitende Verlagerung einer Stufe wurde er herauspräpariert. (2) In den oberen Einzugsgebieten liegen zwischen polykonvexen Hügeln breite Auen. Es wird angenommen, dass sich der Formenschatz durch Lateralerosion nach einer initialen Eintiefung gebildet hat. Flussanzapfungen reduzieren das obere Einzugsgebiet des Nyong. Eine Klassifikation in drei Klassen ist anhand der Überformung der Anzapfungen möglich: Die erste ist durch eine Talwasserscheide und Anzapfungsknie definiert. Bei der zweiten ist das Erscheinungsbild überprägt, die Orientierung zum ehemaligen Vorfluter ist jedoch eindeutig zu erkennen. Die dritte Klasse lässt nur noch aufgrund der Flussbettphysiognomie eine Anzapfung vermuten. (3) Im Ntem-Binnendelta wurden weitflächig Schotter und Gesteinsbruchstücke abgelagert und durch Mangan- und Eisenoxid zu einem Fanglomerat ausgehärtet. Das Gewässernetz bildet die geologischen Strukturen ab. Es wird angenommen, dass sich das Binnendelta primär durch eine gestaffelte Abschiebung entlang E-W verlaufender Brüche gebildet hat. Die Sedimentfallen wurden vom Ntem mit spätpleistozänen bis holozänen Sedimenten verfüllt. Ein ursprünglich flächenhaft ausgebildetes Ferricret wurde durch E-W verlaufende Brüche unterteilt. (4) Unterhalb des Binnendeltas überwindet der Ntem in einem Kerbtal entlang einer NNE-SSW-Struktur mit zwei linearen Störungen die Rumpfstufe. Es erinnert an einen Graben mit zwei Transformstörungen. Entlang des Tals wurden weitflächig Gesteinsbruchstücke und Schotter abgelagert, die zu einem Fanglomerat aushärteten. Gesteinsschnitte geben verschiedene Prozesse wieder, die die Bildung des Kerbtals als Graben belegen. Ergänzend wird eine Lineamentanalyse durchgeführt. Es werden vier Cluster herausgearbeitet, die die linearen Einheiten primär der panafrikanischen Orogenese zuordnen. Archaische Strukturen konnten nicht eindeutig zugewiesen werden. In der Synthese wird versucht, die Einzelergebnisse auf die Fläche zu extrapolieren. Die Arbeit bietet einen breiten Einblick in die tropische Geomorphologie mit der genetischen Diskussion unterschiedlicher Formengesellschaften. Es werden primär die strukturellen Richtungen N-S, E-W und NE-SW hervorgehoben, entlang derer eine neotektonische Remobilisation stattfand. Hebungen, die sich seit dem Miozän verstärkt haben, sind Auslöser für geomorphologische Modifikationen und Extensionsbrüche. Die Nähe zur aktiven Cameroon Volcanic Line und die Kompression des Kongokratons durch Riftprozesse lösen die tektonischen Ereignisse aus. Die wiederholte tektonische Erneuerung durch Hebungen des zentralafrikanischen Hinterlands führte zu einer Umgestaltung des Drainagenetzes.
Based on the commonly used and well-established state-of-the-art DNA sequencing method, i. e. Sanger sequencing, the major target of future research is to develop a fast, cost-effective and gelelectrophoresis-free sequencing method. The aim of the new sequencing technologies is to detect DNA mutations faster and more accurate in order to develop individual therapies for patients (personalized medicine). For this purpose, a lot of novel sequencing techniques like pyrosequencing, mass-spectrometry-assisted sequencing, sequencing by hybridization etc. have been put into practice and already led to commercialized sequencers. The sequencing technology we were mostly interested in is the so-called sequencing-by-synthesis method (SBS). This PhD thesis covers the synthesis of modified nucleosides – the so-called reversible terminators – and their evaluation as reversible terminators. These 3′-modified and dye-labeled nucleotides are incorporated by the polymerase into the DNA-template, then the DNA-synthesis is stopped. After detection of the fluorescent signal, the reversible terminator has to be cleavable in a way (i. e. the polymerase-blocking modification) that the DNA-synthesis can continue. As a result of the polymerase-acceptance tests that have been carried out with the two triphosphates cyanoethoxymethyl(CEM)-dTTP and cyanoethyl(CE)-dTTP as substrates it became clear that the latter one was better incorporated than the first one. Based on this knowledge all four key compounds for the whole reversible terminators possessing the cyanoethyl (CE) group where synthesized within this PhD thesis. Additionally to the synthesis of the modified key compounds, the cleavability of the cyanoethyl function had to be evaluated which is an essential requirement of a reversible terminator for SBS. For addressing this issue, three different CE- and CEM modified monophosphates were created. For each of these three monophosphates an individual synthetic strategy has been developed within this PhD work, each of these strategies and subsequent phosphorylation led to the desired modification. These previously unknown model compounds mimicking the solubility of short oligonucleotides were employed the for qualitative cleavage experiments after their purification and spectroscopical characterization. With these three monophosphates suitable cleavage conditions for a quantitative removal of the CE and the CEM group were examined. In case of the CE function we selectively improved the cleavage conditions while varying the solvent, the reaction temperature as well as the amount of cleaving agent used, in order to make the conditions applicable for an SBS experiment. Due to the fact that the CE function was the most important modification for our SBS experiment, we could even optimize the cleavage efficiency by employing co-solvents like DMSO or DMF. An additional cleavage experiment was carried out by using a short CE-modified oligomer which led to further results that were comparable to the ones obtained from the cleavage experiments of the monomers. One big difference is the required amount of TBAF as cleaving agent for the quantitative removal of the CE-modification from the oligomer. In this case, 7500 equivalents of TBAF are needed for complete CE cleavage at 45 °C compared to the amount of 40 to 80 equivalents TBAF for the monomer (monophosphate). As a conclusion of this result we assume that the amount of cleaving agent and the solubility of the oligomer plays an important role in the CE cleavage efficiency. This assumption was already supported by Saneyoshi et al. who demonstrated for CE-modified RNA oligonucleotides that the CE-cleavage rate is strongly lowered with the increasing of the oligomer length. Thus we could demonstrate that the CE function is quantitatively removable from an oligomer without destroying it. With these results in hands we could prove that the CEM and the CE group are quantitatively cleavable and therefore applicable as blocking groups for reversible terminators. The conditions for the CE cleavage are used for the ArraySBS-“proof-of-principle” which is currently under investigation.
In dieser Arbeit wurden zwei Systeme der biologischen Energiewandlung mit verschiedenen spektroskopischen Methoden untersucht und es wurden neue Erkenntnisse über die Funktion und Aktivierung der Proteine Proteorhodopsin und RuBisCO gewonnen. Zusätzlich konnte eine neue methodische Herangehensweise zur Untersuchung von Carboxylierungsreaktionen etabliert werden. Dieser Ansatz bietet in Zukunft breite Anwendungsmöglichkeiten zur Studie dieser biologisch so bedeutenden Reaktionsklasse. Mit Hilfe der Infrarotspektroskopie und vor allem durch den Einsatz von Tieftemperaturmessungen konnte der bisher kontrovers diskutierte Photozyklus von Proteorhodopsin (PR) eingehend charakterisiert werden. Jenseits des gut verstandenen aktiven Transports bei pH 9,0 wurde vor allem der pH 5,1 Photozyklus untersucht. Erstmals konnte auch in Infrarotspektren das M-Intermediat bei pH 5,1 nachgewiesen werden. Dieses Intermediat ist von entscheidender Bedeutung für den aktiven Transport über die Zellmembran und seine Existenz wurde bisher vielfach angezweifelt. Zudem konnte Glu-108 als ein möglicher Protonenakzeptor des Photozyklus bei pH 5,1 identifiziert werden. Durch einen pH-Indikator ließ sich der Nachweis erbringen, dass auch im sauren pH-Bereich Protonen freigesetzt werden. Damit steht fest, dass ein aktiver Protonentransport bei pH 5,1 möglich ist. Zusammen mit Informationen zu protonierbaren Aminosäureseitenketten (vornehmlich Asp und Glu) lässt sich zudem mit Einschränkungen die These unterstützen, dass PR ober- und unterhalb des pKa-Werts von Asp-97 in verschiedene Richtungen Protonen pumpt. Damit ergibt sich ein differenziertes Bild für den pH-abhängigen Photozyklus von PR mit drei pH-Bereichen (pH 9,0, 8,5 bis 5,5 und 5,1) in denen PR unterschiedliche Protonentransportwege zeigt. Als weiteres biologischen System wurde RuBisCO genauer untersucht. Im Fokus der Arbeit war dabei die Aktivierung durch die Bildung eines Lysin-Carbamats im aktiven Zentrum. Obwohl RuBisCO das am häufigsten vorkommende Enzym unseres Planeten ist, in der Kohlenstofffixierung eine bedeutende Rolle spielt und obwohl mehrere Dutzend Kristallstrukturen existieren, gibt es noch immer genügend offene Fragen zur Aktivierung. Mit Hilfe eines Käfig-CO2 konnte die Carbamatbildung im Enzym direkt verfolgt und der Einfluss von Magnesiumionen auf die Aktivierung beobachtet werden. Damit ließ sich ganz klar ausschließen, dass Magnesium bereits für die Carbamatbildung erforderlich ist. Die Koordination von Mg2+ ist erst für die Endiol-Bildung im weiteren Reaktionszyklus essentiell. Zusätzlich wurde gezeigt, dass Azid eine Inhibierung des Enzyms durch die Konkurrenz mit CO2 um die Bindungsstelle auslöst, allerdings verdrängt CO2 das Azidion im Laufe der Zeit. Mit den Ergebnissen für RuBisCO konnte klar gezeigt werden, dass die Kombination aus Käfig-CO2 und Rapid-Scan IR-Spektroskopie ein völlig neues Feld für die Untersuchung von Carboxylierungsreaktionen eröffnet. Gerade die offenen Fragen zu Biotin bindenden Carboxylasen bieten ein breites Anwendungsgebiet für diese Methodik.
Inhaltsverzeichnis 1. Einleitung …………………………………………………………………...3 1.1 Erklärungsversuche und Forschungsergebnisse der Gegenwart ……8 1.2 Zielrichtung und Abgrenzung der aktuellen Arbeit ………………..21 1.3 Intention und Erläuterung der Versuchsreihen ………………….....25 2. Grundlagen und Methodiken bezüglich des subjektiven visuellen Wahrnehmungsraums …………………………………………………........27 2.1 Die nativistische und die empiristische Anschauung ………………27 2.2 Räumliche Anordnungen der wahrgenommenen Objekte …………31 2.3 Über die visuell vermittelte Richtungs- und Lagebestimmung …....33 2.4 Visuelle Auswertungen der korrespondierenden Netzhautstellen …42 2.5 Visuelle Auswertungen der disparaten Netzhautstellen …………...44 2.6 Die Größenkonstanzleistung ………………………………………47 2.7 Psychophysikalische Grundlagen und Schwellenwerte …………...50 2.8 Physiologische Grundlagen ………………………………………..54 3. Experimentelle Untersuchung ……………………………………………..60 3.1 Versuchsaufbau und Ablauf zur Durchführung der Experimente …60 3.1.1 Zusammensetzungen der Versuchsteilnehmer ……………66 3.1.2 Erläuterungen und Ablauf der 2 Versuchsreihen …………66 3.2 Graphische Darstellungen der Messergebnisse ……………………71 3.2.1 I.Versuchsreihe ……………………………………………71 3.2.2 II.Versuchsreihe …………………………………………...93 3.3 Auswertung und Aufbereitung der Messdaten …………………..102 3.3.1 Auswertungen der I.Versuchsreihe ……………………..102 3.3.2 Auswertungen der II.Versuchsreihe …………………….120 3.3.3 Fehlerbetrachtungen der Versuchsreihen I und II ………122 3.4 Diskussion der Messdaten ……………………………………….124 4. Zusammenfassung und Ausblick ………………………………………...135 Begriffsverzeichnis mit kurzer Erklärung.…………………………………...137 Literaturverzeichnis …………………………………………………….........141 Bildquellenverzeichnis ………………………………………………….......143 Als Fazit kann man folgendes zusammenfassend sagen: Die aufgestellte Arbeitshypothese wurde durch die beiden Versuchsreihen verifiziert, denn die Ergebnisse ergaben folgendes: - In den Messreihen der Versuchsreihe I ist jeweils ein Anstieg der eingestellten Größe, je mehr Abstandsinformationen zugelassen wurden, zu verzeichnen. Das bedeutet, der Anstieg wurde umso größer, desto größer die AID wurde. Auch waren in allen Messreihen die monokularen Größeneinstellungen, bei sonst konstanter AID, gegenüber der binokularen Größeneinstellung geringer. Bei Verringerung der Einstellentfernung wurden die Abweichungen zwischen den subjektiven und den objektiven Größen ebenfalls größer. Das heißt also, die subjektive visuelle Wahrnehmungsgröße ist von der AID wie folgt abhängig: Das visuelle System bewertet subjektiv die Wahrnehmungsgröße bei maximaler AID nach oben und relativ dazu, bei minimaler AID nach unten. - Dass die aufgestellten Parameter die AID bedingen, konnte durch die 1. Messreihe gezeigt werden, da der jeweilige Anstieg der eingestellten Größe, nur durch die Variation eines Parameters erfolgte. Die Querdisparation konnte aber hier nicht als Parameter der die AID bedingt isoliert untersucht werden. Bei den meisten Probanden ergaben sich sehr schnell Doppelbilder und erzeugten bei ihnen ein Unbehagen. Aber dennoch floss dieser Parameter als einflussnehmende Größe in den Konvergenzgrad mit ein. Das Netzhautbild konnte nur kombiniert mit dem psychologischen Gefühl der Nähe isoliert betrachtet werden. Damit die Voraussetzungen in beiden Versuchen gleich waren, wurde in der Versuchsreihe II unter gleichen Versuchsbedingungen wie in der Versuchsreihe I gemessen. Auch hier wurden die Abstandsinformationen von minimal bis maximal sukzessive zugelassen. Durch die Messdaten der Versuchsreihe II konnte eindeutig gezeigt werden, dass die Abstandsunterschiedsschwelle umso geringer ausfällt, desto mehr Abstandskriterien hinzukamen, also die AID erhöht wurde. Analog kehren sich die Verhältnisse um, wenn die AID erniedrigt wird. Durch diesen kausalen Zusammenhang zwischen der Abstandsunterschiedsschwelle des visuellen Systems und der Güte der AID bestätigt sich zusätzlich die Annahme, dass die eingeführten Parameter des Abstandes tatsächlich als solche zu betrachten sind und die AID konstituieren. Denn wären sie keine Konstituenten der AID, so müssten die Unterschiedsschwellen der Versuchsreihe II in etwa gleich sein. Da aber die Änderung der Randbedingungen sich auf die verwertbaren Abstandsinformationen bezogen und somit die AID jeweils geändert wurde, ist die aufgestellte Annahme über die Parameter, welche die AID bedingen, berechtigt. - Dass im orthostereoskopischen Bereich die subjektiven Größeneinstellungen gegenüber der Zentralprojektion am weitesten auseinander liegen, bestätigte sich durch alle Messreihen der Versuchsreihe I. In diesem Bereich existiert die maximale Unabhängigkeit der visuellen Wahrnehmungsgröße vom Gesichtswinkel. In diesem Bereich liegt eine sehr hohe Güte in der Größenkonstanzleistung des visuellen Systems vor. Dass die Größenkonstanz qualitativ dem aufgestellten Formalismus aus Annahme 2 genügt und die aufgestellte qualitative Relation sie beschreibt, konnte nicht gezeigt werden. Das begründet sich durch das Zustandekommen der Größenkonstanz. Sie resultiert bekanntlich aus einer Entfernungsänderung. Je nach dem, ob sich ein Objekt dem Beobachter nähert oder entfernt, setzt diese Bildgrößenkompensation ein. Von daher unterliegt sie einem dynamischen Prozess und kann dadurch mit Relation (2´) nicht beschreiben werden. - Mit der Relation 2´ kann man qualitativ die Unbestimmtheit in der visuellen Wahrnehmungsentfernung beschreiben und qualitativ erklären. Der Aspekt der Abstandsunterschiedsschwelle ist etwas verwirrend. Auf der einen Seite handelt es sich um eine Vermögensleistung des visuellen Systems, welches abhängig ist von den vorliegenden Abstandsinformationen, die ihrerseits die AID bedingen. Auf der anderen Seite bedingt die Abstandsunterschiedsschwelle die AID durch ihre Güte und Qualität, beeinflusst also umgekehrt auch die AID. In der Versuchsreihe 2 wurde auf die Vermögensleistung des visuellen Systems und deren Abhängigkeit von den Parametern eingegangen, die auch die AID bedingen. Dies diente dazu, zusätzlich zu zeigen, dass es sich bei diesen Parametern um Parameter handelt, welche die AID bedingen. Die Argumentationskette lautete wie folgt: Die Abstandsunterschiedsschwelle beeinflusst die AID. Die betrachteten Parameter beeinflussten die Abstandsunterschiedsschwelle, dass experimentell verifiziert wurde. Daraus folgte dann, dass eben diese Parameter auch die AID bedingen. Diese Argumentation diente nur als zusätzliches Hilfsmittel. Bei Punkt 4 sollte die Abstandsunterschiedsschwelle und ihr Einfluss auf die Unbestimmtheit hin betrachtet werden. Dies hat aber nur sekundäre Relevanz, da hier die Anwendung der Relation 2´ im Vordergrund stand. - Ob die Fitting-Funktion, welche die Messdaten der Versuchsreihe I approximierte, sich als Algorithmus für die Darstellung einer Bewegungssimulation eignet, kann noch nicht gesagt werden. Es müssen noch Untersuchungen umgesetzt werden, welche die Diagonalbewegung beschreiben. In der stirnfrontalen Vor- und Zurückbewegung ist der simulierte Bewegungsablauf mit der Fitting-Funktion gegenüber der linearen Darstellung realistischer. Dies ist in der ersten 100cm Raumtiefe besonders merklich, da die Fitting-Funktion die Größenkonstanzleistung des visuellen Systems berücksichtigt. Die auf dem konventionellen Computerspielmarkt eingesetzten Algorithmen für die Darstellung von Vor- und Zurückbewegungen sind dagegen nahezu linear, welches dem Beobachter einen etwas unnatürlichen Seheindruck vermittelt. Die Fitting-Funktion könnte auch für die Simulation von Zeichentrickfilmen verwendet werden. Auch dort wird die Größenkonstanzleistung des visuellen Systems nicht berücksichtigt. Aber gerade diese Konstanzleistung gestaltet die Größenvariation der wahrgenommenen Objekte bei Entfernungsänderungen. Dies ist besonders im orthostereoskopischen Bereich merklich.
7 kingdoms of the Litvaks
(2009)
Diffusion of inner membrane proteins is a prerequisite for correct functionality of mitochondria. The complicated structure of tubular, vesicular or flat cristae and their small connections to the inner boundary membrane impose constraints on the mobility of proteins making their diffusion a very complicated process. Therefore we investigate the molecular transport along the main mitochondrial axis using highly accurate computational methods. Diffusion is modeled on a curvilinear surface reproducing the shape of mitochondrial inner membrane (IM). Monte Carlo simulations are carried out for topologies resembling both tubular and lamellar cristae, for a range of physiologically viable crista sizes and densities. Geometrical confinement induces up to several-fold reduction in apparent mobility. IM surface curvature per se generates transient anomalous diffusion (TAD), while finite and stable values of projected diffusion coefficients are recovered in a quasi-normal regime for short- and long-time limits. In both these cases, a simple area-scaling law is found sufficient to explain limiting diffusion coefficients for permeable cristae junctions, while asymmetric reduction of the junction permeability leads to strong but predictable variations in molecular motion rate. A geometry-based model is given as an illustration for the time-dependence of diffusivity when IM has tubular topology. Implications for experimental observations of diffusion along mitochondria using methods of optical microscopy are drawn out: a non-homogenous power law is proposed as a suitable approach to TAD. The data demonstrate that if not taken into account appropriately, geometrical effects lead to significant misinterpretation of molecular mobility measurements in cellular curvilinear membranes.
Anfang 2003 veröffentlichte Ettore Ghibellino erstmals die These einer geheimen Liebesbeziehung zwischen Herzogin Anna Amalia und Johann Wolfgang von Goethe. Als Jurist, ausgebildet u.a. in Tübingen, Oxford und Rom, in Bayreuth im Bereich der Staatstheorie promovierend, führten Ghibellinos literarische Interessen ihn 2001 nach Weimar. Während er das Werk des von ihm wiederentdeckten römischen Dichters Giuseppe Maccari (1840-1867) übersetzte und herausgab, stieß er auf Widersprüche in Goethes Leben, die schließlich zu der These führten, dass eine Liaison zwischen Goethe und Charlotte von Stein wegen der damaligen Standesschranken vorgetäuscht worden sei, während Goethes Liebe in Wirklichkeit Charlottes Herrin, Anna Amalia, gegolten habe. Die Inszenierung habe ein Jahrzehnt gewährt, doch als sie aufzufliegen drohte, habe sich Goethe gezwungen gesehen, seiner Liebe zur Fürstin zu entsagen. Nach Ghibellino erzählen Anna Amalia und Goethe die Geschichte ihrer tragischen Liebe mittels der "stummen Sprache" der Kunst, namentlich in Gemälden, Skulpturen, Parkanlagen, Gebäuden, Partituren und vor allem in Goethes Liebesdichtung, die ab seiner Ankunft in Weimar Anna Amalia gegolten habe.
X-ray structure of the Na+-coupled Glycine-Betaine symporter BetP from Corynebacterium glutamicum
(2009)
Cellular membranes are important sites of interaction between cells and their environment. Among the multitude of macromolecular complexes embedded in these membranes, transporters play a particularly important role. These integral membrane proteins perform a number of vital functions that enable cell adaptation to changing environmental conditions. Osmotic stress is a major external stimulus for cells. Bacteria are frequently exposed to either hyperosmotic or hypoosmotic stress. Typical conditions for soil bacteria, such as Corynebacterium glutamicum, vary between dryness and sudden rainfall. Physical stimuli caused by osmotic stress have to be sensed and used to activate appropriate response mechanisms. Hypoosmotic stress causes immediate and uncontrolled influx of water. Cells counteract by instantly opening mechanosensitive channels, which act as emergency valves leading to fast efflux of small solutes out of the cell, therebydiminishing the osmotic gradient across the cell membrane. Hyperosmotic stress, on the other hand, results in water efflux. This is counterbalanced by an accumulation of small, osmotically active solutes in the cytoplasm, the so-called compatible solutes. They comprise a large variety of substances, including amino acids (proline), amino acid derivatives (betaine, ectoine), oligosaccharides (trehalose), and heterosides (glucosylglycerol). Osmoregulated transporters sense intracellular osmotic pressure and respond to hyperosmotic stress by facilitating the inward translocation of compatible solutes across the cell membrane, to restore normal hydration levels. This work presents the first X-ray structure of a member of the Betaine-Choline-Carnitine-Transporter (BCCT) family, BetP. This Na+-coupled symporter from Corynebacterium glutamicum is a highly effective osmoregulated and specific uptake system for glycine-betaine. X-ray structure determination was achieved using single wavelength anomalous dispersion (SAD) of selenium atoms. Selenium was incorporated into the protein during its expression in methione auxotrophic E. coli cells, grown in media supplemented with selenomethionine. SAD data with anomalous signal up to 5 Å led to the detection of 39 selenium sites, which were used to calculate the initial electron density map of the protein. Medium resolution and high data anisotropy made the structure determination of BetP a challenging task. A specific strategy for data anisotropy correction and a combination of various crystallographic programs were necessary to obtain an interpretable electron density map suitable for model building. The crystal structure of BetP shows a trimer with glycine-betaine bound in a three-fold cation-pi interaction built by conserved tryptophan residues. The bound substrate is occluded from both sides of the membrane and aromatic side chains line its transport pathway. Very interestingly, the structure reveals that the alpha-helical C-terminal domain, for which a chemo- and osmosensory function was elucidated by biochemical methods, interacts with cytoplasmic loops of an adjacent monomer. These unexpected monomer-monomer interactions are thought to be crucial for the activation mechanism of BetP, and a new atomic model combing biochemical results with the crystal structure is proposed. BetP is shown to have the same overall fold as three unrelated Na+-coupled symporters. While these were crystallised in either the outward- or inward-facing conformation, BetP reveals a unique intermediate state, opening new perspectives on the alternating access mechanism of transport.