Refine
Year of publication
- 2011 (2423) (remove)
Document Type
- Article (936)
- Part of Periodical (373)
- Book (255)
- Doctoral Thesis (219)
- Part of a Book (152)
- Review (130)
- Conference Proceeding (108)
- Working Paper (92)
- Report (88)
- Bachelor Thesis (18)
Language
- German (1329)
- English (963)
- Portuguese (40)
- Croatian (32)
- French (27)
- Multiple languages (11)
- Italian (10)
- Spanish (6)
- dut (2)
- mis (1)
Keywords
- Deutsch (57)
- Literatur (53)
- Rezeption (30)
- Benjamin, Walter (24)
- Rezension (22)
- Dante Alighieri (20)
- Übersetzung (20)
- Literaturwissenschaft (18)
- Productive reception (18)
- Psychoanalyse (18)
Institute
- Medizin (207)
- Präsidium (141)
- Physik (112)
- Gesellschaftswissenschaften (98)
- Biochemie und Chemie (90)
- Extern (81)
- Geschichtswissenschaften (71)
- Biowissenschaften (69)
- Center for Financial Studies (CFS) (63)
- Wirtschaftswissenschaften (59)
Quasi-Monte-Carlo-Verfahren zur Bewertung von Finanzderivaten, BacDas Gebiet der Optionsbewertung ist durch die Entwicklungen zu neuen und immer komplexer werdenden Optionstypen und durch Verbesserungen im Bereich der Aktienkurs-Modelle geprägt. Diese Entwicklung und die gestiegene Leistungsfähigkeit der Parallelrechner haben das Interesse an den flexiblen Quasi-Monte-Carlo-Verfahren neu geweckt.
Die experimentellen Untersuchungen bestätigen die Überlegenheit des Quasi-Monte-Carlo-Verfahren gegenüber den klassische Monte-Carlo-Verfahren in Bezug auf niedrigdimensionale Optionstypen. Dieser Überlegenheit nimmt aber mit zunehmender Dimension ab, was eine Nachteil für das Quasi-Monte-Carlo Verfahren darstellt. Zur Verbesserung des Verfahrens gibt das Dimensions-Reduktions-Prinzip (effective dimension) und weitere Niederdiskrepanz-Folgen, wie Niederreiter-Folgen, Lattice-Regeln, usw. Weitere Verbesserungsmöglichkeiten könnten auch durch Wahl von anderen Diskretisierungsverfahren mit höherer starker Ordnung, wie z.B dem Milstein-Verfahren, erreicht werden. Mit dem Quasi-Monte-Carlo-Verfahren lässen sich auch komplizierte Optionen bewerten,
wie z.B. Bermuda-Optionen, Barrier-Optionen, Cap-Optionen, Shout-Optionen, Lokkback-Optionen, Multi-Asset-Optionen, Outperformance-Optionen, und auch mit weiteren Bewertungs-Modellen kombinieren, wie z.B. dem Black-Scholes-Modell mit variabler Verzinsung, Black-Scholes-Modell mit zeitabhängiger Volatilität, Heston-Modell für stochastische Volatilität, Merton-Sprung-Diffusion-Modell und dem Libor-Markt Modell für Zinsderivate, auf die ich in dieser Bachelorarbeit nicht mehr eingehen werde, mit denen ich mich jedoch in der Masterarbeit genauer beschäftigen werde.
Within the present work, photodissociation reactions on 100Mo, 93Mo and 92Mo isotopes were studied by means of the Coulomb dissociation method at the LAND setup at GSI. Experimental data on these isotopes are important to explain the problem of the underproduction of the lighter p-nuclei - 92; 94Mo - within the models of the p-process nucleosynthesis. The reaction rates used in the nucleosynthesis calculations are usually obtained within the framework of the statistical model. In order to verify the model predictions and reduce the uncertainties, experimental measurements of the reaction cross sections are required. In particular, the data on (γ,n) reactions are of interest, since these reactions were shown to dominate the p-process flow in the molybdenum mass region.
As a result of the analysis of the present experiment, integrated Coulomb excitation cross sections of the 100Mo(γ,n), 100Mo(γ,2n), 93Mo(γ,n) and 92Mo(γ,n) reactions were determined. The measurement of the 93Mo isotope is particularly important, since this nucleus is unstable, and the corresponding cross section has not been measured before.
It should be emphasized that Coulomb dissociation is a unique tool to study photoninduced reactions on unstable nuclei, which is especially relevant in the context of nucleosynthesis network calculations. However, because of to the complexity of the data analysis procedure and a number of model assumptions that are required in order to extract the Coulomb excitation cross section from the data, one of the main aspects of this thesis was to verify the method by comparing the results with the previously published data obtained with real photon beams. Integrated cross sections of the 100Mo(γ,n) and 100Mo(γ,2n) reactions were directly compared to the data by Beil et al., obtained at Saclay with photons from positron annihilation, while an indirect comparison could be performed with a recent photoactivation measurement by Erhard and co-workers. A reasonable agreement was observed for the 1n channel: a scaling factor of 0.8 ± 0.1 between our result and Beil et al. data is consistent with the scaling factor of 0.89±0.09 reported by Erhard et al. between their data and Beil et al. data. Both results are in agreement with the scaling factor of 0.85 ± 0.03 recommended by Berman et al. for the data measured at Saclay on nuclei in the respective mass region. A somewhat lower factor of 0.61 ± 0.09 between the present data and Beil et al. data was obtained for the 2n channel. The discrepancy might be explained by both the substantial efficiency correction that has to be applied to the LAND data in the two-neutron case, as well as by an insufficiently accurate assumption that the Saclay neutron detector efficiency is energy- and multiplicity- independent.
A second important topic of the present thesis is the investigation of the efficiency of the CsI gamma detector. The calorimetric information that it delivers is essential to reconstruct the energy-differential cross section from the present measurement. The data taken with the gamma calibration sources shortly after the experiment were used for the investigation. In addition, a test experiment in refined conditions was conducted within the framework of this thesis. Numerous GEANT3 simulations of the detector were performed in order to understand various aspects of its performance. As a result, the efficiency of the detector was determined to be approximately a factor of 2 lower than the efficiency expected from the simulation. This result is consistent with several independent investigations, which were performed using different methods. At the same time, a remarkable agreement between the simulated and experimental data was achieved under assumption that the inefficiency of the detector is explained by the loss of data from a number of crystals, which are randomly chosen in each event according to their averaged performance ratio (the ”on-off” effect). The reasons for the observed malfunction are yet not fully clear. Regardless of the exact reason, in the present conditions a deconvolution of the measured data from the CsI response is not possible. Consequently, within the framework of this thesis, the results are presented in terms of integrated cross sections. A search for alternative methods of data interpretation, allowing to extract energy-differential information out of the available data, in currently ongoing.
In the more recent experiments at the LAND setup, where the Crystal Ball gamma detector was used as a calorimeter, the reconstruction of the energy-differential cross section with a reasonable resolution was already shown to be feasible. It means that, even considering the uncertainties of the present experiment of the order of 10%, the uncertainties of the statistical model predictions, which are on average estimated to be within a factor of 1.5-2, can already be constrained.
The analysis of the present experiment is still in progress. As a next step, Coulomb excitation cross section for 94Mo will be obtained. The 94Mo(γ,n) reaction cannot be studied by photoactivation, since the life time of the daughter nucleus is too long (4000 y). At the same time, this reaction plays a key role in the p-process nucleosynthesis.
The future of the LAND setup - the R3B setup1 at FAIR2 - will take advantage of a three orders of magnitude higher intensity of the radioactive beams [85], as well as of a completely new detector system. High-resolution measurements of the energy-differential cross sections will be possible for exotic nuclei, which were never accessible in the laboratory before. Such measurements will open great opportunities for nuclear astrophysics, allowing to obtain high-quality experimental data even for regions of the nuclear chart where the statistical model calculations are not applicable.
Finanzderivate sind Produkte, die eine Möglichkeit bieten sich gegen künftige Preisschwankungen abzusichern oder auf eine zukünftige Preisentwicklung zu spekulieren. Die wichtigsten Arten von Finanzderivaten sind Optionen, Futures, Forwards und Swaps. Gegenstand vorliegender Bachelorarbeit werden ausschließlich Optionen sein. Auf den internationalen Finanzmärkten werden verschiedene Typen von Optionen gehandelt, weshalb sich die Frage des "fairen Preises" eines solchen Produktes stellt. Für viele gehandelte Optionen gibt es keine geschlossene Lösung zur Bestimmung des Preises, deshalb werden für diese numerische Verfahren zur Berechnung angewandt. Dabei muss beachtet werden, dass der Optionswert möglichst genau ist, jedoch sollte der Aufwand dabei ziemlich gering sein.
Ziel dieser Arbeit ist die Bestimmung eines numerischen Verfahrens, mit dem man europäische und amerikanische Multiasset-Optionen bewerten kann. Dieses Verfahren soll eine Erweiterung des bekannten Binomialverfahrens sein. Im Fokus steht dabei das Binomialverfahren, da es durch die Einschränkung auf zwei Entwicklungsmöglichkeiten in der Anwendung einfacher ist als das Black-Scholes-Modell. Dieses Verfahren ist nur für europäische und amerikanische Standard-Optionen definiert. Bei der Erweiterung muss beachtet werden, dass Multiasset-Optionen von mehreren Wertpapieren abhängen. In der Arbeit wird ein Produktbinomialverfahren entwickelt, das die Anzahl der Wertpapiere in der Dimension der entstehenden Bäume berücksichtigt. Dieses Verfahren konvergiert gegen das mehrdimensionale Black-Scholes-Modell und ist zu dessen graphischer Darstellung geeignet. Es wird jedoch auch gezeigt, dass dieses dem Fluch der Dimension unterliegt und somit der Aufwand für einen möglichst genauen Optionswert ziemlich hoch ist. Die Erweiterung dieses Verfahrens durch Dünne Gitter erzielt eine Optimierung der Laufzeit. Da der Fokus dieser Bachelorarbeit jedoch auf dem Produktbinomialverfahren liegt, wird im Folgenden auf diese Erweiterung nicht eingegangen.
Towards correctness of program transformations through unification and critical pair computation
(2011)
Correctness of program transformations in extended lambda calculi with a contextual semantics is usually based on reasoning about the operational semantics which is a rewrite semantics. A successful approach to proving correctness is the combination of a context lemma with the computation of overlaps between program transformations and the reduction rules, and then of so-called complete sets of diagrams. The method is similar to the computation of critical pairs for the completion of term rewriting systems.We explore cases where the computation of these overlaps can be done in a first order way by variants of critical pair computation that use unification algorithms. As a case study we apply the method to a lambda calculus with recursive let-expressions and describe an effective unification algorithm to determine all overlaps of a set of transformations with all reduction rules. The unification algorithm employs many-sorted terms, the equational theory of left-commutativity modelling multi-sets, context variables of different kinds and a mechanism for compactly representing binding chains in recursive let-expressions.
Am 27. März 2011 wird im Rahmen der hessischen Kommunalwahlen auch über eine Schuldenbremse abgestimmt. Diese sieht vor, dass vom Jahr 2020 an der Landeshaushalt grundsätzlich auszugleichen ist. Alfons Weichenrieder argumentiert, dass eine in der Verfassung verankerte Schuldenregel dazu geeignet ist die im politischen Prozess angelegten Anreize zur Verschuldung zu zügeln. Auf die disziplinierende Wirkung der Finanzmärkte alleine zu vertrauen reicht nicht.
Die Mehrheit der auf High Frequency Trading basierenden Strategien trägt zur Marktliquidität (Market-Making-Strategien) oder zur Preisfindung und Markteffizienz (Arbitrage-Strategien) bei. Eine ungeeignete Regulierung dieser Strategien oder eine Beeinträchtigung der zugrunde liegenden Geschäftsmodelle durch übermäßige Belastungen kann kontraproduktiv sein und unvorhergesehene Auswirkungen auf die Marktqualität haben. Allerdings muss jede missbräuchliche Strategie effektiv durch die Aufsichtsbehörden bekämpft werden.
Das deutsche Bankensystem ruht seit Jahrzehnten auf drei Säulen: den privaten Kreditbanken, den öffentlichen Banken des Sparkassensystems und den genossenschaftlichen Banken. Das Drei-Säulen-System scheint ursächlich für die Stabilität im deutschen Bankensystem zu sein. Gerade die Krise hat gezeigt, dass es für ein Bankensystem vorteilhaft ist, wenn es darin nicht nur einen Typus von Banken gibt. Wir müssen eine Pluralität von Organisationsformen im Bankwesen erhalten und weiterentwickeln.
Risiko muss wieder kosten
(2011)
Im Rahmen dieser Arbeit wird ein Gammaspektroskopie-Aufbau unter Verwendung eines HPGe-Clover-Detektors zur Nutzung in Aktivierungsexperimenten charakterisiert und untersucht. Die für präzise Aktivitätsmessungen nach einer Aktivierung nötigen Effizienzen werden mit Hilfe der Eichquellen 60Co und 22Na unter Nutzung verschiedener Modi des Clover-Detektors abstandsabhängig errechnet. „Listmode“-Daten ermöglichen dabei eine „offline“-Verarbeitung. Begleitet werden die Messungen von aufwändigen Monte-Carlo-Simulationen in Geant4. Parallele Auswertungsmethoden erlauben einen genauen Vergleich zwischen simulierten und experimentellen Ergebnissen.
Der Karlsruhe 4π-Bariumfluorid-Detektor, entwickelt und aufgebaut Ende der Achtzigerjahre am Forschungszentrum Karlsruhe, ist ein effizienter Detektor für Gammastrahlung und bietet vielfältige Einsatzmöglichkeiten für kernphysikalische Experimente. Insbesondere für Experimente der nuklearen Astrophysik ist er geeignet, aber auch für die Forschung zur Entwicklung neutronengetriebener Reaktoren, zum Beispiel zur Transmutation radioaktiver Abfälle. Derzeit befindet sich der Detektor an der Goethe-Universität Frankfurt, wo er mit der sich dort in Entwicklung befindenden FRANZ-Neutronenquelle eingesetzt werden soll. Diese ermöglicht zum Beispiel Messungen von Wirkungsquerschnitten für den s-Prozess in astrophysikalisch relevanten Energiebereichen und bei hohen Intensitäten.
Diese Arbeit behandelt astrophysikalische Möglichkeiten die der Detektor bietet sowie dessen allgemeinen Aufbau und Eigenschaften. Es wurden eine Funktionsprüfung des Detektors, Messungen der Zeit- und Energieauflösung, Energiekalibration sowie kleine Optimierungen und Reparaturen durchgeführt.
Das vornehmliche Ziel der OGAW Richtlinien ist es einen gemeinsamen europäischen Markt für Investment-Dienstleistungen auf Basis wohldefinierten Qualitätsstandards zu erreichen. Ein grenzüberschreitender Vertrieb eröffnet die Möglichkeit der Ausweitung von Geschäftsaktivitäten auf neue wirtschaftlich attraktive Absatzmärkte. Die Stellungnahme kommentiert die im Gesetzesentwurf vorgeschlagenen regulatorischen Instrumente vor dem Hintergrund verschiedener gegebener Kriterien.
This article discusses the effects of the countercyclical premium discussed in insurance supervision in the context of Solvency II. While the basic principle of introducing countercyclical elements into Solvency II is endorsed, the authors argue for a system based on market scenarios which would enforce stricter capital requirements in boom times and less strict requirements in times of crisis.
The European Commission's Green Paper "The EU corporate governance framework" raises 25 questions in order to assess the effectiveness of the current corporate governance framework for European companies. The authors contribute to the EU's consultation, respond to the 25 questions and comment on the suggestions set out in the Green Paper.
Die unkonventionellen Maßnahmen der EZB haben nicht nur zu Bilanz- und Reputationsrisiken geführt. Vielmehr haben sie auch die Grenzen der monetären Politik zur Verteilungs- und Finanzpolitik verwischt. Die Strukturen im Finanzsystem müssen durch ordnungspolitische Maßnahmen robuster gemacht werden.
Das neue Kreditinstitute-Reorganisationsgesetz, das als Artikel 1 des Restrukturierungsgesetzes vom 9. Dezember 2010 erlassen worden ist, führt für deutsche Kreditinsitute eine Bankenabgabe ein. Die Abgabe soll als Mittel der Prävention und Intervention dienen, um Finanzkrisen vorzubeugen und zu bekämpfen. Der vorliegende Beitrag bewertet die deutsche Bankenabgabe nach verfassungsrechtlicher Zulässigkeit und nach ihrer Zweckerfüllung.
Prodigal Italy Greece Spain?
(2011)
Contrary to widely held perceptions, workers in the southern European states that are most afflicted by the sovereign debt crisis work hard. However, labor productivity in these countries lags far behind the EU average. Structural reforms to boost productivity should be at the top of the reform agenda.
Die Macht der Ratingagenturen beruht auch auf den vielen Gesetzen und Verordnungen, die eine Orientierung an den Ratings der drei großen Agenturen vorschreiben, sagt Wirtschaftsprofessor Reinhard Schmidt. Um die Macht der Ratingagenturen zu begrenzen, empfiehlt er viele dieser Regeln ersatzlos zu streichen.
Vermutlich schon bald wird sich die Politik mit der gesetzlichen Verankerung eines makroprudenziellen Mandats für die Deutsche Bundesbank befassen. Welche Ziele soll das Mandat beinhalten, die über die bereits bestehende Aufgabe der Bundesbank, zur Finanzstabilität im Euroraum beizutragen, hinausgehen? Welche Instrumente sollen bei der Ausübung des Mandats zum Einsatz kommen?
Rechtsbrüche im Euroraum
(2011)
Der Weg in die Knechtschaft
(2011)
Die Marktwirtschaft beruht auf dem Prinzip, dass sich die Akteure im Rahmen des gesetzlichen Regelwerkes frei entfalten können. Hier liegt die entscheidende Stärke eines marktwirtschaftlichen, freiheitlichen Systems. Millionen von Individuen erwägen, welche Aktivitäten welche Chance eröffnen. Kein anderes System ist in der Lage, das Potential auszuschöpfen, das in unzähligen Individuen steckt. Der Markt ist nun einmal das beste "Entdeckungsverfahren", wie Hayek erkannte. Wer im Rahmen der Spielregeln Erfolg hat, darf nach diesen Prinzipien den Gewinn behalten, muss aber auch für den Misserfolg haften.
Reforms or bankruptcy?
(2011)
Almost 20 Greek academic economists from renowned universities in Europe and the US have prepared a one-page statement regarding the Greek crisis. In their statement the economic experts call upon the Greek public to accept the economic program of structural reforms, privatization, efficient tax collection, and shrinking of the public sector proposed and financed by the EU partners and the IMF. Among the signatories are this year's Nobel Prize winner Christopher Pissarides and Michalis Haliassos, Director of the Center for Financial Studies and Professor for Macroeconomics and Finance at the House of Finance.
The bail-in puzzle
(2011)
Under the current conditions of a global financial crisis, notably in Europe’s banking industry, the governance role of bond markets is defunct. In fact, investors have understood that bank debt will almost always be rescued with taxpayers’ money. The widespread practice of government-led bank bailouts has thus severely corrupted the bond market, leading to the underestimation of risk and, as a consequence, the destruction of market discipline. Any feasible solution to the bank-debt-is-too-cheap problem will have to re-install true default risk for bank bond holders.
Stellungnahme zum Antrag der SPD-Fraktion auf Einführung einer Finanztransaktionssteuer in Europa
(2011)
Die Finanztransaktionssteuer ist kein geeignetes Instrument zur Verringerung systemischer Risiken, noch ein Mittel zur Vorbeugung einer Finanzkrise. Da sie zudem nur in Deutschland, Frankreich und einzelnen anderen Staaten eingeführt würde, wäre das Steueraufkommen, aufgrund von Steuerumgehung durch Verlagerung von Finanztransaktionen ins Ausland, gering.
Europa - wohin?
(2011)
Gemäß der Krönungstheorie der europäischen Währungsunion wurde der Euro eingeführt, um die Notwendigkeit gemeinsamen Regierens in der Europäischen Union allen vor Augen zu führen und so ein geordnetes Vorrücken zur europäischen Integration zu ermöglichen. In der gegenwärtigen Phase scheint indes politischer Opportunismus die Integration zu bestimmen.
Die große Herausforderung, um das systemische Risiko im Finanzsektor zu vermindern, besteht darin, kluge Finanzarchitektur zu etablieren, die gewährtleistet, dass ein verbindlicher Anteil von Bankanleihen außerhalb des Finanzsektors gehalten wird. Die Anleihegläubiger von außerhalb des Bankensektors müssen sich dadurch auszeichnen, dass sie kein Refinanzierungsrisiko haben, wenn sie eine plötzliche Verlussituation erleben.
Wie können Optionen bewertet werden, zu denen keine geschlossenen Lösungen existieren? Die Antwort lautet: Numerische Verfahren. In Hinblick auf diese Frage wurden in der Vergangenheit meist Baumverfahren, Finite-Differenzen- oder Monte-Carlo-Methoden herangezogen. Im Gegensatz dazu behandelt diese Bachelorarbeit den Einsatz von Quadraturverfahren (QUAD) bei der Bewertung von exotischen Optionen, also Optionen, die kompliziertere Auszahlungsstrukturen besitzen wie einfache Standard-Optionen. Die Grundidee besteht darin, den Optionswert als mehrdimensionales Integral in eindimensionale Integrale zu zerlegen, die daraufhin durch Quadraturformeln approximiert werden...Die Genauigkeit des Verfahrens wird erhöht, indem die Schrittweite der Quadraturformel h verkleinert wird. Dies hat allerdings zur Folge, dass sich der Rechenaufwand erhöht. QUAD jedoch schafft es, durch Reduzierung der Dimension und Ausnutzung der herausragenden Konvergenzeigenschaften von Quadraturformeln eine hohe Genauigkeit bei gleichzeitig geringen Rechenkosten zu erreichen.
Die Methode ist allgemein anwendbar und zeigt insbesondere beim Preisen von pfadabhängigen Optionen mit diskreten Zeitpunkten ihre Stärken. Als Anwendungsbeispiele betrachten wir deshalb folgende Optionstypen: Digitale-, Barrier-, Zusammengesetzte-, Bermuda- und Lookback Optionen. Ferner existieren entsprechende Verfahren für Asiatische- oder Amerikanische Optionen, für die jedoch mehr Vorarbeit notwendig ist.
Der große Vorteil von QUAD gegenüber anderen numerischen Verfahren liegt in der Vermeidung eines (bedeutsamen) Verteilungsfehlers und in der Tatsache, dass keine Bedingungen an die Auszahlungsfunktion gestellt werden müssen. Baum- oder Finite-Differenzen-Verfahren reduzieren zwar durch Gitterverfeinerung den Verteilungsfehler, allerdings geht dies Hand in Hand mit deutlich höheren Rechenzeiten. Zum Beispiel benötigt ein Baumverfahren für die doppelte Exaktheit einen vierfachen Rechenaufwand, während die QUAD Methode bei einem vierfachen Rechenaufwand die Exaktheit mit Faktor 16 erhöht (bei Extrapolation steigt dieser Faktor bis 256).
QUAD kann als "der perfekte Baum" angesehen werden, da es ähnlich zu Multinomialbäumen auf Rückwärtsverfahren zurückgreift, andererseits aber die hohe Flexibilität besitzt, Knoten frei und in großer Anzahl zu wählen. Des Weiteren gehen nur die den Optionspreis bestimmenden Zeitpunkte in die Bewertung mit ein, sodass auf zwischenzeitliche Zeitschritte gänzlich verzichtet werden kann.
Die eigentliche Arbeit gliedert sich in sechs Abschnitte. Zunächst erfolgt eine Einführung in allgemeine Quadraturverfahren, exotische Optionen und das Black-Scholes-Modell, was im Anschluss den Übergang zum Lösungsansatz liefert. Dieser Abschnitt schließt mit einer geschlossenen Integrallösung für Optionen, die der Black-Scholes-Differentialgleichung folgen, ab. In Abschnitt 4 wird die genaue Untersuchung der QUAD Methode vorgenommen. Unter Verwendung des in Abschnitt 5 vorgestellten Algorithmus wird anschließend in Abschnitt 6 die QUAD Methode auf die zuvor genannten Optionsklassen angewandt. Die entsprechenden Resultate werden am Ende dieses Teils in Tabellen und Graphiken präsentiert. Den Abschluss bildet das Fazit und die Zusammenfassung der Ergebnisse.
Sprung-Diffusions-Modelle zur Bewertung Europäischer Optionen, BacIn dieser Arbeit wurden die Europäische Optionen in den Sprung-Diffusions-Modellen von Merton und dem Modell von Kou bewertet. So stellen die geschlossenen Lösungen für das Merton-Modell als Anwendung der Black-Scholes-Formel eine einfache Möglichkeit zur Berechnung eines Optionspreises dar. Die Verwendung einer analytischen Lösung für Merton ist allerdings nur eingeschränkt, d.h. für zwei spezielle Sprungverteilungsfunktionen (Plötzlicher Ruin und die Lognormalverteilung) möglich. Das Kou-Modell hingegen, hat eine geschlossene Lösung für Doppel-Exponentialverteilte Sprünge. Eine flexible Lösungsmöglichkeit zur Bestimmung eines Optionspreises ist die Verwendung des Monte-Carlo-Verfahrens für die Simulation der Kursbewegung mit zugrunde liegendem Sprung-Diffusions-Modell. In diesem Fall ist das Monte-Carlo-Verfahren zur Ermittlung des Optionspreises nur einmal anzuwenden. Dieses Verfahren konvergiert mit einer Konvergenzrate von 1/2.
Wie alle anderen Modelle, die auf Lévy Prozessen basieren, lässt das Kou-Modell eine empirische Beobachtung vermissen, nämlich die mögliche Abhängigkeit zwischen Renditen der Underlyings (der sogenannte "volatility clustering affect"), weil das Modell unabhängige Inkremente unterstellt. Eine Möglichkeit die Abhängigkeit mit einzubeziehen, wäre die Nutzung anderer Punktprozesse Ñ(t) mit abhängigen Inkrementen anstelle des Poisson-Prozesses N(t). Es muss natürlich die Unabhängikeit zwischen der Brownschen Bewegung, den Sprunghöhen und ~N(t) beibehalten werden. Das so modifizierte Modell hat keine unabhängigen Inkremente mehr, ist aber einfach die geschlossene Lösungsformel für Call- und Put-Optionen zu erhalten. Andererseits scheint es schwer analytische Lösungen für Pfadabhängige Optionen durch Nutzung von Ñ(t) anstelle von N(t) zu erhalten.
Feasibility, nationalism, migration, justification, and global justice : some further thoughts
(2011)
Brock and justification
(2011)
This case study evaluated the response of objective and subjective markers of overreaching to a highly demanding conditioning training mesocycle in elite tennis players to determine 1) whether players would become functionally or non-functionally overreached, and 2) to explore how coherently overreaching markers would respond. Performance, laboratory and cardiac autonomous activity markers were evaluated in three experienced male tennis professionals competing at top 30, top 100 and top 1000 level before and after their strength and conditioning training was increased by 120, 160 and 180%, respectively, for 30 days. Every week, subjective ratings of stress and recovery were evaluated by means of a questionnaire. After 74, 76 and 55 h of training, increases in V̇O2max (+8, +5 and +18%) and speed strength indices (+9, +23 and +5%) were observed in all players. Changes of maximal heart rate (-5, -6, +4 beats per minute), laboratory markers (e.g. insulin-like growth factor -26, -17, -9%; free testosterone to cortisol ratio -63, +2, -12%) and cardiac autonomous activity markers (heart rate variability -49, -64, -13%) were variable among the players. Improved performance provides evidence that overreaching was functional in all players. However, several overreaching markers were altered and these alterations were more pronounced in the two top 100 players. The response of overreaching indicators was not coherent.
Im Jahre 2004 sind am Universitätsklinikum Frankfurt zwei Patienten mit X-CGD gentherapeutisch behandelt worden. Nach einer initialen Phase mit Nachweis ausreichender Mengen Oxidase-positiver Zellen im Blut der Patienten und einer deutlichen klinischen Besserung vorbestehender Infektionsherde kam es zu einem Verlust der Transgenexpression durch epigenetische Veränderungen des viralen Promotors. Ferner entwickelte sich durch Insertionsmutagenese eine klonale Expansion in der Hämatopoese und schließlich ein myelodysplastisches Syndrom mit Monosomie 7 bei beiden Patienten. In der Zusammenschau mit anderen Gentherapiestudien zur X-CGD zeigt sich, dass bislang ein langanhaltendes Engraftment funktionierender genkorrigierter Zellen nur im Zusammenhang mit einer Insertionsmutagenese beobachtet wurde. Zukünftige gentherapeutische Strategien zur Behandlung der X-CGD müssen das Risiko einer Insertionsmutagenese minimieren und gleichzeitig die Effektivität des Engraftments genkorrigierter Zellen steigern. Dies soll durch den Einsatz von SIN-Vektoren sowie einer Intensivierung der Konditionierung der Patienten erreicht werden.
In Nervensystemen werden zahlreiche Informationen wahrgenommen und verarbeitet um ein adäquates Verhalten hervorzurufen. Für die Untersuchung der funktionellen Zusammenhänge hierbei wurden verschiedene Methoden entwickelt, die eine gezielte Manipulation neuronaler Prozesse ermöglichen. Durch Analyse der resultierenden Effekte können dabei synaptische Proteine, einzelne Neuronen oder neuronale Netzwerke funktionell charakterisiert werden. Bisherige Ansätze verfügen jedoch nur über eine geringe zeitliche und räumliche Auflösung oder erlauben lediglich eine eingeschränkte Anwendung im frei beweglichen Tier.
Diese Nachteile können durch die heterologe Expression von lichtgesteuerten, mikrobiellen Rhodopsinen zur gezielten Manipulation des Membranpotentials umgangen werden. So induziert die Photoaktivierung des Kationenkanals Channelrhodopsin 2 (ChR2; (Nagel et al., Curr Biol 2005)) eine Depolarisation, während die Chloridpumpe Halorhodopsin (NpHR; (Zhang et al., Nature 2007)) für die Hyperpolarisation verwendet werden kann. Dabei ermöglichen die schnellen Kinetiken der Rhodopsine eine zeitlich präzise Steuerung des Membranpotentials. Durch Auswahl geeigneter Promotoren ist zudem oftmals eine zell spezifische Expression möglich. Dieser Ansatz wird daher allgemein als Optogenetik bezeichnet.
In der vorliegenden Arbeit wurden zunächst konventionelle Techniken genutzt, um die Funktion von zwei assoziierten Proteinen eines Acetylcholin Rezeptors in C. elegans zu untersuchen. Des Weiteren wurden verschiedene Methoden für den Fadenwurm entwickelt und angewendet, die die Vorteile optogenetischer Techniken für die funktionelle Charakterisierung synaptischer Proteine und neuronaler Netzwerke nutzbar machen. Hierbei erlaubt die Transparenz von C. elegans die optogenetische Stimulation im lebenden Organismus unter nicht invasiven Bedingungen. Weitere Vorteile von C. elegans als neurobiologischem Modellorganismus liegen in seiner einfachen Handhabung (Hope, 1999) und der stereotypen Entwicklung seines Nervensystems mit bekannten anatomischen Ausprägungen (Sulston and Horvitz, Dev Biol 1977; Varshney et al., PLoS Comput Biol 2011; White et al., Philos Trans R Soc Lond B Biol Sci 1986). Durch ihre Häufigkeit und die experimentelle Zugänglichkeit wird hierbei die neuromuskuläre Synapse oftmals zur Erforschung der synaptischen Reizweiterleitung genutzt (Von Stetina et al., Int Rev Neurobiol 2006). Durch pharmakologische (Lewis et al., Neuroscience 1980; McIntire et al., Nature 1993; Miller et al., Proc Natl Acad Sci U S A 1996; Richmond and Jorgensen, Nat Neurosci 1999) und elektrische Stimulation (Richmond and Jorgensen, Nat Neurosci 1999) können dabei Defekte der Transmission hervorgehoben werden, während Verhaltensexperimente oder elektrophysiologische Messungen der post synaptischen Ströme in Muskelzellen eine quantitative Analyse ermöglichen (Richmond and Jorgensen, Nat Neurosci 1999).
Diese Methoden wurden für die funktionelle Charakterisierung von NRA 2 und NRA 4 verwendet, die beide als akzessorische Proteine zusammen mit dem Levamisol sensitiven Acetylcholin Rezeptor der Körperwandmuskelzellen aufgereinigt wurden (Gottschalk et al., EMBO J 2005). Dabei konnte gezeigt werden, dass NRA 2 und NRA 4 im Endoplasmatischen Retikulum (ER) der Muskelzellen einen Komplex bilden, der die Sensitivität von beiden nikotinischen Acetylcholin Rezeptoren gegenüber verschiedenen cholinergen Agonisten verändert. In diesem Zusammenhang wurde auch nachgewiesen, dass die Oberflächenexpression einzelner Untereinheiten der beiden Rezeptoren durch NRA 2/4 beeinflusst wird. Diese Resultate legen die Vermutung nahe, dass beide Proteine die Zusammensetzung der Rezeptoren und somit ihre pharmakologischen Eigenschaften modulieren. Denkbar ist dabei eine regulatorische Funktion bei der Assemblierung verschiedener Untereinheiten zu einem funktionellen Rezeptor oder bei der Kontrolle des ER Austritts von Rezeptoren mit bestimmter Zusammensetzung. In dieser Hinsicht konnte jedoch keine Interaktion von NRA 2/4 mit der Notch Signalkaskade nachgewiesen werden, wie sie für die homologen Proteine nicalin und NOMO in Vertebraten gezeigt wurde (Haffner et al., J Biol Chem 2007; Haffner et al., EMBO J 2004).
Für die Untersuchung synaptischer Proteine durch optogenetische Techniken wurde ChR2(H134R) selektiv in cholinergen oder GABAergen Motorneuronen exprimiert, um die akute und lichtgesteuerte Freisetzung des jeweiligen Neurotransmitters zu ermöglichen. Die resultierende Stimulation bzw. Inhibition von Muskelzellen wurde hierbei durch elektrophysiologische Messungen der post synaptischen Ströme und durch Analyse von Kontraktionen respektive Relaxationen untersucht. Dabei wurde gezeigt, dass Störungen der synaptischen Reizweiterleitung die Ausprägung und Dynamik dieser lichtinduzierten Effekte beeinflussen und dadurch charakterisiert werden können. So zeigten beispielsweise Mutanten von Synaptojanin und Endophilin nachlassende Effekte bei anhaltender oder wiederholter Stimulation, was durch die gestörte Regeneration synaptischer Vesikel erklärt werden kann (Harris et al., J Cell Biol 2000; Schuske et al., Neuron 2003; Verstreken et al., Neuron 2003).
Die hohe Sensitivität dieser Methode wurde im Nachfolgenden dazu verwendet, die Inhibition cholinerger Motorneuronen durch den metabotropen GABAB Rezeptor zu untersuchen, der in C. elegans aus den beiden Untereinheiten GBB 1 und GBB 2 gebildet wird (Dittman and Kaplan, J Neurosci 2008; Vashlishan et al., Neuron 2008). Dabei konnte zunächst gezeigt werden, dass diese heterosynaptische Inhibition verschiedene lokomotorische Verhaltensweisen der Tiere beeinflusst. Für die mechanistische Untersuchung wurden anschließend cholinerge Motorneuronen durch ChR2(H134R) photoaktiviert, während resultierende Kontraktionseffekte in Abhängigkeit von GBB 1/2 analysiert wurden. Um hierbei die Funktion von GBB 1/2 durch erhöhte GABA Konzentrationen hervorzuheben, wurden zusätzlich GABAerge Motorneuronen optogenetisch stimuliert oder die Wiederaufnahme von GABA aus dem synaptischen Spalt durch Mutation des Membran ständigen GABA Transporters blockiert. So konnte gezeigt werden, dass GBB 1/2 eine akute Inhibition der cholinergen Motorneuronen bewirken, was vermutlich für die Regulation von Bewegungsabläufen eine wichtige Rolle spielt. Die geringe Dynamik der GBB 1/2 induzierten Effekte deutet allerdings darauf hin, dass die synaptische Aktivität durch den metabotropen Rezeptor kaum nachhaltig moduliert wird.
In nachfolgenden Versuchen wurde die optogenetische Stimulation von Motorneuronen außerdem mit der elektronenmikroskopischen Analyse der präsynaptischen Feinstruktur kombiniert. Dadurch konnte die Dynamik der Exozytose und Endozytose synaptischer Vesikel (SV) in Abhängigkeit von neuronaler Aktivität untersucht werden. So wurde gezeigt, dass synaptische Vesikel nahe der aktiven Zone während einer 30 sekündigen Hyperstimulation nahezu komplett aufgebraucht waren. Die vollständige Regeneration der SV Pools benötigte anschließend etwa 12 Sekunden und erfolgte zunächst in der Peripherie der aktiven Zone, was auf eine laterale Heranführung der Vesikel schließen lässt. Nach etwa 20 Sekunden erholte sich ebenfalls die Wirksamkeit der Stimulation von Muskelzellen durch die Motorneuronen, was durch elektrophysiologische Messungen der photo induzierten post synaptischen Ströme gezeigt wurde. Während der Hyperstimulation bildeten sich außerdem große vesikuläre Strukturen, die sich anschließend nach etwa acht Sekunden wieder aufgelöst hatten. In Analogie zu vergleichbaren Experimenten in anderen Organismen liegt die Vermutung nahe, dass es sich dabei um Zwischenprodukte der so genannten Bulk Phase Endozytose handelt, die das Clathrin abhängige Recycling von synaptischen Vesikeln bei starker neuronaler Aktivität ergänzt (Heuser and Reese, J Cell Biol 1973; Miller and Heuser, J Cell Biol 1984; Richards et al., Neuron 2000). Bemerkenswerterweise war der Abbau der vesikulären Strukturen in Synaptojanin und Endophilin defizienten Tieren stark verzögert. Denkbar ist, dass beide Proteine für die Synthese von synaptischen Vesikeln aus den vesikulären Zwischenprodukten der Bulk Phase Endozytose wichtig sind, analog zur ihrer Funktion bei der Clathrin abhängigen Endozytose an der Plasmamembran.
Durch die zielgerichtete Manipulation der Zellaktivität ermöglichen optogenetische Techniken außerdem die funktionelle Charakterisierung von Neuronen und neuronalen Netzwerken. Um die zelluläre Spezifität dieses Ansatzes zu erhöhen, wurde ein Tracking System entwickelt das die Position frei beweglicher Tiere in Echtzeit bestimmt und nachverfolgt. Dadurch konnte die Photoaktivierung optogenetischer Proteine auf definierte Bereiche der Fadenwürmer und somit auf ausgewählte Neuronen innerhalb der Expressionsmuster von verwendeten Promotoren eingeschränkt werden. Des Weiteren ermöglichte hierbei die Auswertung translatorischer Parameter die Analyse verschiedener lokomotorischer Merkmale wie Geschwindigkeit, Bewegungsbahn oder Ausprägung der Körperbiegungen. Dieses System wurde beispielhaft für die konzertierte Photoaktivierung durch ChR2(H134R) bzw. Photoinhibition durch MAC von zwei verschiedenen Gruppen von Neuronen angewendet, um die Integration mechanosensorischer Informationen durch Command Interneuronen zu untersuchen. In diesem Zusammenhang wurde zudem eine Rekombinase basierte Methode für optogenetische Proteine adaptiert, die die Transkription auf die zelluläre Schnittmenge von zwei verschiedenen Promotoren einschränkt und somit die Spezifität der Expression erhöht. Idealerweise kann dieser Ansatz außerdem mit der gezielten Photoaktivierung kombiniert werden, um die zelluläre Selektivität optogenetischer Anwendungen weiter zu verbessern.
Weiterhin ist die Anwendung optogenetischer Techniken bisher durch intrinsische Eigenschaften der verwendeten Rhodopsine auf die relativ kurzzeitige Manipulation des Membranpotentials von Zellen beschränkt. So benötigt ChR2 durch die schnelle Schließung seines offenen Kanals eine kontinuierliche Photoaktivierung, um eine andauernde Depolarisation hervorzurufen. Dies ist jedoch potentiell mit phototoxischen und – besonders bei C. elegans – phototaktischen Nebeneffekten verbunden. Deswegen wurden diverse Mutanten von ChR2 mit stark verlangsamter Inaktivierung (Berndt et al., Nat Neurosci 2009) für ihren Nutzen zur Langzeit Stimulation von erregbaren Zellen im Nematode getestet. Dabei wurde gezeigt, dass ChR2(C128S) durch einen kurzen Photostimulus mit vergleichsweise niedriger Intensität eine anhaltende Depolarisation über mehrere Minuten auslösen kann. Die wiederholte Stimulation in ASJ Neuronen ermöglichte zudem eine langzeitige Depolarisation über mehrere Tage, wodurch die genetisch veranlagte Entwicklung von Tieren manipuliert werden konnte. Durch gezielte Punktmutation konnten außerdem relevante Eigenschaften von ChR2(C128S) für die Langzeit Stimulation weiter verbessert werden.
Als weiteres optogenetisches Werkzeug wurde zudem die Photoaktivierbare Adenylatzyklase alpha (PACa) aus Euglena gracilis (Iseki et al., Nature 2002; Ntefidou et al., Plant Physiol 2003; Schroder-Lang et al., Nat Methods 2007) für die akute und lichtgetriebene Synthese des sekundären Botenstoffs cAMP in C. elegans etabliert. Die Photoaktivierung von PACa in cholinergen Motorneuronen verstärkte dabei die Neurotransmitterfreisetzung und induzierte hyperlokomotorische Phänotypen, vergleichbar zu Mutanten mit erhöhten cAMP Konzentrationen.
Zusammengefasst wurden diverse optogenetische Techniken für C. elegans entwickelt und optimiert, die die zellspezifische und nicht invasive Manipulation des Membranpotentials beziehungsweise die Synthese des sekundären Botenstoffs cAMP durch Licht im frei beweglichen Tier ermöglichen. Diese Methoden können zur gezielten Störung neuronaler Aktivität angewendet werden, um dadurch neurobiologische Fragestellungen im Fadenwurm zu untersuchen. Dies wurde beispielhaft für die Erforschung der synaptischen Reizweiterleitung und die funktionelle Analyse neuronaler Netzwerke demonstriert. Denkbar ist außerdem, diese für C. elegans etablierten Methoden vergleichbar in anderen Modellorganismen anzuwenden. So sind die Fruchtfliege ebenso wie der Zebrafisch Embryo bereits für optogenetische Techniken erprobt (Arrenberg et al., Proc Natl Acad Sci U S A 2009; Schroll et al., Curr Biol 2006). Für Säugetiere wie die Maus, die Ratte und den Makaken wurden zudem bereits Ansätze entwickelt, die die gezielte Photostimulation in lebenden und frei beweglichen Tieren ermöglichen (Han et al., Neuron 2009; Wentz et al., J Neural Eng 2011; Yizhar et al., Nature 2011; Zhang et al., Nat Rev Neurosci 2007).
Statistical machine translation (SMT) should benefit from linguistic information to improve performance but current state-of-the-art models rely purely on data-driven models. There are several reasons why prior efforts to build linguistically annotated models have failed or not even been attempted. Firstly, the practical implementation often requires too much work to be cost effective. Where ad-hoc implementations have been created, they impose too strict constraints to be of general use. Lastly, many linguistically-motivated approaches are language dependent, tackling peculiarities in certain languages that do not apply to other languages. This thesis successfully integrates linguistic information about part-of-speech tags, lemmas and phrase structure to improve MT quality. The major contributions of this thesis are: 1. We enhance the phrase-based model to incorporate linguistic information as additional factors in the word representation. The factored phrase-based model allows us to make use of different types of linguistic information in a systematic way within the predefined framework. We show how this model improves translation by as much as 0.9 BLEU for small German-English training corpora, and 0.2 BLEU for larger corpora. 2. We extend the factored model to the factored template model to focus on improving reordering. We show that by generalising translation with part-of-speech tags, we can improve performance by as much as 1.1 BLEU on a small French- English system. 3. Finally, we switch from the phrase-based model to a syntax-based model with the mixed syntax model. This allows us to transition from the word-level approaches using factors to multiword linguistic information such as syntactic labels and shallow tags. The mixed syntax model uses source language syntactic information to inform translation. We show that the model is able to explain translation better, leading to a 0.8 BLEU improvement over the baseline hierarchical phrase-based model for a small German-English task. Also, the model requires only labels on continuous source spans, it is not dependent on a tree structure, therefore, other types of syntactic information can be integrated into the model. We experimented with a shallow parser and see a gain of 0.5 BLEU for the same dataset. Training with more training data, we improve translation by 0.6 BLEU (1.3 BLEU out-of-domain) over the hierarchical baseline. During the development of these three models, we discover that attempting to rigidly model translation as linguistic transfer process results in degraded performance. However, by combining the advantages of standard SMT models with linguistically-motivated models, we are able to achieve better translation performance. Our work shows the importance of balancing the specificity of linguistic information with the robustness of simpler models.
Im Mittelpunkt des Gutachtens stehen die anthropologischen Grundlagen, das wirtschaftsethische Fundament und das Menschenbild der Sozialen Marktwirtschaft. Die Leitlinien des Wittenberg-Prozesses der Chemie-Sozialpartner dienen dabei als argumentative Grundstruktur. Ziel der Arbeit ist es, aufzuzeigen, dass die CSSA und der Wittenberg-Prozess auf den normativen und wirtschaftsethischen Prämissen der (originären) Sozialen Marktwirtschaft ruhen und die Sozialpartnerschaft der chemischen Industrie ein wichtiger Baustein ist auf dem Weg hin zu einer Neubegründung und Renaissance der Sozialen Marktwirtschaft vor dem Hintergrund der Globalisierung. Folgende Hypothesen sollen dabei eingehender untersucht werden: 1. Fundamental für die Wirtschaftsethik der Sozialen Marktwirtschaft ist die Unterscheidung von Individual, Unternehmens-und Ordnungsethik. 2. Das Freiheitsverständnis der Sozialen Marktwirtschaft enthält sowohl negative (im Sinne der Abwesenheit von Willkür und Zwang) als auch positive Momente (im Sinne von rationaler Selbstbestimmung und kantischer Autonomie). Darüber hinaus inkorporiert es die aus der Konstitutionenökonomik bekannten Prinzipien der Diskriminierungs und Privilegienfreiheit. 3. Das Gerechtigkeitsverständnis der Sozialen Marktwirtschaft ist synkretistisch und eklektisch; es verbindet kommutative mit distributiven Gerechtigkeitselementen. 4. Der Homo oeconomicus ist kein(!) Bestandteil der Wirtschaftsethik der Sozialen Marktwirtschaft. Diese weist vielmehr Parallelen zur Heuristik der Kulturellen Ökonomik – dem sogenannten Homo culturalis – auf. 5. Eine bedeutende Funktion innerhalb der Sozialen Marktwirtschaft kommt der Sozialpartnerschaft zu. Diese leistet einen wichtigen Beitrag zur Stärkung der sozioökonomischen Teilhabe und Inklusion auf der unternehmensethischen Ebene.
Prokaryotische Organismen werden in ihrer natürlichen Umgebung mit schwankenden Umwelteinflüssen konfrontiert oder müssen gegebenenfalls extremen Bedingungen standhalten. Um sich an derartige Veränderungen anpassen zu können und damit ein weiteres Überleben zu sichern, ist es wichtig neue genetische Informationen zu akquirieren. Die molekulare Basis dieser Anpassung sind Genmutationen, Genverlust, intramolekulare Rekombination und/oder horizontaler Gentransfer. Der vorliegende Selektionsdruck der Umwelt begünstigt schlussendlich die Spezialisierung und damit die Erschließung neuer Standorte aufgrund des Erwerbs neuer metabolischer Eigenschaften, Resistenzgene oder Pathogenitätsfaktoren. Vergleichende Analysen bakterieller Genome, welche auf Analysen der GC-Gehalte, der Codon- und Aminosäurenutzung und der Genlokalisation beruhen, zeigten, dass bei diesem evolutiven Prozess bzw. der Weiterentwicklung der bakteriellen Genome der horizontale Gentransfer als treibende Kraft eine entscheidende Rolle spielt. So indizieren Genomstudien, dass 0-22% der gesamten bakteriellen und 5-15% der archaeellen Gene horizontal erworben wurden, wobei der DNA-Transfer nicht ausschließlich zwischen Vertretern einer Domäne, sondern ebenfalls zwischen Organismen unterschiedlicher Domänen stattgefunden hat. So sind z.B. 24 bzw. 16% der Gene von Genomen hyperthermophiler Organismen wie Thermotoga maritima oder Aquifex aeolicus archaeellen Ursprungs. Ebenso finden sich Gene für Chaperone und DNA-Reparaturenzyme im Genom des thermophilen Bakteriums Thermus thermophilus wieder, welche wahrscheinlich ebenfalls durch horizontalen Gentransfer aus hyperthermophilen und archaeellen Genomen erworben wurden um eine Anpassung an extreme Standorte zu ermöglichen. Durch vergleichende Genomstudien wurde ebenfalls festgestellt, dass die durch horizontalen Gentransfer erworbenen Gene oftmals zu einer Neuorganisation von Transkriptionseinheiten und zu einer veränderten Genomorganisation führten. Dennoch finden sich immer wieder Beispiele von horizontal erworbenen Operonen in den verschiedenen Organismen. Gut charakterisierte Vertreter horizontal übertragener Operone sind dabei z.B. das archaeelle H+-ATPase-Operon, das Operon der Na+-translozierenden NADH:Ubichitonoxidoreduktase oder das Nitratreduktase-Operon.
Man unterscheidet bei dem horizontalen Gentransfer zwischen drei Mechanismen der DNAAufnahme: Konjugation, Transduktion und Transformation. Die DNA-Übertragung durch Konjugation ist durch einen spezifischen Zell-Zell-Kontakt definiert, der durch einen von der Donorzelle ausgehenden, sogenannten F-Pilus hergestellt wird. Die Donorzelle überträgt schließlich Plasmid-kodierte genetische Informationen und oftmals Eigenschaften für die eigenständige Konjugation auf eine Rezipientenzelle. Die Transduktion hingegen beschreibt die DNA-Übertragung von Bakteriophagen auf eine Wirtszelle, wobei hier eine hohe Wirtsspezifität Voraussetzung ist. Die Übertragung der DNA von einer Bakterienzelle in eine andere erfolgt dabei ohne Kontakt der Zellen. Die natürliche Transformation ist definiert als Transfer von freier DNA und ermöglicht damit im Gegensatz zu den beiden ersten spezifischen Mechanismen der DNA-Übertragung ein größeres Spektrum der Verbreitung genetischer Informationen. Freie DNA, welche entweder durch Zelllyse oder Typ-IVSekretion ausgeschieden wird und aufgrund von Adsorption an mineralische Oberflächen über längere Zeiträume stabil in der Umgebung vorliegen kann, kann unter der Voraussetzung der Existenz eines speziellen Aufnahmesystems von Bakterien aufgenommen werden. Mittlerweile sind über 44 Bakterien aus unterschiedlichen taxonomischen Gruppen beschrieben, die eine natürliche Kompetenz ausbilden können. Die bekanntesten Beispiele für natürlich transformierbare Gram-negative Bakterien sind Heliobacter pylori, Neisseria gonorrhoeae, Pseudomonas stutzeri, Haemophilus influenzae, T. thermophilus und Acinetobacter baylyi. Auch unter den Gram-positiven Bakterien finden sich einige Vertreter, die natürlich kompetent sind, wie Deinococcus radiodurans, Bacillus subtilis und Streptococcus pneumoniae. Ungeachtet der relevanten Rolle der Transformation im horizontalen Gentransfer, ist über die Struktur und Funktion der komplexen DNA-Aufnahmesysteme wenig bekannt.
Das Ziel meiner Arbeit ist die zuverlässige quantenchemische Beschreibung der Absorptionsspektren von mittelgroßen Molekülen und das Studium von photoaktiven Pigmenten. Nach einer kurzen Einführung in das Thema "elektronisch angeregte Zustände und Photoreaktionen" beschreibe ich die Formalismen, die den verwendeten Rechenmethoden zu Grunde liegen und diskutiere die Anwendbarkeit auf größere Moleküle. Hierbei liegt ein Hauptaugenmerk auf den dichtefunktionaltheoriebasierten Methoden (DFT-Methoden), vor allem auf den Eigenschaften der zeitabhängigen Dichtefunktionaltheorie (engl.: time dependent density functional theory, TDDFT). Anschließend erfolgt eine Zusammenfassung der im Laufe dieser Arbeit erhaltenen Ergebnisse.
Die moderne Quantenchemie befasst sich mit der Anwendung der in den 20er und 30er Jahren des 20. Jahrhunderts entwickelten Quantenmechanik auf chemische Probleme. Zum theoretischen Studium von Molekülen gibt es verschiedene Ansätze. Zum einen gibt es die hochgenauen ab initio Methoden, die Näherungsverfahren zur elektronischen Schrödingergleichung sind. Sie haben den Vorteil systematisch verbesserbar und auf einem sehr soliden theoretischen Gerüst aufgebaut zu sein. Die Genauigkeit der Rechnungen kann die von experimentellen Ergebnissen erreichen, allerdings beschränkt der hohe Rechenaufwand die Anwendung solcher ab initio Methoden auf kleine Moleküle wie Wasser, Methan oder Benzol.
Am anderen Ende des Spektrums der quantenchemischen Methoden sind die "semiempirischen Methoden" angesiedelt. Sie erfordern nur einen sehr geringen Rechenaufwand, wodurch es möglich ist, sehr große Systeme mit mehr als 1000 Atomen zu beschreiben. Allerdings führt der Ansatz, verschiedene Terme der Schrödingergleichung durch an experimentelle Daten gefittete Parameter zu ersetzen, zu einer geringen Genauigkeit und unvorhersehbaren Fehlern. Dies schränkt die standardmäßige Anwendung dieser Methoden stark ein, und eine Verifizierung durch genauere Methoden ist oftmals erforderlich.
Zwischen diesen beiden Polen (hoch genau aber sehr hoher Rechenaufwand und geringer Rechenaufwand, dafür aber ungenau) stehen die auf der Dichtefunktionaltheorie (DFT) basierenden Methoden. Sie zeichnen sich durch eine gute Genauigkeit bei vergleichsweise geringem Rechenaufwand aus. Dadurch hat sich die DFT in den letzten Jahren zur beliebtesten Methode für das Studium mittelgroßer Moleküle mit bis zu 400 Atomen entwickelt. DFT ist eine formal exakte Methode, bei der die berechneten Größen aus der Elektronendichte des Systems abgeleitet werden. Elektronenaustausch- und Korrelationseffekte werden durch Funktionale, den sogenannten Austauschkorrelationsfunktionalen (engl.: exchange correlation functionals, xc-functionals) beschrieben.
Die zeitabhängige Dichtefunktionaltheorie (time dependent DFT, TDDFT) ermöglicht die Beschreibung elektronisch angeregter Zustände mit einer guten Genauigkeit, aber zu einem Bruchteil des Rechenaufwands von ab initio Methoden, was TDDFT zur Methode der Wahl für das Studium der Photochemie mittelgroßer Moleküle macht. Die Fehler in den Anregungsenergien sind in der Regel systematischer Natur und den verwendeten xc-funktionalen geschuldet. Dennoch kann TDDFT nicht als "black box" Methode verwendet werden, da nicht alle elektronischen Zustände gleich gut beschrieben werden. Während energetisch niedrig liegende, lokale π -> π* und n -> π* Zustände oftmals in sehr guter Übereinstimmung mit dem Experiment sind, können Rydberg und Ladungstransferzustände (engl.: charge transfer states, ct-states) Fehler von mehreren Elektronenvolt in der Anregungsenergie haben. Doppelt oder höher angeregte Zustände können mit standard TDDFT Methoden nicht beschrieben werden. Dies kann zu Problemen bei ausgedehnten π-Systemen führen, da z.B. die angeregten Zustände von Polyenen einen hohen Doppelanregungscharakter besitzen. Trotz alledem ist TDDFT eine sinnvolle Methode zum Studium elektronisch angeregter Zustände, da ihre Probleme bekannt sind und vor allem ihr Ursprung in der Theorie gut verstanden ist. Die meisten Probleme können durch die intelligente Wahl der verwendeten xc-Funktionale vermieden werden. Kombiniert man TDDFT mit der Konfigurationswechselwirkungsmethode mit Einfachanregungen (engl.: configuration ineraction singles, CIS) erhält man sehr zuverlässig und mit vergleichbar geringem Rechenaufwand die richtige Energiereihenfolge der angeregten Zustände. Mit dieser Methode war es in dieser Arbeit möglich, die komplexe Photochemie von Bisazomethinpigmenten zu untersuchen und die experimentellen statischen und zeitaufgelösten Spektren auf molekularer Ebene zu interpretieren. Es konnte sowohl der Mechanismus aufgeklärt werden, der für die Fluoreszenzlöschung in den nicht-fluoreszierenden Derivaten verantwortlich ist, als auch die unerwartet komplizierte Photochemie der fluoreszierenden Moleküle schlüssig erklärt werden. Auch die Photoisomerisierung von Z-Hemithioindigo-Hemistilbene (HTI) zu seine E-Form wurde mit dieser Methode untersucht.
Im Rahmen dieser Arbeit wurde die Messung von ψ(2S) Mesonen mit dem ALICE-Experiment am LHC untersucht. Das ψ(2S) gehört zur Familie der Charmonia und kann sowohl in Proton-Proton- als auch in Nukleon-Nukleon-Kollisionen erzeugt werden und ist daher ein wichiger Parameter in den Studien dieser. Die Rate, mit der ψ(2S) durch verschiedene Mechanismen erzeugt werden, liefert Informationen über den Ablauf der Kollision und ist ein hilfreicher Faktor bei der Suche nach dem Quark-Gluon Plasma. Da es sich beim ψ(2S) um ein Charmonium handelt, das in niedrigere Charmoniumzustände zerfallen kann, ist das Verständis des ψ(2S) ebenso für Studien anderer Charmonia, wie dem J/ψ(1S), relevant.
In this paper we prove asymptotic normality of the total length of external branches in Kingman's coalescent. The proof uses an embedded Markov chain, which can be described as follows: Take an urn with n black balls. Empty it in n steps according to the rule: In each step remove a randomly chosen pair of balls and replace it by one red ball. Finally remove the last remaining ball. Then the numbers Uk, 0 < k < n, of red balls after k steps exhibit an unexpected property: (U0, ... ,Un) and (Un, ... ;U0) are equal in distribution.
The random split tree introduced by Devroye (1999) is considered. We derive a second order expansion for the mean of its internal path length and furthermore obtain a limit law by the contraction method. As an assumption we need the splitter having a Lebesgue density and mass in every neighborhood of 1. We use properly stopped homogeneous Markov chains, for which limit results in total variation distance as well as renewal theory are used. Furthermore, we extend this method to obtain the corresponding results for the Wiener index.
ranching Processes in Random Environment (BPREs) $(Z_n:n\geq0)$ are the generalization of Galton-Watson processes where \lq in each generation' the reproduction law is picked randomly in an i.i.d. manner. The associated random walk of the environment has increments distributed like the logarithmic mean of the offspring distributions. This random walk plays a key role in the asymptotic behavior. In this paper, we study the upper large deviations of the BPRE $Z$ when the reproduction law may have heavy tails. More precisely, we obtain an expression for the limit of $-\log \mathbb{P}(Z_n\geq \exp(\theta n))/n$ when $n\rightarrow \infty$. It depends on the rate function of the associated random walk of the environment, the logarithmic cost of survival $\gamma:=-\lim_{n\rightarrow\infty} \log \mathbb{P}(Z_n>0)/n$ and the polynomial rate of decay $\beta$ of the tail distribution of $Z_1$. This rate function can be interpreted as the optimal way to reach a given "large" value. We then compute the rate function when the reproduction law does not have heavy tails. Our results generalize the results of B\"oinghoff $\&$ Kersting (2009) and Bansaye $\&$ Berestycki (2008) for upper large deviations. Finally, we derive the upper large deviations for the Galton-Watson processes with heavy tails.
Creativity is astir: reborn, re-conjured, re-branded, resurgent. The old myths of creation and creators – the hallowed labors and privileged agencies of demiurges and prime movers, of Biblical worldmakers and self-fashioning artist-geniuses – are back underway, producing effects, circulating appeals. Much as the Catholic Church dresses the old creationism in the new gowns of 'intelligent design' , the Creative Industries sound the clarion call to the Cultural Entrepreneurs. In the hype of the ‘creative class’ and the high flights of the digital bohemians, the renaissance of ‘the creatives’ is visibly enacted. The essays collected in this book analyze this complex resurgence of creation myths and formulate a contemporary critique of creativity.
Avventurarsi e poi inoltrarsi nell'opera di Thomas Bernhard non è precisamente come fare una passeggiata, ma la passeggiata è un motivo ricorrente nell'opera bernhardiana (insieme a quella di Handke, di Sebald, di Walser, per fare solo alcuni nomi di passeggiatori nel Novecento di lingua tedesca). Le figure di Bernhard camminano, marciano, corrono, ma in una "direzione opposta" rispetto a quella indicata da Stifter. Talvolta i loro percorsi si snodano nella natura, come quando entrano in un bosco per non fare più ritorno (Gelo, Al limite boschivo, La partita a carte), a volte marciano nel chiuso della loro "casa-prigione", seguendo i percorsi labirintici e infiniti della loro mente (La Fornace, Cemento), altre volte ancora si muovono in un contesto cittadino e metropolitano, a Roma in Estinzione (dove la passeggiata con l'allievo Gambetti conserva un alone aristotelico, il peripatetico) o - più spesso - a Vienna.
L'intera riflessione filosofica di Günther Stern/Anders si snoda intorno al motivo della indeterminatezza costitutiva dell'essere umano che non riesce mai a cogliere la propria essenza in un nucleo definito e stabile, ma soltanto nell'accettazione della propria irriducibile contingenza. È questo il cuore di quell'antropologia negativa che Anders aveva già abbozzato nell'ambito di una conferenza tenuta nel 1929 presso la "Kantgelleschaft" di Francoforte e dal titolo "Die Weltfremdheit des Menschen" (fino a poco tempo fa disponibile solo nella versione francese, da cui è stata mutuata la versione italiana: La natura dell’esistenza e Patologia della libertà). Questo scritto giovanile - che nella intenzione originaria doveva essere solo il primo
passo di un sistema di antropologia filosofica - abbozza in sorprendente anticipo rispetto ai tempi e in maniera del tutto autonoma motivi che diventeranno correnti dopo le riflessioni antropologiche di Plessner e di Gehlen. Al centro dell'argomentazione andersiana sono infatti i temi dello "sradicamento", della "contingenza" e della "vergogna (Scham)" costitutiva all'essere umano che non può mai padroneggiare la propria origine.
Non è certo un caso se da quasi un secolo si parla di Austria infelix, per designare una cultura austriaca intrisa di dolore, o forse ancor meglio, per dirla con Jean Améry, di un Morbus Austriacus che si è propagato come in una forma di contagio. Non è forse ancora un caso se Winfried Georg (Max) Sebald ha intitolato la sua opera saggistica del 1985 – in cui ripercorre alcune delle tappe salienti dell'itinerario letterario austriaco come stazioni del dolore – "La descrizione dell'infelicità" ("Die Beschreibung des Unglücks"). Seguendo questa diagnosi sebaldiana, la causa della patologia dell'infelicità austriaca del XX secolo va ricercata nel sentimento, ambivalente e sofferto, di avversione e di ricerca della patria. Gli eventi traumatici del Novecento, e la consapevolezza delle colpe dell'Austria nel suo consenso al nazismo, hanno segnato in senso problematico l'identità culturale di questo paese, e con essa anche la cognizione del dolore. Oltre a Jean Améry, che ho sopra ricordato, penso ad autori del calibro di Thomas Bernhard, di Ingeborg Bachmann, di Peter Handke, ma anche alla poetessa di origine contadine Christine Lavant. Se c'è un tema di fondo che attraversa, come un filo sotterraneo, questo tracciato letterario è l'impotenza di fronte al dolore, e al contempo l'assunzione del pathos come elemento di rottura delle forme. La sofferenza informa di sé l'esistenza, e la deforma. E pur tuttavia, questa deformazione si attua secondo modalità diverse: il dolore fa urlare, ma anche ammutolisce, fa delirare o irrigidire, straripa dalle forme e pietrifica, se esige di essere espresso, cozza contro i limiti del linguaggio.
Il pensiero di Günther Stern/Anders (1902-1992) non è mai stato al centro del dibattito filosofico e questo nonostante le sue teorie si siano spesso rivelate tragicamente attuali. C'è da dire che lo stesso Anders ha fatto di tutto per collocarsi in una posizione eccentrica, rifiutando con sdegno e indignazione i compromessi della carriera accademica, prendendo le distanze da alcuni autori che pure rientrano nel suo stesso orizzonte teoretico (Adorno, Arendt, Bloch e Lukács, ad esempio), ma soprattutto sostenendo alcune posizioni estreme e radicali, provocatorie e intransigenti. Un filosofo della esagerazione, potrebbe essere definito, un pensatore che ha programmaticamente eletto il concetto della Übertreibungskunst a sigla del suo metodo speculativo. Era infatti sua ferma convinzione che occorresse deformare per constatare (o anche contestare), per scuotere l'indifferenza di una società dominata e schiacciata dalla tecnica. In un mondo completamente sordo – spiega Anders – si fa necessario urlare le proprie considerazioni affinché arrive all'orecchio di qualcuno almeno una loro flebile eco. Una strategia della esagerazione che ha sortito come effetto quello di fare di lui una "Cassandra della filosofia", un "creatore di panico" o, nel migliore di casi, un pensatore scomodo, che conveniva tenere da parte, confinandolo nella periferie, o magari saccheggiare di nascosto, piuttosto che citare esplicitamente. La delusione per l'ostinata sordità del mondo nei confronti dei suoi ripetuti e disperati appelli ha segnato le sue ultime riflessioni, declinandole in toni aggressivi. Intollerante nei confronti di qualunque compromesso ipocrita, la "filosofia della disperazione" andersiana si è arroccata su toni sempre più aspri e ostinati, intransigenti fino al punto di legittimare persino la violenza con la necessità dell'autodifesa. Non stupisce il fatto che, alla fine della sua esistenza, al suo seguito non ci fosse che uno sparuto gruppo di fans, estimatori che Anders non ha mancato di scoraggiare e deludere, con l'assunzione di posizioni sempre più radicali.
In tutte le sue diverse declinazioni, il dissenso nei riguardi della propria patria costituisce un motivo centrale e ricorrente nella cultura austriaca del Novecento. Come in una sorta di contagio il carattere distruttivo, soprattutto nel Secondo dopoguerra, si è diffuso – e continua a diffondersi – ad ampio raggio: esempi emblematici sono offerti da Peter Handke, con i suoi "insulti all'Austria" urlati dall'esilio francese, dalla prosa sofferta di Ingeborg Bachmann, che ha riparato a Roma, dalla scrittura caustica del Premio Nobel Elfriede Jelinek, o da quella estrema di Werner Schwab. Ma anche da autori meno noti, come Anna Mitgutsch, che, dagli Stati Uniti, non manca di esternare la sua avversione nei confronti del paese d'origine, o dai toni aspri dello scrittore Robert Menasse. Lo steso vale per il campo cinematografi co, con il cinema a tinte forti di Ulrich Seidl. Una passion durevole, quella degli austriaci per i toni antipatriottici, una tradizione che vanta come anticipatore il sacro nome del grande polemista Karl Kraus, o forse, ancor prima, affonda le sue radici nel teatro di Raimund Nestroy. Se l'ostilità per l'Austria sembra un Leitmotiv della grande retorica austriaca, Thomas Bernhard (1931-1989) può essere a giusto titolo considerate non solo come il legittimo erede di questa grande tradizione, ma anche come il suo massimo rappresentante. Ereditare signifi ca infatti fare i conti in modo cinico e rischioso con l'orizzonte vitale e culturale a cui si appartiene e che ci appartiene. Autore diffi cile, maniacale, irriverente ed eccessivo, Bernhard si è imposto all'attenzione del grande pubblico per la sua appassionata denuncia dell'universo austriaco, e della sua atmosfera piccolo-borghese, conformista, ottusamente fi loclericale. I suoi frequenti interventi pubblici – ora raccolti e pubblicati con il titolo Meine Preise – presentano come unico obiettivo la provocazione, e di fatto hanno suscitato scandali, polemiche. Un esempio per tutti è il discorso tenuto nel 1967 per il Conferimento del "Premio Nazionale Austriaco per la Letteratura": "Noi siamo austriaci, siamo apatici, siamo la vita intesa come ignobile disinteresse nei confronti della vita, siamo, nel processo naturale, la megalomania intesa come futuro". Un testo scritto con un inchiostro che è succo di nervi. Ma questa è solo una delle tante puntate che vedono Bernhard in polemica con i suoi connazionali, e che hanno contribuito a designarlo come un Nestbeschmutzer. È questa una visione decisamente riduttiva. Lo humour nero bernhardiano, che di certo ci ha regalato pagine irresistibili, nasce da un sentimento di amore e odio nei confronti dell'Austria. Per dirla in altri termini, è sintomo non di una nevrastenica insofferenza (di cui poco ci importerebbe), quanto piuttosto di una Unheimlichkeit, di un sofferto legame con l'origine. Su questo punto, per ora solo accennato, avrò occasione di tornare.
Review of Neurepyris Kieffer, 1905 (Hymenoptera, Bethylidae), a new synonym of Pristocera Klug, 1808
(2011)
The genus Neurepyris Kieffer, 1905 is revised. The adult male holotypes N. rufiventer Kieffer, 1913 from Eritrea and N. tagala (Ashmead, 1905) from the Philippines are redescribed and illustrated. Both species are transferred from the subfamily Epyrinae to Pristocerinae because they have the metanotum well developed medially. Neurepyris rufi venter is transferred to Pristocera Klug, 1808 because the hypopygium is deeply divided into two apical lobes, the subdiscoidal and cubital veins do not reach the border of the forewing, the pronotal disc has the anterior region slightly elevate medially, and the stigma is elongate. Neurepyris tagala is transferred to Apenesia Westwood, 1874 because the basal tooth of mandible is not curved inward, the median lobe of clypeus is not depressed near the antennal insertions, and the aedeagus consists of one lamina. The genus Neurepyris is considered a junior synonym of Pristocera because its type species is N. rufiventer.
A new gymnophthalmid lizard of the genus Anadia Gray, 1845 is described from the summit of Abakapá-tepui, Bolívar State, Venezuela, between 2200-2242 m elevation. The new species, Anadia mcdiarmidi sp. nov., is endemic to the Chimantá Massif and seemingly also occurs on Amurí-tepui and Murei-tepui. The new taxon is mainly distinguished from all known congeners by the following combination of characters: body fairly robust, dorsal scales small and quadrangular, middorsal scales 53-57, suboculars large, subequal in size, with sometimes one scale slightly protruding downward between 4th and 5th supralabial, nasal entire, without sub-nostril groove, body uniform beige or greyish to bluish brown in life, devoid of any conspicuous pattern in males, venter immaculate golden grey in life, femoral pores 9-10 on each side in males, preanal pores absent, hemipenis globose, weakly bilobed, bordered by numerous fl ounces (>20) bearing comblike rows of minute weakly mineralized spinules. The presence of a species of Anadia, a primarily Andean genus, on the top of tepuis is of considerable interest to the understanding of the Pantepui biogeography.
We are very pleased and proud to announce the launch of the European Journal of Taxonomy. The EJT is an international, online, fast-track, peer-reviewed, open access journal in descriptive taxonomy,covering subjects in zoology, entomology, botany, and palaeontology, owned and run by a Consortium of European Natural History Institutes. EJT is a collaborative project outcome of the EDIT network.
In this paper I tried to demonstrate that the British films depicting football hooliganism could be viewed as glorifying violence. A considerably great number of scenes and a great amount of time devoted to the presentation of violence, together with the unpunished, painless and heroic aspects of such presentations are just one side of the glorifying coin. The other side is occupied with the deeper meaning of particular scenes or the general overtones of the films which seem to develop a tendency to present a hooligan firm as a family-like community that offers happiness and produces a strong feeling of belonging and solidarity that adds spice to the boring working or middle class life. Violent confrontations are depicted as a source of pleasurable emotional arousal that surpass other forms of enjoyment. Moreover, confronting other hooligans helps hooligans to construct hard masculine identity based on physical prowess. Finally, being a good fighter is a fast track to earning a reputation that provides hooligans with a sense of power and importance. Real hooligans starring in the films, thus potentially encouraging viewers to become “wannabe warriors”, is also of great importance. However, the way the audiences react to the on-screen presentation of violence with all its aspects is a topic for much broader research.
Several phenomena associated with the differences in the performance of novice interpreters and semi-professionals have been discussed in the paper. Particular emphasis was placed on the occurrence of imported cognitive load which strongly influenced the performance of the subjects also in places where no intrinsic difficulty had been detected. Nevertheless, too little evidence was provided to establish a more detailed pattern of imported cognitive load, which was due to the limited number of participants in the study. It would be possible to obtain more detailed data and comments from the participants by means of interviews conducted individually with the participants. It would allow asking detailed questions to the participants, which might be a more reliable method than the immediate retrospective accounts. Moreover, in the present study such variables as gender differences, age differences and the possible influence of other foreign languages were not taken into account. Perhaps these variables might shed some light on the issue of the management of cognitive resources. Also, the corpus gathered for the present study may be used for the investigation of other aspects of the SI performance.
In the sections that follow we shall be concerned with analyzing the semantic evolution of the noun cheek in the history of English. The semantics of the lexical item under scrutiny will be examined with reference to its two aspects, that is (1) the semantic potential of the analysed lexical unit in its primary, etymological sense (sense A) and its secondary senses (senses B > E), (2) as well as the secondary senses emerging from various phraseological units which echo the nominal sense B (henceforth B-related senses). The analysis proposed here continues the area of research initiated in Wieclawska (2009a, 2009b), Wieclawska 2010, Kleparski and Wieclawska (2010) and Wieclawska (2011), the target of which are semantic changes and phraseological productivity of lexical items variously related to the conceptual macrocategory BODY PARTS. The methodological apparatus employed here is the one that follows the theoretical frames developed by, among others, Kleparski (1996, 1997, 2002), Kieltyka (2008, 2010) that may be referred to as representing much cognitivistic spirit of semantic analysis.
Translation is a very broad, complex and multi-faceted phenomenon, encompassing much more factors than it seems at first glance. It is not just copying the words from the original work while changing the language, but it consists of a careful selection of appropriate phrases and expressions, combining them together in a skillful way while taking into consideration numerous aspects, one of them being the text type. The purpose of this article is, therefore, to present various text typologies and text types, specify their implications for translators and determine the role of the correct recognition of text type in producing a successful translation. This will be done on the assumption that a text type is one of the basic factors that allow the translator to recognise the function and purpose of the text as well as the author's intention. Thus, depending on the nature of these, the translator will inevitably resort to different techniques and strategies in order to successfully render the source text. Therefore, identifying the text type also helps the translator to select the appropriate translation strategy.
For reasons of space, we only discussed one text in which the metaphors used seem to take their root in the context in which it has been written. One text is definitely not enough to make any definite claims on how widespread this phenomenon is. Given what we know about the two domains - Food and taste - one has reasons to believe that when speakers/conceptualisers (e.g. journalists) describe something which stands in some relation to both, they may intuitively be reaching for taste metaphors of the kind described above on the premise that this kind of ‘ornamentation’ will add some spice to what the addressee might otherwise consider a trivial (and boring) topic. At the same time, taste is only one among many properties a particular item of food or a substance (e.g. sugar) has. In consequence, one may well imagine contexts in which it is not its taste, but other properties (e.g. what Harbottle [1997:183] refers to as its 'pure white and deadly’ image) that will make the conceptualiser reach for a particular linguistic or conceptual metaphor.
G-CSC Report 2010
(2011)
The present report gives a short summary of the research of the Goethe Center for Scientific Computing (G-CSC) of the Goethe University Frankfurt. G-CSC aims at developing and applying methods and tools for modelling and numerical simulation of problems from empirical science and technology. In particular, fast solvers for partial differential equations (i.e. pde) such as robust, parallel, and adaptive multigrid methods and numerical methods for stochastic differential equations are developed. These methods are highly adanvced and allow to solve complex problems..
The G-CSC is organised in departments and interdisciplinary research groups. Departments are localised directly at the G-CSC, while the task of interdisciplinary research groups is to bridge disciplines and to bring scientists form different departments together. Currently, G-CSC consists of the department Simulation and Modelling and the interdisciplinary research group Computational Finance.
The aim of this article is to follow the changes that took place in the history of easy-to-please constructions. To fully apprehend that, we will begin by looking at Middle English infinitives and the change which affected them. Our attempt here is to prove that Early Middle English to was at its intermediate stage of development, i.e. it was neither a preposition nor inflection. In Late Middle English, to reached its final stage of a gradual evolution heading TR On account of the analysis of to and infinitives in Middle English, new constructions in which easv-to-please appear will be explained.
This article will attempt to suggest translation procedures necessary to translate culturally bound items in the referential level of a literary work illustrated with examples from two novels: “The Bluest Eye” by Toni Morrison and “Vineland” by Thomas Pynchon. First, the article will include a general description of the referential level in literary works offering possible avenues of 285 its rendition, then and finally suggest a translation methodology and techniques together with practical examples of the theory at work.
The cognitive framework seems to comply with the need of interdisciplinary outlook on the issue of emotions, as it itself draws upon findings of psychological, anthropological and philosophical research. Along with undertaking further studies on the conceptualization of emotions in different languages, from the detailed analysis of the repertoire of linguistic means used for talking about emotions to investigation into tendencies to use metaphors or metonymies to talk about emotions, some broader conclusions could be drawn. The greatest challenge seems to be establishing whether there are any cultural (social, economical, conventional, political, religious) conditions that may influence the relevant changes in conceptualizing emotions in different languages and whether it is possible to point to any laws or regularities that would govern these changes.
Autobiographie und Autofiktion. Vierte Sommerakademie Schweizer Literatur im Centre Dürrenmatt in Neuchâtel, 31. Mai – 4. Juni 2010 (Marie-Luise Wünsche)
Die Stellung der Germanistik in der Tschechischen Republik nach der Bologna-Reform. Internationale Konferenz des Germanistenverbandes der Tschechischen Republik in Prag, 16. – 17. September 2010 (Monika Růžičková)
Uferdasein. Quellen und Strömungen germanistischer Forschung. Internationale Tagung am Lehrstuhl für Germanistik in Ústí nad Labem, 3. – 4. Dezember 2010 (Renata Cornejo)
Aktuelle Probleme der modernen Lexikologie und Phraseologie. Internationale Germanistenkonferenz an der Moskauer Staatlichen Linguistischen Universität anlässlich des 100. Geburtstags von Irina I. Černyševa, 14. – 15. März 2011 (Galina M. Fadeeva)
Traum und Trauma. Kulturelle Figurationen in der österreichischen Literatur. Internationale Tagung in Wien, 15. – 16. April 2011 (Renata Cornejo)
20. Linguistik-Tage der Gesellschaft für Sprache und Sprachen in Prag, 26. – 28. Mai 2011 (Romana Vančáková)
Sprichwörter kommen selten aus der Mode oder wie kann man sie im Sprachenlernen einsetzen. Über das EU-geförderte Projekt SprichWort (Vida Jesenšek)
Rezension zu Egon Schwarz: (Mit) Schwarz lesen: Essays und Kurztexte zum Lesen und Gelesenen. Hrsg. v. Jacqueline Vansant. Wien: Praesens, 2009, Egon Schwarz: Unfreiwillige Wanderjahre. Auf der Flucht vor Hitler durch drei Kontinente. München: Beck, 2009 und Ursula Seeber/Jacqueline Vansant (Hrsg.): Schwarz auf Weiß. Ein transatlantisches Würdigungsbuch für Egon Schwarz. Wien: Czernin, 2007
Ausgehend von der Ansicht, dass Wörterbücher als kulturelle Gebrauchsgegenstände, als Werkzeuge aufzufassen sind, widmet sich der Beitrag ausgewählten Fragestellungen der phraseologischen Lernerlexikographie. Anhand von Überlegungen über die Benutzer- (gruppen), Benutzersituationen und Benutzerbedürfnisse wird auf die Frage eingegangen, warum die Praxis des Fremdsprachenerwerbs solche Wörterbücher braucht und was deren Autoren beherzigen sollten. Am Beispiel von Idiomen aus dem semantischen Feld ÄRGER werden Probleme der Auswahl sowie Möglichkeiten korpusbasierter Beschreibung von Phraseologismen angesprochen. Abgerundet wird der Beitrag durch eine Bildgeschichte, die ein typisches ärgerbezogenes Handlungsszenario reflektiert und sich somit zu einer lernfördernden Präsentation von Phraseologismen aus diesem semantischen Feld eignet.
Der Beitrag präsentiert die Problematik der Possessivität in zwei typologisch diversen Sprachsystemen. Die Autoren analysieren die Ausdrucksweisen und die Spezifika der Kategorie der Possessivität in der deutschen Sprache (als einem Repräsentanten der germanischen Sprachgruppe) und in der slowakischen Sprache (als einem Repräsentanten der slawischen Sprachgruppe und zugleich der Muttersprache der Autoren). Es werden die vielseitigen semantischen und strukturellen Aspekte in beiden Sprachen beschrieben, wobei die konfrontative und kontrastive Betrachtung von Bedeutung ist. Es wurden die Konstruktionen beider Sprachen ausgewählt, die nach der von den Autoren angenommenen Begriffsbestimmung der Possessivität als possessiv zu betrachten sind. Die präsentierte Problematik kann für weitere Analysen und Untersuchungen sowohl im Bereich der Sprachwissenschaft als auch für die Erweiterung der interlingualen Kompetenz in beiden Sprachsystemen inspirierend und hilfreich sein.
Der Aufsatz analysiert die 1867 herausgegebene Schrift "Austria Polyglotta" von Jan Evangelista Purkyně. Der aus Böhmen stammende Gelehrte beschäftigt sich anhand wissenschaftlich gesammelter Daten und mit Hilfe wissenschaftlicher Methodik mit der heute aktuellen Frage, wie das "Miteinander-Leben" in einer multilingualen Gesellschaft gestaltet werden kann, so dass sie durch den Druck der schon etablierten Sprach-Nationalismen nicht auseinanderbricht. Dabei verliert er aber auch das andere damit zusammenhängende Problem nicht aus den Augen: Wie wird dabei gegen die Nivellierung bzw. den Verlust von "nationalen Besonderheiten" gesteuert. Wie wird also eine nationale Identität in einem übergeordneten multikulturellen politischen Gebilde gewahrt? Der zentrale Schlüsselbegriff der Studie, wie schon der Titel verrät, ist die Sprachenproblematik und die damit verbundenen Fragen des Spracherwerbs. Die aus eigener Erfahrung resultierenden Ansichten Purkyněs können gerade heute anregend wirken.
Der folgende Beitrag stellt die Frage nach der Aktualität Gadamers für die gegenwärtige Literaturtheorie. In einem ersten Teil wird das Hauptanliegen von Gadamers Philosophischer Hermeneutik im Hauptwerk „Wahrheit” und Methode deutlich gemacht und erklärt, warum für jenes die Poetik von solch zentraler Bedeutung ist. Im zweiten Teil werden drei Richtungen der Gadamerrezeption in der neueren Literaturtheorie skizziert – nämlich die Tendenz der literarischen Hermeneutik Gadamers Werk nicht als Interpretationslehre, sondern nur als Theorie des Verstehens zu betrachten, weiter die Ablehnung von Gadamers Verteidigung eines einheitlichen Sinnes des Kunstwerks in der postmodernen Literaturtheorie und schließlich die Übernahme einzelner Theoreme Gadamers im Rahmen der literaturgeschichtlich ausgerichteten Rezeptionsästhetik von Jauß. Im abschließenden dritten Teil wird in Abgrenzung zur Rezeptionsästhetik der Vorschlag gemacht, Gadamers Ästhetik und Poetik konsequent als eine Theorie des Lesens zu rekonstruieren und darauf hingewiesen, dass in der komplexen Struktur des Leseprozesses verschiedene in ihrem Charakter entgegengesetzt wirkende Momente von Gadamers Theorie integriert werden können.
Božena Němcová zählt neben Hus, Comenius, Mácha und Havlíček zu den am stärksten mythologisierten Gestalten der tschechischen Kultur (SCHAMSCHULA 1996) und ist darüber hinaus die einzige Frau unter ihnen. Während sie aber bis in die 1990er Jahre hinein als Lichtgestalt dieser Kultur, ja ihr ,Stern‘, galt, mehren sich gegen Ende des 20. Jahrhunderts die Versuche, Němcová nüchtern zu sehen.
Als Dagmar KNÖPFEL 2004 auf der Grundlage der drei letzten Briefentwürfe Němcovás an Vojtěch Náprstek einen Film drehte, wurde sie als „feministisch voreingenommen“ kritisiert. Dabei könnte über diesen Film eine Diskussion eingeleitet werden, z. B. zu den Wurzeln der häuslichen Gewalt im 19. Jahrhundert. Somit könnte er zur Vernetzung von Kunst und Wissenschaft, von Bohemistik und Germanistik beitragen.
Das Problem der künstlerischen Persönlichkeit wird im Rahmen der Musikästhetik besonders um 1800 zum Thema einer heftigen Diskussion. Schon längst spielte sich der Diskurs auch auf dem Gebiet anderer Disziplinen ab, wie z. B. der Philosophie, der erwähnten Thematik ist jedoch auch ein soziologischer Aspekt kaum abzusprechen. Dazu kommt die Germanistik, um diese Problematik zusammenzufassen und in den breiteren Kontext der romantischen Literatur einzusetzen. In den fiktiven Biografien vom Flötisten Andreas Hartknopf (K. Ph. Moritz) und vom Kapellmeister Joseph Berglinger (W. H. Wackenroder und L. Tieck) wird ein in dieser Zeit nach der künstlerischen Autonomie strebender Künstler dargestellt. Diese Studie zeigt, in welchen Punkten der Weg zur eigenen Ausdruckweise bei beiden fiktiven Musikern übereinstimmt und wo er unterschiedlich ist.
Seit mehreren Jahren ist in der Literaturwissenschaft die Rezeption und Adaption evolutionsbiologischer Ansätze en vogue. Eine wichtige These dieser Richtung besagt, dass Produktion und Rezeption von Literatur und ästhetische Erfahrung auf biologisch begründeten anthropologischen Konstanten beruhen. In diesem Beitrag wird der evolutionsbiologische Ansatz in der germanistischen Literaturwissenschaft dargestellt und eine kritische Analyse einiger Adaptionen geliefert. Die Besonderheit der germanistischen 'evolutionsbiologischen' Theoriebildung wird in Zusammenhang mit der jüngeren Geschichte der Disziplin gestellt und es wird gefragt, wieweit der Zugriff auf naturwissenschaftliche Konzeptionen eine Reaktion auf die Diskussion um die gesellschaftliche Relevanz von Literaturwissenschaft ist.
Aufgrund eines gestiegenen gesellschaftlichen Bewusstseins für die Notwendigkeit eines nachhaltigen Umgangs mit den natürlichen Ressourcen unseres Planeten sehen sich Kultur- und Literaturwissenschaften zunehmend mit der Forderung konfrontiert, eine umweltbewusste Perspektive zu entwickeln, um dem Ausschluss geisteswissenschaftlicher Disziplinen von der globalen Umweltdiskussion entgegen zu wirken. Dabei kann gerade die Auslandsgermanistik der englischsprachigen Länder von einer Theoriebildung profitieren, die in den anglo-amerikanischen Literatur- und Kulturwissenschaften bereits seit den achtziger Jahren stattfindet. Die Frage, wie Natur und Umwelt in Literatur, Kunst und Film repräsentiert werden, sollte zu einer zentralen Frage einer zukunftsorientierten Germanistik werden, zu deren Ausprägung die Auslandsgermanistik einen entscheidenden Beitrag leisten kann.