Refine
Year of publication
- 2011 (2393) (remove)
Document Type
- Article (935)
- Part of Periodical (373)
- Book (255)
- Doctoral Thesis (219)
- Part of a Book (152)
- Review (130)
- Working Paper (92)
- Report (88)
- Conference Proceeding (86)
- Bachelor Thesis (18)
Language
- German (1323)
- English (939)
- Portuguese (40)
- Croatian (32)
- French (27)
- Multiple languages (11)
- Italian (10)
- Spanish (6)
- dut (2)
- mis (1)
Keywords
- Deutsch (57)
- Literatur (53)
- Rezeption (30)
- Benjamin, Walter (24)
- Rezension (22)
- Dante Alighieri (20)
- Übersetzung (20)
- Literaturwissenschaft (18)
- Productive reception (18)
- Psychoanalyse (18)
Institute
- Medizin (207)
- Präsidium (141)
- Physik (112)
- Gesellschaftswissenschaften (98)
- Biochemie und Chemie (90)
- Extern (81)
- Geschichtswissenschaften (71)
- Biowissenschaften (69)
- Center for Financial Studies (CFS) (63)
- Wirtschaftswissenschaften (59)
Quasi-Monte-Carlo-Verfahren zur Bewertung von Finanzderivaten, BacDas Gebiet der Optionsbewertung ist durch die Entwicklungen zu neuen und immer komplexer werdenden Optionstypen und durch Verbesserungen im Bereich der Aktienkurs-Modelle geprägt. Diese Entwicklung und die gestiegene Leistungsfähigkeit der Parallelrechner haben das Interesse an den flexiblen Quasi-Monte-Carlo-Verfahren neu geweckt.
Die experimentellen Untersuchungen bestätigen die Überlegenheit des Quasi-Monte-Carlo-Verfahren gegenüber den klassische Monte-Carlo-Verfahren in Bezug auf niedrigdimensionale Optionstypen. Dieser Überlegenheit nimmt aber mit zunehmender Dimension ab, was eine Nachteil für das Quasi-Monte-Carlo Verfahren darstellt. Zur Verbesserung des Verfahrens gibt das Dimensions-Reduktions-Prinzip (effective dimension) und weitere Niederdiskrepanz-Folgen, wie Niederreiter-Folgen, Lattice-Regeln, usw. Weitere Verbesserungsmöglichkeiten könnten auch durch Wahl von anderen Diskretisierungsverfahren mit höherer starker Ordnung, wie z.B dem Milstein-Verfahren, erreicht werden. Mit dem Quasi-Monte-Carlo-Verfahren lässen sich auch komplizierte Optionen bewerten,
wie z.B. Bermuda-Optionen, Barrier-Optionen, Cap-Optionen, Shout-Optionen, Lokkback-Optionen, Multi-Asset-Optionen, Outperformance-Optionen, und auch mit weiteren Bewertungs-Modellen kombinieren, wie z.B. dem Black-Scholes-Modell mit variabler Verzinsung, Black-Scholes-Modell mit zeitabhängiger Volatilität, Heston-Modell für stochastische Volatilität, Merton-Sprung-Diffusion-Modell und dem Libor-Markt Modell für Zinsderivate, auf die ich in dieser Bachelorarbeit nicht mehr eingehen werde, mit denen ich mich jedoch in der Masterarbeit genauer beschäftigen werde.
Within the present work, photodissociation reactions on 100Mo, 93Mo and 92Mo isotopes were studied by means of the Coulomb dissociation method at the LAND setup at GSI. Experimental data on these isotopes are important to explain the problem of the underproduction of the lighter p-nuclei - 92; 94Mo - within the models of the p-process nucleosynthesis. The reaction rates used in the nucleosynthesis calculations are usually obtained within the framework of the statistical model. In order to verify the model predictions and reduce the uncertainties, experimental measurements of the reaction cross sections are required. In particular, the data on (γ,n) reactions are of interest, since these reactions were shown to dominate the p-process flow in the molybdenum mass region.
As a result of the analysis of the present experiment, integrated Coulomb excitation cross sections of the 100Mo(γ,n), 100Mo(γ,2n), 93Mo(γ,n) and 92Mo(γ,n) reactions were determined. The measurement of the 93Mo isotope is particularly important, since this nucleus is unstable, and the corresponding cross section has not been measured before.
It should be emphasized that Coulomb dissociation is a unique tool to study photoninduced reactions on unstable nuclei, which is especially relevant in the context of nucleosynthesis network calculations. However, because of to the complexity of the data analysis procedure and a number of model assumptions that are required in order to extract the Coulomb excitation cross section from the data, one of the main aspects of this thesis was to verify the method by comparing the results with the previously published data obtained with real photon beams. Integrated cross sections of the 100Mo(γ,n) and 100Mo(γ,2n) reactions were directly compared to the data by Beil et al., obtained at Saclay with photons from positron annihilation, while an indirect comparison could be performed with a recent photoactivation measurement by Erhard and co-workers. A reasonable agreement was observed for the 1n channel: a scaling factor of 0.8 ± 0.1 between our result and Beil et al. data is consistent with the scaling factor of 0.89±0.09 reported by Erhard et al. between their data and Beil et al. data. Both results are in agreement with the scaling factor of 0.85 ± 0.03 recommended by Berman et al. for the data measured at Saclay on nuclei in the respective mass region. A somewhat lower factor of 0.61 ± 0.09 between the present data and Beil et al. data was obtained for the 2n channel. The discrepancy might be explained by both the substantial efficiency correction that has to be applied to the LAND data in the two-neutron case, as well as by an insufficiently accurate assumption that the Saclay neutron detector efficiency is energy- and multiplicity- independent.
A second important topic of the present thesis is the investigation of the efficiency of the CsI gamma detector. The calorimetric information that it delivers is essential to reconstruct the energy-differential cross section from the present measurement. The data taken with the gamma calibration sources shortly after the experiment were used for the investigation. In addition, a test experiment in refined conditions was conducted within the framework of this thesis. Numerous GEANT3 simulations of the detector were performed in order to understand various aspects of its performance. As a result, the efficiency of the detector was determined to be approximately a factor of 2 lower than the efficiency expected from the simulation. This result is consistent with several independent investigations, which were performed using different methods. At the same time, a remarkable agreement between the simulated and experimental data was achieved under assumption that the inefficiency of the detector is explained by the loss of data from a number of crystals, which are randomly chosen in each event according to their averaged performance ratio (the ”on-off” effect). The reasons for the observed malfunction are yet not fully clear. Regardless of the exact reason, in the present conditions a deconvolution of the measured data from the CsI response is not possible. Consequently, within the framework of this thesis, the results are presented in terms of integrated cross sections. A search for alternative methods of data interpretation, allowing to extract energy-differential information out of the available data, in currently ongoing.
In the more recent experiments at the LAND setup, where the Crystal Ball gamma detector was used as a calorimeter, the reconstruction of the energy-differential cross section with a reasonable resolution was already shown to be feasible. It means that, even considering the uncertainties of the present experiment of the order of 10%, the uncertainties of the statistical model predictions, which are on average estimated to be within a factor of 1.5-2, can already be constrained.
The analysis of the present experiment is still in progress. As a next step, Coulomb excitation cross section for 94Mo will be obtained. The 94Mo(γ,n) reaction cannot be studied by photoactivation, since the life time of the daughter nucleus is too long (4000 y). At the same time, this reaction plays a key role in the p-process nucleosynthesis.
The future of the LAND setup - the R3B setup1 at FAIR2 - will take advantage of a three orders of magnitude higher intensity of the radioactive beams [85], as well as of a completely new detector system. High-resolution measurements of the energy-differential cross sections will be possible for exotic nuclei, which were never accessible in the laboratory before. Such measurements will open great opportunities for nuclear astrophysics, allowing to obtain high-quality experimental data even for regions of the nuclear chart where the statistical model calculations are not applicable.
Finanzderivate sind Produkte, die eine Möglichkeit bieten sich gegen künftige Preisschwankungen abzusichern oder auf eine zukünftige Preisentwicklung zu spekulieren. Die wichtigsten Arten von Finanzderivaten sind Optionen, Futures, Forwards und Swaps. Gegenstand vorliegender Bachelorarbeit werden ausschließlich Optionen sein. Auf den internationalen Finanzmärkten werden verschiedene Typen von Optionen gehandelt, weshalb sich die Frage des "fairen Preises" eines solchen Produktes stellt. Für viele gehandelte Optionen gibt es keine geschlossene Lösung zur Bestimmung des Preises, deshalb werden für diese numerische Verfahren zur Berechnung angewandt. Dabei muss beachtet werden, dass der Optionswert möglichst genau ist, jedoch sollte der Aufwand dabei ziemlich gering sein.
Ziel dieser Arbeit ist die Bestimmung eines numerischen Verfahrens, mit dem man europäische und amerikanische Multiasset-Optionen bewerten kann. Dieses Verfahren soll eine Erweiterung des bekannten Binomialverfahrens sein. Im Fokus steht dabei das Binomialverfahren, da es durch die Einschränkung auf zwei Entwicklungsmöglichkeiten in der Anwendung einfacher ist als das Black-Scholes-Modell. Dieses Verfahren ist nur für europäische und amerikanische Standard-Optionen definiert. Bei der Erweiterung muss beachtet werden, dass Multiasset-Optionen von mehreren Wertpapieren abhängen. In der Arbeit wird ein Produktbinomialverfahren entwickelt, das die Anzahl der Wertpapiere in der Dimension der entstehenden Bäume berücksichtigt. Dieses Verfahren konvergiert gegen das mehrdimensionale Black-Scholes-Modell und ist zu dessen graphischer Darstellung geeignet. Es wird jedoch auch gezeigt, dass dieses dem Fluch der Dimension unterliegt und somit der Aufwand für einen möglichst genauen Optionswert ziemlich hoch ist. Die Erweiterung dieses Verfahrens durch Dünne Gitter erzielt eine Optimierung der Laufzeit. Da der Fokus dieser Bachelorarbeit jedoch auf dem Produktbinomialverfahren liegt, wird im Folgenden auf diese Erweiterung nicht eingegangen.
Towards correctness of program transformations through unification and critical pair computation
(2011)
Correctness of program transformations in extended lambda calculi with a contextual semantics is usually based on reasoning about the operational semantics which is a rewrite semantics. A successful approach to proving correctness is the combination of a context lemma with the computation of overlaps between program transformations and the reduction rules, and then of so-called complete sets of diagrams. The method is similar to the computation of critical pairs for the completion of term rewriting systems.We explore cases where the computation of these overlaps can be done in a first order way by variants of critical pair computation that use unification algorithms. As a case study we apply the method to a lambda calculus with recursive let-expressions and describe an effective unification algorithm to determine all overlaps of a set of transformations with all reduction rules. The unification algorithm employs many-sorted terms, the equational theory of left-commutativity modelling multi-sets, context variables of different kinds and a mechanism for compactly representing binding chains in recursive let-expressions.
Am 27. März 2011 wird im Rahmen der hessischen Kommunalwahlen auch über eine Schuldenbremse abgestimmt. Diese sieht vor, dass vom Jahr 2020 an der Landeshaushalt grundsätzlich auszugleichen ist. Alfons Weichenrieder argumentiert, dass eine in der Verfassung verankerte Schuldenregel dazu geeignet ist die im politischen Prozess angelegten Anreize zur Verschuldung zu zügeln. Auf die disziplinierende Wirkung der Finanzmärkte alleine zu vertrauen reicht nicht.
Die Mehrheit der auf High Frequency Trading basierenden Strategien trägt zur Marktliquidität (Market-Making-Strategien) oder zur Preisfindung und Markteffizienz (Arbitrage-Strategien) bei. Eine ungeeignete Regulierung dieser Strategien oder eine Beeinträchtigung der zugrunde liegenden Geschäftsmodelle durch übermäßige Belastungen kann kontraproduktiv sein und unvorhergesehene Auswirkungen auf die Marktqualität haben. Allerdings muss jede missbräuchliche Strategie effektiv durch die Aufsichtsbehörden bekämpft werden.
Das deutsche Bankensystem ruht seit Jahrzehnten auf drei Säulen: den privaten Kreditbanken, den öffentlichen Banken des Sparkassensystems und den genossenschaftlichen Banken. Das Drei-Säulen-System scheint ursächlich für die Stabilität im deutschen Bankensystem zu sein. Gerade die Krise hat gezeigt, dass es für ein Bankensystem vorteilhaft ist, wenn es darin nicht nur einen Typus von Banken gibt. Wir müssen eine Pluralität von Organisationsformen im Bankwesen erhalten und weiterentwickeln.
Risiko muss wieder kosten
(2011)
Im Rahmen dieser Arbeit wird ein Gammaspektroskopie-Aufbau unter Verwendung eines HPGe-Clover-Detektors zur Nutzung in Aktivierungsexperimenten charakterisiert und untersucht. Die für präzise Aktivitätsmessungen nach einer Aktivierung nötigen Effizienzen werden mit Hilfe der Eichquellen 60Co und 22Na unter Nutzung verschiedener Modi des Clover-Detektors abstandsabhängig errechnet. „Listmode“-Daten ermöglichen dabei eine „offline“-Verarbeitung. Begleitet werden die Messungen von aufwändigen Monte-Carlo-Simulationen in Geant4. Parallele Auswertungsmethoden erlauben einen genauen Vergleich zwischen simulierten und experimentellen Ergebnissen.
Der Karlsruhe 4π-Bariumfluorid-Detektor, entwickelt und aufgebaut Ende der Achtzigerjahre am Forschungszentrum Karlsruhe, ist ein effizienter Detektor für Gammastrahlung und bietet vielfältige Einsatzmöglichkeiten für kernphysikalische Experimente. Insbesondere für Experimente der nuklearen Astrophysik ist er geeignet, aber auch für die Forschung zur Entwicklung neutronengetriebener Reaktoren, zum Beispiel zur Transmutation radioaktiver Abfälle. Derzeit befindet sich der Detektor an der Goethe-Universität Frankfurt, wo er mit der sich dort in Entwicklung befindenden FRANZ-Neutronenquelle eingesetzt werden soll. Diese ermöglicht zum Beispiel Messungen von Wirkungsquerschnitten für den s-Prozess in astrophysikalisch relevanten Energiebereichen und bei hohen Intensitäten.
Diese Arbeit behandelt astrophysikalische Möglichkeiten die der Detektor bietet sowie dessen allgemeinen Aufbau und Eigenschaften. Es wurden eine Funktionsprüfung des Detektors, Messungen der Zeit- und Energieauflösung, Energiekalibration sowie kleine Optimierungen und Reparaturen durchgeführt.
Das vornehmliche Ziel der OGAW Richtlinien ist es einen gemeinsamen europäischen Markt für Investment-Dienstleistungen auf Basis wohldefinierten Qualitätsstandards zu erreichen. Ein grenzüberschreitender Vertrieb eröffnet die Möglichkeit der Ausweitung von Geschäftsaktivitäten auf neue wirtschaftlich attraktive Absatzmärkte. Die Stellungnahme kommentiert die im Gesetzesentwurf vorgeschlagenen regulatorischen Instrumente vor dem Hintergrund verschiedener gegebener Kriterien.
This article discusses the effects of the countercyclical premium discussed in insurance supervision in the context of Solvency II. While the basic principle of introducing countercyclical elements into Solvency II is endorsed, the authors argue for a system based on market scenarios which would enforce stricter capital requirements in boom times and less strict requirements in times of crisis.
The European Commission's Green Paper "The EU corporate governance framework" raises 25 questions in order to assess the effectiveness of the current corporate governance framework for European companies. The authors contribute to the EU's consultation, respond to the 25 questions and comment on the suggestions set out in the Green Paper.
Die unkonventionellen Maßnahmen der EZB haben nicht nur zu Bilanz- und Reputationsrisiken geführt. Vielmehr haben sie auch die Grenzen der monetären Politik zur Verteilungs- und Finanzpolitik verwischt. Die Strukturen im Finanzsystem müssen durch ordnungspolitische Maßnahmen robuster gemacht werden.
Das neue Kreditinstitute-Reorganisationsgesetz, das als Artikel 1 des Restrukturierungsgesetzes vom 9. Dezember 2010 erlassen worden ist, führt für deutsche Kreditinsitute eine Bankenabgabe ein. Die Abgabe soll als Mittel der Prävention und Intervention dienen, um Finanzkrisen vorzubeugen und zu bekämpfen. Der vorliegende Beitrag bewertet die deutsche Bankenabgabe nach verfassungsrechtlicher Zulässigkeit und nach ihrer Zweckerfüllung.
Prodigal Italy Greece Spain?
(2011)
Contrary to widely held perceptions, workers in the southern European states that are most afflicted by the sovereign debt crisis work hard. However, labor productivity in these countries lags far behind the EU average. Structural reforms to boost productivity should be at the top of the reform agenda.
Die Macht der Ratingagenturen beruht auch auf den vielen Gesetzen und Verordnungen, die eine Orientierung an den Ratings der drei großen Agenturen vorschreiben, sagt Wirtschaftsprofessor Reinhard Schmidt. Um die Macht der Ratingagenturen zu begrenzen, empfiehlt er viele dieser Regeln ersatzlos zu streichen.
Vermutlich schon bald wird sich die Politik mit der gesetzlichen Verankerung eines makroprudenziellen Mandats für die Deutsche Bundesbank befassen. Welche Ziele soll das Mandat beinhalten, die über die bereits bestehende Aufgabe der Bundesbank, zur Finanzstabilität im Euroraum beizutragen, hinausgehen? Welche Instrumente sollen bei der Ausübung des Mandats zum Einsatz kommen?
Rechtsbrüche im Euroraum
(2011)
Der Weg in die Knechtschaft
(2011)
Die Marktwirtschaft beruht auf dem Prinzip, dass sich die Akteure im Rahmen des gesetzlichen Regelwerkes frei entfalten können. Hier liegt die entscheidende Stärke eines marktwirtschaftlichen, freiheitlichen Systems. Millionen von Individuen erwägen, welche Aktivitäten welche Chance eröffnen. Kein anderes System ist in der Lage, das Potential auszuschöpfen, das in unzähligen Individuen steckt. Der Markt ist nun einmal das beste "Entdeckungsverfahren", wie Hayek erkannte. Wer im Rahmen der Spielregeln Erfolg hat, darf nach diesen Prinzipien den Gewinn behalten, muss aber auch für den Misserfolg haften.
Reforms or bankruptcy?
(2011)
Almost 20 Greek academic economists from renowned universities in Europe and the US have prepared a one-page statement regarding the Greek crisis. In their statement the economic experts call upon the Greek public to accept the economic program of structural reforms, privatization, efficient tax collection, and shrinking of the public sector proposed and financed by the EU partners and the IMF. Among the signatories are this year's Nobel Prize winner Christopher Pissarides and Michalis Haliassos, Director of the Center for Financial Studies and Professor for Macroeconomics and Finance at the House of Finance.
The bail-in puzzle
(2011)
Under the current conditions of a global financial crisis, notably in Europe’s banking industry, the governance role of bond markets is defunct. In fact, investors have understood that bank debt will almost always be rescued with taxpayers’ money. The widespread practice of government-led bank bailouts has thus severely corrupted the bond market, leading to the underestimation of risk and, as a consequence, the destruction of market discipline. Any feasible solution to the bank-debt-is-too-cheap problem will have to re-install true default risk for bank bond holders.
Stellungnahme zum Antrag der SPD-Fraktion auf Einführung einer Finanztransaktionssteuer in Europa
(2011)
Die Finanztransaktionssteuer ist kein geeignetes Instrument zur Verringerung systemischer Risiken, noch ein Mittel zur Vorbeugung einer Finanzkrise. Da sie zudem nur in Deutschland, Frankreich und einzelnen anderen Staaten eingeführt würde, wäre das Steueraufkommen, aufgrund von Steuerumgehung durch Verlagerung von Finanztransaktionen ins Ausland, gering.
Europa - wohin?
(2011)
Gemäß der Krönungstheorie der europäischen Währungsunion wurde der Euro eingeführt, um die Notwendigkeit gemeinsamen Regierens in der Europäischen Union allen vor Augen zu führen und so ein geordnetes Vorrücken zur europäischen Integration zu ermöglichen. In der gegenwärtigen Phase scheint indes politischer Opportunismus die Integration zu bestimmen.
Die große Herausforderung, um das systemische Risiko im Finanzsektor zu vermindern, besteht darin, kluge Finanzarchitektur zu etablieren, die gewährtleistet, dass ein verbindlicher Anteil von Bankanleihen außerhalb des Finanzsektors gehalten wird. Die Anleihegläubiger von außerhalb des Bankensektors müssen sich dadurch auszeichnen, dass sie kein Refinanzierungsrisiko haben, wenn sie eine plötzliche Verlussituation erleben.
Wie können Optionen bewertet werden, zu denen keine geschlossenen Lösungen existieren? Die Antwort lautet: Numerische Verfahren. In Hinblick auf diese Frage wurden in der Vergangenheit meist Baumverfahren, Finite-Differenzen- oder Monte-Carlo-Methoden herangezogen. Im Gegensatz dazu behandelt diese Bachelorarbeit den Einsatz von Quadraturverfahren (QUAD) bei der Bewertung von exotischen Optionen, also Optionen, die kompliziertere Auszahlungsstrukturen besitzen wie einfache Standard-Optionen. Die Grundidee besteht darin, den Optionswert als mehrdimensionales Integral in eindimensionale Integrale zu zerlegen, die daraufhin durch Quadraturformeln approximiert werden...Die Genauigkeit des Verfahrens wird erhöht, indem die Schrittweite der Quadraturformel h verkleinert wird. Dies hat allerdings zur Folge, dass sich der Rechenaufwand erhöht. QUAD jedoch schafft es, durch Reduzierung der Dimension und Ausnutzung der herausragenden Konvergenzeigenschaften von Quadraturformeln eine hohe Genauigkeit bei gleichzeitig geringen Rechenkosten zu erreichen.
Die Methode ist allgemein anwendbar und zeigt insbesondere beim Preisen von pfadabhängigen Optionen mit diskreten Zeitpunkten ihre Stärken. Als Anwendungsbeispiele betrachten wir deshalb folgende Optionstypen: Digitale-, Barrier-, Zusammengesetzte-, Bermuda- und Lookback Optionen. Ferner existieren entsprechende Verfahren für Asiatische- oder Amerikanische Optionen, für die jedoch mehr Vorarbeit notwendig ist.
Der große Vorteil von QUAD gegenüber anderen numerischen Verfahren liegt in der Vermeidung eines (bedeutsamen) Verteilungsfehlers und in der Tatsache, dass keine Bedingungen an die Auszahlungsfunktion gestellt werden müssen. Baum- oder Finite-Differenzen-Verfahren reduzieren zwar durch Gitterverfeinerung den Verteilungsfehler, allerdings geht dies Hand in Hand mit deutlich höheren Rechenzeiten. Zum Beispiel benötigt ein Baumverfahren für die doppelte Exaktheit einen vierfachen Rechenaufwand, während die QUAD Methode bei einem vierfachen Rechenaufwand die Exaktheit mit Faktor 16 erhöht (bei Extrapolation steigt dieser Faktor bis 256).
QUAD kann als "der perfekte Baum" angesehen werden, da es ähnlich zu Multinomialbäumen auf Rückwärtsverfahren zurückgreift, andererseits aber die hohe Flexibilität besitzt, Knoten frei und in großer Anzahl zu wählen. Des Weiteren gehen nur die den Optionspreis bestimmenden Zeitpunkte in die Bewertung mit ein, sodass auf zwischenzeitliche Zeitschritte gänzlich verzichtet werden kann.
Die eigentliche Arbeit gliedert sich in sechs Abschnitte. Zunächst erfolgt eine Einführung in allgemeine Quadraturverfahren, exotische Optionen und das Black-Scholes-Modell, was im Anschluss den Übergang zum Lösungsansatz liefert. Dieser Abschnitt schließt mit einer geschlossenen Integrallösung für Optionen, die der Black-Scholes-Differentialgleichung folgen, ab. In Abschnitt 4 wird die genaue Untersuchung der QUAD Methode vorgenommen. Unter Verwendung des in Abschnitt 5 vorgestellten Algorithmus wird anschließend in Abschnitt 6 die QUAD Methode auf die zuvor genannten Optionsklassen angewandt. Die entsprechenden Resultate werden am Ende dieses Teils in Tabellen und Graphiken präsentiert. Den Abschluss bildet das Fazit und die Zusammenfassung der Ergebnisse.
Sprung-Diffusions-Modelle zur Bewertung Europäischer Optionen, BacIn dieser Arbeit wurden die Europäische Optionen in den Sprung-Diffusions-Modellen von Merton und dem Modell von Kou bewertet. So stellen die geschlossenen Lösungen für das Merton-Modell als Anwendung der Black-Scholes-Formel eine einfache Möglichkeit zur Berechnung eines Optionspreises dar. Die Verwendung einer analytischen Lösung für Merton ist allerdings nur eingeschränkt, d.h. für zwei spezielle Sprungverteilungsfunktionen (Plötzlicher Ruin und die Lognormalverteilung) möglich. Das Kou-Modell hingegen, hat eine geschlossene Lösung für Doppel-Exponentialverteilte Sprünge. Eine flexible Lösungsmöglichkeit zur Bestimmung eines Optionspreises ist die Verwendung des Monte-Carlo-Verfahrens für die Simulation der Kursbewegung mit zugrunde liegendem Sprung-Diffusions-Modell. In diesem Fall ist das Monte-Carlo-Verfahren zur Ermittlung des Optionspreises nur einmal anzuwenden. Dieses Verfahren konvergiert mit einer Konvergenzrate von 1/2.
Wie alle anderen Modelle, die auf Lévy Prozessen basieren, lässt das Kou-Modell eine empirische Beobachtung vermissen, nämlich die mögliche Abhängigkeit zwischen Renditen der Underlyings (der sogenannte "volatility clustering affect"), weil das Modell unabhängige Inkremente unterstellt. Eine Möglichkeit die Abhängigkeit mit einzubeziehen, wäre die Nutzung anderer Punktprozesse Ñ(t) mit abhängigen Inkrementen anstelle des Poisson-Prozesses N(t). Es muss natürlich die Unabhängikeit zwischen der Brownschen Bewegung, den Sprunghöhen und ~N(t) beibehalten werden. Das so modifizierte Modell hat keine unabhängigen Inkremente mehr, ist aber einfach die geschlossene Lösungsformel für Call- und Put-Optionen zu erhalten. Andererseits scheint es schwer analytische Lösungen für Pfadabhängige Optionen durch Nutzung von Ñ(t) anstelle von N(t) zu erhalten.
Feasibility, nationalism, migration, justification, and global justice : some further thoughts
(2011)
Brock and justification
(2011)
This case study evaluated the response of objective and subjective markers of overreaching to a highly demanding conditioning training mesocycle in elite tennis players to determine 1) whether players would become functionally or non-functionally overreached, and 2) to explore how coherently overreaching markers would respond. Performance, laboratory and cardiac autonomous activity markers were evaluated in three experienced male tennis professionals competing at top 30, top 100 and top 1000 level before and after their strength and conditioning training was increased by 120, 160 and 180%, respectively, for 30 days. Every week, subjective ratings of stress and recovery were evaluated by means of a questionnaire. After 74, 76 and 55 h of training, increases in V̇O2max (+8, +5 and +18%) and speed strength indices (+9, +23 and +5%) were observed in all players. Changes of maximal heart rate (-5, -6, +4 beats per minute), laboratory markers (e.g. insulin-like growth factor -26, -17, -9%; free testosterone to cortisol ratio -63, +2, -12%) and cardiac autonomous activity markers (heart rate variability -49, -64, -13%) were variable among the players. Improved performance provides evidence that overreaching was functional in all players. However, several overreaching markers were altered and these alterations were more pronounced in the two top 100 players. The response of overreaching indicators was not coherent.
Im Jahre 2004 sind am Universitätsklinikum Frankfurt zwei Patienten mit X-CGD gentherapeutisch behandelt worden. Nach einer initialen Phase mit Nachweis ausreichender Mengen Oxidase-positiver Zellen im Blut der Patienten und einer deutlichen klinischen Besserung vorbestehender Infektionsherde kam es zu einem Verlust der Transgenexpression durch epigenetische Veränderungen des viralen Promotors. Ferner entwickelte sich durch Insertionsmutagenese eine klonale Expansion in der Hämatopoese und schließlich ein myelodysplastisches Syndrom mit Monosomie 7 bei beiden Patienten. In der Zusammenschau mit anderen Gentherapiestudien zur X-CGD zeigt sich, dass bislang ein langanhaltendes Engraftment funktionierender genkorrigierter Zellen nur im Zusammenhang mit einer Insertionsmutagenese beobachtet wurde. Zukünftige gentherapeutische Strategien zur Behandlung der X-CGD müssen das Risiko einer Insertionsmutagenese minimieren und gleichzeitig die Effektivität des Engraftments genkorrigierter Zellen steigern. Dies soll durch den Einsatz von SIN-Vektoren sowie einer Intensivierung der Konditionierung der Patienten erreicht werden.
In Nervensystemen werden zahlreiche Informationen wahrgenommen und verarbeitet um ein adäquates Verhalten hervorzurufen. Für die Untersuchung der funktionellen Zusammenhänge hierbei wurden verschiedene Methoden entwickelt, die eine gezielte Manipulation neuronaler Prozesse ermöglichen. Durch Analyse der resultierenden Effekte können dabei synaptische Proteine, einzelne Neuronen oder neuronale Netzwerke funktionell charakterisiert werden. Bisherige Ansätze verfügen jedoch nur über eine geringe zeitliche und räumliche Auflösung oder erlauben lediglich eine eingeschränkte Anwendung im frei beweglichen Tier.
Diese Nachteile können durch die heterologe Expression von lichtgesteuerten, mikrobiellen Rhodopsinen zur gezielten Manipulation des Membranpotentials umgangen werden. So induziert die Photoaktivierung des Kationenkanals Channelrhodopsin 2 (ChR2; (Nagel et al., Curr Biol 2005)) eine Depolarisation, während die Chloridpumpe Halorhodopsin (NpHR; (Zhang et al., Nature 2007)) für die Hyperpolarisation verwendet werden kann. Dabei ermöglichen die schnellen Kinetiken der Rhodopsine eine zeitlich präzise Steuerung des Membranpotentials. Durch Auswahl geeigneter Promotoren ist zudem oftmals eine zell spezifische Expression möglich. Dieser Ansatz wird daher allgemein als Optogenetik bezeichnet.
In der vorliegenden Arbeit wurden zunächst konventionelle Techniken genutzt, um die Funktion von zwei assoziierten Proteinen eines Acetylcholin Rezeptors in C. elegans zu untersuchen. Des Weiteren wurden verschiedene Methoden für den Fadenwurm entwickelt und angewendet, die die Vorteile optogenetischer Techniken für die funktionelle Charakterisierung synaptischer Proteine und neuronaler Netzwerke nutzbar machen. Hierbei erlaubt die Transparenz von C. elegans die optogenetische Stimulation im lebenden Organismus unter nicht invasiven Bedingungen. Weitere Vorteile von C. elegans als neurobiologischem Modellorganismus liegen in seiner einfachen Handhabung (Hope, 1999) und der stereotypen Entwicklung seines Nervensystems mit bekannten anatomischen Ausprägungen (Sulston and Horvitz, Dev Biol 1977; Varshney et al., PLoS Comput Biol 2011; White et al., Philos Trans R Soc Lond B Biol Sci 1986). Durch ihre Häufigkeit und die experimentelle Zugänglichkeit wird hierbei die neuromuskuläre Synapse oftmals zur Erforschung der synaptischen Reizweiterleitung genutzt (Von Stetina et al., Int Rev Neurobiol 2006). Durch pharmakologische (Lewis et al., Neuroscience 1980; McIntire et al., Nature 1993; Miller et al., Proc Natl Acad Sci U S A 1996; Richmond and Jorgensen, Nat Neurosci 1999) und elektrische Stimulation (Richmond and Jorgensen, Nat Neurosci 1999) können dabei Defekte der Transmission hervorgehoben werden, während Verhaltensexperimente oder elektrophysiologische Messungen der post synaptischen Ströme in Muskelzellen eine quantitative Analyse ermöglichen (Richmond and Jorgensen, Nat Neurosci 1999).
Diese Methoden wurden für die funktionelle Charakterisierung von NRA 2 und NRA 4 verwendet, die beide als akzessorische Proteine zusammen mit dem Levamisol sensitiven Acetylcholin Rezeptor der Körperwandmuskelzellen aufgereinigt wurden (Gottschalk et al., EMBO J 2005). Dabei konnte gezeigt werden, dass NRA 2 und NRA 4 im Endoplasmatischen Retikulum (ER) der Muskelzellen einen Komplex bilden, der die Sensitivität von beiden nikotinischen Acetylcholin Rezeptoren gegenüber verschiedenen cholinergen Agonisten verändert. In diesem Zusammenhang wurde auch nachgewiesen, dass die Oberflächenexpression einzelner Untereinheiten der beiden Rezeptoren durch NRA 2/4 beeinflusst wird. Diese Resultate legen die Vermutung nahe, dass beide Proteine die Zusammensetzung der Rezeptoren und somit ihre pharmakologischen Eigenschaften modulieren. Denkbar ist dabei eine regulatorische Funktion bei der Assemblierung verschiedener Untereinheiten zu einem funktionellen Rezeptor oder bei der Kontrolle des ER Austritts von Rezeptoren mit bestimmter Zusammensetzung. In dieser Hinsicht konnte jedoch keine Interaktion von NRA 2/4 mit der Notch Signalkaskade nachgewiesen werden, wie sie für die homologen Proteine nicalin und NOMO in Vertebraten gezeigt wurde (Haffner et al., J Biol Chem 2007; Haffner et al., EMBO J 2004).
Für die Untersuchung synaptischer Proteine durch optogenetische Techniken wurde ChR2(H134R) selektiv in cholinergen oder GABAergen Motorneuronen exprimiert, um die akute und lichtgesteuerte Freisetzung des jeweiligen Neurotransmitters zu ermöglichen. Die resultierende Stimulation bzw. Inhibition von Muskelzellen wurde hierbei durch elektrophysiologische Messungen der post synaptischen Ströme und durch Analyse von Kontraktionen respektive Relaxationen untersucht. Dabei wurde gezeigt, dass Störungen der synaptischen Reizweiterleitung die Ausprägung und Dynamik dieser lichtinduzierten Effekte beeinflussen und dadurch charakterisiert werden können. So zeigten beispielsweise Mutanten von Synaptojanin und Endophilin nachlassende Effekte bei anhaltender oder wiederholter Stimulation, was durch die gestörte Regeneration synaptischer Vesikel erklärt werden kann (Harris et al., J Cell Biol 2000; Schuske et al., Neuron 2003; Verstreken et al., Neuron 2003).
Die hohe Sensitivität dieser Methode wurde im Nachfolgenden dazu verwendet, die Inhibition cholinerger Motorneuronen durch den metabotropen GABAB Rezeptor zu untersuchen, der in C. elegans aus den beiden Untereinheiten GBB 1 und GBB 2 gebildet wird (Dittman and Kaplan, J Neurosci 2008; Vashlishan et al., Neuron 2008). Dabei konnte zunächst gezeigt werden, dass diese heterosynaptische Inhibition verschiedene lokomotorische Verhaltensweisen der Tiere beeinflusst. Für die mechanistische Untersuchung wurden anschließend cholinerge Motorneuronen durch ChR2(H134R) photoaktiviert, während resultierende Kontraktionseffekte in Abhängigkeit von GBB 1/2 analysiert wurden. Um hierbei die Funktion von GBB 1/2 durch erhöhte GABA Konzentrationen hervorzuheben, wurden zusätzlich GABAerge Motorneuronen optogenetisch stimuliert oder die Wiederaufnahme von GABA aus dem synaptischen Spalt durch Mutation des Membran ständigen GABA Transporters blockiert. So konnte gezeigt werden, dass GBB 1/2 eine akute Inhibition der cholinergen Motorneuronen bewirken, was vermutlich für die Regulation von Bewegungsabläufen eine wichtige Rolle spielt. Die geringe Dynamik der GBB 1/2 induzierten Effekte deutet allerdings darauf hin, dass die synaptische Aktivität durch den metabotropen Rezeptor kaum nachhaltig moduliert wird.
In nachfolgenden Versuchen wurde die optogenetische Stimulation von Motorneuronen außerdem mit der elektronenmikroskopischen Analyse der präsynaptischen Feinstruktur kombiniert. Dadurch konnte die Dynamik der Exozytose und Endozytose synaptischer Vesikel (SV) in Abhängigkeit von neuronaler Aktivität untersucht werden. So wurde gezeigt, dass synaptische Vesikel nahe der aktiven Zone während einer 30 sekündigen Hyperstimulation nahezu komplett aufgebraucht waren. Die vollständige Regeneration der SV Pools benötigte anschließend etwa 12 Sekunden und erfolgte zunächst in der Peripherie der aktiven Zone, was auf eine laterale Heranführung der Vesikel schließen lässt. Nach etwa 20 Sekunden erholte sich ebenfalls die Wirksamkeit der Stimulation von Muskelzellen durch die Motorneuronen, was durch elektrophysiologische Messungen der photo induzierten post synaptischen Ströme gezeigt wurde. Während der Hyperstimulation bildeten sich außerdem große vesikuläre Strukturen, die sich anschließend nach etwa acht Sekunden wieder aufgelöst hatten. In Analogie zu vergleichbaren Experimenten in anderen Organismen liegt die Vermutung nahe, dass es sich dabei um Zwischenprodukte der so genannten Bulk Phase Endozytose handelt, die das Clathrin abhängige Recycling von synaptischen Vesikeln bei starker neuronaler Aktivität ergänzt (Heuser and Reese, J Cell Biol 1973; Miller and Heuser, J Cell Biol 1984; Richards et al., Neuron 2000). Bemerkenswerterweise war der Abbau der vesikulären Strukturen in Synaptojanin und Endophilin defizienten Tieren stark verzögert. Denkbar ist, dass beide Proteine für die Synthese von synaptischen Vesikeln aus den vesikulären Zwischenprodukten der Bulk Phase Endozytose wichtig sind, analog zur ihrer Funktion bei der Clathrin abhängigen Endozytose an der Plasmamembran.
Durch die zielgerichtete Manipulation der Zellaktivität ermöglichen optogenetische Techniken außerdem die funktionelle Charakterisierung von Neuronen und neuronalen Netzwerken. Um die zelluläre Spezifität dieses Ansatzes zu erhöhen, wurde ein Tracking System entwickelt das die Position frei beweglicher Tiere in Echtzeit bestimmt und nachverfolgt. Dadurch konnte die Photoaktivierung optogenetischer Proteine auf definierte Bereiche der Fadenwürmer und somit auf ausgewählte Neuronen innerhalb der Expressionsmuster von verwendeten Promotoren eingeschränkt werden. Des Weiteren ermöglichte hierbei die Auswertung translatorischer Parameter die Analyse verschiedener lokomotorischer Merkmale wie Geschwindigkeit, Bewegungsbahn oder Ausprägung der Körperbiegungen. Dieses System wurde beispielhaft für die konzertierte Photoaktivierung durch ChR2(H134R) bzw. Photoinhibition durch MAC von zwei verschiedenen Gruppen von Neuronen angewendet, um die Integration mechanosensorischer Informationen durch Command Interneuronen zu untersuchen. In diesem Zusammenhang wurde zudem eine Rekombinase basierte Methode für optogenetische Proteine adaptiert, die die Transkription auf die zelluläre Schnittmenge von zwei verschiedenen Promotoren einschränkt und somit die Spezifität der Expression erhöht. Idealerweise kann dieser Ansatz außerdem mit der gezielten Photoaktivierung kombiniert werden, um die zelluläre Selektivität optogenetischer Anwendungen weiter zu verbessern.
Weiterhin ist die Anwendung optogenetischer Techniken bisher durch intrinsische Eigenschaften der verwendeten Rhodopsine auf die relativ kurzzeitige Manipulation des Membranpotentials von Zellen beschränkt. So benötigt ChR2 durch die schnelle Schließung seines offenen Kanals eine kontinuierliche Photoaktivierung, um eine andauernde Depolarisation hervorzurufen. Dies ist jedoch potentiell mit phototoxischen und – besonders bei C. elegans – phototaktischen Nebeneffekten verbunden. Deswegen wurden diverse Mutanten von ChR2 mit stark verlangsamter Inaktivierung (Berndt et al., Nat Neurosci 2009) für ihren Nutzen zur Langzeit Stimulation von erregbaren Zellen im Nematode getestet. Dabei wurde gezeigt, dass ChR2(C128S) durch einen kurzen Photostimulus mit vergleichsweise niedriger Intensität eine anhaltende Depolarisation über mehrere Minuten auslösen kann. Die wiederholte Stimulation in ASJ Neuronen ermöglichte zudem eine langzeitige Depolarisation über mehrere Tage, wodurch die genetisch veranlagte Entwicklung von Tieren manipuliert werden konnte. Durch gezielte Punktmutation konnten außerdem relevante Eigenschaften von ChR2(C128S) für die Langzeit Stimulation weiter verbessert werden.
Als weiteres optogenetisches Werkzeug wurde zudem die Photoaktivierbare Adenylatzyklase alpha (PACa) aus Euglena gracilis (Iseki et al., Nature 2002; Ntefidou et al., Plant Physiol 2003; Schroder-Lang et al., Nat Methods 2007) für die akute und lichtgetriebene Synthese des sekundären Botenstoffs cAMP in C. elegans etabliert. Die Photoaktivierung von PACa in cholinergen Motorneuronen verstärkte dabei die Neurotransmitterfreisetzung und induzierte hyperlokomotorische Phänotypen, vergleichbar zu Mutanten mit erhöhten cAMP Konzentrationen.
Zusammengefasst wurden diverse optogenetische Techniken für C. elegans entwickelt und optimiert, die die zellspezifische und nicht invasive Manipulation des Membranpotentials beziehungsweise die Synthese des sekundären Botenstoffs cAMP durch Licht im frei beweglichen Tier ermöglichen. Diese Methoden können zur gezielten Störung neuronaler Aktivität angewendet werden, um dadurch neurobiologische Fragestellungen im Fadenwurm zu untersuchen. Dies wurde beispielhaft für die Erforschung der synaptischen Reizweiterleitung und die funktionelle Analyse neuronaler Netzwerke demonstriert. Denkbar ist außerdem, diese für C. elegans etablierten Methoden vergleichbar in anderen Modellorganismen anzuwenden. So sind die Fruchtfliege ebenso wie der Zebrafisch Embryo bereits für optogenetische Techniken erprobt (Arrenberg et al., Proc Natl Acad Sci U S A 2009; Schroll et al., Curr Biol 2006). Für Säugetiere wie die Maus, die Ratte und den Makaken wurden zudem bereits Ansätze entwickelt, die die gezielte Photostimulation in lebenden und frei beweglichen Tieren ermöglichen (Han et al., Neuron 2009; Wentz et al., J Neural Eng 2011; Yizhar et al., Nature 2011; Zhang et al., Nat Rev Neurosci 2007).
Statistical machine translation (SMT) should benefit from linguistic information to improve performance but current state-of-the-art models rely purely on data-driven models. There are several reasons why prior efforts to build linguistically annotated models have failed or not even been attempted. Firstly, the practical implementation often requires too much work to be cost effective. Where ad-hoc implementations have been created, they impose too strict constraints to be of general use. Lastly, many linguistically-motivated approaches are language dependent, tackling peculiarities in certain languages that do not apply to other languages. This thesis successfully integrates linguistic information about part-of-speech tags, lemmas and phrase structure to improve MT quality. The major contributions of this thesis are: 1. We enhance the phrase-based model to incorporate linguistic information as additional factors in the word representation. The factored phrase-based model allows us to make use of different types of linguistic information in a systematic way within the predefined framework. We show how this model improves translation by as much as 0.9 BLEU for small German-English training corpora, and 0.2 BLEU for larger corpora. 2. We extend the factored model to the factored template model to focus on improving reordering. We show that by generalising translation with part-of-speech tags, we can improve performance by as much as 1.1 BLEU on a small French- English system. 3. Finally, we switch from the phrase-based model to a syntax-based model with the mixed syntax model. This allows us to transition from the word-level approaches using factors to multiword linguistic information such as syntactic labels and shallow tags. The mixed syntax model uses source language syntactic information to inform translation. We show that the model is able to explain translation better, leading to a 0.8 BLEU improvement over the baseline hierarchical phrase-based model for a small German-English task. Also, the model requires only labels on continuous source spans, it is not dependent on a tree structure, therefore, other types of syntactic information can be integrated into the model. We experimented with a shallow parser and see a gain of 0.5 BLEU for the same dataset. Training with more training data, we improve translation by 0.6 BLEU (1.3 BLEU out-of-domain) over the hierarchical baseline. During the development of these three models, we discover that attempting to rigidly model translation as linguistic transfer process results in degraded performance. However, by combining the advantages of standard SMT models with linguistically-motivated models, we are able to achieve better translation performance. Our work shows the importance of balancing the specificity of linguistic information with the robustness of simpler models.
Im Mittelpunkt des Gutachtens stehen die anthropologischen Grundlagen, das wirtschaftsethische Fundament und das Menschenbild der Sozialen Marktwirtschaft. Die Leitlinien des Wittenberg-Prozesses der Chemie-Sozialpartner dienen dabei als argumentative Grundstruktur. Ziel der Arbeit ist es, aufzuzeigen, dass die CSSA und der Wittenberg-Prozess auf den normativen und wirtschaftsethischen Prämissen der (originären) Sozialen Marktwirtschaft ruhen und die Sozialpartnerschaft der chemischen Industrie ein wichtiger Baustein ist auf dem Weg hin zu einer Neubegründung und Renaissance der Sozialen Marktwirtschaft vor dem Hintergrund der Globalisierung. Folgende Hypothesen sollen dabei eingehender untersucht werden: 1. Fundamental für die Wirtschaftsethik der Sozialen Marktwirtschaft ist die Unterscheidung von Individual, Unternehmens-und Ordnungsethik. 2. Das Freiheitsverständnis der Sozialen Marktwirtschaft enthält sowohl negative (im Sinne der Abwesenheit von Willkür und Zwang) als auch positive Momente (im Sinne von rationaler Selbstbestimmung und kantischer Autonomie). Darüber hinaus inkorporiert es die aus der Konstitutionenökonomik bekannten Prinzipien der Diskriminierungs und Privilegienfreiheit. 3. Das Gerechtigkeitsverständnis der Sozialen Marktwirtschaft ist synkretistisch und eklektisch; es verbindet kommutative mit distributiven Gerechtigkeitselementen. 4. Der Homo oeconomicus ist kein(!) Bestandteil der Wirtschaftsethik der Sozialen Marktwirtschaft. Diese weist vielmehr Parallelen zur Heuristik der Kulturellen Ökonomik – dem sogenannten Homo culturalis – auf. 5. Eine bedeutende Funktion innerhalb der Sozialen Marktwirtschaft kommt der Sozialpartnerschaft zu. Diese leistet einen wichtigen Beitrag zur Stärkung der sozioökonomischen Teilhabe und Inklusion auf der unternehmensethischen Ebene.
Prokaryotische Organismen werden in ihrer natürlichen Umgebung mit schwankenden Umwelteinflüssen konfrontiert oder müssen gegebenenfalls extremen Bedingungen standhalten. Um sich an derartige Veränderungen anpassen zu können und damit ein weiteres Überleben zu sichern, ist es wichtig neue genetische Informationen zu akquirieren. Die molekulare Basis dieser Anpassung sind Genmutationen, Genverlust, intramolekulare Rekombination und/oder horizontaler Gentransfer. Der vorliegende Selektionsdruck der Umwelt begünstigt schlussendlich die Spezialisierung und damit die Erschließung neuer Standorte aufgrund des Erwerbs neuer metabolischer Eigenschaften, Resistenzgene oder Pathogenitätsfaktoren. Vergleichende Analysen bakterieller Genome, welche auf Analysen der GC-Gehalte, der Codon- und Aminosäurenutzung und der Genlokalisation beruhen, zeigten, dass bei diesem evolutiven Prozess bzw. der Weiterentwicklung der bakteriellen Genome der horizontale Gentransfer als treibende Kraft eine entscheidende Rolle spielt. So indizieren Genomstudien, dass 0-22% der gesamten bakteriellen und 5-15% der archaeellen Gene horizontal erworben wurden, wobei der DNA-Transfer nicht ausschließlich zwischen Vertretern einer Domäne, sondern ebenfalls zwischen Organismen unterschiedlicher Domänen stattgefunden hat. So sind z.B. 24 bzw. 16% der Gene von Genomen hyperthermophiler Organismen wie Thermotoga maritima oder Aquifex aeolicus archaeellen Ursprungs. Ebenso finden sich Gene für Chaperone und DNA-Reparaturenzyme im Genom des thermophilen Bakteriums Thermus thermophilus wieder, welche wahrscheinlich ebenfalls durch horizontalen Gentransfer aus hyperthermophilen und archaeellen Genomen erworben wurden um eine Anpassung an extreme Standorte zu ermöglichen. Durch vergleichende Genomstudien wurde ebenfalls festgestellt, dass die durch horizontalen Gentransfer erworbenen Gene oftmals zu einer Neuorganisation von Transkriptionseinheiten und zu einer veränderten Genomorganisation führten. Dennoch finden sich immer wieder Beispiele von horizontal erworbenen Operonen in den verschiedenen Organismen. Gut charakterisierte Vertreter horizontal übertragener Operone sind dabei z.B. das archaeelle H+-ATPase-Operon, das Operon der Na+-translozierenden NADH:Ubichitonoxidoreduktase oder das Nitratreduktase-Operon.
Man unterscheidet bei dem horizontalen Gentransfer zwischen drei Mechanismen der DNAAufnahme: Konjugation, Transduktion und Transformation. Die DNA-Übertragung durch Konjugation ist durch einen spezifischen Zell-Zell-Kontakt definiert, der durch einen von der Donorzelle ausgehenden, sogenannten F-Pilus hergestellt wird. Die Donorzelle überträgt schließlich Plasmid-kodierte genetische Informationen und oftmals Eigenschaften für die eigenständige Konjugation auf eine Rezipientenzelle. Die Transduktion hingegen beschreibt die DNA-Übertragung von Bakteriophagen auf eine Wirtszelle, wobei hier eine hohe Wirtsspezifität Voraussetzung ist. Die Übertragung der DNA von einer Bakterienzelle in eine andere erfolgt dabei ohne Kontakt der Zellen. Die natürliche Transformation ist definiert als Transfer von freier DNA und ermöglicht damit im Gegensatz zu den beiden ersten spezifischen Mechanismen der DNA-Übertragung ein größeres Spektrum der Verbreitung genetischer Informationen. Freie DNA, welche entweder durch Zelllyse oder Typ-IVSekretion ausgeschieden wird und aufgrund von Adsorption an mineralische Oberflächen über längere Zeiträume stabil in der Umgebung vorliegen kann, kann unter der Voraussetzung der Existenz eines speziellen Aufnahmesystems von Bakterien aufgenommen werden. Mittlerweile sind über 44 Bakterien aus unterschiedlichen taxonomischen Gruppen beschrieben, die eine natürliche Kompetenz ausbilden können. Die bekanntesten Beispiele für natürlich transformierbare Gram-negative Bakterien sind Heliobacter pylori, Neisseria gonorrhoeae, Pseudomonas stutzeri, Haemophilus influenzae, T. thermophilus und Acinetobacter baylyi. Auch unter den Gram-positiven Bakterien finden sich einige Vertreter, die natürlich kompetent sind, wie Deinococcus radiodurans, Bacillus subtilis und Streptococcus pneumoniae. Ungeachtet der relevanten Rolle der Transformation im horizontalen Gentransfer, ist über die Struktur und Funktion der komplexen DNA-Aufnahmesysteme wenig bekannt.
Das Ziel meiner Arbeit ist die zuverlässige quantenchemische Beschreibung der Absorptionsspektren von mittelgroßen Molekülen und das Studium von photoaktiven Pigmenten. Nach einer kurzen Einführung in das Thema "elektronisch angeregte Zustände und Photoreaktionen" beschreibe ich die Formalismen, die den verwendeten Rechenmethoden zu Grunde liegen und diskutiere die Anwendbarkeit auf größere Moleküle. Hierbei liegt ein Hauptaugenmerk auf den dichtefunktionaltheoriebasierten Methoden (DFT-Methoden), vor allem auf den Eigenschaften der zeitabhängigen Dichtefunktionaltheorie (engl.: time dependent density functional theory, TDDFT). Anschließend erfolgt eine Zusammenfassung der im Laufe dieser Arbeit erhaltenen Ergebnisse.
Die moderne Quantenchemie befasst sich mit der Anwendung der in den 20er und 30er Jahren des 20. Jahrhunderts entwickelten Quantenmechanik auf chemische Probleme. Zum theoretischen Studium von Molekülen gibt es verschiedene Ansätze. Zum einen gibt es die hochgenauen ab initio Methoden, die Näherungsverfahren zur elektronischen Schrödingergleichung sind. Sie haben den Vorteil systematisch verbesserbar und auf einem sehr soliden theoretischen Gerüst aufgebaut zu sein. Die Genauigkeit der Rechnungen kann die von experimentellen Ergebnissen erreichen, allerdings beschränkt der hohe Rechenaufwand die Anwendung solcher ab initio Methoden auf kleine Moleküle wie Wasser, Methan oder Benzol.
Am anderen Ende des Spektrums der quantenchemischen Methoden sind die "semiempirischen Methoden" angesiedelt. Sie erfordern nur einen sehr geringen Rechenaufwand, wodurch es möglich ist, sehr große Systeme mit mehr als 1000 Atomen zu beschreiben. Allerdings führt der Ansatz, verschiedene Terme der Schrödingergleichung durch an experimentelle Daten gefittete Parameter zu ersetzen, zu einer geringen Genauigkeit und unvorhersehbaren Fehlern. Dies schränkt die standardmäßige Anwendung dieser Methoden stark ein, und eine Verifizierung durch genauere Methoden ist oftmals erforderlich.
Zwischen diesen beiden Polen (hoch genau aber sehr hoher Rechenaufwand und geringer Rechenaufwand, dafür aber ungenau) stehen die auf der Dichtefunktionaltheorie (DFT) basierenden Methoden. Sie zeichnen sich durch eine gute Genauigkeit bei vergleichsweise geringem Rechenaufwand aus. Dadurch hat sich die DFT in den letzten Jahren zur beliebtesten Methode für das Studium mittelgroßer Moleküle mit bis zu 400 Atomen entwickelt. DFT ist eine formal exakte Methode, bei der die berechneten Größen aus der Elektronendichte des Systems abgeleitet werden. Elektronenaustausch- und Korrelationseffekte werden durch Funktionale, den sogenannten Austauschkorrelationsfunktionalen (engl.: exchange correlation functionals, xc-functionals) beschrieben.
Die zeitabhängige Dichtefunktionaltheorie (time dependent DFT, TDDFT) ermöglicht die Beschreibung elektronisch angeregter Zustände mit einer guten Genauigkeit, aber zu einem Bruchteil des Rechenaufwands von ab initio Methoden, was TDDFT zur Methode der Wahl für das Studium der Photochemie mittelgroßer Moleküle macht. Die Fehler in den Anregungsenergien sind in der Regel systematischer Natur und den verwendeten xc-funktionalen geschuldet. Dennoch kann TDDFT nicht als "black box" Methode verwendet werden, da nicht alle elektronischen Zustände gleich gut beschrieben werden. Während energetisch niedrig liegende, lokale π -> π* und n -> π* Zustände oftmals in sehr guter Übereinstimmung mit dem Experiment sind, können Rydberg und Ladungstransferzustände (engl.: charge transfer states, ct-states) Fehler von mehreren Elektronenvolt in der Anregungsenergie haben. Doppelt oder höher angeregte Zustände können mit standard TDDFT Methoden nicht beschrieben werden. Dies kann zu Problemen bei ausgedehnten π-Systemen führen, da z.B. die angeregten Zustände von Polyenen einen hohen Doppelanregungscharakter besitzen. Trotz alledem ist TDDFT eine sinnvolle Methode zum Studium elektronisch angeregter Zustände, da ihre Probleme bekannt sind und vor allem ihr Ursprung in der Theorie gut verstanden ist. Die meisten Probleme können durch die intelligente Wahl der verwendeten xc-Funktionale vermieden werden. Kombiniert man TDDFT mit der Konfigurationswechselwirkungsmethode mit Einfachanregungen (engl.: configuration ineraction singles, CIS) erhält man sehr zuverlässig und mit vergleichbar geringem Rechenaufwand die richtige Energiereihenfolge der angeregten Zustände. Mit dieser Methode war es in dieser Arbeit möglich, die komplexe Photochemie von Bisazomethinpigmenten zu untersuchen und die experimentellen statischen und zeitaufgelösten Spektren auf molekularer Ebene zu interpretieren. Es konnte sowohl der Mechanismus aufgeklärt werden, der für die Fluoreszenzlöschung in den nicht-fluoreszierenden Derivaten verantwortlich ist, als auch die unerwartet komplizierte Photochemie der fluoreszierenden Moleküle schlüssig erklärt werden. Auch die Photoisomerisierung von Z-Hemithioindigo-Hemistilbene (HTI) zu seine E-Form wurde mit dieser Methode untersucht.
Im Rahmen dieser Arbeit wurde die Messung von ψ(2S) Mesonen mit dem ALICE-Experiment am LHC untersucht. Das ψ(2S) gehört zur Familie der Charmonia und kann sowohl in Proton-Proton- als auch in Nukleon-Nukleon-Kollisionen erzeugt werden und ist daher ein wichiger Parameter in den Studien dieser. Die Rate, mit der ψ(2S) durch verschiedene Mechanismen erzeugt werden, liefert Informationen über den Ablauf der Kollision und ist ein hilfreicher Faktor bei der Suche nach dem Quark-Gluon Plasma. Da es sich beim ψ(2S) um ein Charmonium handelt, das in niedrigere Charmoniumzustände zerfallen kann, ist das Verständis des ψ(2S) ebenso für Studien anderer Charmonia, wie dem J/ψ(1S), relevant.