Universitätspublikationen
Refine
Year of publication
- 2015 (1742) (remove)
Document Type
- Article (606)
- Doctoral Thesis (187)
- Working Paper (169)
- Contribution to a Periodical (164)
- Book (159)
- Report (157)
- Part of Periodical (124)
- Review (70)
- Preprint (55)
- Conference Proceeding (22)
Language
- English (866)
- German (835)
- Spanish (14)
- Italian (11)
- Portuguese (11)
- French (3)
- Multiple languages (1)
- Russian (1)
Is part of the Bibliography
- no (1742)
Keywords
- Islamischer Staat (34)
- IS (25)
- Terrorismus (23)
- Deutschland (16)
- Dschihadismus (13)
- Syrien (12)
- Terror (11)
- Irak (10)
- Islamismus (10)
- Salafismus (10)
Institute
- Präsidium (336)
- Medizin (252)
- Gesellschaftswissenschaften (230)
- Physik (185)
- Wirtschaftswissenschaften (149)
- Exzellenzcluster Die Herausbildung normativer Ordnungen (116)
- Center for Financial Studies (CFS) (115)
- Biowissenschaften (99)
- Frankfurt Institute for Advanced Studies (FIAS) (97)
- Informatik (96)
In this statement the European Shadow Financial Regulatory Committee (ESFRC) is advocating a conditional relief of Greek’s government debt based on Greece meeting certain targets for structural economic reforms in areas such as its labor market and pensions sector.The authors argue that the position of the European institutions that debt relief for Greece cannot be part of an agreement is based on the illusion that Greece will be able to service its sovereign debt and reduce its debt overhang after implementing a set of fiscal and structural reforms. However, the Greek economy would need to grow at an unrealistig level to achieve debt sustainability soley on the basis of reforms.The authors therefore view a substantial debt relief as inevitable and argue that three questions must be resolved urgently, in order to structure debt relief adequately: First, which groups must accept losses associated with debt relief. Second, how much debt relief should be offered. Third, under what conditions should relief be offered.
In light of the failed negotiations with Greece, Jan Krahnen argues that an effective reform agenda for Greece can only be designed by the elected government. Fundamental reforms will take time to take full effect and euro area member states will, in the meantime, have to offer Greece a basic level of economic security.
Krahnen demands that policy makers and the professional public involved view the Greek crisis as an opportunity to take the next necessary steps to formulate a reform agenda for the European Monetary Union. A community of supranational and non-party researchers and intellectuals could take the initiative and in a structured process develop a trustworthy and realistic concept that drafts the next big step towards a political union of Europe, including elements of a fiscal union.
Mit Blick auf die gescheiterten Verhandlungen mit Griechenland, argumentiert Jan Krahnen im vorliegenden Policy Beitrag, dass eine zielführende Reformagenda nur von der gewählten Regierung Griechenlands formuliert werden kann. Die Euro-Staaten müssten Griechenland für die Zeitdauer einer Restrukturierungszeit eine Grundsicherung zusagen. Die EU-Staaten fordert Krahnen dazu auf, aus der Griechenlandkrise die notwendigen Konsequenzen zu ziehen. Auch die Eurozone brauche eine effektive Reformagenda. Die Verschuldungsdynamik innerhalb der Währungsunion, deren Auswüchse am Beispiel Griechenlands besonders deutlich werden, könne bei fehlendem guten Willen nur durch eine politische Union und eine in sie eingebettete Fiskalunion aufgelöst werden. Krahnen argumentiert, dass ein Weiterverhandeln über Restrukturierungsauflagen aus der derzeitigen verfahrenen Situation nicht herausführen wird. Entscheidend sei, ein mehr oder weniger umfassendes Paket zu schnüren, das Elemente eines teilweisen internationalen Haftungsverbunds mit Elementen eines partiellen nationalen Souveränitätsverzichts verbindet.
Negative Zinsen auf Einlagen – juristische Hindernisse und ihre wettbewerbspolitischen Auswirkungen
(2015)
Im anhaltenden Niedrigzinsumfeld tun Banken sich schwer damit, die ihnen zur Verfügung gestellte Liquidität einer renditeträchtigen Nachfrage zuzuführen. Darüberhinaus müssen sie auf Liquiditätsüberschüsse, die im Rahmen der Einlagenfazilität des Eurosystems über Nacht bei den nationalen Zentralbanken der Eurozone deponiert werden, Strafzinsen entrichtet. Vor diesem Hintergrund könnten Banken durch negative Einlagenzinsen das Anliegen verfolgen, die Nachfrage nach Aufbewahrung von (Sicht)Einlagen zu verringern. Einer solchen Strategie stehen aber aus juristischer Sicht Hindernisse entgegen, soweit der beschriebene Paradigmenwechsel auch im Rahmen existierender Kundenbeziehungen einseitig vorgenommen werden soll. Die rechtlichen Hürden sind weder Ausdruck einer realitätsfernen Haarspalterei, noch eines verbraucherschützenden Furors. Vielmehr ermöglichen sie privaten und gewerblichen Bankkunden, im Zeitpunkt der angestrebten Zinsanpassung bewusst über die Verwendung ihrer liquiden Mittel zu entscheiden.
When markets are incomplete, social security can partially insure against idiosyncratic and aggregate risks. We incorporate both risks into an analytically tractable model with two overlapping generations. We derive the equilibrium dynamics in closed form and show that joint presence of both risks leads to over-proportional risk exposure for households. This implies that the whole benefit from insurance through social security is greater than the sum of the benefits from insurance against each of the two risks in isolation. We measure this through interaction effects which appear even though the two risks are orthogonal by construction. While the interactions unambiguously increase the welfare benefits from insurance, they can in- or decrease the welfare costs from crowding out of capital formation. The net effect depends on the relative strengths of the opposing forces.
We investigate the relationship between anchoring and the emergence of bubbles in experimental asset markets. We show that setting a visual anchor at the fundamental value (FV) in the first period only is sufficient to eliminate or to significantly reduce bubbles in laboratory asset markets. If no FV-anchor is set, bubble-crash patterns emerge. Our results indicate that bubbles in laboratory environments are primarily sparked in the first period. If prices are initiated around the FV, they stay close to the FV over the entire trading horizon. Our insights can be related to initial public offerings and the interaction between prices set on pre-opening markets and subsequent intra-day price dynamics.
The pressure on tax haven countries to engage in tax information exchange shows first effects on capital markets. Empirical research suggests that investors do react to information exchange and partially withdraw from previous secrecy jurisdictions that open up to information exchange. While some of the economic literature emphasizes possible positive effects of tax havens, the present paper argues that proponents of positive effects may have started from questionable premises, in particular when it comes to the effects that tax havens have for emerging markets like China and India.
n this paper we compute the optimal tax and education policy transition in an economy where progressive taxes provide social insurance against idiosyncratic wage risk, but distort the education decision of households. Optimally chosen tertiary education subsidies mitigate these distortions. We highlight the importance of two different channels through which academic talent is transmitted across generations (persistence of innate ability vs. the impact of parental education) for the optimal design of these policies and model different forms of labor as imperfect substitutes, thereby generating general equilibrium feedback effects from policies to relative wages of skilled and unskilled workers. We show that subsidizing higher education has important redistributive benefits, by shrinking the college wage premium in general equilibrium. We also argue that a full characterization of the transition path is crucial for policy evaluation. We find that optimal education policies are always characterized by generous tuition subsidies, but the optimal degree of income tax progressivity depends crucially on whether transitional costs of policies are explicitly taken into account and how strongly the college premium responds to policy changes in general equilibrium.
This paper looks into the specific influence that the European banking union will have on (future) bank client relationships. It shows that the intended regulatory influence on market conditions in principle serves as a powerful governance tool to achieve financial stability objectives.
From this vantage, it analyzes macro-prudential instruments with a particular view to mortgage lending markets – the latter have been critical in the emergence of many modern financial crises. In gauging the impact of the new European supervisory framework, it finds that the ECB will lack influence on key macro-prudential tools to push through more rigid supervisory policies vis-à-vis forbearing national authorities.
Furthermore, this paper points out that the current design of the European bail-in tool supplies resolution authorities with undue discretion. This feature which also afflicts the SRM imperils the key policy objective to re-instill market discipline on banks’ debt financing operations. The latter is also called into question because the nested regulatory technique that aims at preventing bail-outs unintendedly opens additional maneuvering space for political decision makers.
In an experimental setting in which investors can entrust their money to traders, we investigate how compensation schemes affect liquidity provision and asset prices. Investors face a trade-off between risk and return. At the benefit of a potentially higher return, they can entrust their money to a trader. However this investment is risky, as the trader might not be trustworthy. Alternatively, they can opt for a safe but low return. We study how subjects solve this trade-off when traders are either liable for losses or not, and when their bonuses are either capped or not. Limited liability introduces a conflict of interest because it makes traders value the asset more than investors. To limit losses, investors should thus restrict liquidity provision to force traders to trade at a lower price. By contrast, bonus caps make traders value the asset less than investors. This should encourage liquidity provision and decrease prices. In contrast to these predictions, we find that under limited liability investors contribute to asset price bubbles by increasing liquidity provision and that caps fail to tame bubbles. Overall, giving investors skin in the game fosters financial stability.
Since August 2009, German legislation allows for voluntary Say on Pay Votes (SoPV) during Annual General Meetings (AGMs). We examine 1,169 AGMs of all German listed firms with more than 10,000 agenda items over the period 2010-2013 to identify (1) determinants and approval rates of voluntary SoPVs, (2) the effect of voluntary SoPVs on AGM participation, and (3) the effect of SoP on executive compensation. Our data reveals that in the first four years of the voluntary say on pay regime every second firm in our sample has opted for having a SoPV. The propensity for a SoPV increases with firm size, abnormal executive compensation and free float of shares. Indeed, smaller firms with concentrated ownership do not only have a lower propensity for a SoPV, but also show a higher propensity to opt for only limited disclosure of executive compensation. Approval rates of SoPVs are lower than the approval rate for the average AGM agenda item and this effect is stronger in (i) widely held firms as well as in (ii) firms with abnormal executive compensation. Additionally, SoPVs actually can increase AGM participation; however, this result is particularly evident for widely held firms. Finally, we find stronger pay for performance elements within total executive compensation, particularly when the effect of executive compensation is lagged over the years following the vote. Overall, our results are consistent with the view that firms use voluntary SoPV to gain legitimation for executive remuneration policies in firms with low ownership concentration. This is enforced, where (small) shareholders consider executive compensation a part of the agency problem of listed firms, and where (small) shareholders consider SoPVs as a possibility to actively influence corporate decisions, with these decisions leading to a higher degree of alignment between executive management boards and shareholders.
The standard view suggests that removing barriers to entry and improving judicial enforcement reduces informality and boosts investment and growth. However, a general equilibrium approach shows that this conclusion may hold to a lesser extent in countries with a constrained supply of funds because of, for example, a more concentrated banking sector or lower financial openness. When the formal sector grows larger in those countries, more entrepreneurs become creditworthy, but the higher pressure on the credit market limits further capital accumulation. We show empirical evidence consistent with these predictions.
Die Seismizität des nördlichen Oberrheingrabens (ORG) ist aufgrund seines Potentials für die geothermische Nutzung und der damit möglicherweise verbundenen seismischen Risiken von allgemeinem Interesse. Detaillierte Kenntnisse der natürlichen Seismizität erlauben Rückschlüsse auf aktive Störungszonen und Spannungsverhältnisse im Untergrund. Sie liefert außerdem wichtige Hintergrundinformationen für die Abschätzung einer möglichen induzierten Seismizität. Untersuchungen zur Charakterisierung der natürlichen Seismizität, des Spannungsfeldes und der seismischen Gefährdung des nördlichen ORG sind Hauptbestandteil dieser Arbeit, die innerhalb des BMU/BMWi-Projektes SiMoN (Seismisches Monitoring im Zusammenhang mit der geothermischen Nutzung des Nördlichen Oberrheingrabens) entstanden ist. Aufzeichnungen eines Netzwerkes aus 13 seismischen Stationen dienen als Datengrundlage zur Charakterisierung der Seismizität innerhalb eines etwa 50 x 60 km2 großen Areals im dichtbesiedelten Rhein-Main Gebiet. Untersuchungen der Rauschbedingungen zur Bewertung der Eignung der Stationsorte für das Aufzeichnen der natürlichen Seismizität lieferten bei den Stationen auf felsigem Untergrund sehr gute spektrale Eigenschaften, während alle Stationen im Sediment des ORG deutlich höhere Rauschanteile aufzeigten. Anhand systematischer Messungen in flachen Bohrlöchern konnten laterale und vertikale Variationen des seismischen Rauschens beschrieben werden und dadurch eine Verbesserung der Detektionsschwelle beobachtet werden.
Es werden die Ergebnisse des seismischen Monitorings für den Zeitraum November 2010 bis Dezember 2014 dargestellt. Die Detektionsschwelle für das Netzwerk liegt bei einer Lokalmagnitude von etwa 0,5, die Vollständigkeitsmagnitude beträgt Mc = 1,2. Seit Beginn der Datenaufzeichnung konnten 243 Erdbeben im unmittelbaren Bereich des Stations-netzwerkes mit Magnituden im Bereich zwischen ML = -0,5 und ML = 4,2 lokalisiert werden. Die Epizentren liegen hauptsächlich entlang der östlichen Grabenschulter und im Graben; entlang der westlichen Grabenschulter ist die seismische Aktivität deutlich geringer. Eine weitere aktive Region konnte entlang der südlichen Ausläufer des Taunus im Nordwesten des Untersuchungsgebietes identifiziert werden. Die Seismizität erstreckt sich bis in eine Tiefe von 24 km mit einem Maximum der hypozentralen Tiefenverteilung im Bereich von 12-18 km. Im Graben ist die Seismizität dabei auf die tiefere Kruste im Bereich von 9-24 km beschränkt. Das Fehlen von seismischer Aktivität in der oberen Kruste bis ca. 9 km Tiefe im Graben könnte auf eine aseismische Deformation in diesem Tiefenbereich hindeuten. Seit Mai 2014 konnte südöstlich von Darmstadt bei der Ortschaft Ober-Ramstadt zum ersten Mal seit fast 150 Jahren eine Schwarmbebenaktivität im Bereich des nördlichen ORG registriert werden. Die Hypozentren sind in zwei Cluster unterteilt, die räumlich voneinander getrennt sind und unterschiedliche Aktivitätsraten aufweisen. Die Herdtiefen liegen im Bereich von 1-8 km.
Zusätzlich zu den Daten des SiMoN Netzwerkes wurden Aufzeichnungen der regionalen Erdbebendienste in Herdflächenanalysen für insgesamt 58 Erdbeben einbezogen. Die Herdflächenlösungen weisen überwiegend Blattverschiebungen (Strike-slip-Mechanismen) auf. Auf- und Abschiebungen spielen nur eine untergeordnete Rolle. Die berechneten Herdmechanismen bestätigen, dass sich das Spannungsfeld des nördlichen ORG transtensional verhält, im Vergleich zu früheren Studien konnte jedoch eine deutlich ausgeprägte Blattverschiebungskomponente identifiziert werden. Zur Bestimmung der Hauptspannungsachsen wurde eine Inversion der Herdflächenlösungen durchgeführt und die Richtung der maximalen horizontalen Spannung, welche hauptsächlich in N135°E orientiert ist, bestimmt.
Aufbauend auf den neu gewonnen Erkenntnissen zur natürlichen Seismizität und zum Spannungsfeld des nördlichen ORG wurde eine probabilistische seismische Gefährdungsanalyse durchgeführt. Um Unsicherheiten in den seismischen Quellregion-modellen zu berücksichtigen, wurden sechs unterschiedliche Modelle entwickelt. Für jede Quellregion wurden spezifische Parameter bestimmt. Ihre Unsicherheiten werden in einem logischen Baum behandelt. Auf der Grundlage eines neu zusammengestellten Momentmagnituden-basierten Erdbebenkatalogs wurden die Magnitudenhäufigkeits-parameter bestimmt. Unter Berücksichtigung des tektonischen Regimes in jeder Quelle wurden unterschiedliche Dämpfungsrelationen der Bodenbeschleunigung verwendet. Zur Quantifizierung der maximal zu erwartenden Magnitude in jeder Quelle wurden Wahrscheinlichkeitsdichtefunktionen berechnet. Die Resultate der Gefährdungsanalyse werden in Form von Karten der Spektralbodenbeschleunigungen und Spitzenboden-beschleunigungen für Wiederkehrperioden von 475 und 2475 Jahren und Antwortbeschleunigungsspektren dargestellt. Im Vergleich zu früheren Studien konnte eine erhöhte seismische Gefährdung für den nördlichen ORG festgestellt werden.
Diese Arbeit stellt eine Annäherung an den umfangreichen Themenkomplex "Kind, Kunst und Kompensation" dar. In Auseinandersetzung mit unterschiedlichsten Berührungspunkten wird aufgezeigt, warum gestalterisch-schöpferische Betätigung förderlich und erforderlich für die Entwicklung ist, insbesondere im Kindesalter. Im Fokus der Betrachtung stehen zum einen grundlegende Wirkungsweisen, die diesen Prozessen innewohnen und zum anderen der sozioökonomische Wandel, welcher gerade jene Wirkungsweisen herausfordert und teilweise ebenso notwendig macht. Umhüllt wird dieser Bereich vom zentralen Themenkomplex der Handlungsverarmung, Vereinseitigung und Vielfalts-Debatte, welcher im Grunde nicht nur Heranwachsende, sondern letztlich jeden Menschen der westlichen Welt betrifft.
Sowohl bezüglich der Modellierung der Sprachkompetenz bei mehrsprachigen Kindern als auch hinsichtlich der Bestimmung der hierfür notwendigen Indikatoren herrscht nach wie vor Forschungsbedarf. Die entsprechenden Erkenntnisse sind aber für eine valide Sprachstandsdiagnostik, auf Basis welcher auch eine Sprachförderung stattfinden kann, unerlässlich. In der vorliegenden Dissertation werden daher mit Hilfe von Verteilungsstatistiken, konfirmatorischen Faktoranalysen und Strukturgleichungsmodellen zunächst ausgewählte Sprachstandsindikatoren sowie das Konstrukt Sprachkompetenz von Kindern mit Deutsch als Zweitsprache zu Beginn der 1. Klasse modelliert und im Anschluss ihr Einfluss auf die Orthographiekompetenz dieser Schülerinnen und Schüler am Ende der 2. Klasse untersucht. Zusätzlich wird das phonologische Arbeitsgedächtnis als ein weiterer Prädiktor in das Modell eingebunden. Es wird der Fragestellung nachgegangen, ob die für die Modellierung der Sprachkompetenz verwendeten Indikatoren, wie bspw. Bildbenennung, Kasus, Syntaxerwerbsstufen und die mittlere Äußerungslänge (MLU) für die Gruppe der mehrsprachigen Kinder in der Schuleingangsphase geeignet bzw. valide sind. Dabei werden die jeweiligen Streuungen, die Korrelationen untereinander (konvergente Validität) sowie die Leistung der Indikatoren für die jeweiligen sprachlichen Kompetenzbereiche anhand der Höhe der Faktorladungen betrachtet. Ebenfalls wird die prognostische Validität der Indikatoren hinsichtlich der Rechtschreibkompetenz beleuchtet. Des Weiteren wird geprüft, ob sich die Sprachkompetenz bei DaZ-Kindern in eine semantische, eine morphologische und eine syntaktische Fähigkeit unterteilen lässt und ob die Sprachkompetenz als Faktor zweiter Ordnung modelliert werden kann. Weitere Fragestellungen betreffen die Modellierung der Rechtschreibkompetenz, also die Anzahl und Art der latenten Variablen, die dieses Konstrukt abbilden, sowie den Einfluss des phonologischen Arbeitsgedächtnisses und der einzelnen sprachlichen auf die orthographischen Teilkompetenzen.
Künstliche Ribonucleasen, die sequenzspezifisch und effizient die Spaltung von RNA-Phosphordiesterbindungen katalysieren, könnten potenziell nicht nur als biochemische Werkzeuge dienen, sondern auch als Wirkstoffe gegen eine Vielzahl von Erkrankungen, bei denen mRNA oder miRNA involviert sind, eine wichtige Rolle spielen. Obwohl in den letzten beiden Jahrzehnten zahlreiche sequenzspezifische RNA-Spalter entwickelt wurden, bleibt die Spaltaktivität dieser Verbindungen nach wie vor deutlich hinter der ihrer natürlichen Äquivalente zurück. Die Optimierung künstlicher Ribonucleasen und grundlegend dafür die Erforschung der Faktoren, die die Spaltaktivität einer Verbindung beeinflussen, sind daher weiterhin von großem Interesse. Zwar enthalten die meisten künstlichen Ribonucleasen Metallionen, doch sind auch metallfreie RNA-Spalter, zum Beispiel auf der Basis heterocyclischer Guanidine, bekannt. Prinzipiell kann die Hydrolyse des RNA-Rückgrates durch Deprotonierung der nucleophil am Phosphoratom angreifenden 2‘-OH-Gruppe, durch Protonierung der als Abgangsgruppe fungierenden 5‘-OH-Gruppe sowie durch Stabilisierung des bei der Spaltung durchlaufenen dianionischen Phosphorans katalysiert werden. Daher sollten potenzielle RNA-Spalter in der Lage sein, sowohl als Base als auch als Säure wirken zu können, was bei einem pKa-Wert im Bereich von 7 am besten gegeben ist. Fungiert ein und dasselbe Molekül als Protonenakzeptor und -donor, so kommt es im Fall von Guanidinanaloga zu einer Tautomerisierung vom Amino- zum Iminoisomer. Eine möglichst kleine Energiedifferenz zwischen beiden Formen sollte sich daher positiv auf die Spaltaktivität auswirken. In der vorliegenden Arbeit wurde eine Reihe heterocyclischer Guanidine synthetisiert, deren pKa-Werte bestimmt und die jeweiligen Energiedifferenzen zwischen Amino- und Iminotautomer grob mittels AM1-Rechnungen abgeschätzt. In Spaltexperimenten wurden Cy5-markierte RNA-Substrate mit den verschiedenen Verbindungen inkubiert (Spalter-Konzentration: 2 bzw. 10 mM). Die Analyse und Quantifizierung der Spaltprodukte erfolgten anschließend mithilfe eines DNA-Sequenziergerätes. Alle untersuchten und ausreichend löslichen Substanzen, die sowohl einen geeigneten pKa-Wert (6 – 8) als auch eine niedrige Energiedifferenz zwischen Amino- und Iminotautomer (≤ 5 kcal/mol) aufwiesen bzw. bei denen nur der pKa-Wert oder nur die Energiedifferenz in geringem Maße vom Idealwert abwich, spalteten RNA, wenn auch teilweise nur mit einer geringen Aktivität. In den Spaltexperimenten erwiesen sich Guanidinanaloga mit einem großen aromatischen System als besonders aktiv, allen voran 2-Aminoperimidin und seine Derivate, die auch bei Konzentrationen unter 50 µM Spaltaktivität zeigten. Gleichzeitig offenbarten diese Verbindungen in Fluoreszenzkorrelationsspektroskopie Experimenten eine große Tendenz zur Aggregation mit RNA, so dass die Spaltung in diesen Fällen möglicherweise nicht durch Einzelmoleküle, sondern durch Aggregate erfolgte. Um RNA-Substrate auch sequenzspezifisch spalten zu können, wurden PNA-Konjugate des bereits bekannten RNA-Spalters Tris(2-aminobenzimidazol) hergestellt, wobei der Spalter über eine neue, quecksilberfreie Route synthetisiert wurde. Es konnte gezeigt werden, dass diese PNA-Konjugate RNA sequenzspezifisch mit einer Halbwertszeit von etwa 11 h spalten, was im Rahmen der Halbwertszeit vergleichbarer DNA-Konjugate liegt. Um zu untersuchen, ob 2-Aminoperimidine auch als Einzelverbindungen aktiv sind, wurden zwei PNA-Konjugate von am Naphthylring substituierten 2-Aminoperimidin-Derivaten synthetisiert. Beide Konjugate zeigten keinerlei Spaltaktivität, was darauf hindeuten könnte, dass die Hydrolyse des RNA-Rückgrates nur durch mehrere Spalter-Einheiten – kovalent verknüpft oder in Form von Aggregaten – effizient katalysiert werden kann.
Atomistic molecular dynamics approach for channeling of charged particles in oriented crystals
(2015)
Der Gitterführungseffekt ist der Prozess der Ausbreitung von geladenen Teilchen entlang der Ebenen oder Achsen von kristallinen Materialien. Seit den 1960er Jahren ist dieser Effekt weitgehend theoretisch und experimentell untersucht worden. Dieser Effekt wurde für die Manipulation von Hochenergiestrahlen, die Hochpräzisionsstruktur- und -fehleranalyse von kristallinen Medien und die Herstellung von hochenergetischer Strahlung angewendet. Zur Abstimmung der Parameter der Gitterführung und Gitterführungsstrahlung wurde dieser Prozess für den Fall von künstlich nanostrukturierten Materialien, wie gebogenen Kristallen, Nanoröhren und Fullerit, angenommen. In den letzten Jahren wurde das Konzept des kristallinen Undulators formuliert und getestet, das besondere Eigenschaften der Strahlung aufgrund der Gitterführung von Projektilen in regelmäßig gebogenen Kristallen vorhersagt.
In dieser Arbeit werden die Prozesse der Gitterführung von Sub- und Multi-GeV-Elektronen und -Positronen durch den atomistischen Molekulardynamik-Ansatz untersucht. Die Ergebnisse dieser Studien wurden in einer Reihe von Artikeln während meiner Promotion in Frankfurt vorgestellt. Dieser Ansatz ermöglicht die Simulation komplexer Fälle von Gitterführung in geraden, gebogenen und periodisch gebogenen Kristallen aus reinen kristallinen Materialien und von gemischten Materialien wie Si-Ge-Kristallen, in mehrschichtigen und nanostrukturierten kristallinen Systemen. Die Arbeit beschreibt die Methode der Simulationen, stellt Ergebnisse von Simulationen für verschiedene Fälle vor und vergleicht die Ergebnisse von Simulationen mit aktuellen experimentellen Daten. Die Ergebnisse werden mit Schätzungen der dechanneling-Länge verglichen, dem Anteil der gittergeführten Projektile, der Winkelverteilung der ausgehenden Projektile und des Strahlungsspektrums.
The upcoming CBM Experiment at FAIR aims at exploring the region of highest net baryonic densities reproducible in energetic heavy ion collisions. Due to the very high beam intensities expected at FAIR, unprecedented data regarding rare observables such as charm quarks and hyperons will be accessible. Open charm mesons are particularly interesting, since they support the reconstruction of the total charm cross-section in order to search for exotic phenomena, e.g. a phase transition towards the quark-gluon plasma which is predicted by several theoretical models. Open charm studies will be performed via secondary vertex reconstruction with a suitable Micro-Vertex Detector (MVD). The CBM-MVD is currently in the development and prototyping phase with primary design goals concentrating on spatial resolution, radiation hardness, material budget, and readout performance. CMOS Monolithic Active Pixel Sensors (MAPS) provide an excellent spatial resolution for the MVD in the order of few um in combination with a low material budget (50 um thickness) and high radiation hardness. The active volume of the devices is formed from the epitaxial layer of standard CMOS wafers. This allows for integration of pixels together with analogue and digital data processing circuits on one single chip. This option was explored with the MIMOSA-26 prototype, which integrates functionalities like pedestal correction, correlated double sampling, discrimination and data sparsification based on zero suppression combined with a small and dense pixel matrix. The pixel array composed of 576 lines of 1152 pixels is read out in a column-parallel rolling shutter mode. One discriminator per column and the digital data processing circuits are located on the same chip in a 3 mm wide area beneath the pixel matrix allowing for binary hit encoding. This area also contains the circuits for pedestal correction and the configuration memory, which is programmed via JTAG. The preprocessed digital data is read out via two 80 Mbit/s LVDS links per sensor, which stream their data continuously based on a low-level protocol.
Within the scope of this thesis, a readout concept of the CBM-MVD is proposed and studied based on the current MIMOSA sensor generation. The backbone of the system is formed by the Readout Controller boards (ROCs) featuring FPGA microchips and optical links. Several ROC prototypes are considered using the synergy with the HADES Experiment. Finally, the TRB3 board is selected as a possible candidate for the initial FAIR experiments. Furthermore, a highly scalable, hardware independent FPGA firmware is implemented in order to steer and read out multiple MIMOSA-26 sensors. The reconfigurable firmware is also designed with the support for future MIMOSA sensor generations. The free-streaming sensor data is deserialized and error-checked, prior to its transmission over a suitable network interface. In order to demonstrate the validity of the concept, a readout network similar to the HADES Data Acquisition (DAQ) system is developed. The ROC is tested on the HADES TRB2 boards and data is acquired using suitable MAPS add-on boards and the TrbNet protocol.
In the context of the CBM-MVD prototype project, a readout network with 12 MIMOSA-26 sensors has been prepared for an in-beam test at the CERN SPS facility. A comprehensive control system is designed comprising customized software tools. The subsequent in-beam test is used to validate the design choices. As a result, the system could be operated synchronously and dead-time free for several days. The readout network behavior in a realistic operating environment has been carefully studied with the outcome the the TrbNet based approach handles the MVD prototype setup without any difficulties. A procedure to keep the sensors synchronous even in case of a data overflow has been pioneered as well. After the beam test, improvements and conceptual changes to the readout systems are being addressed which allow an integration into the global CBM DAQ system.
In the first part of the thesis, we show that the payment flow of a linear tax on trading gains from a security with a semimartingale price process can be constructed for all càglàd and adapted trading strategies. It is characterized as the unique continuous extension of the tax payments for elementary strategies w.r.t. the convergence "uniformly in probability". In this framework, we prove that under quite mild assumptions dividend payoffs have almost surely a negative effect on investor’s after-tax wealth if the riskless interest rate is always positive. In addition, we give an example for tax-efficient strategies for which the tax payment flow can be computed explicitly.
In the second part of the thesis, we investigate the impact of capital gains taxes on optimal investment decisions in a quite simple model. Namely, we consider a risk neutral investor who owns one risky stock from which she assumes that it has a lower expected return than the riskless bank account and determine the optimal stopping time at which she sells the stock to invest the proceeds in the bank account up to the maturity date. In the case of linear taxes and a positive riskless interest rate, the problem is nontrivial because at the selling time the investor has to realize book profits which triggers tax payments. We derive a boundary that is continuous and increasing in time, and decreasing in the volatility of the stock such that the investor sells the stock at the first time its price is smaller or equal to this boundary.
The implementation of pump-probe experiments with ultrashort laser pulses enables the study of dynamical processes in atoms or molecules, which may provide a deeper inside in their physical origin. The application of this method to systems as nitrous oxide, which is not only a simple example for polyatomic molecules but which also plays a crucial role in the greenhouse effect, promises interesting and beneficial findings. This thesis presents, on the one hand, the technical extension of an existing experimental setup for high-harmonic generation (HHG) and ultra-fast laser physics by an extreme ultraviolet (XUV) spectrometer for the in-situ observation of the harmonic spectrum during ongoing measurements. The present setup enables the production of short laser pulse trains in the XUV spectral range with durations of a few hundred attoseconds (1 as = 10^−18 s) via HHG and supports to perform XUV-IR pump-probe experiments using the infrared (IR) driving field with durations of a few femtoseconds. Moreover, a reaction microscope is implemented, which enables the coincident detection of several charged particles emerging from an ionization or dissociation process and to reconstruct their full 3-D-momentum vectors. With this technique it is possible to perform time-resolved momentum spectroscopy of few-particle quantum systems. Here, the design and the calibration of the XUV spectrometer is presented as well as a first application to the analysis of experimental data by providing information on the produced photon energies. On the other hand, the results of an XUV-pump IR-probe measurement on nitrous oxide (N2O) are discussed. With the broad harmonic spectrum (∼ 17 − 45 eV) it is possible to address several states of the singly and doubly ionized cation. One reaction channel is the single ionization into a stable state of N2O+. Here, the coincidently measured photoelectron energies allow the observation of sidebands, which served to estimate the pulse durations of the involved XUV pulse trains as well as of the fundamental IR pulses. Additionally, single ionization of nitrous oxide can lead to a dissociation into a charged and a neutral fragment. The four respective dissociation channels are compared by presenting their branching ratios, kinetic energy release (KER) distributions and their dependencies on the time delay between pump and probe pulse. In the production of the dication, there are two competitive processes: direct double ionization considering photon energies above the double-ionization threshold, and autoionization of singly ionized and excited molecules in the case of photon energies near the double-ionization threshold. In both cases, the ionization leads to a Coulomb explosion into two charged fragments, where the N − N bond or the N − O bond may dissociate. The influence of the IR-probe field on the ionization yield and the KER was investigated for both dissociation channels and compared. In addition, the corresponding photoelectron energy spectra are presented, which show indications for autoionizing states being involved, and their dependence on the delay and the KER of the respective ions is analyzed.