Refine
Year of publication
- 2017 (182) (remove)
Document Type
- Doctoral Thesis (182) (remove)
Has Fulltext
- yes (182)
Is part of the Bibliography
- no (182) (remove)
Keywords
- ALICE (2)
- FPGA (2)
- Grundschule (2)
- QCD (2)
- Stadtentwicklung (2)
- 1,3-Diamine (1)
- 14 fructidor IX (1)
- 2-Photonen (1)
- Africa (1)
- African Agency (1)
Institute
- Biowissenschaften (32)
- Medizin (31)
- Physik (23)
- Biochemie und Chemie (19)
- Biochemie, Chemie und Pharmazie (15)
- Informatik und Mathematik (9)
- Neuere Philologien (8)
- Psychologie und Sportwissenschaften (7)
- Geowissenschaften (6)
- Erziehungswissenschaften (4)
Floodplains and other wetlands depend on seasonal river flooding and play an important role in the terrestrial water cycle. They influence evapotranspiration, water storage and river discharge dynamics, and they are the habitat of a large number of animals and plants. Thus, to assess the Earth’s system and its changes, a robust understanding of the dynamics of floodplain wetlands including inundated areas, water storages, and water flows is required.
This PhD thesis aims at improving the modeling of large floodplains and wetlands within the global-scale hydrological model WaterGAP, in order to better estimate water flows and water storage variations in different storage compartments. Within the scope of this thesis, I have developed a new approach to simulate dynamic floodplain inundation on a global-scale. This approach introduces an algorithm into WaterGAP, which has a spatial resolution of 0.5 degree (longitude and latitude) globally. The new approach uses subgrid-scale topography, based on high-resolution digital elevation models, to describe the floodplain elevation profile within each grid cell by applying a hypsographic curve. The approach comprises the modeling of a two-way river-floodplain interaction, the separate downstream water transport within the river and the floodplain – both with temporally and spatially different variable flow velocities – and the floodplain-groundwater interactions. The WaterGAP version that includes the floodplain algorithm, WaterGAP 2.2b_fpl, estimates floodplain and river water storage, inundated area and water table elevation, and also simulates backwater effects.
WaterGAP 2.2b_fpl was applied to model river discharge, river flow velocity, water storages, water heights and surface water extent on a global-scale. Model results were comprehensively validated against ground observations and remote sensing data. Overall, the modeled and observed data are in agreement. In comparison to the former version WaterGAP 2.2b, the model performance has improved significantly. The improvements are most remarkable in the Amazon River basin. However, the seasonal variation of surface water extent and total water storage anomalies are still too low in many regions on the globe when compared to observations. A detailed analysis of the simulated results suggests that in the Amazon River basin the introduction of backwater effects is important for realistically simulating water storages and surface water extent. Future efforts should focus on the simulation of water levels in order to better model the flow routing according to water slope. To further improve the model performance in specific regions, I recommend that the globally constant model parameters that affect inundation initiation, river-floodplain interaction, DEM correction for vegetation, and backwater amount at basin or subbasin-scale be adjusted.
Hintergrund: Als Komplikation einer Subarachnoidalblutung können zerebrale Infarkte auftreten. Arterielle Vasospasmen stehen im Verdacht diese auszulösen, jedoch wird zunehmend eine multifaktorielle Ätiologie diskutiert. Die orale Gabe des Calciumantagonisten Nimodipin als Prophylaxe stellt den einzigen pharmakologischen Therapieansatz mit nachgewiesener positiver Wirkung auf das Patientenoutcome dar. Durch die gute Wirksamkeit bei oraler Aufnahme erfolgt die intraarteielle Applikation in von Vasospasmen betroffene Gefäße. Weiterhin wird die Perkutane Transluminale Angioplastie bei fokalen hochgradigen Vasospasmen eingesetzt. Diese endovaskulären Verfahren sind bisher nicht in signifikanten randomisierten Studien untersucht worden.
Zielsetzung: Neu aufgetretene Infarktmuster von Patienten nach SAB wurden hinsichtlich Wirkung und möglicher Komplikationen dieser Therapieansätze untersucht.
Methoden: Die klinisch erfassten Daten und die Bildgebung der im Zeitraum von 01.01.2007 bis 31.12.2011 in der Neuroradiologie der Universitätsklinik Frankfurt am Main behandelten und in die Untersuchung eingeschlossenen 88 Patienten wurde erneut untersucht. Im Falle neu aufgetretener zerebraler Infarkte wurden die Infarktmuster hinsichtlich einer Ätiologie analysiert.
Ergebnisse: 53,4% der Patienten entwickelten nach SAB neue zerebrale Infarkte nach intraarterielle Nimodipinapplikation und zusätzlicher PTA in einzelnen Fällen. Hiervon konnten 89,4% ätiologisch zerebralen Vasospasmen zugeordnet werden. Bei 5,7% aller Patienten traten Infarkte im Zusammenhang mit Komplikationen der intraarteriellen Nimodipingabe und PTA in Form von Thrombembolien und einer Gefäßdissektion auf. Die Ätiologie eines Infarktmusters verblieb unklar.
Fazit: Es konnte kein Vorteil für die intraarterielle Gabe von Nimodipin und PTA bei refraktärem Vasospasmus gezeigt werden. Weiterhin traten in 5,7% des Patientenkollektivs ischämische Komplikationen auf, sodass beide Verfahren nicht als Standardtherapie bei Patienten mit Vasospasmus nach SAB empfohlen werden können.
Ziel der vorliegenden Arbeit war die Optimierung der Kristallzüchtung von eisenbasierten Supraleitern. Im ersten Teil lag der Fokus dabei auf der Züchtung der 1111-Verbindung unter Hochdruck/Hochtemperaturbedingungen (HD/HT), sowie der systematischen Untersuchung verschiedener Einflüsse der Züchtung dieser Familie unter Normaldruckbedingungen.
Die HD/HT-Experimente führten unter den gewählten Parametern, sowohl unter der Verwendung eines Flussmittels als auch ohne, nicht zur Stabilisierung der gewünschten Zielphase. Stattdessen kam es zur Phasenseparation So bildete sich immer im Inneren des verwendeten BN-Tiegels ein, häufig kugelförmig ausgeformtes, Gebilde, bestehend aus einer Fe-As-Phase. Dies gilt sowohl für NdFeAsO als auch LaFeAsO1-xFx. Bei der Verwendung von Salz als Flussmittel kam es neben dieser Fe-As-Phase auch häufig zur Bildung einer Cl-haltigen Phase. Auch zeigte sich, dass es zu einer B-Diffusion während des Versuches kam, sodass Selten-Erd-Oxoborate nachgewiesen werden konnten. Durch einen Versuch unter Normaldruckbedingungen zeigte sich, dass dies kein Problem in der Hochdrucksynthese ist, sondern ein grundlegendes Problem bei der Verwendung von BN mit den Selten-Erden ist.
Nachdem gezeigt wurde, dass eine systematische Untersuchung bzw. Optimierung der Züchtungsparameter der 1111-Verbindungen unter HD/HT-Bedingungen enorm schwierig ist, lag der weitere Fokus auf der Züchtung unter Normaldruckbedingungen. Dazu wurde zu Beginn gezeigt, dass die Verwendung von Quarzampullen bei Temperaturen bis zu 1200 °C nicht zu einer zusätzlichen Sauerstoffdiffusion führen. Dies ermöglichte es ohne zusätzliche Schweißarbeit oder hohen Kosten den Optimierungsprozess für ein geeignetes Temperatur-Zeit-Profil durchzuführen. Das so erhaltene Profil wurde anschließen für alle weiteren Versuche verwendet. Mit dieser Basis wurde daraufhin untersucht, welchen Einfluss die Menge an Flussmittel auf die Stabilisierung der Phase und demnach auf die Kristallzüchtung hat. Dabei zeigte sich, dass ein molares Material-zu-Flussmittel-Verhältnis von 1:7 die besten Resultate liefert. Der nächste Optimierungsschritt, die Frage nach einem geeigneten Sauerstoffspender, in Angriff genommen. Bei dieser Frage wurde sich auf einen Sauerstoffspender aus der Gruppe der Eisenoxide konzentriert. Es zeigte sich, dass, für das gewählte Temperatur-Zeit-Profil die Verbindung FeO und Fe3O4 die besten Resultate liefern. In diesen Versuchen ist es gelungen Kristalle zu züchten die Kantenlängen bis zu 800 μm aufweisen. Allerdings zeigten Vergleichsversuche mit einen anderen Temperatur-Zeit-Profil, dass Fe2O3 in diesen Fällen die besten Resultate liefern. Dies macht deutlich, dass es bisher keine vollständige Kontrolle in der Züchtung der 1111-Verbindung gibt. Die Veränderung eines Züchtungsparameters bedeutet, dass auch alle anderen Parameter erneut geprüft werden müssen. Somit zeigte sich, dass eine fundierte und systematische Untersuchung der Züchtungsparameter notwendig ist.
Nachdem die grundlegenden Fragen für die undotierte Verbindung NdFeAsO beantwortet wurden, wurde untersucht, welche Sauerstoff-Fluorspenderkombination bei gegebenem Temperatur-Zeit-Profil optimal für den Kristallwachstum und den Fluoreinbau ist. Die erhaltenen Resultate belegten, dass in diesem Fall Fe3O4 und FeF2 zu den besten Resultaten führte. Die so gezüchteten Kristalle wiesen Kantenlängen bis zu 800 μm auf und Messungen des elektrischen Widerstandes zeigten einen maximalen Tc ≈ 53 K mit einen RRR-Wert im magnetischem Bereich von über 10. Damit unterscheiden sich die gezüchtete Kristalle hinsichtlich ihrer Qualität um den Faktor ~3 von den bisherigen Einkristallen bekannt aus der Literatur.
Durch die Ermittlung des reellen Fluorgehalts der Proben mittels WDX in Kombination mit elektrischen Widerstandsmessungen wurde ein vorläufiges Phasendiagramm erstellt.
Magnetische Messungen unter Normaldruck und Hochdruckbedingungen ermöglichten es die Anisotropie zwischen der ab- Ebene und der c-Ebene zu messen, sowie das Verhalten des elektrischen Widerstandes in Abhängigkeit vom Druck.
Es zeigte sich dabei, dass ab einem Druck von etwa 22.9 GPa die Supraleitung in diesen Kristallen nicht mehr vorhanden ist, und der Kristall wieder normalleitend ist. Mit weiter steigendem Druck steigen die Absolut-Widerstandswerte ebenfalls wieder an, was auf eine mögliche ferromagnetische Ordnung deutet.
Im zweiten Teil der Arbeit lag der Fokus auf einer Verbindung aus der 122-Familie der Pniktide: SrFe2As2. Zu Beginn wurde untersucht, welches der drei gewählten Tiegelmaterialien BN, Al2O3 oder Glaskohlenstoff, für Züchtungen dieser Phase am geeigneten ist. In allen Versuchen konnte die gewünschte Zielphase stabilisiert werden, jedoch kam es bei der Verwendung von Glaskohlenstoff zu Diffusion von Kohlenstoff aus dem Tiegel in die Probe hinein, sodass C-haltige Phasen nachweisbar waren. Ebenso zeigte sich, dass es auch eine Diffusion vom Material in den Tiegel hinein gegeben hat. Diese Probleme traten auch bei der Verwendung von Al2O3 auf. Durch ein Röntgenpulverdiffrakgtogramm konnte eine Al-haltige Verbindung in der Probe nachgewiesen werden. Ein weiterer Nachteil dieses Materials ist die Benutzung des Tiegels durch die Schmelze. Von den drei Materialien erwies sich BN als am besten geeignetes Tiegelmaterial. Es kommt zu keiner Benetzung oder Diffusion, auch der Fremdphasenanteil ist sehr gering in dieser Probe.
Mit diesem Wissen wurde im weiteren Verlauf ein quasi-binäres Phasendiagramm des Systems SrFe2As2-FeAs erstellt. Die intermetallische Verbindung FeAs fungiert hierbei als Flussmittel. Eine wichtige Frage in diesem Zusammenhand ist die Frage ob das System kongruent erstarrend ist. Diese Frage lässt sich anhand der vorhandenen DTA-kurven nicht eindeutig beantworten, zeigte das System bei Aufheizen keine zusätzlichen Schmelzprozesse, es scheint allerdings, dass es in der Schmelze zu einem Abdampfen von Arsen kommt. Somit verschiebt sich die Zusammensetzung der Schmelze und beim Abkühlen treten zusätzliche Erstarrungsprozesse auf. Die Schmelztemperatur TM wurde so auf T = 1320 °C bestimmt. Mit steigendem Flussmittelanteil verschob sich diese Temperatur zu niedrigeren Temperaturen unter 1200 °C, was eine Züchtung in Quarzampullen wieder möglich macht.
Die Ergebnisse in dieser Arbeit liefern eine fundierte Grundlage für weitere Optimierungen. So ist zum Beispiel der Frage nach dem am besten geeigneten Sauerstoffspender nicht auf die Selten-Erd-Oxide eingegangen worden. Auch ob die Verwendung eines anderen Salzes, wie zum Beispiel den Iodiden für die Züchtung bessere Resultate liefert kann weiterhin untersucht werden.
Nachdem der Schmelzpunkt von SrFe2As2 bestimmt wurde und im quasi-binärem Phasendiagramm ein Eutektikum vorhanden ist, kann mit den weiteren Optimierungsschritten für die Kristallzüchtung dieses Systems begonnen werden. Dazu gehört die Entwicklung eines Temperatur-Zeit-Profils, sowie im nächsten Schritt Züchtungen von dotierten Verbindungen.
In dieser klinischen, randomisierten, doppelverblindeten Vergleichsstudie untersuchten wir, welchen Einfluss auf die Passgenauigkeit von Einzelzahnkronen und dreigliedrigen Brücken aus Vollkeramik zum einen die Anwendung einer intraoralen Digitalisierung mithilfe eines Intraoralscanners (Lava C.O.S Scanner, 3M ESPE, D-Seefeld) und zum anderen der Einsatz einer extraoralen Digitalisierung auf Basis einer konventionellen Abformung (Impregum penta soft, 3M ESPE, D-Seefeld) hat. Als weiteres Prüfkriterium wurde die Effizienz der jeweiligen Abformmethoden untersucht. Die Fragestellung sollte eine Aussage dazu treffen können, ob die digitale Abformung im klinischen Alltag des Zahnarztes einen Vorteil gegenüber der konventionellen Abformung erbringen kann.
In der Studie wurden 25 Patienten eingeschlossen und beide Abformmethoden nach der Zahnpräparation in einer randomisierten Abfolge angewandt. Beim Intraoralscanner waren ein Ganzkieferscan für die Brückenrestaurationen und ein Quadrantenscan für Einzelzahnkronen erforderlich. Die klinischen Arbeitsschritte wurden zeitlich erfasst. Die Kronen- und Brückengerüste aus Zirkoniumdioxidkeramik basierten auf den unterschiedlichen Abformmethoden. Die Gerüste wurden vor der Anprobe verblindet und mit Hilfe von Silikonreplikas die Passgenauigkeit am marginalen Randspalt, an der axialen Wand, am axio-okklusalen Übergang, sowie am okklusalen Messpunkt unter 66x Vergrößerung ermittelt.
Der marginale Randspalt der Restaurationen auf der Basis der konventionellen Abformung betrug 68,64 μm (Medianwert), respektive 60,31 μm bei der digitalen Abformung und unterschied sich statistisch signifikant. Die Passung an der axialen Wand ergab bei der digitalen Abformung 88,27 μm, bei konventioneller 92,13 μm, am axio-okklusalen Übergang 144,78 μm vs. 155,60 μm, am okklusalen Messpunkt 155,57 μm vs. 171,51 μm. Letzter wies einen statistisch signifikanten Unterschied auf (Mann-Whitney U Test, p = 0,05). Die Zeitmessung zeigte eine Ersparnis von 5 min 6 sec beim Quadrantenscan und 1 min 34 sec beim Ganzkieferscan zu Gunsten der digitalen Abformung.
Die Studienergebnisse weisen eine effizientere klinische Arbeitsweise der digitalen gegenüber der konventionellen Abformung nach, die mit einer identischen Passungsqualität einhergeht.
Gepulste dipolare EPR-Spektroskopie ist eine wertvolle Methode, um Abstände von 1.5 bis 10 nm zwischen zwei Spinmarkern zu messen. Diese Information kann für Strukturbestimmungen hilfreich sein, wo traditionelle Methoden wie Kristallstrukturanalyse und NMR nicht angewendet werden können. Zusätzlich ist es möglich, Änderungen in Konformation und Flexibilität zu verfolgen. Für diese Studien haben sich stabile Nitroxidradikale als Spinmarker etabliert. Diese werden spezifisch durch die site-directed spin labelling Methode (SDSL) kovalent an das zu untersuchende Biomolekül gebunden. In den letzten Jahren wurden weitere Spinmarker für Abstandsbestimmungen mittels EPR-Spektroskopie entwickelt. Besonders interessant sind Triarylmethylradikale (im Folgenden abgekürzt als Trityl) und paramagnetische Metallzentren.
Im Vergleich zu Nitroxidradikalen hat das Tritylradikal einige Vorteile: Eine höhere Stabilität in einer reduzierenden Umgebung wie im Inneren von Zellen, längere Elektronenspin-Relaxationszeiten bei Raumtemperatur und ein schmaleres EPR-Spektrum. Deswegen ist dieses organische Radikal ein alternativer Spinmarker, der besonders gut für die Forschung von Biomolekülen in einer nativen Umgebung unter physiologischen Bedingungen geeignet ist. Auch paramagnetische Metallzentren sind weniger reduktionsempfindlich als Nitroxidradikale. Zusätzlich sind diese Spinmarker interessant in biologischen Fragestellungen. Zum Beispiel besitzen zahlreiche Enzyme paramagnetische Manganzentren als Cofaktoren. Zudem kann Magnesium, ein wesentlicher Cofaktor in Enzymen, Nukleinsäuren und Nukleotid-Bindungsdomänen der G- und Membranproteine, oft durch das paramagnetische Mangan ersetzt werden. Um Abstandsmessungen an Biomolekülen, die nur ein Metallzentrum besitzen, durchzuführen, können zusätzliche Spinmarker in Form eines Nitroxid-, Tritylradikals oder eines anderen paramagnetischen Metallkomplexes mithilfe der SDSL-Methode kovalent gebunden werden.
Nitroxidradikale, Tritylradikale und Metallzentren haben deutlich unterschiedliche EPR-spektroskopische Eigenschaften, welche oft als orthogonale Spinmarker bezeichnet werden. Solche Spinmarker sind nützlich für die Untersuchung von verschiedenen Untereinheiten bei makromolekularen Komplexen. Somit können die intramolekularen Abstände innerhalb einer Untereinheit sowie intermolekularen Abstände zwischen den unterschiedlichen Untereinheiten mit nur einer einzigen Probe bestimmt werden. Zusätzlich können die orthogonalen Marker sehr effektiv genutzt werden, um Metallzentren in Biomolekülen mithilfe der Trilateration-Strategie genau zu lokalisieren.
Die hier vorliegende Doktorarbeit beschäftigt sich mit der Nutzung dieser neuen Spinmarker für Abstandsmessungen. Solche Spinmarker sind noch kaum erforscht, obwohl sie für biologische Anwendungen eine große Rolle spielen könnten.
Das erste Ziel dieser Doktorarbeit war eine Studie über Tritylradikale mithilfe der dipolaren EPR-Spektroskopie. Zu diesem Zweck wurden sowohl double quantum coherence (DQC) und single frequency technique for refocussing dipolar couplings (SIFTER) Experimente als auch Hochfrequenz pulsed electron electron double resonance (PELDOR) Experimente mit einem Trityl-Modellsystem durchgeführt. Dabei wurden die Besonderheiten der unterschiedlichen dipolaren Spektroskopiemethoden mit diesem Spinmarker untersucht, um die Empfindlichkeit und Robustheit für die Abstandsmessungen zu optimieren.
Das zweite Ziel war eine Studie über den Einfluss der Hochspin-Multiplizität des Mangans auf die Abstandsbestimmungen. Für diesen Zweck wurde zuerst ein Modellsystem mit einem orthogonalen Mn2+ Ion und Nitroxidradikal mithilfe der PELDOR-Spektroskopie untersucht. Anschließend wurde ein weiteres Modellsystem mit zwei Mn2+-Ionen untersucht, um PELDOR und relaxation-induced dipolar modulation enhancement (RIDME) Experimente bezüglich ihrer Empfindlichkeit und Robustheit sowie Genauigkeit der Datenanalyse zu optimieren.
Das Trityl-Modellsystem wurde in der Arbeitsgruppe von Prof. Sigurdsson synthetisiert. Die EPR Messungen wurden bei zwei verschiedenen Mikrowellenfrequenzen (34 und 180 GHz) durchgeführt. Es wurde gezeigt, dass die Auswahl der optimalen Methode von den EPR-spektroskopischen Eigenschaften des Systems bei den jeweiligen Mikrowellenfrequenzen abhängig ist. Das EPR-Spektrum des Trityls ist bei 34 GHz so schmal, dass das ganze Spektrum von einem üblichen Mikrowellenpuls angeregt werden kann. In diesem Fall sind die DQC und SIFTER Experimente am besten geeignet. Der mit diesen Methoden bestimmte Abstand von 4.9 nm ist in guter Übereinstimmung mit Werten aus der Literatur. Es wurde festgestellt, dass die SIFTER Messung eine höhere Empfindlichkeit als DQC besitzt, da das Signal-zu-Rausch Verhältnis um den Faktor vier größer ist. Außerdem ist die SIFTER-Methode experimentell weniger anspruchsvoll, da ein deutlich kürzerer Phasenzyklus für die Mikrowellenpulse benötigt wird. ...
The future heavy-ion experiment CBM (FAIR/GSI, Darmstadt, Germany) will focus on the measurements of very rare probes, which require the experiment to operate under extreme interaction rates of up to 10 MHz. Due to high multiplicity of charged particles in heavy-ion collisions, this will lead to the data rates of up to 1 TB/s. In order to meet the modern achievable archival rate, this data ow has to be reduced online by more than two orders of magnitude.
The rare observables are featured with complicated trigger signatures and require full event topology reconstruction to be performed online. The huge data rates together with the absence of simple hardware triggers make traditional latency limited trigger architectures typical for conventional experiments inapplicable for the case of CBM. Instead, CBM will employ a novel data acquisition concept with autonomous, self-triggered front-end electronics.
While in conventional experiments with event-by-event processing the association of detector hits with corresponding physical event is known a priori, it is not true for the CBM experiment, where the reconstruction algorithms should be modified in order to process non-event-associated data. At the highest interaction rates the time difference between hits belonging to the same collision will be larger than the average time difference between two consecutive collisions. Thus, events will overlap in time. Due to a possible overlap of events one needs to analyze time-slices rather than isolated events.
The time-stamped data will be shipped and collected into a readout buffer in a form of a time-slice of a certain length. The time-slice data will be delivered to a large computer farm, where the archival decision will be obtained after performing online reconstruction. In this case association of hit information with physical events must be performed in software and requires full online event reconstruction not only in space, but also in time, so-called 4-dimensional (4D) track reconstruction.
Within the scope of this work the 4D track finder algorithm for online reconstruction has been developed. The 4D CA track finder is able to reproduce performance and speed of the traditional event-based algorithm. The 4D CA track finder is both vectorized (using SIMD instructions) and parallelized (between CPU cores). The algorithm shows strong scalability on many-core systems. The speed-up factor of 10.1 has been achieved on a CPU with 10 hyper-threaded physical cores.
The 4D CA track finder algorithm is ready for the time-slice-based reconstruction in the CBM experiment.
The mainstream law and economics approach has dominated positive analysis and normative design of economic regulations. This approach represents a form of applied neoclassical and new institutional economics. Neoclassical and/or new institutional economic theories, models, and analytical concepts are applied automatically to economic regulatory problems.
This automatic application of neoclassical economics to economic regulatory problems loses sight of the valid insights of non-neoclassical schools of economic thought and theories, which may illuminate important aspects of the regulatory problems. This thesis, therefore, advocates an integrated law and economics approach to economic regulations. This approach identifies the relevant insights of neoclassical and non-neoclassical schools of thought and theories and refines them through a process of cross-criticism. In this process, the insights of each school of thought are subjected to the critiques of other schools of thought. The resulting refined insights, which are more likely to be valid, are then integrated consistently through various techniques of integration.
Not only does neoclassical (micro and macro) law and economics overlook the valid insights of non-neoclassical schools of thought, it is also highly reductionist. It ignores the interdependencies of legal institutions, highlighted mainly by the comparative capitalism literature, and the structural interlinkages among socio-economic actors, highlighted by economic sociology and complexity economics. Rather, it takes rational individuals and their interactions subject to the constraint of isolated institution(s) as its unit of analysis. In place of this reductionist perspective, the thesis argues for a systemic approach to economic regulations. This systemic perspective replaces the reductionist unit of neoclassical regulatory analysis with a systemic unit of analysis that consists of the least non-decomposable actors’ network and its associated least non-decomposable institutional network. Then, the thesis develops an operationalized and replicable systemic framework for systemic analysis and design of institutional networks.
Both the systemic and integrated approaches are theoretically consistent and complementary. The systemic approach is in essence a way of thinking that requires a broad and rich informational basis that can be secured by using the integrated approach. Due to their complementarity, they give rise to what I call “the integrated and systemic law and economics approach.” The thesis operationalizes this approach by setting out well-defined replicable steps and applying them to concrete regulatory problems, namely, the choice of a corporate governance model for developing countries and the development of a normative theory of economic regulations. These concrete applications demonstrate the critical bite of the integrated and systemic approach, which reveals significant shortcomings of mainstream law and economics’ answers to these regulatory questions. They also show the constructive potential of the integrated and systemic approach in overcoming the critiques advanced to the neoclassical regulatory conclusions.
The operationalized integrated and systemic approach is both a law and economics as well as a law and development approach. It does not only provide an alternative to mainstream law and economics analysis and design of economic regulations. It also fills a significant analytical lacuna in the law and development literature that lacks an analytical framework for analysis and design of context-specific legal institutions that can promote economic development in developing economies.
The ALICE High-Level-Trigger (HLT) is a large scale computing farm designed and constructed for the purpose of the realtime reconstruction of particle interactions (events) inside the ALICE detector. The reconstruction of such events is based on the raw data produced in collisions inside the ALICE at the Large Hadron Collider. The online reconstruction in the HLT allows the triggering on certain event topologies and a significant data reduction by applying compression algorithms. Moreover, it enables a real-time verification of the quality of the data.
To receive the raw data from the various sub-detectors of ALICE, the HLT is equipped with 226 custom built FPGA-based PCI-X cards, the H-RORCs. The H-RORC interfaces the detector readout electronics to the nodes of the HLT farm. In addition to the transfer of raw data, 108 H-RORCs host 216 Fast-Cluster-Finder (FCF) processors for the Time-Projection-Chamber (TPC). The TPC is the main tracking detector of ALICE and contributes with up to 16 GB/s to over 90% of the overall data volume. The FCF processor implements the first of two steps in the data reconstruction of the TPC. It calculates the space points and their properties from charge clouds (clusters) created by charged particles traversing the TPCs gas volume. Those space points are not only the base for the tracking algorithm, but also allow for a Huffman-based data compression, which reduces the data volume by a factor of 4 to 6.
The FCF processor is designed to cope with any incoming data rate up to the maximum bandwidth of the incoming optical link (160 MB/s) without creating back-pressure to the detectors readout electronics. A performance comparison with the software implementation of the algorithm shows a speedup factor of about 20 compared with one AMD Opteron 6172 Core @ 2.1 GHz, the CPU type used in the HLT during the LHC Run1 campaign. Comparison with an Intel E5-2690 Core @ 3.0 GHz, the CPU type used by the HLT for the LHC Run2 campaign, results in a speedup factor of 8.5. In total numbers, the 216 FCF processors provide the computing performance of 4255 AMD Opteron cores or 2203 Intel cores of the previously mentioned type. The performance of the reconstruction with respect to the physics analysis is equivalent or better than the official ALICE Offline clusterizer. Therefore, ALICE data taking was switched in 2011 to FCF cluster recording and compression only, discarding the raw data from the TPC. Due to the capability to compress the clusters, the recorded data volume could be increased by a factor of 4 to 6.
For the LHC Run3 campaign, starting in 2020, the FCF builds the foundation of the ALICE data taking and processing strategy. The raw data volume (before processing) of the upgraded TPC will exceed 3 TB/s. As a consequence, online processing of the raw data and compression of the results before it enters the online computing farms is an essential and crucial part of the computing model.
Within the scope of this thesis, the H-RORC card and the FCF processor were developed and built from scratch. It covers the conceptual design, the optimisation and implementation, as well as the verification. It is completed by performance benchmarks and experiences from real data taking.
In this thesis we study strongly correlated electron systems within the Density Functional Theory (DFT) in combination with the Dynamical Mean-Field Theory (DMFT).
First, we give an introduction into the theoretical methods and then apply them to study realistic materials. We present results on the hole-doped 122-family of the iron-based superconductors and the transition-metal oxide SrVO3. Our investigations show that a proper treatment of strong electronic correlations is necessary to describe the experimental observations.
Development of the timing system for the Bunch-to-Bucket transfer between the FAIR accelerators
(2017)
The FAIR project is aiming at providing high-energy beams of ions of all elements from hydrogen to uranium, antiprotons and rare isotopes with high intensities. The existing accelerator facility of GSI and the future FAIR facility employ a variety of circular accelerators like heavy ion synchrotrons (SIS18 and SIS100) and storage rings (ESR, CRYRING, CR and HESR) for the preparation of secondary beams and experiments. Bunches are required to be transferred into rf buckets among GSI and FAIR ring accelerators for different purposes. Without the proper transfer, the beam will be subject to various beam quality deterioration and even to beam losses. Hence, the proper bunch-to-bucket (B2B) transfer between two rings is of great importance for FAIR and is the topic, which has been investigated in this thesis.
These circular accelerators of GSI and FAIR have different ratios in their circumference. For example, the circumference ratio between SIS100 and SIS18 is an integer and between SIS18 and ESR is close to an integer and between CR and HESR is far away from an integer. The ring accelerators are connected via a complicated system of beam transfer lines, targets for the secondary particle production and the high energy separators mentioned above. For FAIR, not only the primary beams are required to be transferred from one ring to another, but also the secondary beams, e.g. the antiproton or rare isotope beams produced by the antiproton (pbar) target, the fragment separator (FRS) or the superconducting fragment separator (Super-FRS). An important topic for this system of accelerators is the proper transfer of beam between the different circular accelerators. Bunches of one ring must be transferred into buckets of another ring within an upper bound time constraint (e.g. 10 ms for most FAIR use cases) and with an acceptable B2B injection center mismatch +-1 degree for most FAIR use cases). Hence, a flexible FAIR B2B transfer system is required to realize the different complex B2B transfers between the FAIR rings in the future. In the focus of the system development and of this thesis is the transfer from SIS18 to SIS100, which can be tested at GSI on the transfer from SIS18 to ESR and from ESR to CRYRING. The system is based on the existing technical basis at GSI, the low-level radio frequency (LLRF) system and the FAIR control system. It coordinates with the Machine Protection System (MPS), which protects SIS100 and subsequent accelerators and experiments from damage caused by high intensity primary beams in case of malfunctioning. Besides, it indicates the beam status and the actual beam injection time for the beam instrumentation and diagnostics.
The conceptual realization of the FAIR B2B transfer system was introduced in this thesis for the first time. It achieves the most FAIR B2B transfers with a tolerable B2B injection center mismatch (e.g. +-1 degree) and within an upper bound time (e.g. 10 ms). It supports two synchronization methods, the phase shift and frequency beating methods. It is flexible to support the beam transfer between two rings with different ratios in their circumference and several B2B transfers running at the same time, e.g. the B2B transfer from SIS18 to SIS100 and at the same time the B2B transfer from ESR to CRYRING. It is capable to transfer beam of different ion species from one machine cycle to another and to transfer beams between two rings via the FRS, the pbar target and the Super-FRS. It allows various complex bucket filling pattern. In addition, it coordinates with the MPS system, which protects the SIS100 and subsequent accelerators or experiments from beam induced damage.
A list of criteria for the preservation of beam qualities during the rf frequency modulation of the phase shift method was analyzed. As an example the beam reaction on three different rf frequency modulation examples were analyzed for SIS18 beams. According to the beam dynamic analysis, there is a maximum value for the rf frequency modulation. The first derivative of the rf frequency modulation must be continuous and small enough and the second derivative must be small enough.
In addition to the analysis from the viewpoint of beam dynamics, two test setups were built. The first test setup was used to characterize the FAIR timing network – white rabbit network for the B2B transfer. In the second test setup, the firmware of the FAIR B2B transfer system was evaluated, which was running on the soft CPU, LatticeMico32, of the Scalable Control Unit - the FAIR standard Front End Controller. Besides, the boundary conditions of the different trigger scenarios of the SIS18 extraction and SIS100 injection kicker magnets were investigated. Finally, the application of the FAIR B2B transfer system for all FAIR use cases was demonstrated.
The dissertation plays a significant important role for the realization of the FAIR B2B transfer system and the further practical application of the system to all FAIR use cases.