Refine
Year of publication
- 2018 (204) (remove)
Document Type
- Doctoral Thesis (204) (remove)
Has Fulltext
- yes (204) (remove)
Is part of the Bibliography
- no (204)
Keywords
- Lebensqualität (2)
- Spracherwerb (2)
- vascular endothelial cells (2)
- ABCE1 (1)
- ARFI (1)
- Adhärenz (1)
- Afghanistan (1)
- Allosteric inhibition (1)
- Anomalie <Medizin> (1)
- Anwendungsorientierte Forschung (1)
Institute
- Biochemie, Chemie und Pharmazie (44)
- Medizin (39)
- Biowissenschaften (34)
- Physik (21)
- Informatik und Mathematik (17)
- Gesellschaftswissenschaften (8)
- Sprach- und Kulturwissenschaften (8)
- Neuere Philologien (7)
- Biochemie und Chemie (3)
- Kulturwissenschaften (3)
Based on an original dataset of 100 important pieces of legislation passed during the three presidencies of William J. Clinton, George W. Bush, and Barack H. Obama (1992-2013), this study explores two sets of questions:
(1) How do presidents influence legislators in Congress in the legislative arena, and what factors have an effect on the legislative strategies presidents choose?
(2) How successful are presidents in getting their policy positions enacted into law, and what configurations of institutional and actor-centered conditions determine presidential legislative success?
The analyses show that in an hyper-polarized environment, presidents usually have to fight an uphill-battle in the legislative arena, getting more involved if they face less favorable contexts and the odds are against them.
Moreover, the analyses suggest that there is no silver-bullet approach for presidents' legislative success. Instead, multiple patterns of success exist as presidents - depending on the institutional and public environment - can resort to different combinations of actions in order to see their preferred policy outcomes enacted.
Powerful environment perception systems are a fundamental prerequisite for the successful deployment of intelligent vehicles, from advanced driver assistance systems to self-driving cars. Arguably the most essential task of such systems is the reliable detection and localization of obstacles in order to avoid collisions. Two particularly challenging scenarios in this context are represented by small, unexpected obstacles on the road ahead, and by potentially dynamic objects observed from a large distance. Both scenarios become exceedingly critical when the ego-vehicle is traveling at high speed. As a consequence, two major requirements placed on environment perception systems are the capability of (a) high-sensitivity generic object detection and (b) high-accuracy obstacle distance estimation. The present thesis addresses both requirements by proposing novel approaches based on stereo vision for spatial perception.
First, this work presents a novel method for the detection of small, generic obstacles and objects at long range directly from stereo imagery. The detection is based on sound statistical tests using local geometric criteria which are applicable to both static and moving objects. The approach is not limited to predefined sets of semantic object classes and does not rely on restrictive assumptions on the environment, such as oversimplified global ground surface models. Free-space and obstacle hypotheses are evaluated based on a statistical model of the input image data in order to avoid a loss of sensitivity through intermediate processing steps. In addition to the detection result, the algorithm simultaneously yields refined estimates of object distances, originating from an implicit optimization of the geometric obstacle hypothesis models. The proposed detection system provides multiple flexible output representations, ranging from 3D obstacle point clouds to compact mid-level obstacle segments to bounding box representations of object instances suitable for model-based tracking. The core algorithm concept lends itself to massive parallelization and can be implemented efficiently on dedicated hardware. Real-time execution is demonstrated on a test vehicle in real-world traffic. For a thorough quantitative evaluation of the detection performance, two dedicated datasets are employed, covering small and hard-to-detect obstacles in urban environments as well as distant dynamic objects in highway driving scenarios. The proposed system is shown to significantly outperform current general purpose obstacle detection approaches in both setups, providing a considerable increase in detection range while reducing the false positive rate at the same time.
Second, this work considers the high-accuracy estimation of object distances from stereo vision, particularly at long range. Several new methods for optimizing the stereo-based distance estimates of detected objects are proposed and compared to state-of-the-art concepts. A comprehensive statistical evaluation is performed on an extensive dedicated dataset, establishing reference values for the accuracy limits actually achievable in practice. Notably, the refined distance estimates implicitly provided by the proposed obstacle detection system are shown to yield highly accurate results, on par with the top-performing dedicated stereo matching algorithms considered in the analysis.
Ziel der Arbeit ist es, den frühen Zweitspracherwerb bei Kinder mit einer Spezifischen Sprachentwicklungsstörung (specific language impairment, SLI) zu charakterisieren. Im Vergleich zwischen sprachunauffälligen Kindern mit Deutsch als Zweitsprache (DaZ-TD) und und sprachauffälligen Kindern (DaZ-SLI) wird für die morpho-syntaktischen Bereiche Finitheit und Verbstellung sowie Kasus untersucht, anhand welcher Entwicklungsmuster sich zwischen einem unauffälligen und einem auffälligen DaZ-Erwerb unterscheiden lässt. Dabei werden die folgenden übergeordneten Fragen (F) beantwortet. (F1) Gibt es Unterschiede in Bezug auf Fehlerarten und -häufigkeiten zwischen DaZ-TD und DaZ-SLI Kindern? (F2) Gibt es persistierende Defizite bei DaZ-SLI Kindern verglichen mit DaZ-TD Kindern?
Untersucht wurden über einen Zeitraum von zwei Jahren 33 DaZ-Kinder, elf davon mit einer SLI. Zu Beginn der Erhebungen waren die DaZ-TD Kinder im Durchschnitt 3;8 Jahre alt und hatten 11 KM zum Deutschen. Die DaZ-SLI waren zu MZP 1 durchschnittlich 7;1 Jahre alt (45 KM). Zu insgesamt vier MZP wurden elizitierte Produktionsdaten mittels des standardisierten Verfahrens LiSe-DaZ (Schulz & Tracy 2011) erhoben. Sowohl die Methode der elizitierten Produktion als auch die längsschnittlichen Analysen einer großen Gruppe von Kindern mit DaZ erlaubten es, Aussagen über das Erwerbsalter bzw. persistierende Defizite und Entwicklungsmuster, insbesondere bei SLI, zu treffen. Entwicklungsverzögerungen (delay) und ggf. vom DaZ-TD Erwerb abweichende Entwicklungsmuster (deviance) wurden abgebildet.
Mit der Beantwortung der Fragen leistet die Arbeit in zweierlei Hinsicht einen Beitrag. Erstens wird mit Blick auf die Spracherwerbsforschung gezeigt, dass DaZ-SLI Kinder entwicklungsverzögert sind und sowohl ø-Stämme in V2 als auch Schwierigkeiten im Erwerb von Dativ in Präpositionalphrasen auf eine SLI bei Kindern mit DaZ hinweisen. Zweitens wird aus Sicht der Linguistik dafür argumentiert, dass zum einen ø-Stämme in V2 kovert finit sind und zum anderen in Modellen der Kasuszuweisung von einer dreigliedrigen Struktur, also einer Unterscheidung zwischen strukturellem, lexikalischem und inhärentem Kasus, ausgegangen werden muss.
Die Arbeit knüpft an damit an verschiedene Erwerbsstudien an. Hinsichtlich des Erwerbs von Finitheit und Verbstellung war bisher ungeklärt, ob auch die DaZ-SLI Kinder zwischen en-Infinitiven und ø-Stämmen hinsichtlich der jeweiligen Position im Satz unterscheiden, wie bereits für den DaZ-TD Erwerb nachgewiesen. Die vorliegende Studie wies dieses Erwerbsmuster auch für den DaZ-SLI Erwerb nach und schließt sich damit bisherigen Studien hinsichtlich kovert finiter ø-Stämme in V2 an. Studien zum Kasuserwerb bei DaZ, die auf den linguistisch relevanten Unterschied in der Kasuszuweisung, d.h. strukturell vs. nicht-strukturell (inhärent und lexikalisch), eingehen, gab es nur wenige. Die Frage, ob in der Kasustheorie von einem zwei- oder dreigliedrigen Modell ausgegangen werden muss, war neben der Frage nach möglicherweise abweichenden Erwerbsmustern und persistierenden Erwerbsschwierigkeiten bei DaZ-SLI bislang ungeklärt. In der vorliegenden Studie wurde gezeigt, dass DaZ-SLI Kinder verglichen mit DaZ-TD Kindern ähnliche Fehlermuster zeigen, aber insbesondere der Dativ in PPs stark verzögert erworben wird. Die Studie schließt den Ergebnissen zum simultan bilingualen Erwerb an und postuliert ein dreigliedriges Kasussystem.
Insgesamt zeigt die vorliegende Studie erstmals anhand elizitierter Längsschnittdaten, dass DaZ-SLI Kinder bis ins Schulalter persistierende Probleme im Erwerb von Finitheit und Verbstellung sowie Kasus haben. Verglichen mit DaZ-TD Kindern erwerben sie diese Bereiche - wenn überhaupt - deutlich verzögert (delay). In den Fehlertypen unterscheiden sich die beiden Erwerbstypen hingegen nicht (deviance).
Licht ist ein wertvolles Werkzeug zur Regulation biochemischer Reaktionsabläufe. Denn die Applikation von Licht erlaubt eine sehr präzise Einflussnahme auf den Ort und den Startzeitpunkt der zu untersuchenden Reaktionen. Als nichtinvasives Medium bietet die Lichtkontrolle bei der Wahl einer geeigneten Anregungswellenlänge den Vorteil nur minimal in einen lebenden Organismus einzugreifen. Um eine solche lichtbasierte Kontrolle für biologische Anwendungen zu realisieren, ist die Anwesenheit einer lichtsensitiven Verbindung nötig. Ein Konzept der lichtsensitiven Verbindungen ist die sogenannte photolabile Schutzgruppe. Im Allgemeinen handelt es sich hierbei um einen Chromophor der temporär an ein Biomolekül angebracht wurde, um dessen biologische Aktivität zu unterdrücken.
In dieser Arbeit wurde dieses Konzept auf das Antibiotikum Puromycin angewendet, welches durch das synthetische Anbringen der Cumarin-Schutzgruppe DEACM in seiner biologischen Aktivität behindert und durch einen Lichtpuls wieder freigesetzt wurde. DEACM st eine photolabile Schutzgruppe mit breitem Anwendungsspektrum, da es im Vergleich zu anderen Cumarin-Derivaten vorteilhafte photophysikalische Eigenschaften aufweist. Zum einen ist durch den 7-Diethylamino-Substituenten das Absorptionsmaximum dieser Verbindung um etwa 20 nm bathochrom verschoben. Zum anderen zeichnet sich dieses Derivat durch einen erheblich erhöhten Extinktionskoeffizienten aus, sodass eine Freisetzungsreaktion mit einer geringeren Lichtdosis induziert werden kann, was weniger Stress für die Zellen in lebenden Systemen bedeutet.
Die antibiotische Wirkung von Puromycin beruht auf der strukturellen Ähnlichkeit zum5'-Ende von Tyrosyl-tRNA, wodurch sich das Antibiotikum kondonunspezifisch während der Translation der Proteinsynthese an das Ribosom anlagern kann. Anschließend wird die naszierende Polypeptidkette auf das Puromycin transferiert. Da diese neue Bindung unter biologischen Bedingungen nicht spaltbar ist, führt dies zu einer verfrühten Freisetzung des Polypeptid-Puromycin-Fragments. Schließlich ist die Proteinsynthese vollständig abgebrochen.
Die Motivation zur photoinduzierten Kontrolle von Puromycin besteht in der Vielzahl an biologischen Applikationsmöglichkeiten, da die lichtregulierte Freisetzung der biologischen Aktivität als Trigger für sich anschließende biochemische Abläufe verwendet werden kann. Durch das hier gezeigte System kann in Kombination mit anderen Techniken (z.B. NMR) die posttranslationale Proteinfaltung beobachtet werden, welche als hochgradig komplexer Prozess bisher nicht verstanden ist. Eine weitere Motivationsgrundlage ist die Anwendung von DEACM-puromycin in Nervenzellen. Hier kann durch die Photofreisetzung die Proteinsynthese in den Dendriten der Neuronen beobachtet werden, wodurch Rückschlüsse auf neurodegenerative Krankheiten möglich sein sollten, wie z.B. Alzheimer-Krankheit. In dieser Arbeit konnte in-vitro nachgewiesen werden, dass die antibiotische Wirkung von Puromycin mittels Licht kontrollierbar ist. Aus der photophysikalischen Grundcharakterisierung ging hervor, dass DEACM-puromycin einen hohen Extinktionskoeffizienten bei Wellenlängen größer als 380 nm aufweist. Folglich kann zur Induktion der Photolyse eine geringere Lichtdosis mit energiearmer Strahlung als bei dem Vorläufersystem NVOC-puromycin verwendet werden, angesichts dessen ist das hier vorgestellte DEACM-puromycin für Anwendungen in Zellen zu empfehlen.
Über die Kombination von quantenchemischen Rechnungen und spektroskopischen Methoden konnten die frühen Schritte der Freisetzungsreaktion bestimmt und quantifiziert werden. Zudem zeigte sich ein Einfluss der Lösungsmittelzusammensetzung auf die Uncaging-Schritte. In Gegenwart eines protischen Lösungsmittels wird der zum Uncaging in Konkurrenz stehende Prozess der Fluoreszenz unterdrückt, wodurch die Freisetzungsschritte effektiver werden. Zudem führt die Präsenz von Protonen zu einer Stabilisierung des ionischen Intermediates, sodass die Bildung dessen beschleunigt ablaufen kann. Die Spaltung der photolabilen Schutzgruppen vom Puromycin findet mit einer Rate von 0,71*10^8 s-1 statt, welche im Vergleich zu Vorgängersystem um eine Größenordnung größer ist. Die Wiederherstellung der biologischen Aktivität resultiert aber erst nach einem anschließenden Decarboxylierungsschritt. Mithilfe von IR-Messungen konnte die Decarboxylierung beobachtet und daraus die Quantenausbeute zu 2,5% determiniert werden. Die so bestimmte Quantenausbeute entspricht etwa dem Zweifachen von NVOC-puromycin, sodass die hier untersuchte Verbindung eindeutig als das effizientere System zu betrachten ist. Die hier beschriebenen Ergebnisse zeigen, dass DEACM-puromycin vorteilhafte photophysikalische Eigenschafen aufweist, die diese Verbindung zu einem wertvollen Hilfsmittel für eine Vielzahl von lichtkontrollierten Untersuchungen in biologischer Umgebung macht. Zudem wurden Einblicke in den Reaktionsmechanismus gegeben, die das Verständnis der photolytischen Spaltung von Carbamat-geschützten Cumarinen erstmals auf der ultrakurzen Zeitskala ermöglicht.
In this thesis we introduce the imaginary projection of (multivariate) polynomials as the projection of their variety onto its imaginary part, I(f) = { Im(z_1, ... , z_n) : f(z_1, ... , z_n) = 0 }. This induces a geometric viewpoint to stability, since a polynomial f is stable if and only if its imaginary projection does not intersect the positive orthant. Accordingly, the thesis is mainly motivated by the theory of stable polynomials.
Interested in the number and structure of components of the complement of imaginary projections, we show as a key result that there are only finitely many components which are all convex. This offers a connection to the theory of amoebas and coamoebas as well as to the theory of hyperbolic polynomials.
For hyperbolic polynomials, we show that hyperbolicity cones coincide with components of the complement of imaginary projections, which provides a strong structural relationship between these two sets. Based on this, we prove a tight upper bound for the number of hyperbolicity cones and, respectively, for the number of components of the complement in the case of homogeneous polynomials. Beside this, we investigate various aspects of imaginary projections and compute imaginary projections of several classes explicitly.
Finally, we initiate the study of a conic generalization of stability by considering polynomials whose roots have no imaginary part in the interior of a given real, n-dimensional, proper cone K. This appears to be very natural, since many statements known for univariate and multivariate stable polynomials can be transferred to the conic situation, like the Hermite-Biehler Theorem and the Hermite-Kakeya-Obreschkoff Theorem. When considering K to be the cone of positive semidefinite matrices, we prove a criterion for conic stability of determinantal polynomials.
The endoplasmic-reticulum-associated protein degradation pathway ensures quality control of newly synthesized soluble and membrane proteins of the secretory pathway. Proteins failing to fold into their native structure are processed in a multistep process and finally ubiquitinated and degraded by the proteasome in order to protect the cell from proteotoxic stress. My thesis covers structural as well as functional studies of various protein components that constitute the protein complexes that are responsible for this process.
One sub-project addressed the mechanism of glycan recognition by Yos9 as part of the ERAD substrate selection. NMR solution structures of the mannose-6-phosphate homology (MRH) domain of Yos9 both in a free and glycan bound conformation reveal a gripping movement of loop regions upon binding of correctly processed glycan structures.
The main projects focused on revealing the mechanism of efficient ubiquitin chain assembly by the ERAD ubiquitination machinery. This included the investigation of the role of the ERAD components Cue1 and Ubc7 in processive ubiquitin chain formation, how ubiquitin chain conformations change during elongation, how the conformation of a chain is impacted by interacting proteins and finally understand the activity regulation of the ERAD E2 enzyme Ubc7 by its cognate RING E3 ligases. Nuclear magnetic resonance (NMR) analysis and fluorescence-based ubiquitination assays show that the CUE domain of Cue1 contributes with its proximal binding preference as well as with its position dependent accelerating effect to efficient ubiquitin chain formation. This is required to efficiently drive degradation of substrates. Specific ubiquitin binding events dictate and coordinate the spatial arrangement of the E2 enzyme relative to the distal tip of a chain. This process can be further accelerated by RING E3 ligases that promote Ubc7 activity by more than ~20 fold via inducing allosteric changes around the catalytic cysteine. My results additionally suggest a model where Ubc7 dimerization results in proximity induced activation of the E2. This data ensures rapid diubiquitin formation that is followed by a CUE domain assisted chain elongation mechanism where Cue1 acts in an E4 like fashion.
How ubiquitin binding events can modulate the conformations of a ubiquitin chain were investigated by pulsed electron-electron double resonance (PELDOR) spectroscopy combined with molecular modeling. This shows that K48-linked diubiquitin samples a broad conformational space which can be modulated in distinct ways. The CUE domain of Cue1 uses conformational selection of pre-populated open conformations to support ubiquitin chain elongation. In contrast, deubiquitinating enzymes shift the conformational distribution to weakly or even non-populated conformations to allow cleavage of the isopeptide bond that connects adjacent ubiquitins. Ubiquitin chain elongation increases the sampled conformational space and suggests that this high conformational flexibility might contribute to efficient proteasomal recognition.
Für das bessere Verständnis der Nukleosynthese der schweren Elemente im s-Prozess wurde im Rahmen dieser Arbeit die Messung zur Bestimmung der Neutroneneinfangsreaktion von 83Kr durchgeführt. Als Messinstrument wurde DANCE am LANL verwendet, ein 4pi-Kalorimeter zur Detektion der entstehenden g-Kaskaden bei (n,g)-Reaktionen. Darüber hinaus wurden außerdem noch Proben mit 85Kr und 86Kr vermessen.
Die Herausforderung an diesem Experiment bestand vor allem in der Probenherstellung. Das Edelgas Kr erforderte eine Neukonstruktion der normalerweise bei DANCE verwendeten Probenhalterung. Das Hauptaugenmerk lag auf der Maximierung der Kr-Exposition durch den Neutronenstrahl. Im Gegenzug wurde versucht das umgebende Material nach Möglichkeit keinen Neutronen auszusetzen. Für die Isotope 83,86Kr wurden Hochdruckgaskugeln verwendet, die an der Goethe-Universität Frankfurt gefüllt und in eine der neuen Probenhalterungen eingesetzt wurden. Zur Beachtung des bei der Messung entstehenden Untergrundes wurde eine Messung mit baugleicher Probenhalterung und leerer Gaskugel durchgeführt. Da bereits kleine Mengen 85Kr eine hohe Radioaktivität aufweisen, wurde eine in einen Stahlzylinder eingeschweißte, existierende Quelle verwendet.
Bei der Analyse zu 86Kr wurde schnell eine zu starke Verunreinigung der Kr-Probe mit Xe offensichtlich, einen signifikanten Anteil des Spektrums ausmachte. Aus diesem Grund kam es vor allem zu Problemen den korrekten Untergrund von den 86Kr Messdaten zu subtrahieren. Die weitere Bestimmung inklusive Streukorrekturen, Normierung anhand des Flussmonitors und DICEBOX/GEANT3 Effizienzbestimmung lieferte zwar einen energieabhängigen Wirkungsquerschnitt, dieser zeigte allerdings große Abweichungen von den evaluierten ENDF/B-VII.1 Daten, was besonders ersichtlich in der deutlichsten 86Kr Resonanz bei 5515 eV zu erkennen war. Aus diesem Grund konnte aus den Messdaten kein MACS extrahiert werden.
Bei einer Untersuchung der Aktivität der 85Kr-Probe mit Hilfe der einzelnen BaF2-Detektoren in der DANCE Kugel zeigte sich zunächst eine um fast einen Faktor vier geringere Aktivität als vom Hersteller angegeben. Auch bei der weiteren Analyse traten massive Untergrundprobleme auf. Die Form des Stahlzylinders, in dem das Kr-Gasgemisch eingeschweißt war, konnte aufgrund seiner Form nur schwer im Strahlrohr untergebracht werden. Beim Experiment selbst zeigte sich dann, dass Teile der Halterung vom Neutronenstrahl getroffen wurden, was einen Untergrund mit sehr hohem Q-Wert erzeugte, der nicht durch ein Esum Fenster entfernt werden konnte. Durch eine Beschädigung der Halterung mit der Probe kam es darüber hinaus zu Abweichungen mit der verwendeten Leerhalterung. All das führte trotz einer langen Messzeit von fast 18 d dazu, dass nur ein sehr schwaches Signal von der eigentlichen Kr-Probe zu erkennen war. Es wurde eine mögliche 85Kr Resonanz bei 675 eV gefunden, allerdings ist die endgültige Zuordnung aufgrund der nicht eindeutigen Untergrundsituation äußerst schwierig. Im Vorfeld des Kr-Experimentes wurde eine Messung von RbCl an DANCE durchgeführt, da ursprünglich zu erwarten war, dass bereits ein Teil des 85Kr zu 85Rb zerfallen war. Durch diese Messung sollte dieser Anteil leicht von der späteren Messung zu subtrahieren sein. Allerdings trat ein unerwartetes Problem während der Datenaufnahme auf. Die Verbindung der DAQ Boards wurde getrennt, wodurch ca. 3/4 der Detektoren nicht mehr zeitsynchron liefen. Im Zuge dieser Arbeit wurde eine Rekonstruktion dieser Daten angestrebt. Durch Modifikationen am FARE Code, der zur Auswertung verwendet wurde, konnte Flugzeitspektren für jeden Beschleunigerpuls erzeugt werden. Es zeigte sich zunächst ein offensichtlicher Trend einer Verschiebung der getrennten Boards zu späteren Zeiten. Durch mehrere Fits an die Abweichungsverteilung und anschließende Korrektur konnte zunächst ein Spektrum wiederhergestellt werden, das vergleichbar mit den unbeschädigten Daten war. Bei einer detaillierten Analyse dieser neu gewonnen Daten zeigte sich jedoch eine Nichtlinearität in der Zeitverschiebung. Dies resultierte letztlich in einer Korrektur des Spektrums, allerdings nicht in einem Koinzidenzfenster von 10 ns, das für eine Wirkungsquerschnittsanalyse notwendig ist. Es wurde geschlussfolgert, dass durch die geringe Statistik in den einzelnen Flugzeitspektren solch eine Genauigkeit nicht zu erreichen ist.
Die Messung des Neutroneneinfangsquerschnitts von 83Kr konnte im Zuge dieser Arbeit erfolgreich durchgeführt werden. Es wurden zwei Messungen mit verschiedenen Strömen kombiniert. Eine Messung mit 40 µA wurde durchgeführt, um Pile-Up in der größten Resonanz bei 28 eV zu reduzieren. Die zweite Messung diente dann dem Sammeln von ausreichend Statistik in den nicht resonanten Bereichen. Die eingesetzte Leerkugel erlaubte eine saubere Subtraktion des Untergrundes von Probenhalterung, Gaskugel und Umgebung. Für die Skalierung der Messergebnisse wurde eine weitere Messung mit einer 5000 Å dicken Goldfolie durchgeführt. Zur Bestimmung der Detektoreffizienz konnten zunächst die durch den Neutroneneinfang entstandenen Abregungskaskaden der 84Kr Kerne mit DICEBOX modelliert werden. Diese Kaskaden wurden dann anschließend in GEANT3 Simulationen verwendet, um die Effizienz bestimmen zu können. Mit diesen Methoden erhielt man die Maxwell-gemittelten Wirkungsquerschnitte von kT = 5 keV - 100 keV. Bei der für den s-Prozess wichtigen Temperatur von kT = 30 keV wurde der Querschnitt bestimmt zu: MACS (30 keV) = (256,6 +- 14,2 (stat) +- 18,1(sys)) mb.
Dieser Wert ist in guter Übereinstimmung mit dem in der KADoNIS v0.3 Datenbank angegebenen Wert von MACS;KADoNIS (30 keV) = (243 +- 15) mb. Mit den so gewonnenen Wirkungsquerschnitten wurden außerdem die Reaktionsraten berechnet. Bei den anschließenden Netzwerkrechnungen mit dem Programm NETZ wurden die Auswirkungen der in dieser Arbeit gewonnenen Wirkungsquerschnitte im Vergleich zu den KADoNIS v0.3 Werten betrachtet. Dabei zeigte sich eine leicht erhöhte Produktion der stabilen Isotope 84Kr, 86Kr, 85Rb und 87Rb, sowie eine leichte Unterproduktion der stabilen Isotope 86-88Sr in der Hauptkomponente des s-Prozess. Ein ähnliches Bild zeigte sich in der He-Brennphase der schwachen Komponente. Der in dieser Arbeit gemessene Wirkungsquerschnitt bei hohen Temperaturen ist geringer als der in KADoNIS v0.3 angegebene, weswegen es bei der Simulation mit NETZ zu einer stark erhöhten Produktion von 83Kr in der C-Brennphase kommt.
Compact objects - black holes and neutron stars - are fascinating objects, not only for the astrophysicists, but for a wide range of researchers, including astronomers, theoretical physicists, particle and nuclear physicists, condensed matter physicists and arguably for the layman as well.
First theorized in the first part of the twentieth century, for a long time these objects have been considered just exotic ideas or mathematical curiosities. Pulsar were however detected in the late 1960s and readily identified as rotating, radiating neutron stars, while the first candidate black hole, Cygnus X-1, was observed in 1972. Since then the interest in these objects has steadily grown.
The reasons behind this interest are easily understood considering that compact object dwell at the intersection of many different areas of physics, and are ideal laboratories to explore the interplay between these areas.
Black holes, which are purely gravitational objects, are perfectly suited to study the nature of gravity, its manifestations such as gravitational waves, and the differences between various theories of gravity in the regime where they are expected to be most relevant, i.e. the strong field regime. However, just like any massive astrophysical object, black holes are interested by accretion phenomena, which are thought to be the power source of some very bright astrophysical emitters of electromagnetic signals, such as active galactic nuclei or X-ray binaries.
At the same time, black holes exist in a variety of different mass scales, from stellar mass to supermassive black holes billions of times heavier. The latter play a very important and yet not fully understood role in the formation and evolution of galaxies, as well as in shaping the large scale structure of the universe, making them relevant to cosmology as well.
Neutron stars share with black holes the characteristic of being gravitationally dominated systems; but because they are composed of baryon matter, they display a much richer behaviour. It has been realized early on that the matter in neutron star cores reaches extreme densities, exceeding the one in atomic nuclei. This means that neutron stars could provide invaluable information on the behaviour of matter in such extreme conditions (which are impossible to achieve in laboratory experiments), such as details of the nucleonic interaction, the properties of hyperons or of quark-gluon plasmas.
...
The mission of the Compressed Baryonic Matter (CBM) experiment is to investigate the phase diagram of strongly interacting matter in the region of high net-baryon densities and moderate temperatures. According to various transport models, matter densities of more than 5 times saturation density can be reached in collisions between gold nuclei at beam energies between 5 and 11 GeV per nucleon, which will be available at FAIR. The core detector of the CBM experiment is the Silicon Tracking System (STS), which is used to measure the tracks of up to 700 particles per collision with high efficiency (>95%) and good momentum resolution (<1.5%). The technological and experimental challenge is to realize a detector system with very low material budget, in order to reduce multiple scattering of the particles, and a free-streaming data readout chain, in order to achieve reaction rates up to 10 MHz together with an online event reconstruction and selection.
The STS comprises 8 tracking stations positioned between 30 cm and 100 cm downstream the target inside a magnetic field, covering polar emission angles up to 25 degrees. A station consists of vertical structures with increasing number (between 8 and 16, depending on station number), each structure carrying between 2 and 10 double-sided microstrip silicon sensors, which are connected through low-mass microcables to the readout electronics placed at the detector periphery outside the active detector area.
The work presented in this thesis focuses on the detector performance simulation and local hit pattern reconstruction in the STS. For efficient detector design and reconstruction performance, a reliable detector response model is of utmost importance. Within this work, a realistic detector response model was designed and implemented in the CBM software framework. The model includes non-uniform energy loss of an incident particle within a sensor, electric field of a planar p-n junction, Lorentz shift of the charge carriers, their diffusion, and the influence of parasitic capacitances. The developed model has been verified with experimental data from detector tests in a relativistic proton beam. Cluster size distributions at different beam incident angles are sensitive to charge sharing effects and were chosen as an observable for the verification. Taking into account parasitic capacitances further improves the agreement with measured data.
Using the developed detector response model, the cluster position finding algorithm was improved. For two-strip clusters, a new, unbiased algorithm has been developed, which gives smaller residuals than the Centre-Of-Gravity algorithm. For larger clusters, the head-tail algorithm is used as the default one. For an estimate of the track parameters, the Kalman Filter based track fit requires not only hit positions but their uncertainties as an input. A new analytic method to estimate the hit position errors has been designed in this work. It requires as input neither measured spatial resolution nor information about an incident particle track. The method includes all the sources of uncertainties independently, namely: the cluster position finding algorithm itself, the non-uniform energy loss of incident particles, the electronics noise, and the discretisation of charge in the readout chip.
The verification with simulations shows improvements in hit and track pull distributions as well as x²-distributions in comparison to the previous simple approach. The analytic method improves the track parameters reconstruction by 5-10%.
Several STS module prototypes have been tested in a relativistic proton beam. A signal to-noise ratio was obtained at the level of 10-15 for modules made of 30 cm long microcable and of either one or two 6.2 x 6.2 cm² CiS sensors.
First simulations have shown that this signal-to-noise ratio is sufficient to reach the required efficiency and momentum resolution. The high-radiation environment of CBM operation will deteriorate the sensor performance. Radiation hardness of sensors has been studied in the beam with sensors irradiated to 2 x 10[hoch 14] 1MeV [neq/cm²], twice the lifetime dose expected for CBM operation. Charge collection efficiency drops by 17-25%, and simultaneously noise levels increase 1.5-1.75 times. The simulations show that if all sensors in the STS setup are exposed to such a fluence uniformly, the track reconstruction efficiency drops from 95.5% to 93.2% and the momentum resolution degrades from 1.6% to 1.7%.
Im ersten Projekt der vorliegenden Arbeit wurden CD - 1 Mäuse mit drei unterschiedlichen Diäten für zwei Wochen ad libitum gefüttert. Die Diäten bestanden aus zwei kohlenhydratarmen, fettreichen Diäten und einer Standard Haltungsdiät. Die kohlenhydratarmen, fettreichen Diäten enthielten entweder Triheptanoin (dreifach mit Heptanoat verestertes Glycerol) oder Soja - Öl als Fettkomponente (jeweils 35 % der Gesamtkalorien). Nach zwei Wochen wurde ein ischämischer Schlaganfall für 90 min. mithilfe eines Silikonfadens induziert. Die Leber, das Blut und das Gehirn wurden nach dem Schlaganfall entnommen und die Konzentrationen der Metabolite β - Hydroxybutyrat, Glukose, Laktat und Citrat wurden mit der zuvor etablierten GC - MS-Methode ermittelt. Unter gleichen Bedingungen wurde eine Mikrodialysestudie durchgeführt.
Bei den Tieren, die die kohlenhydratarmen, fettreichen Diäten erhielten, konnte in den Leber - und Hirnhomogenaten, im Plasma sowie im Mikrodialysat eine Ketose festgestellt werden. Die BHB Konzentrationen durch eine Soja Diät erreichten im Leberhomogenat bis zu 4 mM, im Plasma bis zu 1,5 mM, im Hirnhomogenat bis zu 1,5 mM und im Mikrodialysat bis zu 30 µM. Um eine Aussage treffen zu können, ob das Gehirn die von der Leber produzierten Ketonkörper als Energiesubstrate nutzen kann, wurde eine Folgestudie (unter gleichen Bedingungen) durchgeführt. Bei dieser Studie wurde der Zeitpunkt der Gewebeentnahme 60 min. nach Entfernen des Fadens (Reperfusion) gewählt. In den Leber – und Hirnhomogenaten konnten erniedrigte Konzentrationen des Ketonkörpers BHB nachgewiesen werden. Die nicht operierten Tiere, die eine fettreiche Diät erhielten, hatten erhöhte Konzentrationen an Citrat in den genannten Geweben. Durch den Abbau des Ketonkörpers BHB können bei Verstoffwechslung in Geweben außerhalb der Leber, zwei Moleküle Acetyl - CoA gebildet werden. Diese gebildeten Acetyl - CoA Moleküle können in den Citratzyklus eingespeist werden.
Um diesen Befund mechanistisch besser verstehen zu können, wurde den Mäusen Propranolol (ein unselektiver β - Blocker) verabreicht, und zwar kurz nachdem der Faden die mittlere Zerebralarterie verschlossen hatte. Als Folge blieb bei den fettreich gefütterten Tieren die zuvor beobachtete Ketose, aus. Daraus wurde geschlossen, dass die auftretende Ketose bei den fettreich gefütterten Tieren durch adrenerge β - Rezeptoren vermittelt wurde. Zusammengefasst kann eine fettreiche bzw. ketogene Ernährung im Falle einer Ischämie die Versorgung des Gehirns durch die Bildung von Ketonkörper gewährleisten.
Die zu beobachtende hepatische Ketogenese aus dem ersten Projekt hat die Frage entstehen lassen, ob eine akute Gabe von β - Hydroxybutyrat (BHB) bei Entfernen des Fadens schützende Effekte auf das Verhalten bzw. die Mitochondrien als Kraftwerke der Zelle hat. Hierzu wurde BHB bei Reperfusion gegeben und die Wirkungen dieser Einmalgabe nach 24 h untersucht. Als erster Schritt wurde der Nachweis erbracht, dass eine exogene Gabe von BHB das Gehirn erreicht. Im zweiten Schritt wurde das Verhalten der Mäuse nach 24 h untersucht. Hierbei erbrachte die Gabe von BHB eine signifikante Verbesserung der sensorischen und motorischen Fähigkeiten der Mäuse. Die metabolischen Veränderungen nach 24 h wurden erneut in Leberhomogenaten und Plasma vermessen. Eine Einzelgabe von BHB bewirkte eine milde Ketose auch 24 h nach Reperfusion der mittleren Zerebralarterie. Um eine detailliertere Erkenntnis über die Wirkung von BHB zu erlangen, wurden die Mitochondrien als potentielles Ziel für BHB in den Fokus genommen. Die Einmalgabe von BHB verhinderte ein Absinken der Komplex – II Aktivität. Außerdem kann die Aktivität der Citratsynthase unter der Gabe von BHB erhalten werden, sodass die Mitochondrien vor allem im wichtigen Zeitraum nach der Reperfusion geschützt werden. Im Rahmen der Untersuchungen der Mitochondrien wurden unterschiedliche Substrateinflüsse auf die Respiration der isolierten Mitochondrien getestet. Bei Zugabe von BHB, Oxalacetat + Acetat oder Citrat zu dem Respirationsmedium stieg die Respiration der Mitochondrien an. Im Falle von Glukose, Propranolol oder Acetat wird die Respiration verringert. Bei Zugabe von Laktat, verbleibt die Respiration auf Ausgangsniveau. Abschließend ist festzustellen, dass die Einzelgabe von BHB nach 24 h das Verhalten der Mäuse verbessert, eine milde Ketose induziert, sowie Mitochondrien und die Citratsynthase gegen ischämische Ereignisse schützt.
Um die in dieser Arbeit gezeigten Daten über metabolische Veränderungen zeigen zu können, musste eine vorherige Etablierung der GC – MS Analytik vollzogen werden. Auf der einen Seite musste die Probenvorbereitung, aber auch die gesamte Vermessung der Proben aufgebaut werden. Es wurden insgesamt 11 Analyte in vier unterschiedlichen Kompartimenten quantifiziert. Die Nachweisgrenze lag bei diesen 11 Analyten bei 0,01 - 1 ng/µl, was einer umgerechneten Stoffmengenkonzentration von 0,5 - 10 µM entspricht. Mithilfe dieser Methode können optional weitere Substanzen aus verschiedenen Geweben zugänglich gemacht werden. Diese Arbeit bietet hierzu eine Anleitung, wie die Etablierung erfolgen kann. Im Rahmen der Probenvorbereitung wurden alle Schritte systematisch verbessert. Dazu wurden Wiederholungsmessungen für unterschiedliche Modalitäten vollzogen. Die Abundance und die Zeitbeständigkeit waren die wesentlichen Beurteilungskriterien. So wurden die Daten für die Extraktionseffektivität, die Lösungsmittelabhängigkeit der Silylierung, der Zusatz von Hünig - Base sowie die Temperatur und Zeitabhängigkeit der Silylierung in dieser Arbeit erarbeitet. Die Quantifizierung wurde anhand von internen Standardverbindungen durchgeführt. Die jeweiligen Response – Faktoren blieben über die gesamte Zeit nach der Etablierung konstant und erlaubten die Quantifizierung mit geringen Fehlern. Die Beurteilung der ermittelten Daten über die Validierung wurden anhand von geltenden Regelwerken der pharmazeutischen Industrie entschieden. Es wurde ein Protokoll entwickelt, das im Rahmen der universitären Forschung eine vertrauenswürdige Aussage über Veränderungen von Metabolitenspiegeln in vielen Geweben der Maus und der Ratte geben kann.