Refine
Year of publication
- 2018 (204) (remove)
Document Type
- Doctoral Thesis (204) (remove)
Has Fulltext
- yes (204) (remove)
Is part of the Bibliography
- no (204)
Keywords
- Lebensqualität (2)
- Spracherwerb (2)
- vascular endothelial cells (2)
- ABCE1 (1)
- ARFI (1)
- Adhärenz (1)
- Afghanistan (1)
- Allosteric inhibition (1)
- Anomalie <Medizin> (1)
- Anwendungsorientierte Forschung (1)
Institute
- Biochemie, Chemie und Pharmazie (44)
- Medizin (39)
- Biowissenschaften (34)
- Physik (21)
- Informatik und Mathematik (17)
- Gesellschaftswissenschaften (8)
- Sprach- und Kulturwissenschaften (8)
- Neuere Philologien (7)
- Biochemie und Chemie (3)
- Kulturwissenschaften (3)
Based on an original dataset of 100 important pieces of legislation passed during the three presidencies of William J. Clinton, George W. Bush, and Barack H. Obama (1992-2013), this study explores two sets of questions:
(1) How do presidents influence legislators in Congress in the legislative arena, and what factors have an effect on the legislative strategies presidents choose?
(2) How successful are presidents in getting their policy positions enacted into law, and what configurations of institutional and actor-centered conditions determine presidential legislative success?
The analyses show that in an hyper-polarized environment, presidents usually have to fight an uphill-battle in the legislative arena, getting more involved if they face less favorable contexts and the odds are against them.
Moreover, the analyses suggest that there is no silver-bullet approach for presidents' legislative success. Instead, multiple patterns of success exist as presidents - depending on the institutional and public environment - can resort to different combinations of actions in order to see their preferred policy outcomes enacted.
Powerful environment perception systems are a fundamental prerequisite for the successful deployment of intelligent vehicles, from advanced driver assistance systems to self-driving cars. Arguably the most essential task of such systems is the reliable detection and localization of obstacles in order to avoid collisions. Two particularly challenging scenarios in this context are represented by small, unexpected obstacles on the road ahead, and by potentially dynamic objects observed from a large distance. Both scenarios become exceedingly critical when the ego-vehicle is traveling at high speed. As a consequence, two major requirements placed on environment perception systems are the capability of (a) high-sensitivity generic object detection and (b) high-accuracy obstacle distance estimation. The present thesis addresses both requirements by proposing novel approaches based on stereo vision for spatial perception.
First, this work presents a novel method for the detection of small, generic obstacles and objects at long range directly from stereo imagery. The detection is based on sound statistical tests using local geometric criteria which are applicable to both static and moving objects. The approach is not limited to predefined sets of semantic object classes and does not rely on restrictive assumptions on the environment, such as oversimplified global ground surface models. Free-space and obstacle hypotheses are evaluated based on a statistical model of the input image data in order to avoid a loss of sensitivity through intermediate processing steps. In addition to the detection result, the algorithm simultaneously yields refined estimates of object distances, originating from an implicit optimization of the geometric obstacle hypothesis models. The proposed detection system provides multiple flexible output representations, ranging from 3D obstacle point clouds to compact mid-level obstacle segments to bounding box representations of object instances suitable for model-based tracking. The core algorithm concept lends itself to massive parallelization and can be implemented efficiently on dedicated hardware. Real-time execution is demonstrated on a test vehicle in real-world traffic. For a thorough quantitative evaluation of the detection performance, two dedicated datasets are employed, covering small and hard-to-detect obstacles in urban environments as well as distant dynamic objects in highway driving scenarios. The proposed system is shown to significantly outperform current general purpose obstacle detection approaches in both setups, providing a considerable increase in detection range while reducing the false positive rate at the same time.
Second, this work considers the high-accuracy estimation of object distances from stereo vision, particularly at long range. Several new methods for optimizing the stereo-based distance estimates of detected objects are proposed and compared to state-of-the-art concepts. A comprehensive statistical evaluation is performed on an extensive dedicated dataset, establishing reference values for the accuracy limits actually achievable in practice. Notably, the refined distance estimates implicitly provided by the proposed obstacle detection system are shown to yield highly accurate results, on par with the top-performing dedicated stereo matching algorithms considered in the analysis.
Ziel der Arbeit ist es, den frühen Zweitspracherwerb bei Kinder mit einer Spezifischen Sprachentwicklungsstörung (specific language impairment, SLI) zu charakterisieren. Im Vergleich zwischen sprachunauffälligen Kindern mit Deutsch als Zweitsprache (DaZ-TD) und und sprachauffälligen Kindern (DaZ-SLI) wird für die morpho-syntaktischen Bereiche Finitheit und Verbstellung sowie Kasus untersucht, anhand welcher Entwicklungsmuster sich zwischen einem unauffälligen und einem auffälligen DaZ-Erwerb unterscheiden lässt. Dabei werden die folgenden übergeordneten Fragen (F) beantwortet. (F1) Gibt es Unterschiede in Bezug auf Fehlerarten und -häufigkeiten zwischen DaZ-TD und DaZ-SLI Kindern? (F2) Gibt es persistierende Defizite bei DaZ-SLI Kindern verglichen mit DaZ-TD Kindern?
Untersucht wurden über einen Zeitraum von zwei Jahren 33 DaZ-Kinder, elf davon mit einer SLI. Zu Beginn der Erhebungen waren die DaZ-TD Kinder im Durchschnitt 3;8 Jahre alt und hatten 11 KM zum Deutschen. Die DaZ-SLI waren zu MZP 1 durchschnittlich 7;1 Jahre alt (45 KM). Zu insgesamt vier MZP wurden elizitierte Produktionsdaten mittels des standardisierten Verfahrens LiSe-DaZ (Schulz & Tracy 2011) erhoben. Sowohl die Methode der elizitierten Produktion als auch die längsschnittlichen Analysen einer großen Gruppe von Kindern mit DaZ erlaubten es, Aussagen über das Erwerbsalter bzw. persistierende Defizite und Entwicklungsmuster, insbesondere bei SLI, zu treffen. Entwicklungsverzögerungen (delay) und ggf. vom DaZ-TD Erwerb abweichende Entwicklungsmuster (deviance) wurden abgebildet.
Mit der Beantwortung der Fragen leistet die Arbeit in zweierlei Hinsicht einen Beitrag. Erstens wird mit Blick auf die Spracherwerbsforschung gezeigt, dass DaZ-SLI Kinder entwicklungsverzögert sind und sowohl ø-Stämme in V2 als auch Schwierigkeiten im Erwerb von Dativ in Präpositionalphrasen auf eine SLI bei Kindern mit DaZ hinweisen. Zweitens wird aus Sicht der Linguistik dafür argumentiert, dass zum einen ø-Stämme in V2 kovert finit sind und zum anderen in Modellen der Kasuszuweisung von einer dreigliedrigen Struktur, also einer Unterscheidung zwischen strukturellem, lexikalischem und inhärentem Kasus, ausgegangen werden muss.
Die Arbeit knüpft an damit an verschiedene Erwerbsstudien an. Hinsichtlich des Erwerbs von Finitheit und Verbstellung war bisher ungeklärt, ob auch die DaZ-SLI Kinder zwischen en-Infinitiven und ø-Stämmen hinsichtlich der jeweiligen Position im Satz unterscheiden, wie bereits für den DaZ-TD Erwerb nachgewiesen. Die vorliegende Studie wies dieses Erwerbsmuster auch für den DaZ-SLI Erwerb nach und schließt sich damit bisherigen Studien hinsichtlich kovert finiter ø-Stämme in V2 an. Studien zum Kasuserwerb bei DaZ, die auf den linguistisch relevanten Unterschied in der Kasuszuweisung, d.h. strukturell vs. nicht-strukturell (inhärent und lexikalisch), eingehen, gab es nur wenige. Die Frage, ob in der Kasustheorie von einem zwei- oder dreigliedrigen Modell ausgegangen werden muss, war neben der Frage nach möglicherweise abweichenden Erwerbsmustern und persistierenden Erwerbsschwierigkeiten bei DaZ-SLI bislang ungeklärt. In der vorliegenden Studie wurde gezeigt, dass DaZ-SLI Kinder verglichen mit DaZ-TD Kindern ähnliche Fehlermuster zeigen, aber insbesondere der Dativ in PPs stark verzögert erworben wird. Die Studie schließt den Ergebnissen zum simultan bilingualen Erwerb an und postuliert ein dreigliedriges Kasussystem.
Insgesamt zeigt die vorliegende Studie erstmals anhand elizitierter Längsschnittdaten, dass DaZ-SLI Kinder bis ins Schulalter persistierende Probleme im Erwerb von Finitheit und Verbstellung sowie Kasus haben. Verglichen mit DaZ-TD Kindern erwerben sie diese Bereiche - wenn überhaupt - deutlich verzögert (delay). In den Fehlertypen unterscheiden sich die beiden Erwerbstypen hingegen nicht (deviance).
Licht ist ein wertvolles Werkzeug zur Regulation biochemischer Reaktionsabläufe. Denn die Applikation von Licht erlaubt eine sehr präzise Einflussnahme auf den Ort und den Startzeitpunkt der zu untersuchenden Reaktionen. Als nichtinvasives Medium bietet die Lichtkontrolle bei der Wahl einer geeigneten Anregungswellenlänge den Vorteil nur minimal in einen lebenden Organismus einzugreifen. Um eine solche lichtbasierte Kontrolle für biologische Anwendungen zu realisieren, ist die Anwesenheit einer lichtsensitiven Verbindung nötig. Ein Konzept der lichtsensitiven Verbindungen ist die sogenannte photolabile Schutzgruppe. Im Allgemeinen handelt es sich hierbei um einen Chromophor der temporär an ein Biomolekül angebracht wurde, um dessen biologische Aktivität zu unterdrücken.
In dieser Arbeit wurde dieses Konzept auf das Antibiotikum Puromycin angewendet, welches durch das synthetische Anbringen der Cumarin-Schutzgruppe DEACM in seiner biologischen Aktivität behindert und durch einen Lichtpuls wieder freigesetzt wurde. DEACM st eine photolabile Schutzgruppe mit breitem Anwendungsspektrum, da es im Vergleich zu anderen Cumarin-Derivaten vorteilhafte photophysikalische Eigenschaften aufweist. Zum einen ist durch den 7-Diethylamino-Substituenten das Absorptionsmaximum dieser Verbindung um etwa 20 nm bathochrom verschoben. Zum anderen zeichnet sich dieses Derivat durch einen erheblich erhöhten Extinktionskoeffizienten aus, sodass eine Freisetzungsreaktion mit einer geringeren Lichtdosis induziert werden kann, was weniger Stress für die Zellen in lebenden Systemen bedeutet.
Die antibiotische Wirkung von Puromycin beruht auf der strukturellen Ähnlichkeit zum5'-Ende von Tyrosyl-tRNA, wodurch sich das Antibiotikum kondonunspezifisch während der Translation der Proteinsynthese an das Ribosom anlagern kann. Anschließend wird die naszierende Polypeptidkette auf das Puromycin transferiert. Da diese neue Bindung unter biologischen Bedingungen nicht spaltbar ist, führt dies zu einer verfrühten Freisetzung des Polypeptid-Puromycin-Fragments. Schließlich ist die Proteinsynthese vollständig abgebrochen.
Die Motivation zur photoinduzierten Kontrolle von Puromycin besteht in der Vielzahl an biologischen Applikationsmöglichkeiten, da die lichtregulierte Freisetzung der biologischen Aktivität als Trigger für sich anschließende biochemische Abläufe verwendet werden kann. Durch das hier gezeigte System kann in Kombination mit anderen Techniken (z.B. NMR) die posttranslationale Proteinfaltung beobachtet werden, welche als hochgradig komplexer Prozess bisher nicht verstanden ist. Eine weitere Motivationsgrundlage ist die Anwendung von DEACM-puromycin in Nervenzellen. Hier kann durch die Photofreisetzung die Proteinsynthese in den Dendriten der Neuronen beobachtet werden, wodurch Rückschlüsse auf neurodegenerative Krankheiten möglich sein sollten, wie z.B. Alzheimer-Krankheit. In dieser Arbeit konnte in-vitro nachgewiesen werden, dass die antibiotische Wirkung von Puromycin mittels Licht kontrollierbar ist. Aus der photophysikalischen Grundcharakterisierung ging hervor, dass DEACM-puromycin einen hohen Extinktionskoeffizienten bei Wellenlängen größer als 380 nm aufweist. Folglich kann zur Induktion der Photolyse eine geringere Lichtdosis mit energiearmer Strahlung als bei dem Vorläufersystem NVOC-puromycin verwendet werden, angesichts dessen ist das hier vorgestellte DEACM-puromycin für Anwendungen in Zellen zu empfehlen.
Über die Kombination von quantenchemischen Rechnungen und spektroskopischen Methoden konnten die frühen Schritte der Freisetzungsreaktion bestimmt und quantifiziert werden. Zudem zeigte sich ein Einfluss der Lösungsmittelzusammensetzung auf die Uncaging-Schritte. In Gegenwart eines protischen Lösungsmittels wird der zum Uncaging in Konkurrenz stehende Prozess der Fluoreszenz unterdrückt, wodurch die Freisetzungsschritte effektiver werden. Zudem führt die Präsenz von Protonen zu einer Stabilisierung des ionischen Intermediates, sodass die Bildung dessen beschleunigt ablaufen kann. Die Spaltung der photolabilen Schutzgruppen vom Puromycin findet mit einer Rate von 0,71*10^8 s-1 statt, welche im Vergleich zu Vorgängersystem um eine Größenordnung größer ist. Die Wiederherstellung der biologischen Aktivität resultiert aber erst nach einem anschließenden Decarboxylierungsschritt. Mithilfe von IR-Messungen konnte die Decarboxylierung beobachtet und daraus die Quantenausbeute zu 2,5% determiniert werden. Die so bestimmte Quantenausbeute entspricht etwa dem Zweifachen von NVOC-puromycin, sodass die hier untersuchte Verbindung eindeutig als das effizientere System zu betrachten ist. Die hier beschriebenen Ergebnisse zeigen, dass DEACM-puromycin vorteilhafte photophysikalische Eigenschafen aufweist, die diese Verbindung zu einem wertvollen Hilfsmittel für eine Vielzahl von lichtkontrollierten Untersuchungen in biologischer Umgebung macht. Zudem wurden Einblicke in den Reaktionsmechanismus gegeben, die das Verständnis der photolytischen Spaltung von Carbamat-geschützten Cumarinen erstmals auf der ultrakurzen Zeitskala ermöglicht.
In this thesis we introduce the imaginary projection of (multivariate) polynomials as the projection of their variety onto its imaginary part, I(f) = { Im(z_1, ... , z_n) : f(z_1, ... , z_n) = 0 }. This induces a geometric viewpoint to stability, since a polynomial f is stable if and only if its imaginary projection does not intersect the positive orthant. Accordingly, the thesis is mainly motivated by the theory of stable polynomials.
Interested in the number and structure of components of the complement of imaginary projections, we show as a key result that there are only finitely many components which are all convex. This offers a connection to the theory of amoebas and coamoebas as well as to the theory of hyperbolic polynomials.
For hyperbolic polynomials, we show that hyperbolicity cones coincide with components of the complement of imaginary projections, which provides a strong structural relationship between these two sets. Based on this, we prove a tight upper bound for the number of hyperbolicity cones and, respectively, for the number of components of the complement in the case of homogeneous polynomials. Beside this, we investigate various aspects of imaginary projections and compute imaginary projections of several classes explicitly.
Finally, we initiate the study of a conic generalization of stability by considering polynomials whose roots have no imaginary part in the interior of a given real, n-dimensional, proper cone K. This appears to be very natural, since many statements known for univariate and multivariate stable polynomials can be transferred to the conic situation, like the Hermite-Biehler Theorem and the Hermite-Kakeya-Obreschkoff Theorem. When considering K to be the cone of positive semidefinite matrices, we prove a criterion for conic stability of determinantal polynomials.
The endoplasmic-reticulum-associated protein degradation pathway ensures quality control of newly synthesized soluble and membrane proteins of the secretory pathway. Proteins failing to fold into their native structure are processed in a multistep process and finally ubiquitinated and degraded by the proteasome in order to protect the cell from proteotoxic stress. My thesis covers structural as well as functional studies of various protein components that constitute the protein complexes that are responsible for this process.
One sub-project addressed the mechanism of glycan recognition by Yos9 as part of the ERAD substrate selection. NMR solution structures of the mannose-6-phosphate homology (MRH) domain of Yos9 both in a free and glycan bound conformation reveal a gripping movement of loop regions upon binding of correctly processed glycan structures.
The main projects focused on revealing the mechanism of efficient ubiquitin chain assembly by the ERAD ubiquitination machinery. This included the investigation of the role of the ERAD components Cue1 and Ubc7 in processive ubiquitin chain formation, how ubiquitin chain conformations change during elongation, how the conformation of a chain is impacted by interacting proteins and finally understand the activity regulation of the ERAD E2 enzyme Ubc7 by its cognate RING E3 ligases. Nuclear magnetic resonance (NMR) analysis and fluorescence-based ubiquitination assays show that the CUE domain of Cue1 contributes with its proximal binding preference as well as with its position dependent accelerating effect to efficient ubiquitin chain formation. This is required to efficiently drive degradation of substrates. Specific ubiquitin binding events dictate and coordinate the spatial arrangement of the E2 enzyme relative to the distal tip of a chain. This process can be further accelerated by RING E3 ligases that promote Ubc7 activity by more than ~20 fold via inducing allosteric changes around the catalytic cysteine. My results additionally suggest a model where Ubc7 dimerization results in proximity induced activation of the E2. This data ensures rapid diubiquitin formation that is followed by a CUE domain assisted chain elongation mechanism where Cue1 acts in an E4 like fashion.
How ubiquitin binding events can modulate the conformations of a ubiquitin chain were investigated by pulsed electron-electron double resonance (PELDOR) spectroscopy combined with molecular modeling. This shows that K48-linked diubiquitin samples a broad conformational space which can be modulated in distinct ways. The CUE domain of Cue1 uses conformational selection of pre-populated open conformations to support ubiquitin chain elongation. In contrast, deubiquitinating enzymes shift the conformational distribution to weakly or even non-populated conformations to allow cleavage of the isopeptide bond that connects adjacent ubiquitins. Ubiquitin chain elongation increases the sampled conformational space and suggests that this high conformational flexibility might contribute to efficient proteasomal recognition.
Für das bessere Verständnis der Nukleosynthese der schweren Elemente im s-Prozess wurde im Rahmen dieser Arbeit die Messung zur Bestimmung der Neutroneneinfangsreaktion von 83Kr durchgeführt. Als Messinstrument wurde DANCE am LANL verwendet, ein 4pi-Kalorimeter zur Detektion der entstehenden g-Kaskaden bei (n,g)-Reaktionen. Darüber hinaus wurden außerdem noch Proben mit 85Kr und 86Kr vermessen.
Die Herausforderung an diesem Experiment bestand vor allem in der Probenherstellung. Das Edelgas Kr erforderte eine Neukonstruktion der normalerweise bei DANCE verwendeten Probenhalterung. Das Hauptaugenmerk lag auf der Maximierung der Kr-Exposition durch den Neutronenstrahl. Im Gegenzug wurde versucht das umgebende Material nach Möglichkeit keinen Neutronen auszusetzen. Für die Isotope 83,86Kr wurden Hochdruckgaskugeln verwendet, die an der Goethe-Universität Frankfurt gefüllt und in eine der neuen Probenhalterungen eingesetzt wurden. Zur Beachtung des bei der Messung entstehenden Untergrundes wurde eine Messung mit baugleicher Probenhalterung und leerer Gaskugel durchgeführt. Da bereits kleine Mengen 85Kr eine hohe Radioaktivität aufweisen, wurde eine in einen Stahlzylinder eingeschweißte, existierende Quelle verwendet.
Bei der Analyse zu 86Kr wurde schnell eine zu starke Verunreinigung der Kr-Probe mit Xe offensichtlich, einen signifikanten Anteil des Spektrums ausmachte. Aus diesem Grund kam es vor allem zu Problemen den korrekten Untergrund von den 86Kr Messdaten zu subtrahieren. Die weitere Bestimmung inklusive Streukorrekturen, Normierung anhand des Flussmonitors und DICEBOX/GEANT3 Effizienzbestimmung lieferte zwar einen energieabhängigen Wirkungsquerschnitt, dieser zeigte allerdings große Abweichungen von den evaluierten ENDF/B-VII.1 Daten, was besonders ersichtlich in der deutlichsten 86Kr Resonanz bei 5515 eV zu erkennen war. Aus diesem Grund konnte aus den Messdaten kein MACS extrahiert werden.
Bei einer Untersuchung der Aktivität der 85Kr-Probe mit Hilfe der einzelnen BaF2-Detektoren in der DANCE Kugel zeigte sich zunächst eine um fast einen Faktor vier geringere Aktivität als vom Hersteller angegeben. Auch bei der weiteren Analyse traten massive Untergrundprobleme auf. Die Form des Stahlzylinders, in dem das Kr-Gasgemisch eingeschweißt war, konnte aufgrund seiner Form nur schwer im Strahlrohr untergebracht werden. Beim Experiment selbst zeigte sich dann, dass Teile der Halterung vom Neutronenstrahl getroffen wurden, was einen Untergrund mit sehr hohem Q-Wert erzeugte, der nicht durch ein Esum Fenster entfernt werden konnte. Durch eine Beschädigung der Halterung mit der Probe kam es darüber hinaus zu Abweichungen mit der verwendeten Leerhalterung. All das führte trotz einer langen Messzeit von fast 18 d dazu, dass nur ein sehr schwaches Signal von der eigentlichen Kr-Probe zu erkennen war. Es wurde eine mögliche 85Kr Resonanz bei 675 eV gefunden, allerdings ist die endgültige Zuordnung aufgrund der nicht eindeutigen Untergrundsituation äußerst schwierig. Im Vorfeld des Kr-Experimentes wurde eine Messung von RbCl an DANCE durchgeführt, da ursprünglich zu erwarten war, dass bereits ein Teil des 85Kr zu 85Rb zerfallen war. Durch diese Messung sollte dieser Anteil leicht von der späteren Messung zu subtrahieren sein. Allerdings trat ein unerwartetes Problem während der Datenaufnahme auf. Die Verbindung der DAQ Boards wurde getrennt, wodurch ca. 3/4 der Detektoren nicht mehr zeitsynchron liefen. Im Zuge dieser Arbeit wurde eine Rekonstruktion dieser Daten angestrebt. Durch Modifikationen am FARE Code, der zur Auswertung verwendet wurde, konnte Flugzeitspektren für jeden Beschleunigerpuls erzeugt werden. Es zeigte sich zunächst ein offensichtlicher Trend einer Verschiebung der getrennten Boards zu späteren Zeiten. Durch mehrere Fits an die Abweichungsverteilung und anschließende Korrektur konnte zunächst ein Spektrum wiederhergestellt werden, das vergleichbar mit den unbeschädigten Daten war. Bei einer detaillierten Analyse dieser neu gewonnen Daten zeigte sich jedoch eine Nichtlinearität in der Zeitverschiebung. Dies resultierte letztlich in einer Korrektur des Spektrums, allerdings nicht in einem Koinzidenzfenster von 10 ns, das für eine Wirkungsquerschnittsanalyse notwendig ist. Es wurde geschlussfolgert, dass durch die geringe Statistik in den einzelnen Flugzeitspektren solch eine Genauigkeit nicht zu erreichen ist.
Die Messung des Neutroneneinfangsquerschnitts von 83Kr konnte im Zuge dieser Arbeit erfolgreich durchgeführt werden. Es wurden zwei Messungen mit verschiedenen Strömen kombiniert. Eine Messung mit 40 µA wurde durchgeführt, um Pile-Up in der größten Resonanz bei 28 eV zu reduzieren. Die zweite Messung diente dann dem Sammeln von ausreichend Statistik in den nicht resonanten Bereichen. Die eingesetzte Leerkugel erlaubte eine saubere Subtraktion des Untergrundes von Probenhalterung, Gaskugel und Umgebung. Für die Skalierung der Messergebnisse wurde eine weitere Messung mit einer 5000 Å dicken Goldfolie durchgeführt. Zur Bestimmung der Detektoreffizienz konnten zunächst die durch den Neutroneneinfang entstandenen Abregungskaskaden der 84Kr Kerne mit DICEBOX modelliert werden. Diese Kaskaden wurden dann anschließend in GEANT3 Simulationen verwendet, um die Effizienz bestimmen zu können. Mit diesen Methoden erhielt man die Maxwell-gemittelten Wirkungsquerschnitte von kT = 5 keV - 100 keV. Bei der für den s-Prozess wichtigen Temperatur von kT = 30 keV wurde der Querschnitt bestimmt zu: MACS (30 keV) = (256,6 +- 14,2 (stat) +- 18,1(sys)) mb.
Dieser Wert ist in guter Übereinstimmung mit dem in der KADoNIS v0.3 Datenbank angegebenen Wert von MACS;KADoNIS (30 keV) = (243 +- 15) mb. Mit den so gewonnenen Wirkungsquerschnitten wurden außerdem die Reaktionsraten berechnet. Bei den anschließenden Netzwerkrechnungen mit dem Programm NETZ wurden die Auswirkungen der in dieser Arbeit gewonnenen Wirkungsquerschnitte im Vergleich zu den KADoNIS v0.3 Werten betrachtet. Dabei zeigte sich eine leicht erhöhte Produktion der stabilen Isotope 84Kr, 86Kr, 85Rb und 87Rb, sowie eine leichte Unterproduktion der stabilen Isotope 86-88Sr in der Hauptkomponente des s-Prozess. Ein ähnliches Bild zeigte sich in der He-Brennphase der schwachen Komponente. Der in dieser Arbeit gemessene Wirkungsquerschnitt bei hohen Temperaturen ist geringer als der in KADoNIS v0.3 angegebene, weswegen es bei der Simulation mit NETZ zu einer stark erhöhten Produktion von 83Kr in der C-Brennphase kommt.
Compact objects - black holes and neutron stars - are fascinating objects, not only for the astrophysicists, but for a wide range of researchers, including astronomers, theoretical physicists, particle and nuclear physicists, condensed matter physicists and arguably for the layman as well.
First theorized in the first part of the twentieth century, for a long time these objects have been considered just exotic ideas or mathematical curiosities. Pulsar were however detected in the late 1960s and readily identified as rotating, radiating neutron stars, while the first candidate black hole, Cygnus X-1, was observed in 1972. Since then the interest in these objects has steadily grown.
The reasons behind this interest are easily understood considering that compact object dwell at the intersection of many different areas of physics, and are ideal laboratories to explore the interplay between these areas.
Black holes, which are purely gravitational objects, are perfectly suited to study the nature of gravity, its manifestations such as gravitational waves, and the differences between various theories of gravity in the regime where they are expected to be most relevant, i.e. the strong field regime. However, just like any massive astrophysical object, black holes are interested by accretion phenomena, which are thought to be the power source of some very bright astrophysical emitters of electromagnetic signals, such as active galactic nuclei or X-ray binaries.
At the same time, black holes exist in a variety of different mass scales, from stellar mass to supermassive black holes billions of times heavier. The latter play a very important and yet not fully understood role in the formation and evolution of galaxies, as well as in shaping the large scale structure of the universe, making them relevant to cosmology as well.
Neutron stars share with black holes the characteristic of being gravitationally dominated systems; but because they are composed of baryon matter, they display a much richer behaviour. It has been realized early on that the matter in neutron star cores reaches extreme densities, exceeding the one in atomic nuclei. This means that neutron stars could provide invaluable information on the behaviour of matter in such extreme conditions (which are impossible to achieve in laboratory experiments), such as details of the nucleonic interaction, the properties of hyperons or of quark-gluon plasmas.
...
The mission of the Compressed Baryonic Matter (CBM) experiment is to investigate the phase diagram of strongly interacting matter in the region of high net-baryon densities and moderate temperatures. According to various transport models, matter densities of more than 5 times saturation density can be reached in collisions between gold nuclei at beam energies between 5 and 11 GeV per nucleon, which will be available at FAIR. The core detector of the CBM experiment is the Silicon Tracking System (STS), which is used to measure the tracks of up to 700 particles per collision with high efficiency (>95%) and good momentum resolution (<1.5%). The technological and experimental challenge is to realize a detector system with very low material budget, in order to reduce multiple scattering of the particles, and a free-streaming data readout chain, in order to achieve reaction rates up to 10 MHz together with an online event reconstruction and selection.
The STS comprises 8 tracking stations positioned between 30 cm and 100 cm downstream the target inside a magnetic field, covering polar emission angles up to 25 degrees. A station consists of vertical structures with increasing number (between 8 and 16, depending on station number), each structure carrying between 2 and 10 double-sided microstrip silicon sensors, which are connected through low-mass microcables to the readout electronics placed at the detector periphery outside the active detector area.
The work presented in this thesis focuses on the detector performance simulation and local hit pattern reconstruction in the STS. For efficient detector design and reconstruction performance, a reliable detector response model is of utmost importance. Within this work, a realistic detector response model was designed and implemented in the CBM software framework. The model includes non-uniform energy loss of an incident particle within a sensor, electric field of a planar p-n junction, Lorentz shift of the charge carriers, their diffusion, and the influence of parasitic capacitances. The developed model has been verified with experimental data from detector tests in a relativistic proton beam. Cluster size distributions at different beam incident angles are sensitive to charge sharing effects and were chosen as an observable for the verification. Taking into account parasitic capacitances further improves the agreement with measured data.
Using the developed detector response model, the cluster position finding algorithm was improved. For two-strip clusters, a new, unbiased algorithm has been developed, which gives smaller residuals than the Centre-Of-Gravity algorithm. For larger clusters, the head-tail algorithm is used as the default one. For an estimate of the track parameters, the Kalman Filter based track fit requires not only hit positions but their uncertainties as an input. A new analytic method to estimate the hit position errors has been designed in this work. It requires as input neither measured spatial resolution nor information about an incident particle track. The method includes all the sources of uncertainties independently, namely: the cluster position finding algorithm itself, the non-uniform energy loss of incident particles, the electronics noise, and the discretisation of charge in the readout chip.
The verification with simulations shows improvements in hit and track pull distributions as well as x²-distributions in comparison to the previous simple approach. The analytic method improves the track parameters reconstruction by 5-10%.
Several STS module prototypes have been tested in a relativistic proton beam. A signal to-noise ratio was obtained at the level of 10-15 for modules made of 30 cm long microcable and of either one or two 6.2 x 6.2 cm² CiS sensors.
First simulations have shown that this signal-to-noise ratio is sufficient to reach the required efficiency and momentum resolution. The high-radiation environment of CBM operation will deteriorate the sensor performance. Radiation hardness of sensors has been studied in the beam with sensors irradiated to 2 x 10[hoch 14] 1MeV [neq/cm²], twice the lifetime dose expected for CBM operation. Charge collection efficiency drops by 17-25%, and simultaneously noise levels increase 1.5-1.75 times. The simulations show that if all sensors in the STS setup are exposed to such a fluence uniformly, the track reconstruction efficiency drops from 95.5% to 93.2% and the momentum resolution degrades from 1.6% to 1.7%.
Im ersten Projekt der vorliegenden Arbeit wurden CD - 1 Mäuse mit drei unterschiedlichen Diäten für zwei Wochen ad libitum gefüttert. Die Diäten bestanden aus zwei kohlenhydratarmen, fettreichen Diäten und einer Standard Haltungsdiät. Die kohlenhydratarmen, fettreichen Diäten enthielten entweder Triheptanoin (dreifach mit Heptanoat verestertes Glycerol) oder Soja - Öl als Fettkomponente (jeweils 35 % der Gesamtkalorien). Nach zwei Wochen wurde ein ischämischer Schlaganfall für 90 min. mithilfe eines Silikonfadens induziert. Die Leber, das Blut und das Gehirn wurden nach dem Schlaganfall entnommen und die Konzentrationen der Metabolite β - Hydroxybutyrat, Glukose, Laktat und Citrat wurden mit der zuvor etablierten GC - MS-Methode ermittelt. Unter gleichen Bedingungen wurde eine Mikrodialysestudie durchgeführt.
Bei den Tieren, die die kohlenhydratarmen, fettreichen Diäten erhielten, konnte in den Leber - und Hirnhomogenaten, im Plasma sowie im Mikrodialysat eine Ketose festgestellt werden. Die BHB Konzentrationen durch eine Soja Diät erreichten im Leberhomogenat bis zu 4 mM, im Plasma bis zu 1,5 mM, im Hirnhomogenat bis zu 1,5 mM und im Mikrodialysat bis zu 30 µM. Um eine Aussage treffen zu können, ob das Gehirn die von der Leber produzierten Ketonkörper als Energiesubstrate nutzen kann, wurde eine Folgestudie (unter gleichen Bedingungen) durchgeführt. Bei dieser Studie wurde der Zeitpunkt der Gewebeentnahme 60 min. nach Entfernen des Fadens (Reperfusion) gewählt. In den Leber – und Hirnhomogenaten konnten erniedrigte Konzentrationen des Ketonkörpers BHB nachgewiesen werden. Die nicht operierten Tiere, die eine fettreiche Diät erhielten, hatten erhöhte Konzentrationen an Citrat in den genannten Geweben. Durch den Abbau des Ketonkörpers BHB können bei Verstoffwechslung in Geweben außerhalb der Leber, zwei Moleküle Acetyl - CoA gebildet werden. Diese gebildeten Acetyl - CoA Moleküle können in den Citratzyklus eingespeist werden.
Um diesen Befund mechanistisch besser verstehen zu können, wurde den Mäusen Propranolol (ein unselektiver β - Blocker) verabreicht, und zwar kurz nachdem der Faden die mittlere Zerebralarterie verschlossen hatte. Als Folge blieb bei den fettreich gefütterten Tieren die zuvor beobachtete Ketose, aus. Daraus wurde geschlossen, dass die auftretende Ketose bei den fettreich gefütterten Tieren durch adrenerge β - Rezeptoren vermittelt wurde. Zusammengefasst kann eine fettreiche bzw. ketogene Ernährung im Falle einer Ischämie die Versorgung des Gehirns durch die Bildung von Ketonkörper gewährleisten.
Die zu beobachtende hepatische Ketogenese aus dem ersten Projekt hat die Frage entstehen lassen, ob eine akute Gabe von β - Hydroxybutyrat (BHB) bei Entfernen des Fadens schützende Effekte auf das Verhalten bzw. die Mitochondrien als Kraftwerke der Zelle hat. Hierzu wurde BHB bei Reperfusion gegeben und die Wirkungen dieser Einmalgabe nach 24 h untersucht. Als erster Schritt wurde der Nachweis erbracht, dass eine exogene Gabe von BHB das Gehirn erreicht. Im zweiten Schritt wurde das Verhalten der Mäuse nach 24 h untersucht. Hierbei erbrachte die Gabe von BHB eine signifikante Verbesserung der sensorischen und motorischen Fähigkeiten der Mäuse. Die metabolischen Veränderungen nach 24 h wurden erneut in Leberhomogenaten und Plasma vermessen. Eine Einzelgabe von BHB bewirkte eine milde Ketose auch 24 h nach Reperfusion der mittleren Zerebralarterie. Um eine detailliertere Erkenntnis über die Wirkung von BHB zu erlangen, wurden die Mitochondrien als potentielles Ziel für BHB in den Fokus genommen. Die Einmalgabe von BHB verhinderte ein Absinken der Komplex – II Aktivität. Außerdem kann die Aktivität der Citratsynthase unter der Gabe von BHB erhalten werden, sodass die Mitochondrien vor allem im wichtigen Zeitraum nach der Reperfusion geschützt werden. Im Rahmen der Untersuchungen der Mitochondrien wurden unterschiedliche Substrateinflüsse auf die Respiration der isolierten Mitochondrien getestet. Bei Zugabe von BHB, Oxalacetat + Acetat oder Citrat zu dem Respirationsmedium stieg die Respiration der Mitochondrien an. Im Falle von Glukose, Propranolol oder Acetat wird die Respiration verringert. Bei Zugabe von Laktat, verbleibt die Respiration auf Ausgangsniveau. Abschließend ist festzustellen, dass die Einzelgabe von BHB nach 24 h das Verhalten der Mäuse verbessert, eine milde Ketose induziert, sowie Mitochondrien und die Citratsynthase gegen ischämische Ereignisse schützt.
Um die in dieser Arbeit gezeigten Daten über metabolische Veränderungen zeigen zu können, musste eine vorherige Etablierung der GC – MS Analytik vollzogen werden. Auf der einen Seite musste die Probenvorbereitung, aber auch die gesamte Vermessung der Proben aufgebaut werden. Es wurden insgesamt 11 Analyte in vier unterschiedlichen Kompartimenten quantifiziert. Die Nachweisgrenze lag bei diesen 11 Analyten bei 0,01 - 1 ng/µl, was einer umgerechneten Stoffmengenkonzentration von 0,5 - 10 µM entspricht. Mithilfe dieser Methode können optional weitere Substanzen aus verschiedenen Geweben zugänglich gemacht werden. Diese Arbeit bietet hierzu eine Anleitung, wie die Etablierung erfolgen kann. Im Rahmen der Probenvorbereitung wurden alle Schritte systematisch verbessert. Dazu wurden Wiederholungsmessungen für unterschiedliche Modalitäten vollzogen. Die Abundance und die Zeitbeständigkeit waren die wesentlichen Beurteilungskriterien. So wurden die Daten für die Extraktionseffektivität, die Lösungsmittelabhängigkeit der Silylierung, der Zusatz von Hünig - Base sowie die Temperatur und Zeitabhängigkeit der Silylierung in dieser Arbeit erarbeitet. Die Quantifizierung wurde anhand von internen Standardverbindungen durchgeführt. Die jeweiligen Response – Faktoren blieben über die gesamte Zeit nach der Etablierung konstant und erlaubten die Quantifizierung mit geringen Fehlern. Die Beurteilung der ermittelten Daten über die Validierung wurden anhand von geltenden Regelwerken der pharmazeutischen Industrie entschieden. Es wurde ein Protokoll entwickelt, das im Rahmen der universitären Forschung eine vertrauenswürdige Aussage über Veränderungen von Metabolitenspiegeln in vielen Geweben der Maus und der Ratte geben kann.
The continuous conversion of natural wildlife habitats into agricultural areas, as well as the fragmentation of the last wildlife refuges, is increasing the interface between people and wildlife. When wildlife negatively impacts on people and vice versa, we speak about human-wildlife conflicts (HWCs). This definition includes losses on both sides and takes into consideration the rooting of most of these conflicts between different groups of interest, such as advocates for nature conservation and economic groups. The centres of highest biodiversity are located in developing countries, which are also characterized by poverty. In African and Asian countries, people living in the vicinity of national parks and other conservation areas mostly receive only little support through the government or conservation organisations. Especially for those people who are dependent on agriculture, damage to fields and harvests can have catastrophic consequences. If the species causing damage is protected by national or even international law, the farmer is not allowed to use lethal methods, but has to approach the authority in charge. If this agency, however, cannot offer appropriate support, resentment, anger or even hate develops, and the support for wildlife conservation activities declines. For this reason, HWCs were declared as one of the most important conservation topics today, being particularly relevant for large and threatened species such as the African and Asian elephant, hippopotamus and the greater one-horned rhino, as well as for large predators. Up to today, no general assessment scheme has been recommended for damage caused by protected wildlife species.
In my study, HWCs in Asia and Africa are compared, focussing on all herbivorous species identified which damaged crops. For the French NGO Awely, des animaux et des hommes, I developed a detailed assessment scheme suitable for all terrestrial ecosystems, and any type of HWCs and any species (Chapter 2). This HWC assessment scheme was used in four different study areas located in two African countries (South Luangwa/Zambia (SL), Tarangire/Tanzania (TA)) and two Asian countries (Bardia/Nepal (BA) and Manas/India (MA)). This scheme ran for six consecutive years (2009 to 2014) for Zambia, Nepal and India and two years (2010 to 2011) for Tanzania. To carry out the assessments, I trained local HWC officers (Awely Red Caps) to assess HWCs by field observations (measurement of damage, identification of species through signs of presence, landscape attributes etc.) and interviews with aggrieved parties (socio economic data). Results of this assessment are presented in Chapters 2-4.
To determine whether elephants prefer or avoid specific crop species, two field experiments were carried out, one in SL and one in BA (Chapter 5 and 6). For this, two test plots were set up and damage by elephants (and other herbivores) were quantified.
Within this doctoral thesis, 3306 damage events of 7408 aggrieved parties were analysed. In three out of the four study areas (SL, BA, MA), elephants caused the highest number of damage events compared to all other wildlife species, however, in TA, most fields were damaged by zebra. Furthermore, the greater one-horned rhino, hippopotamus, wild boar, bushpig, deer and antelope, as well as primates, caused damage to fields and harvests. Damage to houses and other property were nearly exclusively caused by elephants.
With this doctoral thesis I was able to show that season, crop availability, type and the phenological stage of the crop played an important role for crop damaging behavior of herbivores (Chapter 2). Elephants especially damaged rice, maize and wheat and preferred all crop types in a mature stage of growth. In contrast, rhinos preferred wheat to rice and similar to antelope and deer, they preferred crops at earlier stages of growth, before ripening. Crop damage by wildlife species varied strongly in size; most damages fell below 40% of the total harvest per farmer, but in several cases (3 to 8% depending on the study area), harvests were completely destroyed. Interestingly, during times of low nutritional availability in the natural habitat (dry season), crop damages in all four study areas were significantly less than during other seasons.
In all four study areas, crop protection strategies, such as active guarding in the fields, chasing wildlife with noise or fire torches or erecting barriers, were used. In some cases protection strategies were combined. Analysis of data revealed that traditional protection strategies did not reduce the costs of damage (Chapter 3). In some cases, costs of damage, on protected fields were even higher than for unprotected fields. Only in MA did strategic and cohesive guarding significantly reduce crop damage by wildlife species.
Besides damage in the fields, elephants also caused damage to properties in the villages. In search for stored staple crops, they damaged houses, grain stores and kitchens. Such damage was analysed in three study areas (SL, BA, MA) (Chapter 4). Although property damage occurred less frequently compared to crop damage in the fields, the mean cost of this damage was found to be double in BA/MA and four times higher in SL, compared to the costs of crop damage in the fields. It is further remarkable that property damage significantly increased towards the dry season, when the harvest was brought into the villages.
The findings of this study underpin the assumption that wildlife herbivores, especially elephants, are lured to fields and crops because the highly nutritional food (crop) being readily available. Traditional crop protection is cost and labour intensive and does not reduce the costs of damage. For this reason, crop types, which are thought to be not consumed by elephants were systematically tested on their attractiveness in field experiments in SL and BA (Chapter 5 and 6). In SL, lemon grass, ginger and garlic were proven to be less attractive to African elephants than maize and in BA, basil, turmeric, chamomile, coriander, mint, citronella and lemon grass were found to be less attractive to Asian elephants than rice.
The results of this doctoral thesis are relevant for the management of wildlife conservation as they can lead to new approaches to the mitigation of HWCs in African and Asian countries. Finally, specific needs for more scientific research in this field have been identified.
Most of the elements in the universe are produced via charged-particle fusion reactions during the primordial nucleosynthesis and different stellar burning stages, as well as via neutron-capture reactions. Around 35 heavy, proton-rich isotopes are bypassed by those reaction paths, the p nuclei. A series of photo-disintegration reactions occurring in supernovae, called the γ process, was suggested as a mechanisms to produce the p nuclei. Numerical simulations of the γ process have been unable to reproduce the observed abundances of the light p isotopes. Recent models showed that a series of proton capture reactions could provide the observed abundances. Hence, the cross sections of the crucial capture reactions have to be measured in order to test those assumptions.
Radiative proton captures in addition to the γ-process could reproduce the observed abundance pattern. This thesis presents preparations of a proton capture measurement on the radioactive 91Nb in standard kinematics with a calorimetric 4π setup. The 91Nb(p,γ)92Mo reaction might be the key to explain the production of one of the most abundant p-nuclei, 92Mo. So far, no experimental data for this reaction is available.
We produced a sample of 91Nb, with a half-life of 680 yr, at the Physikalisch Technische Bundesanstalt in Braunschweig, Germany, by irradiating 92Mo with protons in the energy range of 12 – 20MeV. 91Nb was produced via the reaction 92Mo(p,2p)91Nb and via 92Mo(p,pn)91Mo, where 91Mo decays to 91Nb with a half-life of 15.5min. To predict the amount of produced 91Nb the cross section of 92Mo(p, 2p) was measured. It was found to be higher than the value given by theoretical calculations with TALYS. Finally, 91Nb was chemically separated from the molybdenum carried at Paul-Scherrer- Institut, Villigen, Switzerland.
In-beam total absorption cross-section measurement of the reaction 91Nb(p,γ)92Mo with 2 MeV protons at FRANZ is planed with the produced 91Nb. A 4π BaF2 detector consisting of 41 crystals will be used. During this experiment we will measure the sum energy and the multiplicity of each event. The freshly produced 91Nb constitutes only a minor component of the sample material. The sum energy and multiplicity are crucial to distinguish the desired 91Nb(p,γ) from all the other more dominant reactions. The expected multiplicity and the efficiency of the setup were carefully simulated with DICEBOX and GEANT4. It was possible to show that background reactions can be effectively suppressed. The most important background contributions could be identified and result from 92Mo(p,γ), 19F(p,γ), and 19F(p,α).
After entorhinal deafferentiation of the hippocampal dentate gyrus a reinnervation of the denervated neurons by axon collaterals can be observed. This process takes place in a matter of weeks. However, the overall functional effect on the hippocampal network is still unclear.
In an effort to investigate this effect of axonal sprouting on the neuronal network of the dentate gyrus we compared the electrophysiological response of the dentate gyrus after electric stimulation in wild-type mice (WT mice) with a normal post-lesion sprouting, with genetically modified mice with an overexpression of the growth-protein CAP23 (cytoskeleton-associated protein 23). CAP23 overexpressing mice (CAP23tg mice) are known to have an enhanced axonal growth and sprouting after lesion.
The mice (both the WT as well as the CAP23tg mice) were deeply anesthetized and a lesion of the perforant path was induced stereotactically with a wire knife. After that the mice were permitted to survive for 4-6 weeks for partial reinnervation of the dentate gyrus before they were again operated and evoked potentials were measured (extracellular recordings of evoked potentials in the dentate gyrus). Non-lesioned litter-mate mice were taken as reference. The sprouting and the correct position of the electrodes was confirmed histologically.
For electrophysiological investigation we assessed laminar profiles and calculated a current-source density (CSD). In lesioned CAP23tg mice compared to lesioned WT mice this CSD-analysis revealed a significant enhancement of the current sink in the area of deafferentiation (outer molecular layer) and a significant excitation in the granule-cell layer.
Our results show that axonal sprouting seems to enhance the excitability of granule-cells. Thus, even if an enhanced axonal sprouting might accelerate the reinnervation of denervated dendrites after lesion, but it also leads to posttraumatic hyperexcitability of the neuronal network. In a therapeutic approach of fascilitating axonal sprouting this hyperexcitability has to be taken into consideration.
Das menschliche Leben erscheint heute als in vielfältiger Weise mit seiner Umwelt verbunden. Bio- und neurowissenschaftliche Forschungen über die Interaktionsweisen mit der Umwelt verändern dabei das Bild des Körpers von einem hierarchisch aufgebauten Organismus zu einem organisch-kognitiv-verteilten Netzwerk. Nicht zuletzt Forschungen zur künstlichen Intelligenz haben gezeigt, dass das menschliche Gehirn nicht isoliert betrachtet werden kann, sondern verkörpert, vernetzt und damit in einer wechselwirkenden Abhängigkeit zu Körpern steht (embedded und extended mind). Epigenetische Forschungen haben ebenfalls auf die Umweltabhängigkeit auch genetischer Prozesse verwiesen (Postgenomik) und damit auf komplexe Wechselwirkungen zwischen Biotischem und Abiotischem aufmerksam gemacht. Diese komplexen Wechselwirkungen und Umweltabhängigkeiten zwischen Lebendigem und Nicht-Lebendigem werden inzwischen zusehends zum Gegenstand menschlicher Selbstorganisation. Sie tauchen in veränderter Form in den Plänen zu den sogenannten Industrien 4.0 auf, wenn es darum geht, intelligente Umgebungen mit dem Menschen interaktiv zu vernetzen. Die hierfür notwendigen digitalen Datenmengen stehen aber nur zur Verfügung, wenn Menschen sich aktiv vernetzen. Die Entstehung digitaler Daten- körper wird dadurch zu einem essentiellen Bestandteil sozialer Teilhabe, wodurch Soziales zum entwicklungsoffenen und unbestimmten Prozess wird. Wie sich Menschen wann und wo vernetzen, ist nicht vorherbestimmt. Digitalisierung ist dabei, so die These der Arbeit, sich zur grundlegenden Praxis menschlicher Vernetzung zu entwickeln.
Die Arbeit geht Digitalisierung aus einer Perspektive koevolutionärer Entstehungs- und Entwicklungszusammenhänge nach und zeigt, dass digitale Praxen zu einer neuen Form menschlicher Selbstorganisation weltweit geworden sind. Angesprochen wird damit, dass Digitalisierung nicht als etwas dem Menschen Äußerliches betrachtet werden kann, sondern in einen größeren kulturellen Entstehungszusammenhang eingebettet werden muss, der bis zu den Anfängen der Menschheit zurückreicht. Um dies zu veranschaulichen, werden in der Arbeit drei verschiedene Wissensformationen benannt, die sich jeweils in unterschiedlicher Art und Weise mit den aktuellen Veränderungen digitalisierter Lebenswelten auseinandersetzen.
Die erste Wissensformation (Kapitel 2) benennt den Humanismus, der im Aufkommen neuer Medientechnologien eine Bedrohung für den Menschen sieht. Eine zweite Wissensformation (Kapitel 3) widmet sich dem „Ende des Humanismus“, indem Ansätze der Science and Technology Studies (STS), der Akteur-Network-Theory (ANT) und des Agentiellen Realismus von Karan Barad diskutiert werden. Mit einer „neuen Ökonomie für eine neue Menschheit“ wird eine dritte Wissensformation (Kapitel 4) benannt, die, von postoperaistischen Ansätzen ausgehend, die These eines „dritten“ oder „kognitiven Kapitalismus“ diskutiert. Hier geht es um die These des Zusammenfallens von Ökonomischem und Sozialem, aus dem neue offene Sozialformationen entstehen. Schließlich wird eine vierte Wissensformation (Kapitel 5) formuliert, die, ausgehend vom Ansatz einer Anthropologie des Medialen (AdM) und dem Modell der Erweiterung kultureller Kapazitäten (EECC) versucht, die als digitalen Wandel bezeichneten Veränderungen in einen größeren Zusammenhang zu stellen.
Mit beiden Ansätzen kann schließlich gezeigt werden, dass sich Veränderungen menschlicher Selbstorganisation immer in der biologischen, individuellen, kulturellen und historisch-sozialen Entwicklungsdimension zugleich vollziehen. Dies lässt sich auch für die Prozesse der Digitalisierung zeigen. Nämlich, dass sich der Mensch als Teil der Natur in einem fortwährenden koevolutionären Prozess befindet. Weder Kultur, noch Soziales, noch Technologien sind unnatürlich. Sie können als „indirekte Biologie“, als „Künstliches“ oder als „Kultur der Biologie“ bezeichnet werden, die der Natur aber nie entkommen. Die Erweiterung kultureller Kapazitäten ist deshalb nicht als eine Ausdehnung des Menschen in die Natur hinaus zu verstehen, sondern bezeichnet die im Laufe der Menschheitsgeschichte komplexer werdenden Reichweiten und Zeittiefen menschlicher Selbstorganisation, die immer auf den drei Ebenen von Phylogenese, Ontogenese, Technogenese und der damit verbundenen Soziogenese basieren.
G-protein coupled receptors (GPCRs) are a predominant class of cell-surface receptors in eukaryotic life. They are responsible for the perception of a broad range of ligands and involved in a multitude of physiological functions. GPCRs are therefore of crucial interest for biological and pharmaceutical research. Molecular analysis and functional characterisation of GPCRs is frequently hampered by challenges in efficient large-scale production, non-destructive purification and long-term stability. Cell-free protein synthesis (CFPS) provides new production platforms for GPCRs by extracting the protein synthesis machinery of the cell in an open system that allows target-oriented modulations of the synthesis process and direct access to the nascent polypeptide chain. CFPS is fast, reliable and highly adaptable. Unfortunately, highly productive cell-free synthesis of GPCRs is often opposed by low product quality. This thesis was aimed to adapt and improve some of the new possibilities for the cell-free production of GPCRs in high yield and quality for structural and pharmaceutical analysis. An E. coli based CFPS system was applied to synthesise various turkey and human Beta-adrenergic receptor (Beta1AR) derivatives as well as human Endothelin receptors type A and B (ETA and ETB) constructs. Both receptor families are important drug targets and pharmacologically addressed in the treatment of several cardiovascular diseases. CF-synthesis was mainly performed in presence of nanodiscs (ND), which are reconstituted high density lipoprotein particles forming discoidal bilayer patches with a diameter varyring from 6 to approx. 15 nm. The supplementation of ND in the CF-synthesis reaction caused the co-translational solubilisation of the freshly synthesised GPCRs. The fraction of the solubilised GPCR that was correctly folded was analysed by the competence to bind its ligand alprenolol or Endothelin-1, respectively. Both the solubilisation efficiency and the ability to fold in a ligand binding competent state was strongly affected by the lipid composition of the supplied ND. Best results were generally achieved with lipids having phosphoglycerol headgroups and unsaturated fatty acid chains with 18 carbon atoms. Furthermore, thermostabilisation by introduction of point mutations had a large positive impact on the folding efficiency of both Beta1AR and ETB receptor. Formation of a conserved disulphide bridge in the extracellular region was additionally found to be crucial for the function of the ETB receptor. Disulphide bridge formation could be enhanced by applying a glutathione-based redox system in the CFPS. Further improvements in the quality of ETB receptor could be made by the enrichment of heat-shock chaperones in the CF-reaction. Depending on the receptor type and DNA-template, roughly 10 – 30 nmol (350 – 1500 µg) of protein could be synthesised in 1 ml of CF-reaction mixture. After the applied optimisation steps, the fractions of correctly folded receptor could be improved by several orders of magnitude and were finally in between 35% for the thermostabilised turkey Beta1AR, 9% for the thermostabilised ETB receptor, 6.5% for the non-stabilised ETB receptor, 1 - 5% for non-stabilised turkey Beta1AR and for human Beta1AR isoforms and 0.1% for ETA receptor. Therefore, between 2 and 120 µg of GPCR could be synthesised in a ligand binding competent form, depending on the receptor and its modifications. Correctly folded turkey Beta1AR and ETB receptors were thermostable at 30°C and could be stored at 4°C for several weeks after purification. Yields of the thermostabilised turkey Beta1AR were sufficient to purify the receptor in a two-step process by ligand-binding chromatography to obtain pure and correctly folded receptor in the lipid bilayer of a ND. Furthermore, a lipid dependent ligand screen could be demonstrated with the turkey Beta1AR and significant alterations in binding affinities to currently in-use pharmaceuticals were found. The established protocols are therefore suitable and highly competetive for a variety of applications such as screening of GPCR ligands, analysis of lipid effects on GPCR function or for the systematical biochemical characterisation of GPCRs. Most promising for future approaches appears to address the suspected bottlenecks of intial insertion of the GPCR-polypeptide chain in the ND bilayer and the thermal stability of the receptors. Nevertheless, the estabilised protocols for the analysed targets in this thesis are already highly competitive to previously published production protocols either in cell-based or cell-free systems with regard to yield of functional protein, speediness and costs. Moreover, the direct accessibility and other general characteristics of cell-free synthesis open a large variety of possible applications and this work can therefore contribute to the molecular characterisation of this important receptor type and to the development of new pharmaceuticals.
An die Soziologie werden zunehmend Fragen des ökonomischen Nutzens und der gesellschaftlichen Relevanz herangetragen. Ein Wissen um den gesellschaftlichen Impact soziologischen Wissens und die Artikulation eines Nutzens für die Praxis sind wertvolle Werkzeuge im Kampf um die Alimentation soziologischer Forschung. Aber wie wird soziologisches Wissen überhaupt angewendet? Um diese Frage zu beantworten, wird soziologisches Wissen definiert und dessen Anwendung expliziert. Unter Zuhilfenahme von Wissenschaftstheorie und Wissenssoziologie wird zunächst eine Definition erarbeitet. Anschließend werden Forschungsgebiete, die sich mit der Anwendung von (soziologischen) Wissen beschäftigen, vorgestellt – allen voran die soziologische Verwendungsforschung. Darauf aufbauend wird eine Explikation der Anwendung soziologischen Wissens erarbeitet, vor dessen Hintergrund aktuelle Bemühungen, soziologisches Wissen stärker anzuwenden, betrachtet werden. Die abschließende Diskussion beschäftigt sich mit den Möglichkeiten und Restriktionen der Anwendung soziologischen Wissens und betont die Rolle der Soziologie als kritische gesellschaftliche Aufklärungsinstanz.
Trotz aller Unsicherheit und kritischer Infragestellung sind Kunstlandschaftsbezeichnungen – und damit auch der „Mittelrhein“ – als Hilfsbegriffe für die Lokalisierung der Kunstwerke noch immer gebräuchlich. Aber es ist ganz besonders problematisch, vom Mittelrhein um 1500 als „Kunstlandschaft“ zu sprechen. Schon die Umgrenzung der Region fällt unterschiedlich aus, und noch mehr sind die Kriterien schwankend, die im Vergleich zu anderen Regionen den Mittelrhein definieren sollen. Vorherrschend sind bei solchen Vergleichen nach wie vor Stilbegriffe, welche Vorbehalte gegenüber dem Begriff des Stils auch geäußert werden. So ist die Frage, ob die für den Mittelrhein vorgeschlagene Kennzeichnung „Stilheterogenität“ als Kriterium der Abgrenzung tauglich ist oder mehr eine methodische Verlegenheitslösung darstellt.
Die Untersuchung konzentriert sich auf das Schnitzretabel, das als Leitmedium der spätgotischen Kunst im deutschsprachigen Raum zu betrachten ist. Die analysierten Schnitzretabel sind als Fallstudien anzusehen, wobei hier vor allem jene analysiert worden sind, die einen guten Erhaltungszustand aufweisen. Zwar haben die wenigsten ihr ursprüngliches Aussehen bewahrt, aber entweder sind die Veränderungen nur minimal oder der originale Zustand ist gut rekonstruierbar, sodass die Werkgruppe trotz der Eingriffe als repräsentativ gelten kann. Neben den traditionellen Untersuchungsmethoden konnte die Infrarotreflektographie mit beweglicher Kamera (Osiris) eingesetzt werden. Es soll mit der Vorstellung einer Gattung ein Ausschnitt der in der Region präsenten Kunst ohne „mittelrheinische Vorentscheidungen“ gezeigt werden.
Die meisten analysierten Retabel entstammen der Rhein-Main-Region mit Frankfurt und Mainz als Oberzentren des Mittelrheins; Oberwesel, Speyer und Gelnhausen markieren die Grenze für die Auswahl. Die 27 Einzeluntersuchungen finden sich im Katalogteil der Arbeit, während deren zusammenfassende Darstellung – im Hinblick auf Methode, Standort, Auftraggeber, Künstler, Retabeltyp, Bildprogramm sowie Einflüsse – sowie Ergebnisse im Hauptteil besprochen werden.
This dissertation discusses the mutual influence between leaders and followers on perception, emotion and behavior, using an attachment theory perspective. Some individuals are more likely to be seen as leaders than others. On the one hand this is determined by the characteristics or attributes as well as skills of the person in question. However, on the other hand, followers’ perception and expectations play a big role as well, in particular which expectations of an ideal leader can be fulfilled by followers’ current leader. Although attachment theory and – styles have only recently entered the organizational psychology literature, this dissertation advances that literature by looking at the role of attachment orientations between leaders and followers. In doing so, this dissertation answers several recent research calls on this topic. The three main subsequent chapters discuss the predictive role of attachment orientations with regard to leader preferences, the transference of behavioural expectations from one leader to another, and the perception of leader prototypicality in groups. The first chapter discusses the connection between implicit leader preferences and attachment orientations as predictors. Results show that avoidant attached individuals prefer a more autonomous and independent leadership style, whereas anxious attached individuals prefer a supportive and team-oriented leadership style. In the second chapter I study the transference of behavioural expectations from one leader to another. Results show that avoidant attached individuals are more likely to engage in this transference process. In addition, I discuss and empirically test the influence of culture with regard to leader transference. In the final chapter, I examine the behavioural influence of attachment orientations on how likely someone is perceived to be a leader in groups. Based on 57 project groups, I find that team members actually perceive avoidant attached individuals to be the most leader-like. Put differently, given certain environmental conditions, insecure attachment orientations can be perceived as leaders. These results show that it is even more important that leaders somewhat adapt to their followers’ preferences and not commit to merely one particular leadership style.
Cells within a tissue form highly complex, cellular interactions. This architecture is lost in two-dimensional (2D) cell cultures. To close the gap between 2D cell cultures and in vivo tissues, three-dimensional (3D) cell cultures such as spheroids or embryoid bodies were developed. To fully take advantage of the third dimension, imaging techniques are essential. The emerging field of "image-based systems biology" exploits the information in images and builds a connection between experimental and theoretical investigation of biological processes. Such interdisciplinary approaches strongly depend on the development of protocols to establish 3D cell cultures, innovations in sample preparation, well-suited imaging techniques and quantitative segmentation methods.
Although 3D cell cultures and image-based systems biology provide a great potential, 2D methods are still not completely replaced by 3D methods. This is mainly due to methodical and technical hurdles. Therefore, this thesis provides a significant contribution to overcome these hurdles and to further develop 3D cell cultures. I established computational and experimental methods related to 3D aggregates and investigated fundamental, cellular processes such as adhesion, growth and differentiation.
The automatic segmentation method "PAS" and "LoS" were developed in the context of this thesis. They extract essential biological properties such as the projected area or features of cell nuclei from 2D or 3D images of 3D aggregates. Both algorithms show their accuracy robustly over image data from different samples and different microscopes. In addition, the superior performance of PAS and LoS was proven in a comparison with state-of-the-art methods.
The PAS approach served as an essential basis for investigating cellular processes such as adhesion and growth which are tightly regulated to contribute to tissue integrity. These processes are involved in the formation of spheroids. The temporally resolved data of spheroid formation of three mammary epithelial cell lines revealed differences in their formation dynamics as well as in the onset of spheroid formation phases (aggregation, compaction and growth). Despite these differences, adhesion- and growth-associated proteins such as E-cadherin, actin, microtubules, and the focal adhesion kinase show similar importance in a particular phase. Notably, certain proteins (e.g. E-Cadherin) contribute differently to spheroid formation of cells from different cell types in terms of cell adhesion and growth. Overall, analyses of the individual phases of spheroid formation revealed the temporal coordination of fundamental tissue-specific processes. The results contribute to a better understanding of the maintenance and disruption of tissue integrity.
An important but yet unknown process is how cells accomplish to arrange themselves against the gravitational force to form a spheroid. Live imaging with light sheet-based microscopy provides the best solution for a temporally and in particular spatially resolved investigation of spheroid formation. Although the imaging possibilities increase with this particular microscopy technique, available sample preparation methods are rare. Therefore, I have significantly optimized "agarose beaker" as preparation method for 3D long-term imaging of spheroid formation. The data show that upward movement of the cells takes place early. This movement is initiated in the centre of the initially flat cell layer. Subsequently, the cells move from the periphery of the cell layer toward the centre. Cells rearrange within the spheroid which is followed by growth. It is very likely that 3D aggregates form by adopting an energetically favoured, spherical shape by increasing cell-cell or cell-matrix contacts.
Besides the knowledge gained from the examination of the self-assembly process in different contexts, fully formed cellular aggregates can serve as basis to investigate differentiation processes. Differentiation guide cell fate specification during early embryonic development (i.e. preimplantation) and is not fully understood yet. Due to the lack of an in vitro system for preimplantation, I have developed "blastoids". These are 3D multicellular aggregates of mouse embryonic stem cells which represent important phases of preimplantation and beyond. In qualitative and quantitative analyses, a strong similarity was proven between blastoids and the inner cell mass of in vivo mouse embryos. Further results strongly suggest that both, the cell number and the trophectoderm play a subordinate role for cell fate decision during preimplantation. Furthermore, 3D neighbourhood analyses have shown that both, blastoids and mouse embryos, do not show a random "salt-and-pepper" pattern during differentiation. Instead, they show a yet unknown local clustering of cells with identical fates, suggesting local cell interactions that influence cell fate decision. Furthermore, the data indicate that the maturation of the epiblast in the later stages of preimplantation is initiated by an interaction between cells of the epiblast and the primitive endoderm.
Using image-based systems biology, I have investigated fundamental cellular processes such as adhesion, growth and differentiation in the context of tissue integrity and early embryonic development using 3D cellular aggregates. This highly interdisciplinary work is a major contribution to 3D cell biology and demonstrates how cells bind and interact within a complex system. The main methods developed in this thesis as well as the biological findings can be used not only in further biological but also in medical and pharmacological studies. They have the potential to advance our understanding of complex biological systems and to provide new opportunities for practical applications.
Acute myeloid leukemia (AML) is a clonal malignancy of hematopoietic stem cells (HSCs) characterized by expansion of myeloid blasts in the bone marrow. It has been shown that autophagy is a degradative process, which delivers cytoplasmic components to lysosomes to prevent malignant transformation by maintaining HSC integrity. Besides its function as a bulk degradation machinery to recycle cytoplasmic components during limited energy supply, autophagy also serves as an intracellular quality control mechanism. Selective autophagy requires autophagy receptors such as p62 to specifically bridge the targeted cargos into autophagosomes. p62 is known as a central signaling hub involved in pro-oncogenic signaling pathways and autophagic degradation pathways. However, little is known about the role of p62 as a selective autophagy receptor in AML. This study aims to elucidate the precise function of p62 as an autophagy receptor in leukemia development and maintenance.
In silico analysis revealed that high p62 expression was significantly associated with poor overall survival of adult patients with de novo AML, suggesting that p62 may promote leukemia maintenance. To address the functional role of p62 in leukemia, genome editing by CRISPR/Cas9 was used to knockout p62 in four human AML cell lines. Importantly, p62 loss reduced cell proliferation in all four cell lines. This observation could be transferred to a murine leukemia cell model in which leukemic transformation of lineage-depleted bone marrow (ldMBM) cells was induced by overexpression of the human transcriptional coactivator MN1. Knockdown of p62 by shRNA in MN1-driven leukemia cells impaired proliferation and decreased colony forming ability without altering apoptosis. This indicates that p62 is crucial for leukemia proliferation in vitro. To further characterize the role of p62 in leukemia development and maintenance a murine AML transplantation model was established. Therefore, ldMBM cells isolated from WT and p62-/- mice were transduced with MN1 and transplanted into lethally irradiated mice. As expected, all mice developed fatal myeloid proliferation. Notably, p62 loss in MN1-driven leukemia significantly prolonged survival in mice and caused a more immature phenotype. Consistent with the in vitro results, ex vivo analysis of p62-/- leukemic cells displayed decreased colony-forming ability, although p62 loss did not affect composition and function of HSCs. Moreover, re-transplantation of primary MN1-driven leukemia cells attenuated leukemia progression upon p62 loss. These findings support a decisive role of p62 in leukemia development and maintenance.
To gain molecular insight into the function of p62 during myeloid transformation an interactome analysis of murine MN1-driven leukemia cells was performed. This revealed first that p62 predominantly interacts with mitochondrial proteins and second that inhibition of autophagic degradation causes accumulation of p62-bound mitochondria. This leads to the first assumption that loss of p62 may provoke mitochondrial accumulation with increasing mitochondrial damage and second that p62 may mediate degradation of mitochondria by mitophagy. Indeed, in the absence of p62, accumulation of dysfunctional mitochondria was detected by morphological changes of the mitochondria, increased mitochondrial ROS and impaired mitochondrial respiration capacity. Furthermore, induction of PINK1/Parkin-independent mitophagy revealed that loss of p62 caused impaired degradation of mitochondrial proteins and reduced translocation of damaged mitochondria into autophagosomes. Taken together, p62 is required for effective degradation of dysfunctional mitochondria by mitophagy in AML.
Due to the fact that p62 is a multifunctional protein, rescue experiments with different mutants of p62 were performed to clarify if p62-mediated mitophagy contributes to leukemia proliferation. Notably, the autophagy-deficient mutant (disabled to bind autophagosomes) reduced cell growth and colony-forming ability to the same extent as knockdown of p62, as the clustering-deficient mutant (disabled to form aggregates) displayed an intermediate phenotype. Strikingly, only the autophagy-deficient mutant failed to rescue mitophagy.
In conclusion, this study demonstrates the prominent role of p62 as a selective autophagy receptor for mitochondrial quality control which contributes to leukemia development and maintenance. Therefore, targeting selective autophagy opens new venues in the treatment of AML.
Im Kindes- und Jugendalter gehoert das Rhabdomyosarkom zu den haeufigsten Weichteilsarkomen. Bisher belaeuft sich das Therapieverfahren auf chirurgische Entfernung, gefolgt von Chemotherapie, bzw. bei nicht-operablen Faellen auf Radiotherapie und Chemotherapie, jedoch haben sich die Ueberlebenschancen fuer Patienten mit einer Erkrankung in metastasiertem oder rezidiviertem Stadium trotz intensiver Forschung ueber mehrere Jahrzehnte hinweg kaum gebessert und bleiben bei unter 30%. Neue therapeutische Strategien versuchen das Immunsystem des Patienten zu modulieren und dieses gezielter oder aggressiver gegen Tumorzellen zu machen. Nebst direkter Injektion von Zytokinen oder Antikoerpern bietet die adoptive Immunzelltherapie einen vielversprechenden Ansatz. In der vorliegenden Arbeit lag der Fokus auf Natuerlichen Killer- (NK) Zellen, da diese ein hohes zytotoxisches Potential gegenueber Tumorzellen aufweisen. Eine der groessten Herausforderungen der NK-Zellforschung ist die Breitstellung ausreichender Mengen an NK-Zellen mit optimaler antitumoraler Funktion fuer den klinischen Einsatz. Viele aktuell erprobte NK-Zellexpansionsstrategien basieren auf der Verwendung von Hilfs- oder Feeder-Zellen (Versorgerzellen), die jedoch vor der Applikation in Patienten aus dem finalen Produkt entfernt werden muessen. In der vorliegenden Arbeit sollten Feeder-zellfreie NK-Zellexpansionsprotokolle unter Verwendung von Gammakettenzytokinen getestet werden.
Interleukin (IL-) 15 erwies sich dabei vor allem fuer die Vermehrung der NK-Zellen als besonders foerderlich. Im Vergleich dazu fielen die Expansionsraten mit IL-2 oder IL-21 geringer aus. Interessanterweise wurde der expansionsfoerdernde Effekt von IL-15 durch dauerhafte Anwesenheit von IL-21 im Kulturmedium gehemmt. Ein kurzer, dreitaegiger IL-21-Boost am Ende der Expansionsphase wirkte sich wiederum positiv auf die NK-Zellexpansionsraten aus. Zudem zeigte sich durch IL-21 ein vermehrtes Auftreten von NK-Zellen des reiferen CD16posCD56dim Phaenotyps, der die zytotoxische Funktion vermittelt. Bei Degranulationsuntersuchungen wurden eine IL-21-induzierte Exozytoseaktivitaet und die vermehrte Ausschuettung von Perforin und Granzym B, welche Apoptose in den Zielzellen ausloesen, beobachtet. Vor allem der dreitaegige Boost mit IL-21 bewirkte eine gesteigerte Zytotoxizitaet gegenueber Tumorzellen, insbesondere gegenueber Rhabdomyosarkomzellen.
Auf dieser Grundlage bot es sich an fuer die NK-Zellexpansion ein Zwei-Phasen-Protokoll anzuwenden, bestehend aus einer initialen Proliferationsphase mit IL-15 und einem anschliessendem IL-21-Boost, durch den die antitumorale Funktionalitaet der NK-Zellen gesteigert wurde. Dieses IL-15+21boost-Protokoll wurde mit anderen Kombinationen aus den Gammakettenzytokinen IL-2, IL-15 und IL-21 verglichen und stellte sich hinsichtlich der NK-Zellexpansionsraten, der Degranulationskapazitaet und der damit verbundenen Zytotoxizitaet als den anderen Protokollen ueberlegen heraus.
Zytokinexpandierte NK-Zellen zeigten eine hoehere Rezeptorexpression an ihren Oberflaechen als unstimulierte Zellen. Die Expansion mit dem IL-15+21boost-Protokoll bewirkte die hoechste Dichte des Todesrezeptors TRAIL, jedoch auch der inhibitorischen KIR2D-Rezeptorfamilie. Fuer andere Oberflaechenmarker ergab sich jeweils eine mittlere Expressionsdichte verglichen mit dem IL-15- bzw. dem IL-15+21-Expansionsprotokoll. Die Sekretion von proinflammatorischen Zytokinen wie Interferon-gamma (IFN-g) und Tumor-Nekrose-Faktor-alpha (TNF-a) wurde zudem verstaerkt durch IL-21 angeregt, aber ebenso die Sekretion des immunsupprimierenden IL-10.
Weiter wurden die zytoinexpandierten NK-Zellen zur UEberpruefung ihrer in vivo Funktionalitaet anhand eines praeklinischen Xenograftmodells unter Verwendung von NOD SCID IL-2-Rgamma-/- (NSG) Maeusen und der Technologie der in-vivo-Biolumineszenzbildgebung getestet. Dabei konnte beobachtet werden, dass die NK-Zellen das Wachstum luciferaseexprimierender humaner Rhabdomyosarkome verlangsamten. Die Wirksamkeit der IL-15+21boost-expandierten NK-Zellen zeigte sich vor allem in einem kombinierten Ansatz, bei dem die Tumore zunaechst mit ionisierender Strahlung behandelt wurden und residuale Rhabdomyosarkomzellen anschliessend durch den adoptiven Transfer von humanen NK-Zellen in ihrem Wachstum gehemmt waren, solange die NK-Zelltherapie andauerte. Somit stellte sich die Kombination aus Bestrahlung und NK-Zelltransfer als wirksamer im Einsatz gegen Rhabdomyosarkome heraus als die alleinige Behandlung der Tumore durch Radiotherapie.
Zusammengefasst konnte in dieser Arbeit ein NK-Zellexpansionsprotokoll entwickelt werden, dass durch den ausschliesslichen Einsatz von Gammakettenzytokinen zu einem funktionalen NK-Zellprodukt fuehrte, welches auch in vivo lytische Aktivitaet gegenueber Rhabdomyosarkomzellen aufwies.
Due to immigration influxes, Germany’s ethnic diversity is on steady rise. Although citizens of immigrant origin make up a high percentage of the population in all Western European countries, they are descriptively underrepresented in most legislative bodies. As widely acknowledged, political parties form the key channels through which societal developments are fed into parliament. By selecting parliamentary candidates, they constitute the most crucial nexus of the population to be represented and legislative bodies. Despite the pivotal role of the intra-party candidate selection in shaping who runs for election, the question of how candidates of immigrant background fare in the candidate selection and whether the criteria political parties use for selecting candidates of immigrant background are the same as for native-born candidates remained a blind spot of the research on minority representation. Therefore, the dissertation scrutinizes the thresholds candidates of immigrant background need to overcome to run for legislative office. It thus tackles the questions of how political parties go about selecting candidates of immigrant background in comparison to native-born candidates and which contextual factors drive their choice of selection behavior. For this purpose, the dissertation develops three ideal-typical selection strategies political parties can adopt towards candidates of immigrant background, which are referred to as neutrality, opening or closure, and empirically tests which selection strategy is in use. To explore parties’ selection behavior towards candidates of immigrant background, the dissertation combines the advantages of quantitative analysis by employing candidate surveys at the state and national level, with advantages of qualitative analysis by conducting interviews with candidates of immigrant background. As the analysis reveals, neutrality is the predominant selection strategy that political parties use towards candidates of immigrant background, the reason being that neutral selection practices involve the fewest intra-party conflicts.
In dieser Arbeit soll identifiziert werden, welcher der zahlreichen Vertreter einer Arzneistoffklasse sich letztlich auf dem Markt durchsetzen kann und ob bestimmte pharmakokinetische, pharmakodynamische, klinische oder praktische Substanzeigenschaften retrospektiv für den Markterfolg einer Substanz verantwortlich gemacht werden können. Zudem stellt sich die Frage, ob und in wie fern Analogpräparate einen Nutzen in der Arzneimitteltherapie mit sich bringen, obwohl ihnen zum Zeitpunkt ihrer Markteinführung nur ein geringer Innovationsgrad zugebilligt wurde. Um derartige Rückschlüsse ziehen zu können wurden exemplarisch folgende fünf Arzneistoffklassen untersucht, die sich durch eine Vielzahl an Vertretern auszeichnen: Arsphenamine, Sulfonamide, Benzodiazepine, Glucocorticoide sowie Betablocker. Der Untersuchungszeitraum bemisst sich folglich vom Anfang des 20. Jahrhunderts, als industriell gefertigte, chemisch definierte hochpotente Wirkstoffe die Therapie zu bestimmen begannen, bis etwa zum letzten Drittel des 20. Jahrhunderts als Preise und Kostenerstattungsfragen zusätzlich zu Substanzeigenschaften für den Markterfolg mitbestimmend wurden.
Ausgangspunkt der Dissertation bilden 2.700 keltische und römische Fundmünzen sowie zahlreiche Produktionsreste aus Bunt- und Edelmetall, die auf dem Castellberg, Kreis Bitburg-Prüm, geborgen wurden. Die Funde stammen zum überwiegenden Teil aus den großflächigen Ausgrabungen und Prospektionen, die im Rahmen des von der Deutschen Forschungsgemeinschaft geförderten Schwerpunktprogramms „Romanisierung“ durchgeführt wurden.
Nach bisherigem Forschungsstand befand sich auf dem ausgedehnten Bergplateau vom 2. bis 1. Jh. v. Chr. ein Oppidum der Treverer. Im Verlauf der römischen Okkupation entwickelten sich an diesem Platz ein gallo-römisches Heiligtum sowie eine Zivilsiedlung, welche eine Platzkontinuität bis zum Beginn des 5. Jh. n. Chr. aufweisen.
Aufgrund der komplexen Siedlungsabfolge sowie der gut dokumentierten archäologischen Kontexte nehmen die Funde vom Castellberg eine Schlüsselrolle für die Erforschung der latènezeitlichen Münzprägung Nordgalliens ein und bieten beste Voraussetzungen, Zirkulation und Funktion von Münzen in diesem Raum bis zur Spätantike zu untersuchen.
Wesentliches Ziel der Studie bilden die Erfassung und Dokumentation der genannten Funde sowie deren archäologische, archäometrische und numismatische Auswertung auf Grundlage der erschlossenen Fundkontexte.
Zu Beginn stehen methodische Überlegungen zur chronologischen Einordnung und zur histographischen Darstellung des Fundgutes.
Die anschließenden Betrachtungen widmen sich dem antiken Geldbegriff. Die Auseinandersetzung mit der Wertgrundlage des antiken Geldes stellt eine Voraussetzung dar, um das Vorkommen von Münzen aus archäologischen Kontexten historisch angemessen zu beschreiben und damit die Funktion von und den Umgang mit Geld in der Antike zu erfassen.
Einen Schwerpunkt der Arbeit stellen die nachfolgenden quellenkritischen Untersuchungen zu den Bedingungen des Zustandekommens und der Überlieferung der Münzfunde dar. Anhand des Fundmaterials vom Castellberg werden exemplarisch die Auswirkungen antiker und nachantiker selektiver Faktoren dargelegt. Durch den Abgleich mit strukturell vergleichbaren Fundplätzen wird anschließend eine Überprüfung und Erweiterung der Ergebnisse vorgenommen, wobei insbesondere Fragen nach den antiken Selektionsmechanismen im Vordergrund stehen.
Im Anschluss erfolgt die Auswertung der Fundmünzen aus den Ausgrabungen und Prospektionen. Mit Hilfe von Befundanalysen, Münzkartierungen und Münzreihenauswertungen werden die einzelnen Fundkomplexe detailliert auf ihre zeitlichen und räumlichen Verhältnisse hin untersucht. Auf diesem Weg gelingt es, weiterführende Erkenntnisse zur Genese, Entwicklung und zum Ende des spätlatènezeitlichen Oppidums sowie des gallo-römischen Vicus und Heiligtums auf dem Castellberg zu gewinnen.
Am Ende der Arbeit stehen Fragen zum treverischen Münzwesen im Vordergrund. Neben dem umfangreichen Material vom Castellberg wurden zahlreiche weitere keltische Münzen von Vergleichsfundplätzen als Materialbasis für die vorgenommenen Stempelstudien, Gewichtsuntersuchungen und Metallanalysen herangezogen.
Es wird zunächst aufgezeigt, dass die bisher gebräuchliche Typologie der treverischen Silberprägung weiter zu differenzieren und präzisieren ist. Die Ergebnisse führen ferner zu Konsequenzen für die relativchronologische Fixierung der betreffenden Münztypen.
Die nachfolgenden Stempelstudien konzentrieren sich auf die beiden frühesten Silbermünztypen der Treverer; es werden Art und Umfang dieser Prägungen aufgezeigt sowie Rückschlüsse für die Fertigungstechnik der Prägestempel gezogen.
Einen zentralen Aspekt der Dissertation bildet die abschließende Auswertung der Metallanalysen an ausgewählten Münztypen der Treverer, Remer und Leuker. Die Analysen geben Auskunft über die Spezifika der betreffenden Emissionen und liefern ein ergänzendes Bild zu den numismatischen Studien. Des Weiteren wird dargelegt, inwieweit die Herkunft der ausgemünzten Erze nachvollzogen werden kann.
Ausgehend von dem bedeutenden Neufund einer Patrize sowie zahlreichen Funden von Münzschrötlingen, Fehlgüssen und Metallschmelzresten vom Castellberg wird darüber hinaus die Frage geklärt, ob auf dem Plateau eine treverische Prägestätte zu lokalisieren ist und welche Münztypen dort geprägt wurden. Weitere Funde von Prägewerkzeugen aus dem Untersuchungsgebiet werfen grundlegende Fragen zu den Fertigungstechniken auf, denen in diesem Zusammenhang ebenso nachgegangen wird.
Die Untersuchungen liefern erstmals konkrete Erkenntnisse zu Ablauf und Organisation des Münzwesens der Treverer sowie zu strukturellen Veränderungen, die im Zusammenhang mit dem Gallischen Krieg und der nachfolgenden römischen Einflussnahme zu sehen sind.