Doctoral Thesis
Refine
Year of publication
- 2009 (391)
- 2010 (378)
- 2008 (315)
- 2007 (313)
- 2006 (295)
- 2004 (281)
- 2005 (249)
- 2023 (249)
- 2021 (248)
- 2022 (238)
- 2020 (235)
- 2011 (219)
- 2019 (211)
- 2018 (204)
- 2003 (202)
- 2002 (190)
- 2015 (188)
- 2017 (182)
- 2016 (178)
- 2014 (168)
- 2012 (164)
- 2013 (152)
- 2001 (141)
- 2000 (69)
- 2024 (50)
- 1998 (37)
- 1999 (32)
- 1997 (18)
- 1923 (9)
- 1996 (7)
- 1924 (6)
- 1925 (6)
- 1995 (6)
- 1921 (5)
- 1918 (4)
- 1926 (4)
- 1994 (4)
- 1933 (3)
- 1934 (3)
- 1952 (3)
- 1956 (3)
- 1966 (3)
- 1979 (3)
- 1990 (3)
- 1913 (2)
- 1917 (2)
- 1929 (2)
- 1930 (2)
- 1931 (2)
- 1935 (2)
- 1986 (2)
- 1991 (2)
- 1992 (2)
- 1993 (2)
- 1678 (1)
- 1735 (1)
- 1830 (1)
- 1850 (1)
- 1858 (1)
- 1865 (1)
- 1904 (1)
- 1908 (1)
- 1912 (1)
- 1914 (1)
- 1915 (1)
- 1919 (1)
- 1922 (1)
- 1927 (1)
- 1928 (1)
- 1937 (1)
- 1938 (1)
- 1941 (1)
- 1942 (1)
- 1948 (1)
- 1949 (1)
- 1950 (1)
- 1951 (1)
- 1953 (1)
- 1954 (1)
- 1955 (1)
- 1958 (1)
- 1961 (1)
- 1962 (1)
- 1963 (1)
- 1965 (1)
- 1968 (1)
- 1970 (1)
- 1971 (1)
- 1974 (1)
- 1977 (1)
- 1978 (1)
- 1989 (1)
Document Type
- Doctoral Thesis (5739) (remove)
Language
- German (3642)
- English (2068)
- French (9)
- Latin (5)
- Spanish (5)
- Portuguese (4)
- Italian (3)
- Multiple languages (2)
- mis (1)
Is part of the Bibliography
- no (5739)
Keywords
- Deutschland (15)
- Gentherapie (14)
- HIV (13)
- Apoptosis (12)
- Membranproteine (12)
- NMR-Spektroskopie (11)
- RNA (11)
- RNS (10)
- Schmerz (10)
- ALICE (9)
Institute
- Medizin (1531)
- Biowissenschaften (835)
- Biochemie und Chemie (729)
- Physik (597)
- Pharmazie (329)
- Biochemie, Chemie und Pharmazie (311)
- Geowissenschaften (139)
- Neuere Philologien (115)
- Gesellschaftswissenschaften (111)
- Psychologie (97)
Binary neutron star mergers represent unique observational phenomena because all four fundamental interactions play an important role at various stages of their evolution by leaving imprints in astronomical observables. This makes their accurate numerical modeling a challenging multiphysics problem that promises to increase our understanding of the high-energy astrophysics at play, thereby providing constraints for the underlying fundamental theories such as the gravitational interaction or the strong interaction of dense matter. For example, the first and so far only multi-messenger observation of the binary neutron star merger GW170817 resulted in numerous bounds on the parameters of isolated non-rotating neutron stars, e.g., their maximum mass or their distribution in radii, which can be directly used to constrain the equation of state of cold nuclear matter. While many of these results stem from the observation of the inspiral gravitational-wave signal, the postmerger phase of binary neutron star mergers encodes even more details about the extreme physics of hot and dense neutron star matter. In this Thesis we focus on the exploration of dissipative and shearing effects in binary neutron star mergers in order to identify novel approaches to constrain hot and dense neutron star matter.
The first effect is the well-motivated dissipation of energy due to the bulk viscosity which arises from violations of weak chemical equilibrium. We start by exploring the impact of bulk viscosity on black-hole accretion. This simplified problem gives us the opportunity to develop a test case for future codes taking into account the effects of dissipation in a fully general-relativistic setup and build intuition in the physics of relativistic dissipation. Next, we move on to isolated neutron stars and binary neutron star mergers by developing a robust implementation of bulk-viscous dissipation for numerical relativity simulations. We test our implementation by calculating the damping of eigenmodes of isolated neutron stars and the violent migration scenario. Finally, we present the first results on the impact of bulk viscosity on binary neutron star mergers. We identify a number of ways how bulk viscosity impacts the postmerger phase, out of which the suppression of gravitational-wave emission and dynamical mass ejection are the most notable ones.
In the last part of this Thesis we investigate how the shearing dynamics at the beginning of the merger affects the amplification of different initial magnetic-field topologies. We explore the hypothesis that magnetic fields which are located only in a small region near the stellar surface prior to merger lead to a weaker magnetic-field amplification. We show first evidence which confirms this hypothesis and discuss possible implications for constraining the physics of superconduction in cold neutron stars.
Die nachfolgende Dissertation wurde an der Goethe-Universität Frankfurt am Institut für Geowissenschaften (FB 11) in der Arbeitsgruppe Kristallographie und Mineralogie (AG Winkler) verfasst. Die Betreuung der hier durchgeführten Arbeiten erfolgte hauptsächlich durch Prof. B. Winkler in Zusammenarbeit mit Dr. L. Bayarjargal, PD Dr. E. Haussühl und PD Dr. V. Vinograd. Bei dem vorliegenden Manuskript handelt es sich um eine kumulative bzw. publikationsbasierte Dissertation, welche die Forschungsergebnisse verschiedener bereits veröffentlichter wissenschaftlicher Fachartikel zusammenfasst.
Die Arbeit beschreibt verschiedene Synthesen und Untersuchungen an Carbonaten und teilt sich im Wesentlichen in zwei Abschnitte. Zum einen wurden Experimente mit Carbonaten bei Extrembedingungen bzw. unter hohen Drücken und hohen Temperaturen durchgeführt, wie sie auch im Inneren der Erde zu finden sind. Im zweiten Teil wurden Carbonate bei Raumbedingungen synthetisiert und der Einbau von Seltenerdelementen untersucht. Grundsätzlich werden jedoch in beiden Teilen dieser Arbeit die Strukturen und Eigenschaften verschiedener Carbonate und eine mögliche Kationensubstitution bzw. die Synthese isostruktureller Verbindungen erforscht.
Die rechtsmedizinische Begutachtung von Knochenfunden : eine hessenweite retrospektive Studie
(2023)
Einleitung: Zufällige Funde von Knochen(fragmenten) können von großem Interesse für z. B. Strafverfolgungs- und Denkmalbehörden oder Bauträger sein. Zur Beurteilung einer etwaigen strafrechtlichen oder historischen Relevanz tragen forensisch-osteologische Untersuchungen in einem hohen Maße bei. Die vorliegende Arbeit soll einen Überblick über die forensisch-osteologische Arbeit der beiden hessischen Institute für Rechtsmedizin geben und durch die Interpretation der Ergebnisse im (inter-)nationalen Vergleich regionale Besonderheiten und die Rolle der Rechtsmedizin bei der Begutachtung aufzeigen. Der daraus entstandene Erkenntnisgewinn soll ein Problembewusstsein schaffen sowie Fallarbeit und Lehre verbessern.
Material und Methoden: Zunächst wurden für den Zeitraum von 2005 bis 2019 die im Institut für Rechtsmedizin Gießen archivierten osteologischen Gutachten deskriptiv statistisch ausgewertet. Es wurden Daten zu Fundort, -umständen, Humanspezifität, postmortalem Intervall, Spuren von Gewalt und die Ergebnisse weiterführender Untersuchungen erhoben.
In einer zweiten Studie wurde die Auswertung auf archivierte forensisch- osteologische Gutachten des Instituts für Rechtsmedizin Frankfurt am Main ausgeweitet und der Auswertungszeitraum auf die Jahre 2011 bis einschließlich 2020 angepasst, um eine hessenweite Datengrundlage zu generieren.
Ergebnisse: In der ersten Studie wurden von den in dem 15-Jahres-Zeitraum begutachteten 172 Knochenfunden aus dem Institut für Rechtsmedizin Gießen 40 % in Wald- und Wiesengebieten aufgefunden. In 58 % enthielten die Funde menschliche Knochen, davon wurde in 32 % eine forensisch relevante Liegezeit von 50 Jahren oder weniger nicht ausgeschlossen, und 6% wiesen Zeichen perimortaler Gewalteinwirkung auf. Bei den Fällen, in denen eine Humanspezifität ausgeschlossen wurde, handelte es sich am häufigsten um Knochen von Hirsch bzw. Reh (32 %), Schwein (29 %) und Rind (14 %). In 20 % aller Fälle wurden
ergänzende DNA-Untersuchungen durchgeführt; in 62 % verlief die Typisierung humaner STR-Systeme erfolgreich und davon gelang in 41 % die Zuordnung zu einem antemortalen Profil einer vermissten Person.
In der zweiten, hessenweiten Studie, wurden 288 Knochenfunde eines 10-Jahres-Zeitraums ausgewertet. Mit 38,2 % wurden die meisten Funde in Wäldern, Wiesen und großen Parks getätigt. In 50,7 % der Fälle enthielten die Funde menschliche Knochen, davon wurde in 37,0 % eine forensisch relevante Liegezeit angenommen. Zeichen einer Gewalteinwirkung wurden in 77,4 % der Fälle mit menschlichen Knochen beschrieben, dabei handelte es sich mit 78,8 % am häufigsten um postmortale Beschädigungen, in 9,7 % um perimortale und in 11,5 % um antemortale Verletzungen. In 40,4 % der als human klassifizierten Knochenfunde wurden DNA-Untersuchungen durchgeführt. Dabei konnte in 81,3 % ein STR-Profil erstellt werden, das in 35,4% zu einer sicheren Identifizierung führte. Bei den zur Untersuchung überstellten nicht-menschlichen Knochen handelte es sich am häufigsten um Knochen vom Schwein (23,4 %), Hirsch (18,1 %), Rind (16,4 %), Reh (11,7 %) und Schaf (11,7 %).
Diskussion: Die Begutachtung von Knochen und Knochenfragmenten ist ein fester Bestandteil der rechtsmedizinischen Fallarbeit und zwingend erforderlich, um Fälle von forensischem Interesse zu identifizieren. Die makroskopische Befundung durch einen geschulten Untersucher erlaubt in der Regel bereits, Aussagen über die forensische Relevanz eines Fundes zu treffen und so die Weichen für das weitere Vorgehen zu stellen. Hilfreich bei der makroskopischen Beurteilung ist eine gute Kenntnis der regionalen Besonderheiten in dem Gebiet, in dem die Knochen gefunden wurden. Die makroskopische forensisch-osteologische Begutachtung stellt trotz der sich ständig weiterentwickelnden technischen Möglichkeiten ein unverzichtbares Werkzeug in der Bearbeitung von Knochenfunden dar. In Deutschland ist es Aufgabe der Rechtsmedizin, diese Expertise zu pflegen und vorzuhalten, mit dem Ziel, zur Aufklärung von Vermisstenfällen beizutragen und unentdeckte nichtnatürliche Todesfälle aufzuklären.
This work focuses on the investigation of K+, K- and ϕ-meson production in Ag(1.58 A GeV)+Ag collisions. The energetically cheapest channel for direct K+ production in binary NN-collisions NN→NΛK+ lies at exactly this energy. For the remaining K- and ϕ-mesons, an excess energy of 0.31 GeV and 0.34 GeV in the centre of mass system has to be provided by the system. This makes these particles an excellent probe for effects inside the medium.
K+ and K- mesons can be reconstructed directly as they possess a cτ of approximately 3.7 m. Using the approximately 3 billion recorded Ag(1.58 A GeV)+Ag 0-30% most central collision events, all reconstructed K+ and K- within the detector acceptance are investigated for their kinematic properties and their particle production rates compared to a selection of existing models.
Einleitung: Die Bronchiolitis obliterans ist eine seltene Lungenerkrankung unterschiedlicher Ätiologie, die mit einer chronischen Entzündung der kleinen Atemwege einhergeht. Mit der Identifizierung von Kandidaten-miRNA sollen Biomarker evaluiert werden, die in der Diagnostik der postinfektiösen Bronchiolitis obliterans (PIBO) herangezogen werden sowie in Zukunft eine mögliche Therapieoption darstellen können.
Material und Methoden: 19 Patientinnen und Patienten mit PIBO sowie 18 gesunde Kontrollen wurden in die Studie eingeschlossen. Nach Komplettsequenzierung wurden die miRNA-Profile der Patienten mit den Profilen der alters- und geschlechtsadaptierten gesunden Kontrollgruppe verglichen. Als Nebenzielgrößen wurden die Lungenfunktion und Sputum-Biomarker erfasst.
Ergebnisse: Die Patientenkohorte wies signifikant niedrigere Werte in der Lungenfunktionsdiagnostik (Patienten, Median: FVC (%) 76,3***, FEV1 (%) 59,8***, FEV1/FVC 0,68***, FEF75 (%) 25,1***, *p<0,05, **p<0,01, ***p<0,001) sowie eine signifikante Erhöhung der neutrophilen Granulozyten und der proinflammatorischen Zytokine IL-1β, IL-6 und IL-8 in der Sputumanalyse auf (Patienten, Median: Neutrophile (%) 82,5***, IL-1β (pg/ml) 1453,0**, IL-6 (pg/ml) 825,6**, IL-8 (pg/ml) 35368,0***). Die Analyse der miRNA-Expression ergab insgesamt 40 unterschiedlich regulierte miRNAs (padj ≤ 0,05). 22 miRNAs waren in der Patientenkohorte vermehrt exprimiert, 18 miRNAs waren vermindert exprimiert. Die vier miRNAs mit pbonf < 0,05 wurden in der weiteren Analyse berücksichtigt. Die miRNAs hsa-let-7b-3p und hsa-miR-146a-3p waren signifikant vermehrt exprimiert, wohingegen die miRNAs hsa-miR-1287-5p und hsa-miR-27b-3p signifikant vermindert exprimiert waren. Die identifizierten miRNAs spielen unter anderem eine Rolle im TGF-β- und Hippo-Signalweg.
Schlussfolgerung: Die Ergebnisse zeigen, dass das miRNA-Expressionsmuster bei Patienten, die an postinfektiöser Bronchiolitis obliterans erkrankt sind, alteriert ist. Die identifizierten miRNAs sind relevante Biomarker und können als potentielle Ziele von miRNA-Therapeutika in Betracht gezogen werden.
Einleitung: Im Jahr 2016 wurde eine neue, individuelle Lehrform, das „Lernzentrum für ein individualisiertes medizinisches Tätigkeitstraining und Entwicklung“ („Limette“), an der Westfälischen Wilhelms-Universität Münster entwickelt. Das Ziel dieser Lernform ist und war es, nicht nur die theoretische Lehre, sondern vor allem die praktische Lehre und praktische Szenarien in einem geschütztem Lernumfeld in der medizinischen Lehrdidaktik in den Vordergrund zu stellen.
Die Studierenden nehmen an verschiedenen Fächern der Limette teil. In dieser Promotionsarbeit liegt der Fokus auf der Limette Patient Blood Management (PBM) und Transfusionsmedizin.
Vor Kursbeginn wird den Studierenden Zugang zu verschiedenen Vorbereitungsvideos sowie weiteren theoretischen Materialien über PBM und Transfusionsmedizin zur Verfügung gestellt. Bei der Limette durchläuft jeder Studierende sechs verschiedene Stationen. Hierbei beobachten Dozenten die Fertigkeiten und die Umsetzung der Aufgabenlösung durch halbverspiegelte Scheiben, im Umgang mit echten Blutprodukten oder die Kommunikation mit Patienten, die von Schauspielern dargestellt werden. Die Beobachtungen werden den Dozenten des Seminars, welches im Anschluss zur Nachbesprechung stattfindet, mitgeteilt. Hier teilen die Studierenden untereinander ihr Wissen, können den Dozenten Fragen stellen und werden ihnen weitere theoretisch-praktische Kenntnisse vermittelt.
Ziel der Arbeit: Die Promotionsarbeit hat die Auswertung der Selbsteinschätzungsbögen vor und nach der Limette mit anschließender Interpretation der Ergebnisse zum Ziel. Es soll eruiert werden, ob diese neue Lehrmethodik effektiv in der Umsetzung des Lehrerfolgs ist.
Methodik: Die Selbsteinschätzungsbögen hinsichtlich medizinischer Fertigkeiten und Tätigkeiten werden vor und nach der Limette von den Studierenden ausgefüllt. Die Aufgabenstellungen fokussieren sich jeweils auf medizinische Tätigkeiten, bei denen aus 13 verschiedenen Entrustable Professional Activities (EPAs) diejenigen hinterlegt werden, die bei dieser Aufgabe gelehrt werden. Die Differenz von post- zu prä- Selbsteinschätzung zeigt den Lehrerfolg. Die EPAs werden alle analysiert und mit Hilfe der sogenannten Cohen-Zahl interpretiert. Die Cohen Zahl ist definiert als die Differenz zwischen den Mittelwerten zweier Gruppen dividiert durch die gemeinsame Standardabweichung der beiden Populationen. Nach dem Autor Hattie wurde die Skalierung von Cohen für die Lehre angepasst und dabei folgende Einteilung definiert: d = 0,2 (klein), d = 0,4 (mittel) und d = 0,6 (groß). Alle Methoden mit d > 0,4 wurden als „Zone der gewünschten Effekte“ eingestuft.
Ergebnisse: Im Wintersemester 2021/2022 nahmen n=122 Studierende teil, von welchen n=50 beide Fragebögen komplettierten. Eine signifikante Zahl der dargestellten EPAs (50%) hat gute Ergebnisse erzielt, weist mithin einen Cohen´s Wert von d > 0,40 auf. Im Sommersemester 2022 nahmen n=99 Studierende teil, wobei nur n=29 beide Selbsterhebungsbögen komplettierten. Aufgrund des niedrigen Rücklaufs war die Zahl der ausgefüllten Selbsteinschätzungsbögen deutlich geringer und zugleich die Ergebnisse geringer ausgeprägt. In jenem Semester weist die Mehrheit der Ergebnisse einen Cohen´s d-Wert zwischen 0,15 und 0,4 auf, was als durchschnittlicher Lehrerfolg beurteilt wird.
Schlussfolgerung: Die Lehrform der Limette ist eine neue Form der praktischen Lehrvermittlung, die kontinuierlichen Anpassungen unterliegt. Eine hohe Zahl an ausgefüllten Selbsteinschätzungsbögen ist erstrebenswert, um den Lehrerfolg positiv und statistisch signifikant interpretieren zu können. Hierbei ist es nötig, die Lehre in der Limette auszuwerten und gegebenenfalls weitere Anpassungen durchzuführen.
Die Limette ist eine neue Lehrmethode mit einem guten Lehrerfolg hinsichtlich der Vermittlung praktischer Fähigkeiten und sozialer Kompetenz, welche auch an anderen Institutionen angewandt und umgesetzt werden könnte.
Bislang sind die strukturellen Voraussetzungen für die Selektivität von Agonisten an den Retinoid Rezeptor Subtypen RXRα, RXRβ und RXRγ kaum erforscht, obwohl RXR-Modulatoren, die eine Subtypen-Präferenz aufweisen, aufgrund der unterschiedlichen Expressionsmuster der Subtypen Gewebe-spezifische Effekte vermitteln und somit Nebenwirkungen verringern könnten. Der Grund dieser Forschungslücke liegt teilweise darin, dass die Entwicklung Subtypen-selektiver RXR-Agonisten aufgrund der enormen strukturellen Ähnlichkeit der Ligandbindestellen in den RXR-Subtypen - alle Aminosäuren, die die Bindungsstellen bilden sind identisch - als unerreichbar angesehen wurde. Die Entdeckung des Naturstoffs Valerensäure als RXR-Agonist mit ausgeprägter Präferenz für den RXRβ-Subtyp hat jedoch gezeigt, dass Subtypen-selektive RXR-Modulation möglich ist249 und SAR-Studien an unterschiedlichen RXR-Ligand-Chemotypen haben in der Folge bestätigt, dass die Entwicklung von RXR-Liganden mit Subtypen-Präferenz erreicht werden kann.
Auf der Basis von Valerensäure und der in früheren Arbeiten entwickelten RXR-Agonisten wurden in dieser Arbeit Strukturmodifikationen identifiziert, die zu einer RXR-Subtypen-Präferenz beitragen. Durch die Verschmelzung dieser Strukturelemente ist es gelungen, einen neuen RXR-Agonist-Chemotyp (A) zu entwerfen, der durch strategische Methylierung und weitere Strukturmodifikationen zur Präferenz für jeden Subtyp optimiert werden konnte.
In einem Adipozyten-Differenzierungsexperiment konnte gezeigt werden, dass RXRα der wichtigste Heterodimer-Partner von PPARγ während der Adipogenese ist. Ferner unterstrich diese biologische Untersuchung das Potenzial von 99, 103 und 105 als Subtyp-präferentielle RXR-Agonisten in vitro Experimenten zu dienen.
Auf der Grundlage dieser Ergebnisse wurde eine mögliche Rolle von Acrylsäurepartialstrukturen natürlicher RXR-Liganden basierend auf dem zuvor entwickelten Chemotyp untersucht. Hierzu wurden das α-Methylacrylsäuremotiv des Naturstoffs Valerensäure (18) und das β-Methylacrylsäuremotiv des endogenen RXR-Agonisten 9-cis-Retinsäure in den Chemotyp A integriert (Chemotyp B), um die Rolle dieser Acrylsäuregruppen bei der Vermittlung der RXR-Subtypen-Selektivität zu untersuchen. Die Strukturmodifikationen an B zeigten, dass nur die α-Methyl-substituierte Acrylsäurekette toleriert bzw. von RXRβ präferiert wurde, was die RXR-Präferenz der Valerensäure (18) unterstützte.
In dieser Arbeit konnte gezeigt werden, dass RXR-Liganden mit Subtypen-Präferenz realisierbar sind und durch gezielte Strukturmodifikationen in ihrer Präferenz gesteuert werden können. Die Erkenntnisse zu den Struktur-Wirkungs-Beziehungen der neuen RXR-Agonist-Chemotypen A und B erweitern den Wissenstand über die strukturellen Voraussetzungen von RXR-Liganden für die Subtypen-Präferenz deutlich.
This cumulative dissertation examines learning in chemistry laboratories, focusing on the challenges and benefits of problem-based learning (PBL) for novices in the lab. It addresses the lack of consistent understanding about what should be learned in labs and why it's important. The research aims to understand what students learn, how they learn, and how lab learning can be improved.
A central concept in PBL labs is Information Literacy, defined as a sociocultural practice enabling learners to identify and use information sources within a specific context as legitimized by the practice community.
The first publication, Wellhöfer and Lühken (2022a), investigates the relationship between PBL and learner motivation. It identifies factors that can foster students' intrinsic motivation in a PBL lab. Autonomy is found to be a key factor, increasing student motivation and presenting a model of the autonomous scientific process. This model involves four steps: information acquisition, designing and applying experimental procedures, experimental feedback, and autonomous process optimization. The results suggest that intrinsic motivation in PBL labs can be enhanced by enabling students to independently execute these steps.
The second publication, Wellhöfer and Lühken (2022b), examines the information process students undergo during their first PBL lab. Using a sociocultural framework, it explores Information Literacy to understand students' handling of information and their perceptions of the information process. The findings reveal that in PBL labs, developing a practical, applicable experimental procedure is crucial for problem-solving and significantly shapes the information-acquisition process. This process is iterative, influenced by new information, leading to more precise information needs. Students assess information quality based on its usefulness for their problem, implementability (considering cognitive understanding, available equipment, and psychomotor skills), and safety.
Furthermore, the role of privileged knowledge forms in evaluating the quality of text sources is explored. Students viewed non-scientific sources as "poor" and scientific sources as "good," yet used both for information gathering. There were discrepancies between their assessment of source quality and actual use, indicating that perception of source quality doesn't always affect their practical decisions.
The third publication, Wellhöfer, Machleid, and Lühken (2023), investigates students' information practices in the lab, focusing on discourse between novice learners and experienced assistants. It shows that theoretical knowledge isn't sufficient for independent practical action, and students need actionable social information from experienced community members. The results highlight that information literacy in the lab for newcomers to a community of practice has distinctive features, and physical experience and tacit knowledge are crucial for learning the methods and group-specific knowledge of the practice community. The article demonstrates how learning information literacy in a practice community requires a social and physical experience and provides insights on how educators can support this process.
The Compressed Baryonic Matter (CBM) is one of the core experiments at the future Facility for Anti-proton and Ion Research (FAIR), Darmstadt, Germany. Its goal is to investigate nuclear matter characteristics at high net-baryon densities and moderate temperatures. The Silicon Tracking System (STS) is a central detector system of CBM.
It is placed inside a 1Tm magnet and operated at a temperature of about −10 °C to keep radiation-induced bulk current in the 300μm double-sided microstrip silicon sensors low. The design of the STS aims to minimize the material budget in the detector acceptance (2.5° < θ < 25°). In order to do so, the readout electronics is placed outside the active area, and the analog signals are transported via ultra-thin micro-cables. The STS comprises eight tracking stations with 876 modules. Each module is assembled on a carbon fiber ladder, which is subsequently mounted in the C-shaped aluminum frame.
The scope of the thesis focused on developing a modular control system framework that can be implemented for different sizes of experimental setups. The developed framework was used for setups that required a remote operation, like the irradiation of the powering modules for the front-end electronics (FEE), but also in laboratory-based setups where the automation and archiving were needed (thermal cycling of the STS electronics).
The low voltage powering modules will be placed in the vicinity of the experiment, therefore they will experience a total dose of up to 40mGy over the 10 years of STS lifetime.
To estimate the effects of the radiation on the low-voltage module performance, a dedicated irradiation campaign took place. It aimed at estimating the rate of radiation induced soft errors, that lead to the switch off of the FEE.
Regular power cycles of multiple front-end boards (FEBs) pose a risk to the experiment operation. Firstly, such behavior could negatively influence the physics performance but also have deteriorating effects on the hardware. It was further assessed what are the limitations of the FEBs with respect to the thermal cycling and the mechanical stress. The results served as an indication of possible failure modes of the FEB at the end of STS lifetime. Failure modes after repeated cycles and potential reasons were determined (e.g., Coefficient of Thermal Expansion (CTE) difference between the materials).
Due to the conditions inside the STS efficient temperature and humidity monitoring and control are required to avoid icing or water condensation on the electronics or silicon sensors. The most important properties of a suitable sensor candidate are resilience to the magnetic field, ionizing radiation tolerance, and fairly small size.
A general strategy for ambient parameters monitoring inside the STS was developed, and potential sensor candidates were chosen. To characterize the chosen relative humidity sensors the developed control framework was introduced. A sampling system with a ceramic sensor and Fiber Optic Sensors (FOS) were identified as reliable solutions for the distributed sensing system. Additionally, the industrial capacitive sensors will be used as a reference during the commissioning.
Two different designs of FOS were tested: a hygrometer and 5 sensors multiplexed in an array. The FOS hygrometer turned out to be a more reliable solution. One of the possible reasons for a worse performance is a relatively low distance between the subsequent sensors (15 cm) and a thicker coating. The results obtained from the time response study pointed out that the thinner coating of about 15μm should be a good compromise between the humidity sensitivity and the time response.
The implementation of the containerized-based control system framework for the mSTS is described in detail. The deployed EPICS-based framework proved to be a reliable solution and ensured the safety of the detector for almost 1.5 years. Moreover, the data related to the performance of the detector modules were analyzed and significant progress in the quality of modules was noted. Obtained data was also used to estimate the total fluence, which was based on the leakage current changes.
The developed framework provided a unique opportunity to automate and control different experimental setups which provided crucial data for the STS. Furthermore, the work underlines the importance of such a system and outlines the next steps toward the realization of a reliable Detector Control System for STS.
In the last twenty years, a variety of unexpected resonances had been observed within the charmonium mass region. Although the existence of unconventional states has been predicted by the quantum chromodynamics (QCD), a quantum field theory describing the strong force, a clear evidence was missing. The Y(4260) is such an unexpected and supernummerary state, first observed at BaBar in 2005, and aroused great interest, because it couples much stronger to hidden charm decays (charm-anticharm states like J/Psi or h_c) instead of open charm decays (D meson pairs). This is unusual for states with masses above the D anti-D threshold. Furthermore, it decays into a charged exotic state Y(4260)->Z_c(3900)^+- pi^-+. The charge of the Z_c(3900)^+- is an indication that it comprises of two more quarks than the charm-anticharm pair, and could therefore be assumed to be a four-quark state. Due to these still not understood properties of these QCD-allowed states, they are referred to as exotic XYZ states to emphasize their particularity.
In 2017, the collaboration of the Beijing Spectrometer III (BESIII) investigated the production reaction of the Y(4260) resonance based on a high-luminosity data set. This significantly improved precision of the measurement of the cross-section sigma(e+e- -> J/Psi pi^+ pi^-) permitted a resolution into two resonances, the Y(4230) and the Y(4360). The Z_c(3900)^+- had been discovered by the BESIII collaboration in 2013, thus this experiment at the Beijing Electron-Positron Collider II (BEPCII) is a top-performing facililty to study exotic charmonium-like states.
In this work, an inclusive reconstruction of the strange hyperon Lambda in the charmonium mass region is performed to study possible decays of Y states in order to provide further insight into their nature. Finding more states or new decay channels may provide crucial hints to understand the strong interaction beyond nonperturbative approaches.
Three resonances are observed in the energy dependent cross-section: the first with a mass of (4222.01 +- 5.68) MeV and a width of (154.26 +- 28.16) MeV, the second with a mass of (4358.88 +- 4.97) MeV and a width of (49.58 +- 13.54) MeV and the third with a mass of (4416.41 +- 2.37) MeV and a width of (23.88 +- 7.18) MeV. These resonances, with a statistical significance Z > 5sigma, can be interpreted as the states Y(4230), Y(4360) and psi(4415).
Additionally, a proton momentum-dependent analysis strategy has been used in terms of the inclusiveness of the reconstruction and to address the momentum discrepancies between generic MC and measured data.
"Autonomy is the condition under which what one does reflects who one is" (Weinrib, 2019, p.8). This quote encapsulates the core idea of autonomy, namely the correspondence of one’s inner values with one’s actions. This is a beautiful idea. After all, who wants their actions to be determined or controlled from the outside?
The classical definition of autonomy is precisely about this independence from external circumstances, which Murray (1938) primarily coined. Among other things, Murray characterizes autonomy as resistance to influence and defiance of authority. Similarly, Piaget (1983) describes individuals as autonomous, independent of external influences, in their thinking and actions, and foremost, adult authority. Subsequent work criticized this equation of autonomy with separation or independence (Bekker, 1993; Chirkov et al., 2003; Hmel & Pincus, 2002). In lieu thereof, autonomy is defined as an ability (Chirkov, 2011; Rössler, 2017) and as an essential human need (Ryan & Deci, 2006). Focus is now
on self-governing while relying on rationally determined values to pursue a happy life (Chirkov, 2011). According to Social Determination Theory (SDT), autonomy is about a sense of initiative and responsibility for one’s own actions. The experience of interest and appreciation can strengthen autonomy, whereas experiences of external control, e.g., through rewards or punishments, limit autonomy (Ryan & Deci, 2020). In the psychological discourse of autonomy, SDT is strongly represented (Chirkov et al., 2003; Koestner & Losier, 1996; Weinstein et al., 2012). Notably, SDT distinguishes between autonomy and independence as follows. While a person can autonomously ask for help or rely on others, a person can also be involuntarily alone and independent. Interestingly, these definitions are again closer to its etymological meaning as self-governing, originating from Greek αυτòνoμζ (autonomous).
The two strands of autonomy as independence and autonomy as self-determination are also reflected in the vital differentiation into reactive and reflective autonomy by Koestner and Losier (1996). Resisting external influence, particularly interpersonal in fluence, is what reactive autonomy entails. This interpretation is closely related to the classical concept of autonomy as separation and independence from others (Murray, 1938). On the other hand, reflective autonomy concerns intrapersonal processes, such as self-governing or self-regulation, as defined in Self-Determination Theory (Ryan et al., 2021). In this dissertation, we investigated the concept in three different approaches while focusing on its assessment and operationalization: To begin, in Article 1, we compared the layperson’s and the scientific perspective to each other to gain insight into the characteristics of autonomy. Then, in Articles 2 and 3, we experimentally tested behavioral autonomy as resistance to external influences. Simultaneously, we investigated the link between various autonomy trait measures and autonomous behavior. As a result, in Article 2, we looked at how people reacted to the effects of message framing and sender authority on social distancing behavior during the early COVID-19 pandemic. Finally, in Article 3 we investigated the resistance to a descriptive norm in answering factual questions, in the context of autonomous personality. In our first article, we used a semi-qualitative bottom-up approach to gain insights into the laypersons’ perspective on autonomy and compare it to the scientific notion. We followed a design proposed by Kraft-Todd and Rand (2019) on the term heroism. We derived five components from philosophical and psychological literature: dignity, independence from others, morality, self-awareness, and unconventionality. In three preregistered online studies, we compared these scientific components to the laypersons’ understanding of autonomy. In Study 1, participants (N = 222) listed at least three and up to ten examples of autonomous (self-determined) behaviors. Here, the participants named 807 meaningful examples, which we systematically categorized into 34 representative items for Study 2. Next, new participants (N = 114) rated these regarding their autonomy. Finally, we transferred the five highest-rated autonomy and the five lowest-rated autonomy items to Study 3 (N = 175). We asked participants to rate how strongly the items represented dignity, independence from others, morality, self-awareness, and unconventionality. We found all components to distinguish between high and low autonomy items but not for unconventionality. Thus, we conclude that laypersons’ view corresponds with the scientific characteristics of dignity, independence from others, self-awareness, and morality. A qualitative analysis of the examples also showed that both reactive and reflective definitions of autonomy are prevalent.
This Ph. D. thesis with the title "Characterisation of laser-driven radiation beams: Gamma-ray dosimetry and Monte Carlo simulations of optimised target geometry for record-breaking efficiency of MeV gamma-sources" is dedicated to the study of the acceleration of electrons by intense sub-picosecond laser pulses propagating in a sub-millimeter plasma with near-critical electron density (NCD) and resulting generation of the gamma bremsstrahlung and positrons in the targets of different materials and thickness.
Laser-driven particle acceleration is an area of increasing scientific interest since the recent development of short pulse, high-intensity laser systems. The interaction of intense high-energy, short-pulse lasers with solid targets leads to the production of high-energy electrons in the relativistic laser intensity regime of more than 1018 W /cm2. These electrons play the leading role in the first stage of the interaction of laser with matter, which leads to the creation of laser sources of particles and radiation. Therefore, the optimisation of the electron beam parameters in the direction of increasing the effective temperature and beam charge, together with a slight divergence, plays a decisive role, especially for further detection and characterisation of laser-driven photon and positron beams.
In the context of this work, experiments were carried out at the PHELIX laser system (Petawatt High-Energy Laser for Heavy Ion eXperiments) at GSI Helmholtz Center for Heavy-Ion Research GmbH in Darmstadt, Germany. This thesis presents a thermoluminescence dosimetry (TLD) based method for the measurement of bremsstrahlung spectra in the energy range from 30 keV to 100 MeV. The results of the TLD measurements reinforced the observed tendency towards the strong increase of the mean electron energy and number of super-ponderomotive electrons. In the case of laser interaction with long-scale NCD-plasmas, the dose caused by the gamma-radiation measured in the direction of the laser pulse propagation showed a 1000-fold increase compared to the high contrast shots onto plane foils and doses measured perpendicular to the laser propagation direction for all used combinations of targets and laser parameters.
In this thesis I present novel characterisation method using a combination of TLD measurements and Monte Carlo FLUKA simulations applicable to laser-driven beams. The thermoluminescence detector-based spectrometry method for simultaneous detection of electrons and photons from relativistic laser-induced plasmas initially developed by Behrens et al. (Behrens et al., 2003) and further applied in experiments at PHELIX laser (Horst et al., 2015) delivered good spectral information from keV energies up to some MeV, but as it was presented in (Horst et al., 2015) this method was not really suitable to resolve the content of photon spectra above 10 MeV because of the dominant presence of electrons. Therefore, I created new evaluation method of the incident electron spectra from the readings of TLDs. For this purpose, by means of MatLab programming language an unfolding algorithm was written. It was based on a sequential enumeration of matching data series of the dose values measured by the dosimeters and calculated with of FLUKA-simulations. The significant advantage of this method is the ability to obtain the spectrum of incident electrons in the low energy range from 1 keV, which is very difficult to measure reliably using traditional electron spectrometers.
The results of the evaluation of the effective temperature of super-ponderomotive electrons retrieved from the measured TLD-doses by means of the Monte-Carlo simulations demonstrated, that application of low density polymer foam layers irradiated by the relativistic sub-ps laser pulse provided a strong increase of the electron effective temperature from 1.5 - 2 MeV in the case of the relativistic laser interaction with a metallic foil up to 13 MeV for the laser shots onto the pre-ionized foam and more than 10 times higher charge carried by relativistic electrons.
The progressive simulation method of whole electron spectra described with two -temperatures Maxwellian distribution function has been developed and the results of dose simulations were compared with the acquired experimental data. The advanced feature of this method, which distinguishes it from the results of the simulation of the photon spectrum using the interaction with the target of mono-energetic electron beams (Nilgün Demir, 2013; Nilgün Demir, 2019) or the initial electron spectrum expressed as a function of one electron temperature (Fiorini, 2012), is the ability to simulate the initial electron spectrum described by the Maxwellian distribution function with two temperatures.
The important objective of this thesis was dedicated to the study and characterisation of laser-driven photon beams. In addition to this, the positron beams were evaluated. The investigation of bremsstrahlung photons and positrons spectra from high Z targets by varying the target thickness from 10 µm to 4 mm in simulated models of the interactions of electron spectra with Maxwellian distribution functions allowed to define an optimal thickness when the fluences of photons and positrons are maximal. Furthermore based on the results of FLUKA simulations the gold material was found to be the most suitable for the future experiments as e − γ target because of its highest bremsstrahlung yield.
Additionally Monte Carlo simulations were performed applying the obtained electron beam parameters from the electron acceleration process in laser-plasma interactions simulated with particle-in-cell (PIC) code for two laser energies of 20 J and 200 J. The corresponding electron spectra were imported into a Monte Carlo code FLUKA to simulate the production process of bremsstrahlung photons and positrons in Au converter. FLUKA simulations showed the record conversion of efficiency in MeV gammas can reach 10%, which reinforces the generation of positrons. The obtained results demonstrate the advantages of long-scale plasmas of near critical density (NCD) to increase the parameters of MeV particles and photon beams generated in relativistic laser-plasma interaction. The efficiency of the laser-driven generation of MeV electrons and photons by application of low-density polymer foams is essentially enhanced.
Herzkreislauferkrankungen führen weltweit weiterhin die Liste der häufigsten Todesursachen an. Dem frühzeitigen Erkennen kardialer Veränderungen kommt daher eine besondere Bedeutung zu. Das Erkennen subklinischer Veränderungen des Myokards mit Hilfe des myokardialen T1 Mappings und der Strain Analyse in der kardialen MRT mit der Bestimmung der Korrelation von T1 Mapping und Veränderung des myokardialen Strains war das primäre Ziel der vorliegenden Arbeit. Das native T1 Mapping sollte dabei diffuse kardiale Fibrose erkennen, während die Strainparameter zur Analyse der subtilen kardialen Funktion dienten. Wenn eine vermehrte diffuse Fibrose eine Einschränkung der myokardialen Funktion bedeutet, so müssten sich das native T1 Mapping und die Strainparameter gleichsinnig verändern.
Eingeschlossen in die Untersuchung wurden Patienten, die im Rahmen ihres Klinikaufenthaltes an der Kerckhoff-Klinik Bad Nauheim ein kardiales MRT erhielten und ihre Zustimmung zur Aufnahme in das geführte Register gaben. Alle durchgeführten MRT-Untersuchungen besaßen dabei eine medizinische Indikation. Die Untersuchung umfasste eine Blutentnahme sowie die Bildakquisition und das Ausfüllen eines Fragebogens. In der anschließenden Bildauswertung wurden das native T1 Mapping, eine Featuretrackinganalyse, sowie die reguläre diagnostische Beurteilung durch einen Facharzt durchgeführt. Die Patienten wurden anschließend nach ihren Diagnosen in Gruppen eingeteilt. Ein Jahr nach ihrer Untersuchung wurden die Patienten kontaktiert und erneut befragt, um den Anteil an „major adverse cerebro- and cardiovasculare events“ (MACCE) und der Gesamtsterblichkeit am Gesamtkollektiv festzustellen.
Es zeigten sich signifikante Zusammenhänge zwischen nativem T1 Mapping und den Strainparametern, ebenso wie signifikante Zusammenhänge von schwächerer Effektstärke zwischen ECV und den Strainparametern. Das erhöhte native T1 Mapping ging mit verringerten Strainparametern einher, was auf eine vermehrte Fibrose schließen lässt. In der Überlebensanalyse bezüglich des allgemeinen Überlebens zeigte sich nur das native T1 Mapping als unabhängiger Prädiktor, während bei den MACCE zusätzlich auch die Anzahl der betroffenen Segmente im „late gardolinium enhancement“ (LGE) einen unabhängigen Prädiktor darstellten. Der globale longitudinale Strain (GLS) verfehlte bezüglich der MACCE knapp das Signifikanzniveau, zeigte aber eine Tendenz zur Signifikanz.
Natives T1 Mapping und, in begrenztem Maße, möglicherweise auch der Strain haben eine besondere Rolle in der Diagnostik und können bereits früh kardiale Veränderungen detektieren. Da die erhöhten T1 Zeiten als Marker für morphologische Veränderungen mit den Strains als funktionelle Parameter korrelierten, lässt sich spekulieren, dass Fibrose eine Einschränkung der Funktion bedingt.
Diese Arbeit beschäftigt sich mit der türkischen Musikpolitik in der Zeit von Atatürk und seinem Auftrag insbesondere an den Komponisten, Ahmed Adnan Saygun, im Rahmen der vielfältigen Reformen in der jungen türkischen Republik, eine zeitgenössische türkische Kunstmusik zu schaffen. Mit dem Begriff des Kulturtransfers wird die Umsetzung von Atatürks Musikpolitik beschrieben, der auf die Entwicklung der Musik im 19. Jahrhundert, dem Zeitalter des sogenannten Nationalismus, zurückgreift und mit dem Kulturtransfer anderer Nationen verglichen wurde. Neben Saygun wurde auch das Wirken von vier anderen türkischen Komponisten, die mit Saygun die sogenannten ‚Türkischen Fünf‘ bildeten, erwähnt, die diesen Auftrag Atatürks sehr unterschiedlich umsetzten in einer Zeit der gesellschaftlichen Veränderungen und des ‚Kulturkampfs‘. In diesem Zusammenhang wurden die fünf Sinfonien von Saygun analysiert, der als ein Vorbild und Pionier fast aller Arten türkisch-klassischer Musik im Rahmen dieser musikalischen Revolution angesehen werden kann.
Saygun hat in Zusammenarbeit mit Béla Bartók türkische Volkslieder aufgenommen, verschriftlicht und systematisiert. In dieser Arbeit wurde daher untersucht, wie Saygun, der die türkische Kunst- und Volksmusik sowie in Paris die westeuropäische klassische Musik studiert hat, diese mit Mitteln klassischer Musikformen verbindet. Anhand der fünf Sinfonien von Ahmed Adnan Saygun wird gezeigt, dass er nicht nur als Komponist, sondern auch als Musikethnologe eine führende Rolle in der zeitgenössischen türkischen Kunstmusik übernahm und über den Kulturtransfer hinaus eine eigene ‚musikalische Sprache‘ entwickelte.
Eine der wichtigsten Quellen dieser Arbeit sind die handschriftlichen Partituren der Sinfonien und die Originalartikel von Ahmed Adnan Saygun, insbesondere Sayguns handgeschriebene Artikel ‚Orkestra‘ (dt.: Orchester) und die Artikelsammlung ‚Yalan‘ (dt.: Lüge), die in die deutsche Sprache übersetzt wurden. Als Ergebnisse der Analyse und Interpretation dieser und anderer Quellen, konnten Methoden aufgezeigt werden, die in Sayguns Werke und insbesondere in seinen Sinfonien in rhythmischen, melodischen, harmonischen und motivisch-thematischen Strukturkonstruktionen verwendet und als Beispiele einer zeitgenössischen türkischen Kunstmusik interpretiert werden. Dabei wurde herausgearbeitet, wie Saygun Elemente der türkischen Kunst- und Volksmusik verwendete, diese zunächst in tradierte Formen westeuropäischer klassischer Musik einbettete, um unter Hinzuziehung von eigenen kunstphilosophischen Ansätzen eine Form von ‚universaler Musik‘ zu kreieren.
Mechanistic characterization of photoisomerization reactions in organic molecules and photoreceptors
(2023)
In dieser Arbeit wurden verschiedene Einflüsse auf die Dynamik von Photoisomerisierungen in Phytochromen und indigoiden Photoschaltern untersucht. Beide Forschungsgebiete teilen wesentliche Aspekte wie die Kontrolle durch sterische Wechselwirkungen und den starken Einfluss der Polarität oder der ionischen Umgebung.
Auf dem Gebiet der Phytochrome wurde die relative Positionierung der knotenlosen Phytochrome innerhalb der Superfamilie der Phytochrome in Bezug auf ihre Photodynamik und den Effekt von Grundzustandsheterogenität herausgearbeitet. Es wurde anhand von ultraschnellen, zeitaufgelösten Anrege-Abtast-Experimenten der einzelnen GAF-Domäne All2699g1 im Vergleich mit dem vollständigen knotenlosen Phytochrom All2699g1g2 und dem strukturell ähnlichen knotenlosen Phytochrom SynCph2 gezeigt, dass knotenlose Phytochrome in ihrer Vorwärtsdynamik eine komplexe mehrphasige Kinetik mit einem langlebigen angeregten Zustand (~100 ps) aufweisen. Die beobachtete mehrphasige Kinetik konnte einer initialen Chromophordynamik sowie einer nicht exponentiellen Reorganisation der chromophor-umgebenden Proteinmatrix zugeordnet werden. Dies steht im starken Kontrast zur im Gebiet der Phytochrome etablierten Beschreibung derartiger mehrphasiger Kinetiken mittels heterogener Grundzustände. Stattdessen wurde ein konserviertes kinetisches Muster identifiziert, welches die mehrphasige Dynamik beschreibt und in allen in dieser Arbeit untersuchten Phytochrome beobachtet wurde. Zudem konnte dieses Muster in einem Phytochrom der Gruppe I und einem Phytochrom der Gruppe III, die einen ähnlichen Pr Dunkelzustand aufweisen, gezeigt werden, was eine breite Anwendbarkeit des damit verbundenen Mechanismus vermuten lässt. Weiterhin konnte die zentrale Rolle eines konservierten Tyrosins in der Photoisomerisierung anhand von Mutationsstudien in All2699g1 herausgearbeitet werden. Diese konservierte Aminosäure muss im Rahmen der Reorganisation der Proteinmatrix vom Chromophor weggezogen werden, damit die sterische Blockade abgebaut werden kann, die die Isomerisierung des Chromophors zunächst verhindert. Da diese Bewegung von diversen Faktoren in der den Chromophor umgebenden Proteinmatrix abhängt, weist sie eine nicht exponentielle Kinetik auf, die je nach Phytochrom, der spezifischen Flexibilität und dem vorhandenen Raum in der Bindetasche unterschiedliche Lebenszeiten aufweist.
Die Rückreaktion knotenloser Phytochrome konnte ebenfalls im Rahmen dieser Arbeit charakterisiert werden, welche im Pikosekundenbereich abläuft, und damit signifikant schneller ist als die Vorwärtsreaktion. Im Gegensatz zur Vorwärtsreaktion nimmt Grundzustandsheterogenität in der Rückreaktion eine weitaus bedeutendere Rolle ein. Hier weisen die in All2699g1 vorhandenen heterogenen Grundzustandspopulationen jeweils eine eigene Kinetik ihres angeregten Zustands auf, während die homogenen Grundzustände von All2699g1g2 und SynCph2 jeweils nur einen Zerfall des angeregten Zustands zeigen. Der Ursprung dieser Heterogenität konnte im Wasserstoffbrückennetzwerk des Chromophors lokalisiert und mit dem konservierten Tyrosin und einem konservierten Serin in der PHY-Domäne verknüpft werden. Die Anwesenheit der PHY-Domäne sorgt demnach für eine Verringerung der Grundzustandsheterogenität und des vorhandenen Raums in der Bindetasche, wodurch die Effizienz der Photoreaktion optimiert wird.
Zuletzt konnte die Millisekundendynamik knotenloser Phytochrome und der Einfluss der PHY-Domäne auf diese aufgeklärt werden. Die PHY-Domäne sorgt hierbei durch den verringerten Raum in der Bindetasche dafür, dass die zunächst stattfindende thermische Relaxation des Chromophors signifikant verlangsamt wird, während spätere Änderungen im Photozyklus nur wenig beeinflusst werden.
Auf dem Gebiet der indigoiden Photoschalter konnte, anhand eines sterisch überladenen Hemithioindigo Photoschalters, der Photoisomerisierungsmechanismus des Hula-Twists beobachtet und eine starke Lösungsmittelabhängigkeit der entsprechenden Kinetik aufgezeigt werden. Aus den durchgeführten zeitaufgelösten Anrege-Abtast-Experimenten in verschiedenen Lösungsmitteln konnte ein Modell für die Photodynamik des verwendeten Hemithioindigo Photoschalters entwickelt werden. In unpolaren Lösungsmitteln muss eine hohe Barriere zur produktiven konischen Durchschneidung überwunden werden, was zu Lebenszeiten des angeregten Zustands im Nanosekundenbereich führt. Der Weg zur produktiven konischen Durchschneidung folgt dabei dem Hula-Twist Mechanismus. Dieser Pfad ist in polaren Lösungsmitteln unerreichbar, weshalb eine schnelle Relaxation über eine unproduktive konische Durchschneidung stattfindet.
Im zweiten Projekt auf dem Gebiet der indigoiden Photoschalter wurde anhand der neuartigen Klasse der Iminothioindoxyl Photoschalter ein Schwingungsenergiedonor für Schwingungsenergietransferstudien entwickelt. Das daraus entwickelte Modellsystem, bestehend aus einer künstlichen Aminosäure auf Basis des Iminothioindoxyl Photoschalters und einem daran gekoppelten Schwingungsenergiesensor, wurde charakterisiert und die primäre Photoreaktion untersucht. Es konnte gezeigt werden, dass der angeregte Zustand des Modellsystems kurzlebig ist und unter Abgabe von großen Mengen an Schwingungsenergie zerfällt, unabhängig von der Anregungswellenlänge und dem verwendeten Lösungsmittel. Somit zeigt das entwickelte System vorteilhafte Eigenschaften für Schwingungsenergietransferstudien.
Insgesamt konnten somit die Mechanismen der Photoisomerisierungsreaktionen in knotenlosen Phytochromen und indigoiden Photoschaltern aufgeklärt und daraus die Relevanz der Umgebung für derartige Reaktionen herausgearbeitet werden.
Auszubildende sollen durch die Berufsausbildung u.a. die Kompetenz erlangen, berufliche Probleme zu lösen. Abschlussprüfungen dienen der Kompetenzerfassung, schriftlich-kaufmännische Prüfungsaufgaben bilden allerdings noch unzureichend Problemsituationen ab, deren Lösung Problemlösekompetenz erfordert. An der Erstellung von Prüfungsaufgaben sind auch Lehrkräfte kaufmännisch-beruflicher Schulen beteiligt. In der Arbeit wird untersucht, wie sie in der ersten und zweiten Phase der Lehrer*innenbildung auf das Erstellen problemhaltiger Aufgaben zu summativ-diagnostischen Zwecken vorbereitet werden. Hierfür werden Dokumentenanalysen zu beiden Phasen der Lehrer*innenbildung durchgeführt. Die Ergebnisse werden mittels einer Fragebogenstudie mit Studiengangsleiter*innen sowie Interviews mit Fachleiter*innen der Studienseminare gesichert. Um die Wahrnehmung angehender Lehrkräfte zu erfahren, werden Interviews mit Masterstudierenden der Wirtschaftspädagogik sowie Lehrkräfte im Vorbereitungsdienst (LiV) an kaufmännisch-beruflichen Schulen durchgeführt.
Durch die Vorstudien gelingt es, Optimierungsbedarfe in der Ausbildung von Lehrkräften kaufmännisch-beruflicher Schulen festzuhalten. Davon ausgehend wird ein Trainingskonzept begründet ausgewählt. Die Evaluation dessen erfolgt mittels einer quasi-experimentellen Studie mit Masterstudierende und LiV. Zur qualitativen Evaluation werden Interviews mit Teilnehmenden der Interventionsgruppe durchgeführt. Die Ergebnisse zeigen, dass die Teilnehmenden das Training als Intervention überwiegend positiv wahrnehmen und dieser, zumindest mit Blick auf das Erstellen von problemhaltigen Aufgaben, zu einem Lernzuwachs führt. Durch die bedarfsorientierte Intervention und dessen Evaluationsergebnisse wird ein Konzept vorgeschlagen, welches eine Lösung zur Deckung bestehender Optimierungsbedarfe bietet. Die Ergebnisse der Arbeit haben das Potential, langfristig einen Beitrag zur Verbesserung der Lehrer*innenbildung zu leisten und somit u.a. Assessmentaufgaben valider zu gestalten.
In this dissertation, different aspects of turbulent transport and thermally driven flows over complex terrain are investigated. Two publications concentrate on the vertical heat and moisture exchange in the convective boundary layer over mountainous terrain. To study this, Large-Eddy Simulation (LES) is used. Both turbulent and advective transport mechanisms are evaluated over the simple orography of a quasi-two-dimensional, periodic valley with prescribed surface fluxes. Here, terrain elevation varies along only one of the horizontal coordinate axes. Even a relatively shallow orography, possibly unresolved in existing numerical weather prediction models, modifies the domain-averaged moisture and temperature profiles. For the analysis, the flow is decomposed into a local turbulent part, a local mean circulation, and a large-scale part. An analysis of the turbulent kinetic energy and turbulent heat and moisture flux budgets shows that the thermal circulation significantly contributes to the vertical transport. It is found that thermal upslope winds are important for the moisture transport from the valley to the mountain tops. In total, moisture export out of the valley is mostly accomplished by the mean circulation. On the temperature distribution, which is horizontally relatively homogeneous, the thermal circulation has a weaker impact. If an upper-level wind is present, it interacts with the thermal circulation. This weakens the vertical transport of moisture and thus reduces its export out of the valley. The heat transport is less affected by the upper-level wind because of its weaker dependence on the thermal circulation. These findings were corroborated in a more realistic experiment simulating the full diurnal cycle using radiation forcing and an interactive land surface model.
Based on these results, coherent turbulent structures in the convective boundary layer over non-flat terrain are studied in further detail. A conditional sampling method based on the concentration of a decaying passive tracer is implemented in order to identify the boundary-layer plumes objectively. Conditional sampling allows to quantify the contribution of plume structures to the vertical transport of heat and moisture. In case of the idealized valley, vertical transport by coherent structures is the dominant contribution to the turbulent components of both heat and moisture flux. It is comparable in magnitude to the advective transport by the mean slope-wind circulation, although it is more important for heat than for moisture transport. A set of less idealized simulations considers the flow over three-dimensional terrain. In this case, conditional sampling is carried out by using a simple domain-decomposition approach. We demonstrate that thermal updrafts are generally more frequent on hill tops than over the surroundings, but they are less persistent on the windward sides when large-scale winds are present in the free atmosphere.
The tools for flow decomposition and budget analysis are also applied in another idealized case with a quasi-two-dimensional valley featuring the stable boundary layer. Here, the formation of a low stratus cloud is investigated. The main driver for the cloud formation is radiative cooling due to outgoing longwave radiation. Despite a purely horizontal flow, the advection terms in the prognostic equations for heat and moisture produce vertical mixing across the upper cloud edge leading to a loss of cloud water content. However, this behavior is not due to any kind of thermally-driven circulation. Instead, this spurious mixing is caused by the diffusive error of the advection scheme in regions where the sloping surfaces of the terrain-following vertical coordinate intersect the cloud top. It is shown that the intensity of the (spurious) numerical diffusion strongly depends on the horizontal resolution, the order of advection, and the choice of the scalar advection scheme. A LES with 4 m horizontal resolution serves as a reference. For horizontal resolutions of a few hundred meters, carried out with a model setup as it is used in Numerical Weather Prediction, a strong reduction of the simulated liquid-water path is observed. In order to keep the (spurious) numerical diffusion at coarser resolutions small, at least a fifth-order advection scheme should be used. In the present case, a WENO scalar advection scheme turns out to increase the numerical diffusion along a sharp cloud edge compared to an upwind scheme. Furthermore, the choice of the vertical coordinate has a strong impact on the simulated liquid-water path over orography. With a modified definition of the terrain-following sigma coordinate, it is possible to produce cloud water where the classical sigma coordinate does not allow any cloud formation.
Eine überlebenswichtige Eigenschaft von Mensch und Tier ist es, sich bei Gefahr durch eine Schreckreaktion in Sicherheit zu bringen. Doch woran erkennt ein Organismus, in welcher Situation es „sinnvoll“ wäre, sich zu erschrecken und welche Eigenschaften sensorischer Stimuli tragen zu dem Gefahreneindruck bei? Bei plötzlich eintretenden, lauten auditorischen Reizen kann es zur Auslösung der akustischen Schreckreaktion kommen. Dies führt bei Menschen, aber auch bei kleineren Säugetieren zu einer reflexartigen Kontraktion der Nacken-, Gesichts- und Skelettmuskulatur. Die Erforschung der akustisch evozierten Schreckreaktion (ASR) dient dem besseren Verständnis der neurobiologischen Grundlagen sensorischer Verarbeitung. Modulationen der ASR mithilfe von Präpulsen (Präpulsinhibition) ermöglichen Einblicke in die Funktion der Kochlea, des Hörnervs, der Hirnstammstrukturen und anderer beteiligter Gehirnregionen.
In dieser Arbeit wurden kurzzeitige Änderungen von Frequenz oder Intensität des akustischen Hintergrundes als neuartige Präpulse untersucht. Die Bedeutung verschiedener Reizparameter dieser Präpulse wurde in der vorliegenden Arbeit zum ersten Mal systematisch erforscht. Um zu prüfen, welche Präpulsstimulationen eine Inhibition der ASR auslösen können, wurde eine Reihe von Parametern umfassend getestet. In einem weiteren Schritt wurde analysiert, ob es mithilfe von gezielten Änderungen von Frequenz oder Intensität möglich sein könnte, Unterscheidungsschwellen, oder gar Hörschwellen von Versuchstieren zu bestimmen.
Die Experimente zur Modulation der ASR wurden mit weiblichen Sprague Dawley-Ratten durchgeführt. Dabei wurde eine Vielzahl von Verhaltensparadigmen untersucht. Dazu zählten Präpulse mit unterschiedlichem Frequenzgehalt und variabler Dauer. Zusätzlich wurden neuartige Paradigmen etabliert, um die Fähigkeit zur Frequenz- und Intensitätsdiskriminierung zu untersuchen. Hierbei wurde der Frequenzgehalt oder die Intensität einer kontinuierlichen Hintergrundstimulation verändert, um eine Präpulswirkung zu erzeugen. Um die Möglichkeiten der Bestimmung von Hörschwellen mittels der Präpulsinhibition (PPI) zu ergründen, wurde die Intensität von Präpulsen systematisch verändert. Die so generierten Schwellenwerte wurden durch die Messung früher akustisch evozierter Hirnstammpotenziale verifiziert. Schließlich sollten, unter Zuhilfenahme der Signaldetektionstheorie, aus den erhobenen Daten diverse Schwellen bestimmt werden: Für die Intensitätsänderungen der Präpulse in Stille wurden Hörschwellen bestimmt, während bei Änderungen der Frequenz und Intensität Unterscheidungsschwellen bestimmt werden sollten.
Mit steigender Größe eines Frequenzsprungs in einer kontinuierlichen Hintergrundstimulation war eine stärkere Inhibition der ASR feststellbar; ein Effekt, der stark von der Hintergrundfrequenz abhängig war. Bei einer Stimulation mit 8 kHz konnten signifikant höhere Inhibitionswerte erzielt werden als mit 16 kHz. Bei der Untersuchung des Zeitablaufs der Stimulation ergab sich, dass eine abgesetzte Stimulation mit einer Abweichung von 80 ms Dauer bis 50 ms vor dem Schreckreiz für die höchsten Inhibitionen sorgte.
Die durch eine Intensitätsänderung einer kontinuierlichen Hintergrundstimulation ausgelöste PPI hing primär von der Größe und Richtung des Intensitätssprungs ab. Mit zunehmender Sprunggröße stiegen die Inhibitionswerte an. Eine Erhöhung der Hintergrundintensität um 10 dB hatte einen signifikanten Einfluss auf die Inhibitionswerte. Auch hier zeigte sich eine höhere Sensitivität in Form von höheren Inhibitionen für Stimuli mit einer Hintergrundfrequenz von 8 kHz als für alle anderen getesteten Hintergrundfrequenzen.
Die Bestimmung von Hörschwellen mittels intensitätsabhängiger PPI wies im Vergleich mit den elektrophysiologisch bestimmten Hörschwellen ein heterogenes Bild mit starken individuellen Schwankungen auf: Bei etwa der Hälfte der Tiere waren die Hörschwellen beider Messungen sehr vergleichbar, bei den übrigen Tieren konnten mittels PPI für eine oder mehrere Frequenzen keine aussagekräftigen Hörschwellen erzielt werden. Die elektrophysiologisch bestimmten Hörschwellen waren am sensitivsten, während PPI-Stimulationen signifikant höher waren. Außerdem bewirkten PPI-Stimulationen mit Reintönen signifikant sensitivere Hörschwellen im Vergleich zu einem Schmalbandrauschen.
Für die Bestimmung der Unterscheidungsschwellen von Frequenzänderungen konnte beobachtet werden, dass die Tiere auf Frequenzsprünge hin zu niedrigeren Frequenzen signifikant sensibler reagierten, als hin zu Aufwärtssprüngen (-1.2 bzw. +4.5%). Bei der Intensitätsunterscheidung hingegen konnte beobachtet werden, dass die Tiere signifikant sensitiver auf Intensitätserhöhungen als auf Erniedrigungen reagierten (-5.9 bzw. +2.7 dB).
Zusammenfassend konnte in der vorliegenden Arbeit festgestellt werden, dass die PPI zur Bestimmung von absoluten Hörschwellen starken Schwankungen unterlag, sodass diese Methode nur eingeschränkt als Alternative zu operanter Konditionierung oder elektrophysiologischen Ableitungen in Frage kommt. Des Weiteren erzeugten bereits kleine Änderungen des Frequenzgehalts oder der Intensität einer Hintergrundstimulation eine robuste PPI. Somit können reflexbasierte Messungen mit überschwelligen Stimuli genutzt werden, um Unterscheidungsschwellen in Versuchstieren zu bestimmen. Diese Herangehensweise stellt also eine vielversprechende Methode dar, um Hörstörungen zu untersuchen, die nach einem Schalltrauma auftreten können. In einem nächsten Schritt könnte sie zur weiteren Charakterisierung von verstecktem Hörverlust beitragen.
Seed dispersal is a key ecosystem function for plant regeneration, as it involves the movement of seeds away from the parental plants to particular habitats where they can germinate and transition to seedlings and ultimately adult plants. Seed dispersal is shaped by a diversity of abiotic and biotic factors, particularly by associations between plants and climate and between plants and other species. Due to the ongoing loss of biodiversity and changing global conditions, such interactions are prone to change and pose a severe threat to plant regeneration. One way to address this challenge is to study associations between plant traits and abiotic and biotic factors to understand the potential impacts of global change on plant regeneration. Plant communities have long been analyzed through the lens of vegetative traits, mainly ignoring how other traits interact and respond to the environment. For instance, while associations between vegetative traits (e.g., specific leaf area, leaf nitrogen content) and climate are well studied, there are few case studies of reproductive traits in relation to trait-environment associations in the context of global change.
Thus, the overarching aim of this dissertation is to explore how trait-environment associations, with a special focus on reproductive traits, can improve our understanding of the effect that global change may have on seed dispersal, and ultimately on plant regeneration. To this end, my research focuses on studying associations between plant traits and abiotic and biotic factors along an elevational gradient in both forests and deforested areas of tropical mountains. This dissertation addresses three principal research objectives.
First, I investigate the extent to which reproductive (seed and fruit traits) and vegetative traits (leaf traits) are related to abiotic and biotic factors for communities of fleshy-fruited plants in the Ecuadorian Andes. I used multivariate analyses to test associations between four (a)biotic factors and seven reproductive traits and five vegetative traits measured on 18 and 33 fleshy fruited plant species respectively. My analyses demonstrate that climate and soil conditions are strongly associated with the distribution of both reproductive and vegetative traits in tropical tree communities. The production of “costly” vs. “cheap” seeds, fruits and leaves, i.e., the production of few rewarding fruits and acquisitive leaves versus the production of many less-rewarding fruits and conservative leaves, is primarily limited by temperature, whereas the size of plant organs is more related to variation in precipitation and soil conditions. My findings suggest that associations between reproductive and vegetative traits and the abiotic environment follow similar principles in tropical tree communities.
Second, I assess how climate and microhabitat conditions affect the prevalence of endozoochorous plant species in the seed rain of tropical montane forests in southern Ecuador. I analyzed seed rain data for an entire year from 162 traps located across an elevational gradient spanning of 2000 m. I documented the microhabitat conditions (leaf area index and soil moisture next to each seed trap) at small spatial scale as well as the climatic conditions (mean annual temperature and rainfall in each plot) at large spatial scale. After a one-year of sampling, I counted 331,838 seeds of 323 species/morphospecies. My analyses demonstrate that the prevalence of endozoochorous plant species in the seed rain increases with temperature across elevations and with leaf area index within elevations. These results show that the prevalence of endozoochory is shaped by the interplay of both abiotic and biotic factors at large and small spatial scales.
Third, I examine the potential of seed rain to restore deforested tropical areas along an elevational gradient in southern Ecuador. For this chapter, I collected seed rain using 324 seed traps installed in 18 1-ha plots in forests (nine forest plots) and in pastures (nine deforested plots) along an elevational gradient of 2000 m. After a sampling period of three months, I collected a total of 123,039 seeds of 255 species/morphospecies from both forests and pastures along the elevational gradient. I did not find a consistent decrease in the amount and richness of seed rain between forests and pastures, but I detected a systematic change in the type of dispersed seeds, as heavier seeds and a higher proportion of endozoochorous species were found in forests compared to pastures at all elevations. This finding suggests that deforestation acts as a strong filter selecting seed traits that are vital for plant regeneration.
Understanding the role that trait-environment associations play in how plant communities regenerate today could serve as a basis for predicting changes in regeneration processes of plant communities under changing global conditions in the near future. Here, I show how informative the measurement of reproductive traits and trait environment associations are in facilitating the conservation of forest habitats and the restoration of deforested areas in the context of global change.
Der Einfluss von Trauma-aktiviertem platelet-rich fibrin auf mesenchymale Stammzellen in vitro
(2023)
Ziel dieser Arbeit war es, die Wechselwirkung zwischen MSC und PRF von Traumapatienten herauszuarbeiten und zu überprüfen, ob ein therapeutischer Einsatz der Kombination von MSC und Trauma-aktiviertem PRF in Frakturen sinnvoll erscheint.
Hierfür wurden MSC mit PRF über einen Zeitraum von 24 oder 120 Stunden co-inkubiert und die metabolische Aktivität, definierte Faktoren im Überstand (IL-6, CXCL10, VEGF und IDO-2) und die Genexpression ausgewählter Faktoren (MAPK8, MAPK14, IL-6, CXCL10,IDO-1, TNFAIP6, VEGFA, RUNX2 und COL1A) in bis zu drei Messzeitpunkten überprüft. Die Versuche erfolgten vergleichend mit Traumapatienten und gesunden Probanden.
Es konnte gezeigt werden, dass Trauma-aktiviertes PRF verglichen mit PRF von gesunden Probanden die metabolische Aktivität von MSC nach 120 Stunden erhöhen kann. Zudem stellten sich erhöhte Werte des inflammatorischen Faktors IL-6 im Überstand bei Traumapatienten nach 24 und 72 Stunden dar, welche bis zum dritten Messzeitpunkt nach 120 Stunden wieder abfielen. Ein ähnlicher Verlauf zeigte sich bei den Messwerten von VEGFA, einem Faktor, welcher eine große Rolle bei der Angiogenese spielt.
Über alle Messzeitpunkte hinweg konnten niedrigere Werte in der Genexpression von COL1A und RUNX2 im Vergleich zu den Kontrollmessungen erfasst werden.
Die Ergebnisse zeigen, dass im Vergleich zu PRF gesunder Probanden Trauma-aktiviertes PRF die Möglichkeit besitzt, die Proliferation von MSC zu stimulieren. Außerdem wurde beobachtet, dass Trauma-aktiviertes PRF ein inflammatorisches und angiogenetisches Potenzial nach 72 Stunden besitzt, welches nach 120 Stunden allerdings wieder abfällt. Möglicherweise kann durch den Einfluss von MSC der Inflammation entgegengewirkt werden. Ein signifikantes osteogenes Potenzial des Trauma-aktivierten PRFs konnte zu keinem Messzeitpunkt nachgewiesen werden.
Inwiefern der Einsatz von MSC in Kombination mit Trauma-aktiviertem PRF die Frakturheilung verbessern kann, konnte in der vorliegenden Studie nicht eindeutig geklärt werden. Es kann allerdings davon ausgegangen werden, dass die Implantation von Trauma-aktiviertem PRF und MSC in den Defekt erst nach Verstreichen einer bestimmten Zeitperiode nach dem Trauma durchgeführt werden sollte. Die Gründe für diese Annahme sind das erhöhte proliferative und verringerte inflammatorische Potenzial im Verlauf. Eine Ursache für das Fehlen der osteogenen Differenzierung der MSC kann der kurze Messzeitraum sein.
Weitere Studien sollten folgen, um das Potenzial der Kombination von MSC und Trauma-aktiviertem PRF als therapeutisches Verfahren zu überprüfen.
Die Krebsstammzellforschung gelangte in den letzten Jahren vermehrt in den Fokus der Tumorforschung. Im Tumor bilden Krebsstammzellen eine kleine Population an Zellen mit Stammzelleigenschaften, wodurch sie eine große Rolle bei der Entstehung von Rezidiven, Metastasen, sowie der Entwicklung von Chemotherapieresistenzen spielen. Um eine gezielte Bekämpfung von Krebsstammzellen zu ermöglichen, müssen diese im
Tumor zunächst zuverlässig durch Krebsstammzellmarker detektiert werden können.
Gerade bei soliden pädiatrischen Tumoren, wie dem Hepatoblastom, ergeben sich hierbei Schwierigkeiten dadurch, dass im sehr heterogenen Tumorgewebe viele Zellen aufgrund der embryonalen Natur des Tumors bereits Stammzellmarker exprimieren, ohne dass es sich bei diesen Zellen um Krebsstammzellen handelt. Das Hepatoblastom ist mit 2/3 der Lebertumore des Kindes die häufigste maligne Leberneoplasie im Kindesalter.
Auch wenn es bereits Hinweise auf das Vorliegen von Krebsstammzellen im Hepatoblastom gibt, so konnten diese bisher nicht genauer durch fest definierte Krebsstammzellmarker identifiziert werden.
Um dies zu erreichen, wurden in dieser Arbeit die beiden Hepatoblastomzelllinien HuH6 und HepG2 auf die Expression der bereits bekannten Krebsstammzellmarker CD90, CD34 und CXCR4 überprüft. Zusätzlich wurde auf eine Bindung des „oval cell“ Antikörpers, OV-6, untersucht. Mittels Durchflusszytometrie-Analysen konnte eine Zellpopulation gefunden werden, welche die Oberflächenmarker CD34 und CD90 koexprimiert und gleichzeitig den OV-6 Antikörper bindet. Im nächsten Schritt wurden die Zellen auf einige Krebsstammzelleigenschaften überprüft. Zur weiteren Untersuchung dieser Subpopulation erfolgte mittels MACS (magnetic activated cell sorting) eine Anreicherung der CD90 exprimierenden Zellen. Diese wurde mittels qPCR auf die Expression der Pluripotenzmarker Oct4 und Nanog, sowie der Zytidindeaminase AID untersucht. Es konnte eine signifikant erhöhte Expression von AID und Oct4 detektiert werden. Im Gegensatz hierzu zeigte sich die Expression von EpCAM, c-myc und Albumin, welche als Kontrollgene untersucht wurden, nicht signifikant erhöht. Um auf das Metastasierungspotential der CD90 angereicherten Zellen rückzuschließen, wurde ein Migrationsassay mit angereicherten und depletierten Zellen durchgeführt. Hier wiesen die CD90 angereicherten Zellen, im Vergleich zu den depletierten Zellen eine erhöhte Migration auf. Im Tumorsphäroid-Assay war die HepG2 Zelllinie in der Lage Tumor-61 -sphäroide auszubilden. Nach der Passagierung zeigten diese eine erhöhte Expression der Krebsstammzellmarker CD90 und CD34, sowie der Pluripotenzmarker Oct4 und Nanog.
Zusammengefasst kann mit den Krebsstammzellmarkern CD90, CD34 und OV-6 eine Subpopulation im Hepatoblastom identifiziert werden, die nach unseren Analysen Krebsstammzelleigenschaften aufweisen. Mithilfe dieses Markersets können nun neue Therapieansätze auf ihre Effektivität, Krebsstammzellen gezielt zu eliminieren, getestet werden.
Brain development is a complex and highly organized process that relies on the coordinated interaction between neurons and vessels. These cell systems form a neurovascular link that involves the exchange of oxygen, ions, and other physiological components necessary for proper neuronal and vascular function. This physiologically coupled process is executed through analogous structural and molecular signaling mechanisms shared by both cell types. At the neurovascular interface, the cellular crosstalk via these shared signaling mechanisms allows for the synchronized expansion and integration of neurons and vessels into complex cellular networks. This study investigated the role of VEGFR2, a receptor for vascular endothelial growth factor (VEGF), during postnatal neuronal development in the mouse hippocampus. Prior studies have revealed physiological roles of VEGF, a pro-angiogenic morphogen, in nervous system development. However, it was unclear if VEGF signaling had a direct effect on neuronal physiology and function through neuronal-expressing receptors. In this investigative work, we identified a previously unknown function of VEGFR2, whereby VEGF-induced signaling coordinates the development and circuitry integration of CA3 pyramidal neurons in the early postnatal mouse hippocampus. Mechanistically, we found that VEGFR2 signaling requires receptor endocytosis, a process mediated by ephrinB2. We also found that VEGF-induced cooperative signaling between VEGFR2 and ephrinB2 is functionally required for the dendritic arborization and spine maturation of developing CA3 neurons during the first few postnatal weeks. Moreover, in a collaborative effort with the research group of Carmen Ruiz de Almodovar, formerly at the University of Heidelberg, we simultaneously studied VEGF-induced VEGFR2 signaling in CA3 axonal development. Together, we aimed to gain a comprehensive understanding of the complex interplay between VEGF and VEGFR2 signaling during the early postnatal development of CA3 neurons. Ruiz de Almodovar’s research group found that, unlike the branch and spine development of CA3 dendrites, VEGF-VEGFR2 signaling promotes axonal development through mechanisms that are independent of ephrinB2 function. Our findings on CA3 dendritic development are reported in the published manuscript, Harde et al. (2019), and the complementary work on CA3 axonal development from Ruiz de Almodovar's group is presented in the co-published manuscript, Luck et al. (2019). Although the totality of Ruiz de Almodovar's group's work on CA3 axons is not fully discussed here, it is referenced where noted to provide biological context for our findings on CA3 dendritic development.
VEGFR2 signaling within neurovascular niches is known to play a role in the neurogenesis of neural progenitor cells during embryonic development and within the adult brain. However, the precise localization of neuronal VEGFR2 expression and functional role within the nervous system during postnatal brain development was unknown. To investigate this, we used immunohistochemistry to identify the spatial expression of VEGFR2 within the mouse hippocampus during the first few weeks after birth. Our results showed that VEGFR2 was predominantly expressed within the hippocampal vasculature, consistent with prior studies. However, we also observed localized VEGFR2 expression in pyramidal cell neurons of the hippocampal CA3 region by postnatal day 10 (P10). This spatially restricted postnatal expression of VEGFR2 in CA3 neurons suggested a potential role in the development of these neurons during this developmental stage.
The first two weeks after birth in the mouse hippocampus is a critical period for the development of neuronal circuits, as neurons undergo extensive dendritic arborization and spine formation. To explore the role of VEGFR2 in the postnatal nervous system, we used a Nes-cre VEGFR2lox/- mouse line to target the deletion of VEGFR2 expression within the nervous system while preserving normal receptor expression in all other cell types. We also generated corresponding control mice that were negative for Nes-cre. By breeding these mice with Thy1-GFP reporter mice, we could analyze the functional consequences of VEGFR2 by assessing the morphologies of CA3 dendritic trees and spine density and maturation at P10 and P15, respectively. Our analysis showed that CA3 neurons in Nes-cre VEGFR2lox/- mice had less complex dendritic arbors compared to control mice. There were significant reductions in total length and branch points, particularly in areas located 100-250 μm from the cell soma within the stratum radiatum layer. Additionally, Nes-cre VEGFR2lox/- mice exhibited a significant decrease in spine density accompanied by an increased proportion of immature spines. These findings suggest that VEGFR2 plays a crucial role in the proper development of CA3 dendrites and spines during the early postnatal weeks.
In view of a growing world population and the finite nature of fossil resources, the development of eco-friendly production processes is essential for the transition towards a sustainable industry. Methanol, which can be produced both petrochemically and from renewable resources, offers itself as bridging technology and attractive alternative raw material for biotechnological processes. This work describes developments for the progress of the well-studied methylotrophic α proteobacterium Methylorubrum extorquens AM1 towards an efficient methylotrophic cell factory. Although many homologous and heterologous production routes have already been described and realized for M. extorquens in a laboratory scale, no industrial process has yet been realized. Three major reasons can be identified for this: (1) A limited choice of tools for genetic modifications, (2) a lack of understanding of carbon fluxes and side reactions occurring in modified strains, such as product reimports, and (3) the lack of tailored production strains for profitable target products and optimized bioprocessing protocols. The aim of the present work was to achieve developments for the mentioned areas. As a model application, the high-level production of chiral dicarboxylic acids from the substrate methanol was chosen. Enantiomerically pure chiral compounds are of great interest, e.g., as building blocks for chiral drugs. The ethylmalonyl CoA metabolic pathway (EMCP) which is part of the primary metabolism of M. extorquens, harbors unique chiral CoA-ester intermediates. Their acid derivatives can be released by cleavage of the CoA-moiety using heterologous enzymes. The dicarboxylic acids 2 methylsuccinic acid and mesaconic acid were produced in a previous study by introducing the heterologous thioesterase YciA into M. extorquens. In the said study, a combined product titer of 0.65 g/L was obtained in shake flask experiments. These results serve as the basis for the developments in the present work.
First, the previously described reuptake of products was thoroughly investigated and dctA2, a gene encoding for an acid transporter, was identified as target for reducing the product reuptake. In addition, reuptake of mesaconic acid was prevented by converting it to (S)-citramalic acid, a product not metabolizable by M. extorquens, by the introduction of a heterologous mesaconase. Together with 2-methylsuccinic acid, for which a high enantiomeric excess of (S)-2-methylsuccinic acid was determined, a second chiral molecule was thus added to the product spectrum. For the release of dicarboxylic acid products, YciA, a broad-range thioesterase that accepts a variety of CoA-esters with different chain lengths as substrates, was chosen. The enzyme should theoretically be able to hydrolyze all CoA-esters of interest present in the EMCP. However, in culture supernatants of M. extorquens strains that were overexpressing the corresponding yciA gene, only mesaconic acid and 2 methylsuccinic acid could be detected. To expand the substrate spectrum of YciA thioesterase with respect to other EMCP intermediates, semi-rational enzyme engineering was attempted. Screening of the corresponding strains carrying the respective YciA variants did not result in strains capable of producing new dicarboxylic acid products. However, the experiments revealed an amino acid position that strongly affected the production of mesaconic acid and 2-methylsuccinic acid in vivo. By substituting the according amino acid in YciA, the maximum titers of mesaconic acid and 2-methylsuccinic acid could be increased substantially. Application of an improved thioesterase variant in a second E. coli-based process confirmed the enhanced activity of the enzyme. The desired extension of the product spectrum by another chiral molecule (2-hydroxy-3-methylsuccinic acid, presumably the (2S,3R)-form) was finally achieved by using an alternative thioesterase. Tailored fermentation strategies were developed for the high-level production of the above-mentioned products.
As second part of the work, two novel genetic tools for M. extorquens were developed and characterized. The pBBR1-derived plasmid pMis1_1B was shown to be stably maintained in M. extorquens cells. In addition, its suitability for co-transformations with other plasmids was demonstrated. The second tool, the cumate-inducible promoter Ps6, is tailored for expression of pathways with toxic products, as the transcription of genes controlled by Ps6 is strongly repressed in the absence of an inducer.
Overall, the present work demonstrates the enormous potential of using M. extorquens as a methylotrophic cell factory. In the applications shown, the biotechnological production of high-priced chiral molecules is combined with the use of an attractive alternative substrate. In addition, new achievements and approaches are presented to facilitate the development of future M. extorquens production strains.
The single-source shortest-path problem is a fundamental problem in computer science. We consider a generalization of the shortest-path problem, the $k$-shortest path problem. Let $G$ be a directed edge-weighted graph with $n$ nodes and $m$ edges and $s,t$ be two fixed nodes. The goal is to compute $k$ paths $P_1,\dots,P_k$ between two fixed nodes $s$ and $t$ in non-decreasing order of their length such that all other paths between $s$ and $t$ are at least as long as the $k$\nth path $P_k$. We focus on the version of the $k$-shortest path problem where the paths are not allowed to visit nodes multiple times, sometime referred to as $k$-shortest simple path problem.
The probably best known $k$-shortest path algorithm is Yen's algorithm. It has a worst-case time complexity of O(kn\cdot scp(n,m)), where scp(n,m) is the complexity of the single-source shortest-path algorithm used as a subroutine. In case of Dijkstra's algorithm scp(n,m) is O(m + n\log n). One of the more recent improvements of Yen's algorithm is by Feng.
Even though Feng's algorithm is much faster in practice, it has the same worst-case complexity as Yen's algorithm.
The main results presented in this thesis are upper bounds on the average-case of Yen's and Feng's algorithm, as well as practical improvements and a parallel implementation of Yen's and Feng's algorithms including these improvements. The implementation is publicly available under GPLv3 open source license.
We show in our analysis that Yen's algorithm has an average-case complexity of O(k \log(n)\cdot scp(n,m)) on G(n,p) graphs with at least logarithmic average-degree and random edge weights following a distribution with certain properties.
On G(n,p) graphs with constant to logarithmic average-degree and uniform random edge-weights over $[0;1]$, we show an average-case complexity of O(k\cdot\frac{\log^2 n}{np}\cdot scp(n,m)). Feng's algorithm has an even better average-case complexity of O(k\cdot scp(n,m)) on unweighted G(n,p) graphs with logarithmic average-degree and for constant values of $k$. We further provide evidence that the same holds true for G(n,p) graphs with uniform random edge-weights over $[0;1]$.
On the practical side, we suggest new heuristics to prune even more single-source shortest-path computations than Feng's algorithm and evaluate all presented algorithms on G(n,p) and Grid graphs with up to 256 million nodes. We demonstrate speedups by a factor of up to 40 compared to Feng's algorithm.
Finally we discuss two ways to parallelize the suggested algorithms and evaluate them on grid graphs showing speedups by a factor of 2 using 4 threads and by a factor of up to 8 using 16 threads, respectively.
Artificial intelligence in heavy-ion collisions : bridging the gap between theory and experiments
(2023)
Artificial Intelligence (AI) methods are employed to study heavy-ion collisions at intermediate collision energies, where high baryon density and moderate temperature QCD matter is produced. The experimental measurements of various conventional observables such as collective flow, particle number fluctuations, etc. are usually compared with expensive model calculations to infer the physics governing the evolution of the matter produced in the collisions. Various experimental effects and processing algorithms can greatly affect the sensitivity of these observables. AI methods are used to bridge this gap between theory and experiments of heavy-ion collisions. The problems with conventional methods of analyzing experimental data are illustrated in a comparative study of the Glauber MC model and the UrQMD transport model. It is found that the centrality determination and the estimated fluctuations of the number of participant nucleons suffer from strong model dependencies for Au-Au collisions at 1.23 AGeV. This can bias the results of the experimental analysis if the number of participant nucleons used is not consistent throughout the analysis and in the final model-to-data comparison. The measurable consequences of this model dependence of the number of participant nucleons are also discussed. In this context, PointNet-based AI models are developed to accurately reconstruct the impact parameter or the number of participant nucleons in a collision event from the hits and/or reconstructed track of particles in 10 AGeV Au-Au collisions at the CBM experiment. In the last part of the thesis, different AI methods to study the equation of state (EoS) at high baryon densities are discussed. First, a Bayesian inference is performed to constrain the density dependence of the EoS from the available experimental measurements of elliptical flow and mean transverse kinetic energy of mid rapidity protons in intermediate energy collisions. The UrQMD model was augmented to include arbitrary potentials (or equivalently the EoSs) in the QMD part to provide a consistent treatment of the EoS throughout the evolution of the system. The experimental data constrain the posterior constructed for the EoS for densities up to four times saturation density. However, beyond three times saturation density, the shape of the posterior depends on the choice of observables used. There is a tension in the measurements at a collision energy of about 4 GeV. This could indicate large uncertainties in the measurements, or alternatively the inability of the underlying model to describe the observables with a given input EoS. Tighter constraints and fully conclusive statements on the EoS require accurate, high statistics data in the whole beam energy range of 2-10 GeV, which will hopefully be provided by the beam energy scan programme of STAR-FXT at RHIC, the upcoming CBM experiment at FAIR, and future experiments at HIAF and NICA. Finally, it is shown that the PointNet-based models can also be used to identify the equation of state in the CBM experiment. Despite the uncertainties due to limited detector acceptance and biases in the reconstruction algorithms, the PointNet-based models are able to learn the features that can accurately identify the underlying physics of the collision. The PointNet-based models are an ideal AI tool to study heavy-ion collisions, not only to identify the geometric event features, such as the impact parameter or the number of participant nucleons, but also to extract abstract physical features, such as the EoS, directly from the detector outputs.
The EMT-transcription factor ZEB1 has been intensively studied in solid cancers, where it is expressed at the invasive front and in cancer-associated fibroblasts (CAFs). In tumour cells, ZEB1 has been involved in multiple steps of cancer progression including stemness, metastasis and therapy resistance, yet its role in the tumour-microenvironment is largely unknown. Here, the role of Zeb1 in CAFs was investigated using mouse models reflecting different tumour stages in immunocompetent fibroblast specific Zeb1 KO mice. Fibroblast-specific depletion of Zeb1 accelerated tumour growth in the inflammation driven AOM/DSS tumour initiation model, reduced tumour growth and invasion in the sporadic AOM/P53 model and reduced liver metastasis in a progressed orthotopic transplantation model. Immunohistochemical and single cell RNA-sequencing analysis showed that Zeb1 ablation resulted in attenuated expression of the myofibroblast marker aSMA and reduced ECM deposition, indicating a shift among fibroblast subpopulations. Modulation of CAFs was furthermore associated with increased inflammatory signaling in fibroblasts resulting in immune infiltration into primary tumours and exaggerated inflammatory signaling in T cells, B cells and macrophages. These changes in the tumour microenvironment were associated with increased efficacy of immune checkpoint inhibition therapy. In summary, Zeb1 expression in CAFs was identified as a potential target to block immunosuppression and metastatic dissemination in colon cancer.
A synchrotron is a particular type of cyclic particle accelerator and the first accelerator concept to enable the construction of large-scale facilities [10], such as the largest particle accelerator in the world, the 27-kilometre-circumference Large Hadron Collider (LHC) by CERN near Geneva, Switzerland, the European Synchrotron Radiation Facility (ESRF) in Grenoble, France for the synchrotron radiation, the superconducting, heavy ion synchrotron SIS100 under construction for the FAIR facility at GSI, Darmstadt, Germany and so on. Unlike a cyclotron, which can accelerate particles starting at low kinetic energy, a synchrotron needs a pre-acceleration facility to accelerate particles to an appropriate initial value before synchrotron injection. A pre-acceleration can be realized by a chain of other accelerator structures like a linac, a microtron in case of electrons, for example, Proton and ion injectors Linac 4 and Linac 3 for the LHC, UNLAC as the injector for the SIS18 in GSI and in future the SIS18 as injector for the SIS100. The linac is a commonly used injector for the ion synchrotron and consists of some key components. The three main parts of a linac are: An ion source creating the particles, a buncher system or an RFQ followed by the main drift tube accelerator DTL. In order to meet the energy and the beam current requirement of a synchrotron injector linac, its cost is a remarkable percentage of the total facility costs.
However, the normal conducting linac operation at cryogenic temperatures can be a promising solution in improving the efficiency and reducing the costs of a linac. Synchrotron injectors operate at very low duty factor with beam pulse lengths in 1 micros to 100 micros range, as most of the time is needed to perform the synchrotron cycle. Superconducting linacs are not convenient, as they cannot efficiently operate at low duty factor and high beam currents.
The cryogenic operation of ion linacs is discussed and investigated at IAP in Frankfurt since around 2012 [1, 37]. The motivation was to develop very compact synchrotron injectors at reduced overall linac costs per MV of acceleration voltage. As the needed beam currents for new facilities are increasing as well, the new technology will also allow an efficient realization of higher injector linac energies, which is needed in that case. Operating normal conducting structures at cryogenic temperature exploits the significantly higher conductivity of copper at temperatures of liquid nitrogen and below. On the other hand, the anomalous skin effect reduces the gain in shunt impedance quite a bit[25, 31, 9]. Some intense studies and experiments were performed recently, which are encouraging with respect to increased field levels at linac operation temperatures between 30 K and 70 K [17, 24, 4, 23, 5, 8]. While these studies are motivated by applications in electron acceleration at GHz-frequencies, the aim of this paper is to find applications in the 100 to 700 MHz range, typical for proton and ion acceleration. At these frequencies, a higher impact in saving RF power is expected due to the larger skin depth, which is proportional to the frequency to the power of negative half with respect to the normal skin effect. On the other hand, it is assumed that the improvement in maximum surface field levels will be similar to what was demonstrated already for electron accelerator cavities. This should allow to find a good compromise between reduced RF power needs for achieving a given accelerator voltage and a reduced total linac length to save building costs.
A very important point is the temperature stability of the cavity surface during the RF pulse. This is of increasing importance the lower the operating temperature is chosen: the temperature dependence of the electric conductivity in copper gets rather strong below 80 K, as long as the RRR - value of the copper is adequate. It is very clear, that this technology is suited for low duty cycle operated cavities only - with RF pulse lengths below one millisecond. At longer pulses the cavity surface will be heated within the pulse to temperatures, where the conductivity advantage is reduced substantially. These conditions fit very well to synchrotron injectors or to pulsed beam power applications.
H – Mode structures of the IH – and of the CH – type are well-known to have rather small cavity diameters at a given operating frequency. Moreover, they can achieve effective acceleration voltage gains above 10 MV/m even at low beam energies, and already at room temperature operation[29]. With the new techniques of 3d – printing of stainless steel and copper components one can reduce cavity sizes even further – making the realization of complex cooling channels much easier.
Another topic are copper components in superconducting cavities – like power couplers. It is of great importance to know exactly the thermal losses at these surfaces, which can’t be cooled efficiently in an easy way.
Aktivierende Mutationen der Fms-like tyrosine kinase (FLT3) treten bei 25 % der Patienten mit akuter myeloischer Leukämie (AML) auf und begünstigen die unkontrollierte Proliferation maligner Blasten. Autophagie ist ein intrazellulärer Prozess, durch den zytoplasmatische Bestandteile lysosomal abgebaut werden und fungiert als intrazellulärer Homöostase-Mechanismus unter Stress-Bedingungen.
Ziel dieser Arbeit war es, herauszufinden, ob FLT3-ITD+-AML-Zellen vulnerabel gegenüber Autophagie-Hemmung sind.
Hierzu wurde zunächst untersucht, wie sich FLT3-ITD-Signaling und Autophagie unter basalen Wachstumsbedingungen gegenseitig beeinflussen. In einem genetischen Modell zeigte sich, dass FLT3-ITD-transformierte wachstumsfaktorunabhängige Zellen während ihrer fortgesetzten Proliferation vermehrt Autophagie betreiben. Lysosomale Autophagie-Inhibitoren zeigten jedoch unter diesen Bedingungen keine erhöhte Wirksamkeit gegenüber FLT3-ITD-positiven Zellen. Humane FLT3-ITD-positive AML-Zellen zeigten nach genetischer Deletion von ULK1 ebenfalls nur transiente und milde Proliferationsdefizite. Unter basalen Wachstumsbedingungen zeigte sich also keine erhöhte Vulnerabilität FLT3-ITD-exprimierender Zellen gegenüber Autophagie-Inhibition.
Daraufhin wurde die Bedeutung von Autophagie während pharmakologischer Hemmung von FLT3 untersucht. FLT3-Inhibition mittels AC220, einem FLT3-spezifischer Tyrosinkinase-Inhibitor, induzierte bzw. steigerte die autophagische Aktivität ähnlich stark wie eine direkte mTOR-Inhibition. Dies ließ sich im Zellmodell therapeutisch ausnutzen: eine Kombinationsbehandlung mit AC220 und einem lysosomalen Autophagie-Inhibitor zeigte eine synergistische antiproliferative Wirkung. Dies stellt möglicherweise einen neuen rationalen Kombinationsbehandlungsansatz für die Therapie FLT3-ITD-positiver AML-Patienten dar.
Hintergrund: Anämie gehört zu den häufigsten Erkrankungen weltweit und stellt daher ein zentrales globales Gesundheitsproblem dar. Etwa ein Drittel aller chirurgischen Patienten weisen präoperativ eine Anämie auf. Dies wird als unabhängiger Risikofaktor für eine erhöhte Morbidität und Mortalität sowie für das vermehrte Auftreten postoperativer Komplikationen angesehen. Vor diesem Hintergrund wurde von der Weltgesundheitsorganisation (World Health Organization, WHO) ein patientenzentriertes Behandlungskonzept namens Patient Blood Management (PBM) gefordert, um unter anderem Anämien frühzeitig zu diagnostizieren und einen rationalen Einsatz von Fremdblutprodukten zu fördern. Trotz der Tatsache, dass PBM vor etwa 10 Jahren eingeführt wurde, scheint Deutschland im internationalen Vergleich eine überdurchschnittlich hohe Menge an Erythrozytenkonzentrat-(EK)Einheiten pro Kopf zu transfundieren. Die Ursachen dafür sind bislang unklar und könnten möglicherweise durch eine erhöhte Anämie- Prävalenz bei chirurgischen Patienten und dem damit verbundenen erhöhten Bedarf an Transfusionen einhergehen.
Zielsetzung: Ziel dieser Arbeit ist die multizentrische Erfassung der präoperativen Anämie-Prävalenz innerhalb des Zeitraums 2007-2019 in Deutschland.
Methoden: In dieser retrospektiven, multizentrischen Beobachtungsstudie wurden alle Patienten jeden Alters, die im Monat März der Jahre 2007, 2012, 2015, 2017 und 2019 in acht teilnehmenden Krankenhäusern operiert wurden, erfasst. Patientencharakteristika und klinische Daten wurden aus den Krankenhausinformationssystemen der teilnehmenden Krankenhäuser entnommen. Primäres Ziel war die Prävalenz der Anämie bei Krankenhausaufnahme. Sekundäre Endpunkte waren der Zusammenhang zwischen Anämie und Anzahl der transfundierten EKs, Dauer des Krankenhausaufenthalts und Sterblichkeit im Krankenhaus.
Ergebnisse: Von insgesamt 30.763 Patienten konnten 23.836 Patienten aus acht Krankenhäusern in die Analyse eingeschlossen werden. Im untersuchten Zeitraum zeigte sich eine Reduktion der präoperativen Anämie-Prävalenz erwachsener Patienten von 37% auf 32,2%. Die Zahl, der mit Erythrozytenkonzentraten -5- transfundierten Patienten, ging signifikant von 16,5 % im Jahr 2007 auf 7,8 % im Jahr 2019 zurück, wobei Patienten mit präoperativer Anämie im Vergleich zu Patienten ohne Anämie sechsmal mehr EKs erhielten. Insgesamt verkürzte sich die Krankenhausverweildauer seit 2007 deutlich, zeigte jedoch eine signifikante Verlängerung bei Vorliegen einer präoperativen Anämie. Die Sterblichkeitsrate war über die Jahre hinweg konstant, dennoch signifikant höher bei anämischen Patienten. Eine multivariate Regressionsanalyse mit festen Effekten ergab, dass präoperative Anämie und EK-Transfusion Prädiktoren für die Sterblichkeitsrate waren.
Diskussion: Die Prävalenz der präoperativen Anämie lag in unserer Studienpopulation im Jahr 2019 bei 32,2 %, was der weltweiten Prävalenz entspricht. Das Implementieren von PBM-Strategien, um präoperative Anämien frühzeitig zu identifizieren und zu therapieren sowie Blutprodukte rational einzusetzen, nimmt daher weiterhin einen großen Stellenwert ein. Diese perioperativen Maßnahmen sind für alle chirurgischen Patienten von zentraler Bedeutung, da eine präoperative Anämie den Bedarf an EK-Transfusionen erhöhen, die Liegezeit verlängern und mit einer erhöhten Sterblichkeitsrate assoziiert sein kann.
Cyber Physical Systems (CPS) are growing more and more complex due to the availability of cheap hardware, sensors, actuators and communication links. A network of cooperating CPSs (CPN) additionally increases the complexity. This poses challenges as well as it offers chances: the increasing complexity makes it harder to design, operate, optimize and maintain such CPNs. However, on the other side an appropriate use of the increasing resources in computational nodes, sensors, actuators can significantly improve the system performance, reliability and flexibility. Therefore, self-X features like self-organization, self-adaptation and self-healing are key principles for such systems.
Additionally, CPNs are often deployed in dynamic, unpredictable environments and safety-critical domains, such as transportation, energy, and healthcare. In such domains, usually applications of different criticality level exist. In an automotive environment for example, the brake has a higher criticality level regarding safety as the infotainment. As a result of mixed-criticality, applications requiring hard real-time guarantees compete with those requiring soft real-time guarantees and best-effort application for the given resources within the overall system. This leads to the need to accommodate multiple levels of criticality while ensuring safety and reliability, which increases the already high complexity even more.
This thesis deals with the question on how to conveniently, effectively and efficiently handle the management and complexity of mixed-critical CPNs (MC-CPNs). Since this cannot be done by the system developer without the assistance of the system itself any longer, it is essential to develop new approaches and techniques to ensure that such systems can operate under a range of conditions while meeting stringent requirements.
Based on five research hypothesis, this thesis introduces a comprehensive adaptive mixed-criticality supporting middleware for Cyber-Physical Networks (Chameleon), which efficiently and autonomously takes care of the management and complexity of CPNs with regard to the mixed-criticality aspect.
Chameleon contributes to the state-of-art by introducing and combining the following concepts:
- A comprehensive self-adaption mechanism on all levels of the system model is provided.
- This mechanism allows a flexible combination of parametric and structural adaptation actions (relocation, scheduling, tuning, ...) to modify the behavior of the system.
- Real-time constraints of mixed-critical applications (hard real-time, soft real-time, best-effort) are considered in all possible adaptation conditions and actions by the use of the importance parameter.
- CPNs are supported by the introduction of different scopes (local, system, global) for the adaptation conditions and actions. This also enables the combination of different scopes for conditions and actions.
- The realization of the adaptation with a MAPE-K loop instantiated by a distributed LCS allows for real-time capable reasoning of adaptation actions which also works on resource-spare systems.
- The developed rule language Rango offers an intuitive way to specify an initial rule set for LCS in the context of CPS/CPNs and supports the system administrators in the process of rule set generation.
Proteins are biological macromolecules playing essential roles in all living organisms.
Proteins often bind with each other forming complexes to fulfill their function. Such protein complexes assemble along an ordered pathway. An assembled protein complex can often be divided into structural and functional modules. Knowing the order of assembly and the modules of a protein complex is important to understand biological processes and treat diseases related to misassembly.
Typical structures of the Protein Data Bank (PDB) contain two to three subunits and a few thousand atoms. Recent developments have led to large protein complexes being resolved. The increasing number and size of the protein complexes demand for computational assistance for the visualization and analysis. One such large protein complex is respiratory complex I accounting for 45 subunits in Homo sapiens.
Complex I is a well understood protein complex that served as case study to validate our methods.
Our aim was to analyze time-resolved Molecular Dynamics (MD) simulation data, identify modules of a protein complex and generate hypotheses for the assembly pathway of a protein complex. For that purpose, we abstracted the topology of protein complexes to Complex Graphs of the Protein Topology Graph Library (PTGL). The subunits are represented as vertices, and spatial contacts as edges. The edges are weighted with the number of contacts based on a distance threshold. This allowed us to apply graph-theoretic methods to visualize and analyze protein complexes.
We extended the implementations of two methods to achieve a computation of Complex Graphs in feasible runtimes. The first method skipped checks for contacts using the information which residues are sequential neighbors. We extended the method to protein complexes and structures containing ligands. The second method introduced spheres encompassing all atoms of a subunit and skipped the check for contacts if the corresponding spheres do not overlap. Both methods combined allowed skipping up to 93 % of the checks for contacts for sample complexes of 40 subunits compared to up to 10 % of the previous implementation. We showed that the runtime of the combined method scaled linearly with the number of atoms compared to a non-linear scaling of the previous implementation We implemented a third method fixing the assignment of an orientation to secondary structure elements. We placed a three-dimensional vector in each secondary structure element and computed the angle between secondary structure elements to assign an orientation. This method sped up the runtime especially for large structures, such as the capsid of human immunodeficiency virus, for which the runtime decreased from 43 to less than 9 hours.
The feasible runtimes allowed us to investigate two data sets of MD trajectories of respiratory complex I of Thermus thermophilus that we received. The data sets differ only by whether ubiquinone is bound to the complex. We implemented a pipeline, PTGLdynamics, to compute the contacts and Complex Graphs for all time steps of the trajectories. We investigated different methods to track changes of contacts during the simulation and created a heat map put onto the three-dimensional structure visualizing the changes. We also created line plots to visualize the changes of contacts over the course of the simulation. Both visualizations helped spotting outstandingly flexible or rigid regions of the structure or time points of the simulation in which major dynamics occur.
We introduced normalizations of the edge weights of Complex Graphs for identi-fying modules and predicting the assembly pathway. The idea is to normalize the number of contacts for the number of residues of a subunit. We defined five different normalizations.
To identify structural and functional modules, we applied the Leiden graph clustering algorithm to the Complex Graphs of respiratory complex I and the respiratory supercomplex. We examined the results for the different normalizations of the weights of the Complex Graphs. The absolute edge weight produced the best result identifying three of four modules that have been defined in the literature for respiratory complex I.
We applied agglomerative hierarchical clustering to the edges of a Complex Graph to create hypotheses of the assembly pathway. The rationale was that subunits with an extensive interface in the final structure assemble early. We tested our method against two existing methods on a data set of 21 proteins with reported assembly pathways. Our prediction outperformed the other methods and ran in feasible runtimes of a few minutes at most.
We also tested our method on respiratory complex I, the respiratory supercomplex and the respiratory megacomplex. We compared the results for the different normalizations with an assembly pathway of respiratory complex I described in the literature. We transformed the assembly pathways to dendrograms and compared the predictions to the reference using the Robinson-Foulds distance and clustering information distance. We analyzed the landscape of the clustering information distance by generating random dendrograms and showed that our result is far better than expected at random. We showed in a detailed analysis that the assembly prediction using one normalization was able to capture key features of the assembly pathway that has been proposed in the literature.
In conclusion, we presented different applications of graph theory to automatically analyze the topology of protein complexes. Our programs run in feasible runtimes even for large complexes. We showed that graph-theoretic modeling of the protein structure can be used to analyze MD simulation data, identify modules of protein complexes and predict assembly pathways.
Hintergrund: Epilepsie bezeichnet eine Erkrankung, welche durch eine anhaltende Prädisposition für Symptome, die im Zusammenhang mit einer ungewöhnlich starken oder synchronisierten elektrischen Aktivität des Gehirns auftreten (=epileptischer Anfall) charakterisiert ist. Mutationen in dem Gen DEPDC5 (Dishevelled, Egl-10 and Pleckstrin (DEP) domain-containing protein 5) sind mit fokalen Epilepsien assoziiert und führen in Tiermodellen und humanen Modellen zu einer Überaktivierung des mTOR-Signalweges. Auf neuromorphologischer Ebene zeigt sich die mTOR-Überaktivierung durch eine Vergrößerung des Zelldurchmessers und einer zunehmenden Verästelung der Neuriten. Ziel dieser Studie war es, die morphologischen Auswirkungen der DEPDC5-assoziierten mTOR-Überaktivierung in der SH-SY5Y-Neuroblastomzelllinie zu untersuchen. Dadurch soll eine Einschätzung getroffen werden, ob das im Zusammenhang mit neurodegenerativen Erkrankungen bereits gut etablierte SH-SY5Y-Zellmodell auch bei der Untersuchung epilepsieassoziierter Pathomechanismen zum Einsatz kommen kann.
Methoden: Unter Einsatz der CRISPR/Cas9-Methode wurden Knockout(KO)-Mutationen in Exon 2 und Exon 3 des DEPDC5-Gens erzeugt und diese mittels Sanger-Sequenzierung bestätigt. Danach wurden die Knockouts auf RNA- und Proteinebene, durch Real-time-RT-PCR und Western Blot validiert. Die bestätigten homozygoten DEPDC5-KO-Zelllinen wurden anschließend mittels Western Blot auf eine mTOR-Überaktivierung untersucht. Zuletzt erfolgte die neuromorphologische Validierung des DEPDC5-KO. Die Zellgröße proliferierender SH-SY5Y wurden mittels Durchflusszytometrie (FACS) untersucht. Zudem bestimmten wir die neuronale Architektur differenzierter SH-SY5Y unter Einsatz der Sholl-Analyse.
Ergebnisse: Es konnten vier unabhängige DEPDC5-KO-SH-SY5Y-Zelllinien mit homozygoten Indel-Mutationen und vorzeitigem Stoppcodon in Exon 3 generiert werden. Die erwartete Reduktion an DEPDC5-mRNA konnte mittels Real-time 10 RT-PCR nicht festgestellt werden. Die Abwesenheit des Proteins konnte durch Western Blot aber gezeigt werden. Funktionell konnte für alle Zelllinien eine mTOR-Überaktivierung mittels Western Blot nachgewiesen werden. Dabei konnte phosphoryliertes AKT (AKT serine/threonine kinase 1) als stabilster Marker etabliert werden. Auf neuromorphologischer Ebene ließ sich ein Trend in Richtung vergrößertem Zelldurchmesser bei verlängertem Auswachsen der Neuriten feststellen, wobei sich für das Modell Unterschiede zwischen den einzelnen Klonen ergaben.
Diskussion: In dieser Studie gelang es erstmals, den Zusammenhang zwischen DEPDC5-KO und einer mTOR-Überaktivierung in der onkogenen SH-SY5Y-Zelllinie zu replizieren. Das verlängerte Auswachsen der Neuriten, bei jedoch gleichbleibender Anzahl peripherer Verästelungen, stellt dabei einen neuen Befund dar und könnte durch die frühe neuronale Entwicklungsstufe des SH-SY5Y-Zellmodells erklärt werden. Auf Grundlage der Ergebnisse dieser Arbeit lässt sich sagen, dass das robuste und kostengünstige SH-SY5Y-Zellmodell insbesondere für high-throughput Methoden und Screeningassays ein geeignetes Modell ist. Durch die Kombination mit reiferen Zellmodellen, wie beispielsweise iPSCs (induced pluripotent stem cells), könnte der Phänotyp eines DEPDC5-KO und anderer mTOR-assoziierter Epilepsien, möglichst umfassend in-vitro dargestellt werden.
Background: Hepatectomy is a complex procedure with high morbidity and mortality.
Early prediction/prevention of major complications is highly valuable for patient care.
Surgical APGAR score (SAS) has been validated to predict post-surgical complications (PCs).
Goal: We aimed to define a simple complications classification following hepatectomy based on a therapy-oriented severity Clavien-Dindo classification (CDC).
Methods: 119 patients undergoing liver resection were included. PCs were determined at follow-up based on CDC. Clinicopathological factors were used to calculate SAS. A receiver-operator characteristic (ROC) curve analysis estimated the predictive value of SAS for PCs. Circulating markers levels of liver injury were analyzed as critical elements on PCs.
Results: SAS (P=0.008), estimated blood-loss (P=0.018) and operation time (P=0.0008) were associated with PCs. SAS was reduced in patients with (+) compared to those without (-) complications (6.64±1.84 vs 5.70±1.79, P=0.0079). The area-under-the-curve was 0.646 by ROC, indicating an acceptable discrimination with 65% possibility to distinguish (-) and (+) groups (P=0.004).
Best cutoff value for SAS was ≤6/≥7, at which sensitivity and specificity were maximal.
ALT/ASL levels were significantly different within the group with 9-10 SAS points (P=0.01 and 0.02).
Conclusion: SAS provides accurate risk stratification for major PCs after hepatectomy, and might help improving the overall patient outcome.
Facial expression recognition is linked to clinical and neurofunctional differences in autism
(2022)
Background: Difficulties in social communication are a defining clinical feature of autism. However, the underlying neurobiological heterogeneity has impeded targeted therapies, and requires new approaches to identifying clinically relevant bio-behavioural subgroups. In the largest autism cohort to date, we comprehensively examined difficulties in facial expression recognition, a key process in social communication, as a bio-behavioural stratification biomarker, and validated them against clinical features and neurofunctional responses.
Methods: Between 255 and 488 participants aged 6-30 years with autism, typical development and/or mild intellectual disability completed the Karolinska Directed Emotional Faces task, the Reading the Mind in the Eyes Task and/or the Films Expression Task. We first examined mean-group differences on each test. Then we used a novel intersection approach that compares two centroid and connectivity-based clustering methods to derive subgroups based on the combined performance across the three tasks. Measures and subgroups were then related to clinical features and neurofunctional differences measured using fMRI during a fearful face-matching task.
Results: We found significant mean-group differences on each expression recognition test. However, cluster analyses showed that these were driven by a low-performing autistic subgroup (~30% of autistic individuals who performed below 2SDs of the neurotypical mean on at least one test), while a larger subgroup (~70%) performed within 1SD on at least 2 tests. The low-performing subgroup also had on average significantly more social-communication difficulties and lower activation in the amygdala and fusiform gyrus than the high-performing subgroup.
Limitations: Findings of autism expression recognition subgroups and their characteristics require independent replication. This is currently not possible, as there is no other existing data set that includes all relevant measures. However, we demonstrated high internal robustness (91.6%) of findings between two clustering methods with fundamentally different assumptions, which is a critical pre-condition for independent replication.
Conclusions: We identified a subgroup of autistic individuals with expression recognition difficulties and showed that this related to clinical and neurobiological characteristics. If replicated, expression recognition may serve as bio-behavioural stratification biomarker and aid in the development of targeted interventions for a subgroup of autistic individuals.
For thousands of years, S. cerevisiae has been employed by humans in brewing and baking. Nowadays, this budding yeast is more than that: it is a well investigated model organism and an established workhorse in biotechnology. S. cerevisiae serves as a production host for various applications such as i) bioethanol production ii) the biosynthesis of hormones including insulin or iii) cannabinoid biosynthesis. Hereby, the robustness of S. cerevisiae and its high tolerances regarding pH and salt concentrations qualifies it for a wide range of industrial applications. Moreover, products of S. cerevisiae are generally recognised as safe (GRAS), enabling diverse biotechnological applications. Various mechanisms for genetic engineering of S. cerevisiae are applicable and the engineering process itself is straightforward since methods are established and widely known. Due to the wide range of industrial applications of S. cerevisiae, this organism is an ideal candidate for applied research and implementation of the recombinant biosynthesis of tocochromanols in this study.
Tocochromanols encompass tocotrienols and tocopherols, which are lipid-soluble compounds that are commonly associated with vitamin E activity. Hereby, α-tocopherol is the most prevalent form, as it is an essential nutrient in the diet of humans and animals. Naturally, tocochromanols are almost exclusively synthesised by photoautotrophic organisms such as plants or cyanobacteria. They consist of an aromatic head group and a polyprenyl side chain which is saturated in tocopherols and 3-fold unsaturated in tocotrienols. The methylation status of the chromanol ring distinguishes α-, β-, γ- and δ-tocochromanol. All forms of tocochromanols represent a group of powerful antioxidants, scavenging reactive oxygen species (ROS) and preventing the propagation of lipid oxidation in lipophilic environments. Recently, attention has been drawn to tocotrienols, due to their benefits in neuroprotection as well as cholesterol-lowering and anti-cancer properties. Consequently, tocochromanols are valuable additives in the food, feed, cosmetic and pharmaceutical industries.
The metabolic engineering strategy of S. cerevisiae to enable tocochromanol biosynthesis was started in a preceding master thesis with the provision of the aromatic moiety, homogentisic acid (HGA), from the aromatic amino acid biosynthesis. Hereby, the upregulation and redirection of the native pathway was essential. Therefore, a strain with an engineered aromatic amino acid pathway for improved 4 hydroxyphenylpyruvate (HPP) production (MRY33) was utilised from Reifenrath and Boles (2018). Furthermore, a heterologous hydroxyphenylpyruvate dioxygenase (HPPD) was required to convert HPP into HGA. Thus, several heterologous HPPDs were expressed and characterised regarding their HGA production within the previous study. The best variant originated from Yarrowia lipolytica, YlHPPD, and was integrated into the genome of MRY33. The resulting strain JBY2, produced 435 mg/L HGA in a shake flask fermentation.
This work was started with the genetically highly modified strain JBY2, whose genome already contained a large number of genes artificially expressed behind strong promoters. For further strain development, it was advantageous to maintain a high degree of sequence variability in order to prevent genomic instabilities due to sequence homologies. Thus, 17 artificial promoters (AP1-AP17) were characterised regarding their strength of expression by the yellow fluorescent protein (YFP). These sequences were also part of a patent that was filed during this work (WO2023094429A1).
The key point of this study was the development of a metabolic engineering strategy for the strain JBY2. First, the sufficient supply of the second precursor, the polyprenyl side chain, was investigated. Natively, S. cerevisiae produces the precursor, geranylgeranyl diphosphate (GGPP), from the isopentenyl diphosphate pathway. However, without further engineering, GGPP was barely detectable in JBY2 (< 0.1 mg/L). Thus, engineering of the isopentenyl diphosphate biosynthesis was necessary. The limiting enzyme of the mevalonate pathway was the 3-hydroxy-3-methylglutaryl coenzyme A reductase (HMGCR), which is encoded by HMG1. Therefore, a truncation for feedback-resistance and its overexpression by a promoter exchange was performed. Furthermore, the promoter of the gene for the squalene synthase (pERG9) was exchanged by the ergosterol sensitive promoter pERG1 to limit the metabolic flux of the mevalonate pathway into the ergosterol pathway. The native GGPP synthase (BTS1) was another limitation that was observed throughout this study. To overcome this bottleneck, plasmid-based and integrative overexpression of the native BTS1 and a codon optimised BTS1 were investigated. Other strategies to improve GGPP production were the deletion of the gene for the diacylglycerol pyrophosphate phosphatase (DPP1) to prevent excessive dephosphorylation of GGPP to geranylgeraniol (GGOH), and the overexpression of the farnesyl pyrophosphate synthetase, encoded by ERG20. However, the best improvements of the GGPP biosynthesis, inferred through GGOH measurements, were achieved from the screening of several heterologous GGPP synthases in S. cerevisiae. The best performing strain was JBY61 (JBY2, hmg1Δ::pTDH3-HMG1tr[1573–3165], pERG9Δ::pERG1, ChrIV-49293-49345Δ::pTDH3-XdcrtE-tSSA1_LEU2), bearing the heterologous GGPP synthase crtE of Xanthophyllomyces dendrorhous and produced 64.23 mg/L GGOH. Consequently, this engineering strategy improved the GGOH production by a factor of 642 compared to the parent strain JBY2.
The capacity of pathogenic bacteria to adhere to host cells and to avoid subsequent clearance by the host´s immune response is the initial and most decisive step leading to infections. Human pathogenic bacteria circulating in the bloodstream need to find ways to interact with endothelial cells (ECs) lining the blood vessels to infect and colonise the host. The extracellular matrix (ECM) of ECs might represent an attractive initial target for bacterial interaction, as many bacterial adhesins have reported affinities to ECM proteins, particularly fibronectin (Fn). Trimeric autotransporter adhesins (TAA) have been described as important pathogenicity factors of Gram-negative bacteria. The TAA from human pathogenic Bartonella henselae, Bartonella adhesin A (BadA), is one of the longest and best characterised adhesin and represents a prototypic TAA due to its domain architecture. B. henselae, the causative agent of cat scratch disease, endocarditis, and bacillary angiomatosis, adheres to ECs and ECM proteins via BadA interaction.
In this research, it was determined that the interaction between BadA and Fn is essential for B. henselae host cell adhesion. BadA interactions were identified within the heparin-binding domains of Fn, and the exact binding sites were revealed by mass spectrometry analysis of chemically crosslinked whole-cell bacteria and Fn. It turned out that specific BadA interactions with defined Fn regions represent the molecular basis for bacterial adhesion to ECs. These data were confirmed by using BadA-deficient bacteria and CRISPR-Cas FN1 knockout ECs. It was also identified that BadA binds to Fn from both cellular and plasma origin, suggesting that B. henselae binding to Fn might possibly take part in other infection processes apart from bacterial adherence, e.g. evasion from the host cell immune system.
Interactions between TAAs and Fn represent a key step for adherence of B. henselae to ECs. Still, Fn-mediated binding is of more significant importance for pathogenic bacteria than broadly recognised. Fn removal from the ECM environment of ECs, also reduced adherence of Staphylococcus aureus, Borrelia burgdorferi, and Acinetobacter baumannii to host cells Interactions between adhesins and Fn might therefore represent a crucial step for the adhesion of human-pathogenic Gram-negative and Gram-positive bacteria targeting the ECs as a niche of infection or as means for persistence.
This research demonstrated that combining large-scale analysis approaches to describe protein-protein interactions with supportive functional readouts (binding assays) allows for the discrimination of crucial interactions involved in bacterial adhesion to the host. The herein-described experimental approaches and tools might guide future research for other pathogenic bacteria and represent an initial point for the future generation of anti-virulence strategies to inhibit bacterial binding to host cells.
Trauma ist in Deutschland und weltweit eine der häufigsten Todesursache bei Personen unter 55 Jahren. Eine traumatische Verletzung von Gewebe führt zur Freisetzung von sogenannten damage-associated molecular patterns (DAMPs), die eine Entzündungskaskade auslösen, welche die Organfunktion negativ beeinträchtigt. Dies führt bei anhaltender Entzündung zunächst zu Organdysfunktion, was im weiteren Verlauf zu Organversagen führt und im Spätstadium im multiplen Organversagen (MOF) enden kann. In den meisten Fällen ist die inflammatorische Antwort des Immunsystems auf das Trauma adäquat und entspricht einem gut koordinierten Netzwerk von Immunzellen, Zytokinen und Chemokinen, welches zur Wiederherstellung des geschädigten Gewebes führt. Wenn dieses Netzwerk jedoch nicht im Gleichgewicht ist, kann die Entzündungsreaktion durch eine sogenannte feed-forward-loop von Inflammation und Gewebeschäden verstärkt werden. Wenn dieser Prozess systemisch wird, spricht man vom systemic inflammatory response syndrome (SIRS). Auf der anderen Seite gibt es ein Gegenstück zu SIRS, nämlich das sogenannte compensatory anti-inflammatory response syndrome (CARS). Auch ein Überschießen von CARS kann den Verlauf der posttraumatischen Inflammation negativ beeinträchtigen. Sowohl eine Verschiebung in Richtung von SIRS als auch in Richtung von CARS kann zu Organfunktionsstörungen, nosokomialen Infektionen und letztendlich zum Tod führen. Daher ist eine ausgeglichene, frühe posttraumatische Immunantwort für ein gutes Outcome von entscheidender Bedeutung.
Monozyten nehmen eine kritische Stellung sowohl in der primären Immunantwort nach Trauma als auch nach Infektion ein. Durch die Oberflächenexpression von diversen sogenannten pattern-recocnition receptors (PRRs), insbesondere Toll-Like-Rezeptoren (TLRs), können Monozyten Pathogene und sogenannte pathogen-associated molecular patterns (PAMPs) erkennen und neutralisieren. Darüber hinaus können Monozyten PAMPs über major histocompatibility complex class II -Moleküle (MHC-II) dem adaptiven Immunsystem präsentieren und somit als zelluläre Verbindung zwischen dem angeborenen und dem adaptiven Immunsystem fungieren. TLR2, eine Untergruppe der TLRs, ist einer der Hauptrezeptoren für PAMPs von grampositiven Bakterien wie S. aureus, dem Hauptkeim für posttraumatische Wundinfektionen und nosokomiale Infektionen.
Es gibt immer noch keinen Konsens über den Einfluss von Trauma auf die Funktion von Monozyten und deren Expressionsprofil von PRRs und MHC-II-Molekülen nach einem Trauma. Verschiedene Studien berichten von einer beeinträchtigten TLR2-Expression bei Monozyten nach Trauma, während sich in anderen Studien eine konstante oder sogar erhöhte TLR2-Expression bei Monozyten nach Trauma gezeigt hat. Die Daten sind auch in Bezug auf die posttraumatische Phagozytoseleistung von Monozyten unbeständig. Während in einigen Studien im frühen posttraumatischen Verlauf im Vergleich zu gesunden Probanden von einer erhöhten Anzahl zirkulierender Monozyten mit erhaltener Phagozytoseleistung berichtet wird, zeigten andere Studien eine verminderte Phagozytoseleistung von Monozyten nach Trauma. Darüber hinaus gibt es widersprüchliche Ergebnisse bezüglich der Fähigkeit von Monozyten, proinflammatorische Zytokine wie Interleukin (IL)-1β oder Tumor necrosis factor (TNF)-α freizusetzen.
Zusammengefasst ist die derzeitige Studienlage widersprüchlich. Zusätzlich wurde es in bisherigen Studien verpasst, die Kombination verschiedener Aspekte wie die Funktionalität der Monozyten in Bezug auf Phänotypisierung oder funktioneller Assays und deren Beobachtung über einen längeren Zeitraum miteinzubeziehen.
Die unterschiedlichen Ergebnisse der bisherigen Studien könnte durch die Natur des Polytraumas bedingt sein, beispielsweise durch verschiedene Verletzungsmuster und Verletzungsschwere, die unterschiedliche Erstversorgung am Unfallort, die Zeit bis zur Ankunft in der Notaufnahme oder die unterschiedliche primäre und definitive Versorgung der Verletzungen. All das kann zu einer unterschiedlichen Antwort des Immunsystems und somit zu unterschiedlichen Outcomes führen.
Daher war es Ziel unserer Studie, die oben genannten Variablen zu eliminieren, und eine kontrollierte Polytraumastudie am Schweinemodell durchzuführen, um die Funktionalität von Schweinemonozyten über einen Zeitraum von 72 Stunden nach Trauma zu untersuchen.
Zusätzlich und im Gegensatz zu früheren Studien haben wir die Phänotypisierung von Monozyten (TLR2 und MHC-II [SLA-DR]) mit einem funktionellen Phagozytose-Assay kombiniert und deren direkte Assoziation in einem unabhängigen Assay analysiert.
Peripheres Blut wurde vor (-1h) und direkt nach der Induktion des Polytraumas (PT) (0h) entnommen, sowie 3,5h, 5,5h, 24h und 72h später. Die Expression von H(S)LA-DR und TLR2 auf Schweine-Monozyten wurde untersucht. Außerdem wurde die Phagozytierungsaktivität von Schweinemonozyten gemessen.
Darüber hinaus wurden aus mechanistischen Gründen Blutproben von 10 gesunden Schweinen zunächst einem TLR2-neutralisierenden Antikörper und anschließend S. aureus-Partikeln ausgesetzt, bevor die Phagozytoseleistung der Monozyten untersucht wurde.
Die Anzahl der CD14 + -Monozyten aller zirkulierenden Leukozyten blieb während des Beobachtungszeitraums konstant, während der Prozentsatz der CD14 + H(S)LA-DR + -Monozyten direkt, 3,5h und 5,5h nach dem Trauma signifikant abnahm. Der Prozentsatz von TLR2 + exprimierenden Zellen aus allen Monozyten verringerte sich direkt, 3,5h und 5,5h nach dem Trauma signifikant. Der Prozentsatz der phagozytierenden Monozyten nahm direkt nach Trauma ab und blieb in den ersten 3,5 Stunden nach dem Trauma niedriger, stieg jedoch nach 24 Stunden an. Die Antagonisierung von TLR2 verringerte signifikant die Phagozytoseleistung der Monozyten.
Sowohl der verringerte Prozentsatz der aktivierten als auch der TLR2-exprimierenden Monozyten blieb bestehen, solange die verringerte Phagozytoseleistung beobachtet wurde.
Darüber hinaus führte auch die Neutralisation von TLR2 zu einer verminderten Phagozytoseleistung. Daher nehmen wir an, dass eine verringerte TLR2-Expression für die verringerte Phagozytoseleistung verantwortlich ist.
Intelligenz ist einer der stärksten Einzelprädikatoren für berufliche Leistungen. Hochintelligente Personen, sogenannte Hochbegabte, müssten daher generell hohe berufliche Leistungen erbringen. Dies steht jedoch im Widerspruch zu Darstellungen von Schwierigkeiten Hochbegabter im Beruf. Sollten die negativen Stereotype zutreffen, wäre dies aus ressourcenorientierter Sicht problematisch, da Organisationen das der Hochbegabung zugrunde liegende Potenzial der Mitarbeiter*innen nicht hinreichend nutzen. Die vorliegende Arbeit leistet einen Beitrag dazu, diese Diskrepanz aufzuklären, indem sie untersucht wie Hochbegabte ihre berufliche Situation (erfolgreich) gestalten. Nach einer Begriffsklärung und Darstellung des Zusammenhangs von Intelligenz und Beruf wird im ersten Beitrag der internationale Forschungsstand mithilfe eines Literature Reviews systematisiert. Aufbauend darauf werden im zweiten Beitrag mithilfe einer Fragebogenerhebung die überwiegend internationalen Beiträge durch eine deutsche Stichprobe und die bisher wenig betrachtete Gruppe von Hochbegabten gemäß Kompetenzdefinition ergänzt. Schließlich fokussiert der dritte Beitrag den Widerspruch, dass Hochbegabte generell erfolgreich und zufrieden im Beruf sind, jedoch individuell von Schwierigkeiten berichten. Dazu werden teilstrukturierte Interviews durchgeführt, um ein tieferes Verständnis für den Einfluss der Hochbegabung auf den Beruf sowie etwaige bestehende Unterschiede zu nicht-hochbegabten Personen zu gewinnen. Zudem werden Strategien erfasst, die Hochbegabte nutzen, um Unterschiede und eventuell daraus resultierende Schwierigkeiten zu bewältigen. Abschließend werden Implikationen für die Berufspraxis und Forschung diskutiert.
In our rapidly changing world, land use has been recognized as having one of the strongest impacts on species and genetic diversity. The present state of temperate forests in Europe is a product of decisions made by former and current management and policy actions, rather than natural factors. Alterations of crown projection areas, structural complexity of the forest stand caused by thinning and cuttings, and changes in tree species composition caused by regeneration or plantings not only affect forest interior buffering against warming, but also the understorey light environment and nutrient availability. Ultimately, current silvicultural management practices have deep impact on the forest ecosystems, microenvironmental changes and forest floor understorey herbs. In response to environmental changes, plants rely on genetically heritable phenotypic variation, an important level of variation in the population, as it is prerequisite for adaptation. However, until now most studies on plant adaptation to land use focus on grassland management. Yet, studies on the adaptation of forest understorey herbs to forest management have been absent so far. This is important because understanding adaptation of understorey herbs is crucial for biodiversity conservation, forest restoration, and climate change mitigation. Studying current adaptation of understorey herbs to forest management yields insights into the evolutionary consequences of management practices, which could be employed to improve sustainable use of forest habitat.
In sum, my conducted experiments complement each other well and managed to fill in research gaps on the topic of genetically heritable phenotypic variation in understorey herbs and how it is affected by forest management and related microenvironmental variables. I showed that forest management has direct evolutionary consequences on the genetic basis of understorey herbs, but also indirectly through the microenvironment. Furthermore, I revealed that local adaptation and phenotypic plasticity of understorey herbs to forest structural attributes act along continuous gradients. And lastly, I highlighted the important role of intra-individual variation by revealing plastic responses to drought and shading, urging researchers to not ignore this important level of trait variation. Ultimately, understorey herbs in temperate forests employ phenotypic plasticity as a flexible strategy to adapt to varying environmental conditions. By adjusting their leaf characteristics, reproductive investment, and phenology, they can optimize their fitness and survival in response to changes in light availability, resource availability, and seasonal cues. The anthropogenic impact on temperate forests and understorey herbs will continue and likely increase in the future. This should urge foresters to adapt their silvicultural management decisions towards the long-term preservation of genetic diversity and, through this, the evolvability and adaptability of forest understorey herbs and associated organisms. Based on the results shown in my dissertation, variation in forest management regimes and types could be beneficial for promoting genetic diversity within several species of forest understorey herbs. Lastly, in the face of future climatic changes, the mechanisms by which plants can cope with increasing stressful environmental conditions might very well rely heavily on intra-individual variation, providing the necessary rapid plastic adjustment to changing microclimatic conditions within populations and thus increase climate change resilience.
Einleitung: Das Pseudoaneurysma (PSA) stellt eine der häufigsten Komplikationen nach arteriellen Punktionen dar. Dabei unterscheiden sich die Komplikationsraten kathetergestützter Verfahren bei diagnostischen Eingriffen deutlich von jenen bei therapeutischen Eingriffen. Zur Behandlung des Pseudoaneurysmas steht eine große Bandbreite an Therapieoptionen zur Verfügung, unter anderem die ultraschallgestützte Thrombininjektion (TI) sowie die Therapie mittels konventionellem Druckverband (DV). Jedoch werden venöse Thrombosen nach der Behandlung des Pseudoaneurysmas beschrieben. Der Einfluss von Antikoagulantien (AK) und Thrombozytenaggregationshemmern (TAH) sowohl auf die Erfolgsraten der Pseudoaneurysmatherapie als auch die anschließende Entstehung venöser Thrombosen wurde bisher noch nicht analysiert.
Fragestellung: Die Effektivität des Druckverbands und der Thrombininjektion bei Patienten mit Pseudoaneurysma und damit assoziierten venösen Thrombosen wurde geprüft. Außerdem wurden die Auswirkungen von Antikoagulantien und Thrombozytenaggregationshemmern auf die Erfolgsraten der Pseudoaneurysmatherapie und die damit assoziierten venösen Thrombosen untersucht.
Methoden: Es wurden von Januar 2010 bis Dezember 2018 insgesamt 468 Patienten mit Pseudoaneurysma untersucht, wovon 238 Patienten in die retrospektive Studie eingeschlossen wurden. Die Behandlung des Pseudoaneurysmas erfolgte mittels Thrombininjektion oder Druckverband. Nach Ablauf von 24 Stunden wurde der Therapieerfolg sonographisch kontrolliert, wobei auch auf das Neuauftreten venöser Beinvenenthrombosen geachtet wurde. Bei allen Patienten wurde die Medikation mit Antikoagulantien und Thrombozytenaggregationshemmern zum Zeitpunkt der Pseudoaneurysmatherapie erhoben.
Ergebnisse: Die Thrombininjektion war dem Druckverband sowohl hinsichtlich des größeren Therapieerfolgs (TI 86% vs. DV 52%, p<0,001) als auch der geringeren Thromboseinzidenz (TI 7,7% vs. DV 21,3%, p=0,039) signifikant überlegen.
Insgesamt erlitten 40 der 238 Patienten eine neu aufgetretene venöse Thrombose der unteren Extremität. Auch bei Betrachtung des Einflusses von Antikoagulantien und Thrombozytenaggregationshemmern erwies sich die 5 Thrombininjektion als dem Druckverband signifikant überlegen. Jedoch wurde bei der Thrombininjektion eine um 18% niedrigere Erfolgsrate unter Antikoagulation festgestellt (TIoAK 97% vs. TImAK 79%, p=0,22), wohingegen bei Druckverbandanlage unter Antikoagulation die Erfolgsrate nur um 6% geringer war (DVoAK 57% vs. DVmAK 51%, p=0,38). In Bezug auf die Thromboseraten nach Thrombininjektion bzw. Druckverband unter Antikoagulation oder Thrombozytenaggregationshemmern konnten keine signifikanten Unterschiede beobachtet werden.
Fazit: Es konnte nachgewiesen werden, dass die Thrombininjektion eine sichere Methode zur Behandlung des Pseudoaneurysmas darstellt und nach Ansicht der Autoren, bei vorhandener Expertise, primär angewandt werden sollte.
Denn die Thrombininjektion ist dem Druckverband in Bezug auf Erfolgs- und Thromboseraten signifikant überlegen. Antikoagulantien beeinträchtigen den Erfolg der Thrombininjektion stärker als den des Druckverbands, weshalb bei Notwendigkeit einer Pseudoaneurysmatherapie die Pausierung der Antikoagulantien im Rahmen einer patientenspezifischen Risiko-Nutzen-Abwägung in Betracht gezogen werden sollte.
Gravitropism is a fundamental process in plants that allows shoots to grow upward and roots to grow downward. Protein phosphorylation has been postulated to participate in the intricate signaling cascade of gravitropism. In order to elucidate the underlying mechanisms governing the gravitropic signaling and unearth novel protein constituents, an exhaustive investigation employing microgravity-induced phosphoproteomics was undertaken. The significantly phosphorylated proteins unraveled in this study can be effectively divided into two groups through clustering analysis. Furthermore, the elucidation of Gene Ontology (GO) enrichment analysis disclosed the conspicuous overrepresentation of these clustered phosphoproteins in cytoskeletal organization and in hormone-mediated responses intimately intertwined with the intricate phenomenon of gravitropism. Motif enrichment analysis unveiled the overrepresentation of [-pS-P-] and [-R-x-x-pS-] motifs. Notably, the [-pS-P-] motif has been suggested as the substrate for the Casein kinase II (CK II) and Cyclin-dependent kinase (CDK). Kinase-inhibitor assays confirmed the pivotal role played by CK II and CDK in root gravitropism. Mutant gravitropism assays validated the functional significance of identified phosphoproteins, with some mutants exhibiting altered bending kinetics using a custom-developed platform. The study also compared phosphoproteomics data from different platforms, revealing variations in the detected phosphopeptides and highlighting the impact of treatment differences. Furthermore, the involvement of TOR signaling in microgravity-induced phosphorylation changes was uncovered, expanding the understanding of plant gravitropism responses.
To fulfill the large-scale verification of interesting candidates from the phosphoproteomics study, a novel root and hypocotyl gravitropism phenotyping platform was developed. This platform integrated cost-effective hardware, including Raspberry Pi, a high-quality camera, an Arduino board, a rotation stage (obtained from Prof. Dr. Maik Böhmer), and programmable green light (modified by Sven Plath). In addition, through collaboration with a software developer, machine-learning-based software was developed for data analysis. This platform tested the gravitropic response of candidate mutants identified in the phosphoproteomics study. Furthermore, the capabilities of this platform were expanded to investigate tropisms in other species and organs. To find novel proteins that might act as partners of a key protein that is involved in gravitropism signaling, ALTERED RESPONSE TO GRAVITY 1 (ARG1), immunoprecipitation coupled with Mass Spectrometry (IP-MS) was performed and identified ARG1-LIKE1 (ARL1) as a potential interacting protein with ARG1. This interaction was further confirmed through in vivo pull-down assays and bimolecular fluorescence complementation assays. In addition, the interaction between ARG1 and HSP70-1 was also validated.
Overall, this thesis sheds light on the molecular components and signaling events involved in plant gravitropism. It contributes to existing knowledge and opens up new ways to investigate this fascinating area of plant biology.
Many metabolic pathways of eukaryotes are carried out in form of interconnected pathways, which take place in organelles. The organelle membrane separates the reaction compartments from each other, making it a key feature of organelle existence in the cell. To maintain cellular homeostasis, organelle positioning in and transport through the cell as well as organelle interaction are important for the organisms. In plants, organellar movement of peroxisomes, Golgi stacks and mitochondria was shown to be mediated by the actin-myosin machinery. The molecular mechanisms are not elucidated, but working models comprise classical movement mechanisms of motor proteins pulling their cargo on cytoskeletal filaments. In contrast, many mechanisms of chloroplasts movement, which are regulated by blue and red light, are deciphered but follow a different molecular mechanism. Plastidal relatives of the chloroplast have long been disregarded by scientific research but carry out important metabolic reactions to maintain cellular homeostasis. The cellular transport and movement mechanisms of root plastids have not been described in detail until now. Additionally, all plastid subspecies can form tubular structures, called stromules. Those are thought to be involved in the organelle communication and metabolite exchange. Since they are very mobile structures, they influence the organellar dynamic of plastids. This work aimed for an in-detail description of the cellular movements of root plastids in the plant Arabidopsis thaliana to elucidate underlying mechanisms of their movement. Additionally, the dynamics of root plastid stromules were investigated, led by the questions, if and how stromules are involved in the mediation of plastidal movement and their overall dynamics. Plastidal movement in Arabidopsis thaliana was captured using light sheet-based fluorescence microscopy. 4D image data was automatically analyzed using the program Arivis Vision 4D with subsequent manual correction. Additionally to the 4D approach, a manual 3D analysis of plastid and stromule dynamics was performed. The results of the semiautomated analysis displayed heterologous distribution of the plastidal movement. Using a combination of the vector length of each motion event and the angle in relation to previous motion vectors, the proportions of different movement patterns were determined. Main fractions of the data showed undirected motion of plastids, whereas small proportions displayed directed movement with speed up to 8.5 µm/sec. Directed motion was shown to be carried out on defined routes in the cell. Salt stress did not affect plastidal motion, whereas drought stress lead to its reduction. Sucrose depletion led to a drastic decrease of plastidal movement. Additionally, stromule dynamics were investigated using the acquired image data. Stromules were observed in high frequency mainly at stationary plastids giving them the opportunity of dynamic interaction in their cellular surrounding. Stromules reached lengths of up to 60 µm. Additionally, they displayed a variety of movement patterns that contributed greatly to the overall plastid dynamics. Stromule related motion events were captured reaching up to 3.2 µm/sec. Similar to determined plastid dynamics, stromule motions were reduced during drought stress and sucrose depletion, but also were negatively influenced by salt stress. Those results strongly favor an actin-myosin mediated movement machinery mediating the plastidal and stromule movement. This stands in contrast to previous results describing the movement mechanisms of light induced chloroplast movement.
In an additional approach, the molecular mechanisms underlying stromule formation were analyzed. Previous results describe that stromule formation can be induced at isolated chloroplasts of the plant Nicotiana benthamiana by mixing it with concentrated cell extract. During this work, a variation of the described assay was established using the plant Pisum sativum. It was shown that an unknown protein factor presumably undergoing protein-lipid interaction is responsible for in vitro stromule formation. Using a combination of sucrose gradient centrifugation and anion exchange chromatography, the desired factor could be enriched, while the majority of unwanted proteins could be reduced drastically. A following LC-MS analysis revealed a selection of proteins with membrane interaction- and unknown functions that might be involved in in vitro stromule formation.
Das Prostatakarzinom ist in Europa die häufigste Krebserkrankung des Mannes. Im metastasierten, kastrationsresistenten Zustand gibt es wenige Therapieoptionen. Als neuere Therapiemöglichkeit hat sich in den letzten Jahren die Radioligandentherapie (RLT) mit 177Lu-PSMA-617 hervorgetan. Die Myelosuppression ist allerdings ein potentiell dosis-limitierender Faktor bei der Radioligandentherapie.
Ziel der vorliegenden Arbeit war es, das Auftreten, den Schweregrad und die Reversibilität von hämatotoxischen Nebenwirkungen in einer großen Patientenkohorte zu unter-suchen, die sich einer RLT mit 177Lu-PSMA-617 bei metastasiertem kastrationsresistentem Prostatakarzinom (mCRPC) unterzogen. Nach deskriptiver Analyse des behandelten Patientenkollektivs erfolgte die Identifikation von prädisponierenden Faktoren für das Eintreten von hämatologischen Nebenwirkungen. Dabei wurden insbesondere der Beitrag von Vortherapien, Behandlungsaktivität, Ausmaß der Knochentumorlast sowie eine prätherapeutisch bestehende Zytopenie berücksichtigt.
Die RLT wurde bei 140 Patienten durchgeführt, die insgesamt 497 Zyklen erhielten. Eine mittlere Aktivität von 6.9±1.3 GBq 177Lu-PSMA-617 pro Zyklus wurde in einem Median von 3 Behandlungszyklen verabreicht. Die mittlere kumulative Aktivität betrug 24.6±15.9 GBq. Hämatologische Parameter wurden bei Studienbeginn, vor jeder Behandlung, 2 bis 4 Wochen danach und während der gesamten Nachbeobachtung gemessen. Die Toxizität wurde anhand der Common Terminology Criteria for Adverse Events v5.0 eingestuft.
Dabei zeigten sich signifikante (Grad ≥3) hämatologische unerwünschte Ereignisse bei 13 Patienten (9.3%). Davon 10 mit Anämie (7.1%), 5 mit Leukopenie (3.6%) und 6 mit Thrombozytopenie (4.3%). Die Hämatotoxizität war bis zu einem medianen Follow-up von 8 Monaten bei allen bis auf zwei Patienten, die innerhalb von weniger als 3 Monaten nach der RLT an einer Krankheitsprogression starben, reversibel auf Grad ≤2. Die Myelosuppression war signifikant häufiger bei Patienten mit vorbestehender Zytopenie Grad ≥2 oder hoher Knochentumorlast (disseminiert oder diffus). Eine vorangegangene taxan-basierte Chemotherapie war ebenfalls mit einer erhöhten Inzidenz signifikanter Hämatotoxizität assoziiert, während die Behandlung mit 223Ra-Dichlorid, die kumulative RLT-Behandlungsaktivität und die Aktivität pro Zyklus nicht signifikant korreliert waren.
Die vorliegenden Ergebnisse zeigen somit, dass hämatologische Nebenwirkungen nach RLT eine akzeptable Gesamtinzidenz besitzen und häufig reversibel sind. Eine hohe Knochentumorlast, eine vorangegangene taxan-basierte Chemotherapie und eine Zyto-penie vor der Behandlung vom Grad ≥2 können als Risikofaktoren für die Entwicklung einer klinisch relevanten Myelosuppression angesehen werden, während die kumulative RLT-Aktivität und eine vorangegangene 223Ra-Dichlorid-Behandlung keinen signifikanten Beitrag zur Inzidenzrate zeigen. Die Fragestellung ist von unmittelbarer Relevanz, da die Erkenntnisse entscheidend für die individuelle Risikoeinschätzung von Patienten mit mCRPC bezüglich der 177Lu-PSMA-617 beitragen.
Im Rahmen dieser Arbeit wurde ein verbessertes Buncher-System für Hochfrequenzbeschleuniger mit niedrigem und mittlerem Ionenstrom entwickelt. Die entwickelte Methodik hat ermöglicht, ein effektives, vereinfachtes Buncher-System für die Injektion in HF-Beschleuniger wie RFQs, Zyklotrons, DTLs usw. zu entwerfen, welches kleine Ausgangsemittanzen und beträchtliche Strahltransmissionen erzielt. Um einen mono-energetischen und kontinuierlichen Strahl aus einer Ionenquelle für den Einschuss in eine Hochfrequenz-Beschleunigerstruktur anzupassen, wird eine Energiemodulation benötigt, die im weiteren Verlauf (Driftstrecke) zur Längsfokussierung des Strahls führt. Durch eine Sägezahnwellenform wird die ideale Energiemodulation aufgrund der linearen Abhängigkeit zwischen der Energie der Teilchen und ihren relativen Phasen erreicht. Dies ist jedoch technologisch nicht möglich, da Teilchenbeschleuniger Spannungsniveaus im Bereich kV bis 100 kV benötigen. Dagegen ist für eine solche Zielsetzung eine räumliche Trennung der sinusförmigen Anregung mit der Grundfrequenz und höheren Harmonischen möglich.
Daher wurde in dieser Arbeit ein verbesserter harmonischer Buncher, der sogenannte „Double Drift Harmonic Buncher - DDHB“ entwickelt, welcher zahlreiche Vorteile hat. Eine geringe longitudinale Emittanz sowie finanzielle Aspekte sprechen für diesen Lösungsansatz. Die Hauptelemente eines DDHB Systems sind zwei Kavitäten, die durch eine Driftlänge L1 getrennt sind, wobei der erste Resonator mit der Grundfrequenz bei -90° synchroner Phase und angelegter Spannung V1 und der zweite Resonator bei der zweiten harmonischen Frequenz mit +90 synchroner Phase und angelegter Spannung V2 betrieben werden. Schließlich ist eine zweite Drift L2 am Ende des Arrays für eine longitudinale Strahlfokussierung am Hauptbeschleunigereingang erforderlich. Somit erfüllt ein solcher Aufbau das angestrebte Ziel einer hohen Einfangseffizienz und einer kleinen longitudinalen Emittanz durch Anpassen der vier Designparameter V1, L1, V2 und L2.
Das Verständnis der Fokussierung, ausgehend von einem Gleichstromstrahl, einschließlich der Raumladungskräfte, ist einer der wesentlichen Bestandteile der Strahlphysik. Viele kommerzielle Codes bieten Simulationsmöglichkeiten in diesem Anwendungsbereich. Ihre Ansätze bleiben jedoch dem Anwender meist verborgen, oder es fehlen wichtige Details zur genauen Abbildung des vorliegenden Konzepts. Daher bestand eine Hauptaufgabe dieser Arbeit darin, einen speziellen Multi-Particle-Tracking-Beam-Dynamics-Code (BCDC) zu entwickeln, bei dem der Raumladungseffekt während des Bunch-Vorgangs, ausgehend von einem DC-Strahl berechnet wird. Der BCDC - Code enthält elementare Routinen wie Drift und Beschleunigungsspalt oder magnetische Linse für die transversale Strahlfokussierung und Raumladungsberechnungen unter Berücksichtigung der Auswirkungen der nächsten Nachbar-Bunche (NNB). Der Raumladungsalgorithmus in BCDC basiert auf einer direkten Coulomb- Gitter-Gitter-Wechselwirkung und Berechnungen des elektrischen Feldes durch Lokalisierung der Ladungsdichte auf einem kartesischen Gitter. Um Genauigkeit zu erreichen, werden die Feldberechnungen in Längsrichtung symmetrisch um das zentrale Bucket (βλ-Größe) erweitert, so dass das Simulationsfeld dreimal so groß ist. Die zentrale Teilchenverteilung wird dann nach jedem Schritt in die benachbarten Buckets kopiert. Anschließend werden die resultierenden Felder im Hauptgitterfeld neu berechnet, indem die elektrischen Felder im Hauptgitterfeld mit denen aus den benachbarten Regionen überlagert werden. Ohne diese Methode würde z. B. ein kontinuierlicher Strahl, welcher jedoch in der Simulation nur innerhalb einer Zelle der Länge βλ definiert ist, zu einer resultierenden Raumladungsfeldkomponente Ez an beiden Rändern der Zelle führen. Ein solches unphysikalisches Ergebnis konnte durch die Anwendung der NNB-Technik bereits weitgehend eliminiert werden. Zusätzlich zum NNB-Feature verfügt das BCDC über eine weitere Besonderheit nämlich die sogenannte Raumladungskompensation (SCC). Aufgrund der Ionisierung des Restgases kommt es entlang des Niederenergiestrahltransports zu einer teilweisen Raumladungskompensation, und zwar am und hinter dem Bunchersystem mit unterschiedlichen Prozentsätzen. Eines der Hauptziele des DDHB-Konzepts besteht darin, es für Hochstromstrahlanwendungen zu entwickeln. Dabei ermöglicht die teilweise Raumladungskompensation, dass das Design in der Praxis höhere Stromniveaus erreicht. Dadurch ist das BCDC-Programm ein leistungsstarkes Werkzeug für Simulationen in künftigen, stromstarken Projekten. Proof-of-Principle-Designs wurden in dieser Arbeit entwickelt.
In this thesis, we use lattice QCD to study a part of the QCD phase diagram, specifically the QCD phase transition at mu=0, where the QCD matter changes from hadron gas to quark-gluon plasma (QGP) with increasing temperature.
This phase transition takes place as a crossover, but when theoretically changing the masses of the quarks, the order of the phase transition changes as well.
We focus on the region of heavy quark masses with Nf=2 flavours, where we investigate the critical quark mass at the second order phase transition in the form of a Z2 point between the first-order and the crossover region.
The first-order region is positioned at infinitely heavy quarks. As the quark masses decrease, the associated Z3 centre symmetry breaks explicitly, causing the first-order phase transition to weaken until it turns into the Z2 point and finally into a crossover.
We study this Z2 point using simulations at Nf=2 and lattices of the sizes Nt = {6, 8, 10, 12}, partially building on previous work, in which the simulations for Nt = {6, 8, 10} were started.
The simulations for Nt=12 are not finished yet though, but we were able to draw some preliminary conclusions. These simulations are run on GPUs and CPUs, using the codes Cl2QCD and open-QCD-FASTSUM, respectively. Afterwards, the data goes through a first analysis step in the form of the Python program PLASMA, preparing it for the two techniques we use to analyse the nature of the phase transition.
As a first, reliable analysis method, we perform a finite size scaling analysis of the data to find the location of the Z2 point. Since we are using lattice QCD, performing a continuum extrapolation is necessary to reach the continuum result.
In regard to this, the finite size scaling analysis method is hampered by the excessive amount of simulated data that is needed regarding statistics and the total number of simulations, which is why this thesis is only an intermediate step towards the continuum limit.
This also leads to the second analysis technique we explore in this thesis.
We start to design a Landau theory which describes the phase boundary for heavy masses at Nf=2 based on the simulated data.
We develop a Landau functional for every Nt we have simulation data for.
Albeit the results are not at the same precision as the ones from the finite size scaling analysis, we are able to reproduce the position of the Z2 point for every Nt.
Even though we are not able to take a continuum extrapolation right now, after more development takes place in future works, this approach might, in the long run, lead to a continuum result that won't need as many simulations as the finite size scaling analysis.
This work describes the development and characterization of two instruments and their data evaluation, which contributes to a better understanding of new particle formation and growth, as well as their interactions with clouds. Both instruments were characterized at the Cosmics Leaving Outdoor Droplets (CLOUD) experiment at the European Center for Nuclear Research (CERN).
In der Dissertation werden mit Hilfe der Grounded Theory Methodologie Möglichkeiten und Bedingungen von Museumsangeboten für Menschen mit Demenz erforscht.Die Arbeit versteht sich als erziehungswissenschaftlich-gerontologisch und nimmt dabei die Perspektive einer kritischen Kunst- und Kulturvermittlung ein.
Zentrales Forschungsanliegen der vorliegenden Abhandlung ist die Erörterung der Probleme, welche sich für die Corporate Governance einer Aktiengesellschaft ergeben, wenn abweichend vom gesetzlichen Optimalbild eine Divergenz zwischen dem Stimmrecht des Aktionärs und dessen wirtschaftlicher Betroffenheit vorliegt. Der von seinen Entscheidungen nicht proportional betroffene Aktionär soll als Corporate Governance Akteur in den Blick genommen werden.
Wieso aber lohnt sich eine erneute Befassung mit einem Problem, welches Easterbrook und Fischel bereits 1983 als ein solches identifiziert haben? Zum einen ist die internationale und deutsche Corporate Governance Debatte erheblich vorangeschritten. Steckte diese zum Zeitpunkt des Aufsatzes „Voting in Corporate Law“ noch in den Kinderschuhen, hat sie sich heute zu einem eigenen Forschungsfeld entwickelt, welches Juristen und Ökonomen in aller Welt beschäftigt. Der nicht proportional betroffene Aktionär wird in das durch diese Forschungsströmung entwickelte moderne Corporate Governance System eingeordnet. Zum anderen sind vor allem durch die Entwicklung vielfältiger Finanzderivate im Rahmen der sogenannten „derivatives revolution“ die Möglichkeiten durch schuldrechtliche Vereinbarungen eine entsprechende Disproportionalität zu erzeugen erheblich gestiegen. Während Easterbrook und Fischel noch feststellten „[…] it is not possible to seperate the voting right from the equity interest“, gestatten moderne Finanzprodukte es Aktionären, ihre wirtschaftliche Betroffenheit und zugleich deren Verhältnis zu ihrer Stimmrechtsmacht fast beliebig auszugestalten.
Die Zusammenschau aus einer erheblich diffizileren Corporate Governance Debatte in Verbindung mit einer neuen Vielzahl an Möglichkeiten eine Disproportionalität zwischen Stimmrecht und wirtschaftlicher Betroffenheit zu erzeugen, gibt der Thematik die notwendige Aktualität, die eine vertiefte Befassung anzeigt.
In Abgrenzung zu den bislang in diesem Themenkreis erschienenen Arbeiten, welche sich vor allem isoliert mit den Folgen für das Stimmrecht bzw. den einzelnen Anteilseigner befassen, thematisiert die vorliegende Abhandlung vor allem die Auswirkungen, welche die Trennung von Stimmrecht und wirtschaftlicher Betroffenheit für die Corporate Governance Struktur der Aktiengesellschaft nach sich ziehen kann. Auf diese Weise wird die Problematik der Ausübung disproportionaler Stimmrechte in die Erkenntnisse der Corporate Governance Theorie eingeordnet und insbesondere auch die ökonomischen Folgen selbiger herausgearbeitet. Die so gewonnenen Ergebnisse verdeutlichen den gesetzgeberischen Handlungsbedarf.
G-protein-coupled receptors (GPCRs) comprise the largest transmembrane receptor family encoded in the human genome. GPCRs mediate the effect of a wide diversity of stimuli including light, odorants, ions, lipids, small peptides, and hormones. GPR182 is a GPCR for which no endogenous ligand has been identified yet. In the absence of an identified ligand, GPR182 remained poorly understood, and its biological functions had remained elusive. The presented work shows that GPR182 is highly and specifically expressed in microvascular endothelial cells. Phylogenetically, GPR182 is closely related to the atypical chemokine receptor 3 (ACKR3). Here, I show that GPR182 binds the chemokines CXCL10, -12 and -13. Similarly to other so-called atypical chemokine receptors, GPR182 is not coupled to G-proteins but is rather constitutively internalized following β-arrestin 2 recruitment. Consistent with potential scavenger functions, we detected increased concentration of the chemokines which bind the receptor in the plasma of Gpr182 deficient mice. Finally, we show that GPR182 plays an essential role in maintaining hematopoietic stem cells within the bone marrow niche. In summary, the data indicate that GPR182 is a novel member of the group of atypical chemokine receptors, which plays an important role in the chemokine/chemokine receptor network.