Doctoral Thesis
Refine
Year of publication
- 2022 (237) (remove)
Document Type
- Doctoral Thesis (237) (remove)
Language
- English (134)
- German (101)
- Multiple languages (2)
Has Fulltext
- yes (237)
Is part of the Bibliography
- no (237)
Keywords
- ACLF (2)
- CBM (2)
- Digitalisierung (2)
- HADES (2)
- Leberzirrhose (2)
- Nierentransplantation (2)
- Saccharomyces cerevisiae (2)
- mTOR (2)
- 177Lu-PSMA (1)
- ACKR (1)
Institute
- Medizin (75)
- Biochemie, Chemie und Pharmazie (39)
- Biowissenschaften (32)
- Physik (25)
- Informatik und Mathematik (15)
- Geowissenschaften / Geographie (11)
- Neuere Philologien (8)
- Biochemie und Chemie (6)
- Psychologie und Sportwissenschaften (5)
- Gesellschaftswissenschaften (3)
Auf Grundlage von acht Interviews und der Methodologie der Objektiven Hermeneutik geht diese professionssoziologische Studie sequenzanalytisch folgender Forschungsfrage nach:
„Inwieweit werden die Selbstbilder der Zootierpflegenden durch den Umgang mit Tieren bestimmt und welche expliziten oder auch impliziten Berufsphilosophien lassen sich bei ihnen finden?“
In den analysierten Interviewtranskripten spielen im erzählten Selbstverständnis der Befragten die Auswirkungen der täglichen Mensch-Tier-Interaktionen eine zentrale sinnkonstituierende Rolle. Aus den Interaktionen mit Tieren (mit entsprechenden kognitiven Fähigkeiten) entwickeln Zootierpflegende eine intuitive Hermeneutik und oft eine von Fachkundigkeit getragene Du-Evidenz, die ihnen auf einer prä- und paraverbalen Ebene ein Verstehen des tierlichen Gegenübers ermöglicht. Dieses Verständnis lässt sich weder auf naive Anthropomorphisierungstendenzen zurückführen noch gut Dritten vermitteln, da es sich auf einer unmittelbaren Erlebnisebene realisiert. Diese intuitive Hermeneutik stellt eine zentrale Kompetenz der Zootierpflegenden dar und prägt die Selbstbilder der Zootierpflegenden maßgeblich.
Ein solcher Phänomenzusammenhang lässt sich soziologisch bisher nur schwer erfassen, da unter anderem die Frage nach tierlicher Akteurschaft die Disziplin spaltet und nach wie vor eine konzeptionelle Konfusion auslöst. So wird sie beispielsweise in der sinnverstehenden Soziologie bisher nur in Form von „Als-Ob“-Ansätzen angegangen. (Wiedenmann)
Um die in den Analysen herausgearbeiteten Phänomene einordnen zu können, wird in dieser Arbeit ein sozial-theoretisches Fundament ausgebreitet, welches das Sinnverstehen ‚tiefer hängt‘, also für solche situierten, vorsprachlichen, präsymbolischen Stimmungen und Empfindungen öffnet, die für basalste Verständnisse unter anderem zwischen Tieren und Menschen kandidieren.
Diese Konzeption erhellt einige Grenzbereiche der Sinnstrukturiertheit sozialer Wirklichkeit, indem sie aufzeigt, wie sich das Kontinuum von natürlicher wechselseitiger Wahrnehmung (Georg Herbert Mead und Daniel Stern) hin zur kulturellen Sinnstrukturiertheit (Oevermann) soziologisch erschließen und verstehen lässt. Demnach können sich aus den unmittelbaren Interaktionen zwischen empfindungsfähigen Lebewesen in wechselseitiger Affektabstimmung Protosinnstrukturen realisieren, welche wiederum erst die Bedingung der Möglichkeit von Vermittlung darstellen.
Die Ergebnisse dieser Arbeit ermöglichen ein tiefgehendes Verständnis des bisher oft verkannten Kompetenzprofils der Zootierpflegenden und darüber hinaus lässt sich in Bezug auf die tierliche Akteurschaft mit dem entwickelten Ansatz der immer wieder erhobene menschliche Exklusivitätsanspruch auf Sinn, Bewusstsein und Identität aus einer soziologischen Perspektive hinterfragen.
Forschungsarbeiten sowohl zum IT-Zweig als Leitbranche der Digitalisierung als auch zur gesundheitsfördernden Gestaltung neuer Arbeitswelten haben eine hohe gesellschaftliche Relevanz. Die von der Digitalisierung ausgehenden Veränderungen sind in der Arbeitswelt allgegenwärtig. Trotz einer anfänglichen Humanisierungsvermutung mit Blick auf hoch qualifizierte Wissensarbeit in flexiblen Arbeitsstrukturen zeigen neue Forschungsergebnisse eine Zunahme gesundheitlicher Belastungen in der IT-Branche. Diese Belastungskonstellation erfordert neue Gestaltungsansätze zur Gesundheitsbildung, weil flexibel arbeitende Beschäftigte mit bestehenden klassischen Maßnahmen der betrieblichen Gesundheitsförderung schwer oder gar nicht zu erreichen sind.
Ziel der Arbeit ist die lösungsorientierte Erstellung eines branchen- und online-basierten Präventionskonzepts für alle IT-Beschäftigte. Basierend auf dem Modell der Salutogenese wird ein Training entwickelt, das sich auf die Stärkung von personalen, organisationalen und sozialen Gesundheitsressourcen fokussiert.
Im Mittelpunkt der vorliegenden Arbeit, die der Kategorie der didaktischen Entwicklungsforschung (Johannes Weinberg) zuzuordnen ist, steht die Konzeption und Entwicklung eines Lernprogramms. Als Rahmenmodell dient die gestaltungsorientierte Mediendidaktik unter Berücksichtigung didaktischer Eckpunkte. Das Online-Lernangebot ist in acht Lerneinheiten aufgeteilt. Es werden Lerninhalte zum Arbeits- und Gesundheitsschutz mediendidaktisch aufbereitet und den IT-Beschäftigten und Führungskräften auf der Lernplattform Moodle zur Verfügung gestellt. (Eine ursprünglich angedachte Wirkungsmessung der Implementierung des Lernprogramms im Betrieb konnte pandemiebedingt nicht durchgeführt werden.)
Die weiterbildungsbezogene, betriebs- sowie organisationspädagogische Überlegungen aufgreifende Konzeption ist ein wichtiger Baustein im Rahmen einer Gesamtstrategie des betrieblichen Gesundheitsmanagements. Die präsentierten Handlungshilfen und elektronische Unterweisungen sind auf andere Branchen übertragbar.
Die erstellte Lernumgebung ist kein finales „Produkt“, sondern ein kontinuierlich zu optimierendes Entwicklungsvorhaben, was neben einer noch durchzuführenden Evaluation weitere Möglichkeiten zur Verbesserung der Gesundheit in der digital vernetzten Arbeitswelt eröffnet, um das Thema Gesundheitsbildung verstärkt in den betrieblichen Alltag zu integrieren.
In this thesis we discuss the group Out(Gal_K) of outer automorphism of the absolute Galois group Gal_K of a p-adic number field K. Using results about the mapping class group of a surface S, as well as a result by Jannsen--Wingberg on the structure of the absolute Galois group Gal_K, we construct a large subgroup of Out(Gal_K) arising as images of certain Dehn twists on S.
The dissertation explores to what extent the post-financial crisis EU resolution regime, based on equity/debt write-down and conversion powers and bail-in tools will be effective in maintaining the stability of bank groups. To arrive at its unique angle, it first asks why bank groups are considered complex, thereby explaining the reasons for their proliferation and instability, and how this may inform the view regarding a desired regulatory framework. The main observation the dissertation makes is that, notwithstanding of other factors already pointed out in the literature, bank groups adopt complex structures with multiple entities, as it allows them, inter alia, to use double-leverage financing structures and internal capital markets.
Double-leverage financing structures allow bank groups to optimise the combination of their debt/equity funding from external parent entity investors with a combination of debt/equity funding downstreamed internally to subsidiaries and other entities in the bank group. An important component within this structure is also that the allocation of the bank group’s resources takes place through the internal capital market (ICM). The allocation of resources via the ICM allows bank groups to manage their liquidity constraint either to undertake activities that are more profitable, or to stabilise the financial position of the group as a whole.
While both double leverage and ICMs can optimise the funding and allocation of resources of the bank group, respectively, they can also generate perils to the stability of the bank group. In particular, this is because double-leverage can result in excessive risk taking and regulatory arbitrage. Moreover, the allocation of the intra-group resources in the ICM may not maintain the financial health of all subsidiaries in the bank group, which can prove to be incompatible with the financial stability goals of the regulators in the countries where those subsidiaries conduct their business.
Within this context, the dissertation argues that the current EU resolution regime does not clearly address issues of double leverage when setting out capital and other liability requirements, i.e. the ‘Total Loss Absorbing Capacity’ (TLAC) and ‘Minimum Requirement for Eligible Liabilities’ (MREL) requirements. Moreover, the dissertation emphasis that it is equally relevant to clarify the way in which the bank group resources are available ahead of, and in financial distress. It is argued that to this end, bank groups need to be allowed to make use of the ICM as it is often uncertain what may be the cause of the financial distress and how the resources of the bank group could be used to stabilise it. To this end, the dissertation highlights that there is lack of clarity in both the ex-ante provisions on intra-group support framework and in the ex-post provisions governing the allocation of any surplus TLAC/MREL resources.
Besides the ‘intra-group’ issues within the bank group, the third point the dissertation makes relation to the bank group’s presence in multiple jurisdictions. This transnational element adds to the complexity of the intra-group issues resulting from sub-optimal cooperation between home and host authorities. In this regard, the dissertation underlines that the current framework could adopt a more balanced way in which the regulatory fora will take into account the interest of the authorities of all parts of the bank group.
Haut- und Weichteilinfektionen (Skin and Soft Tissue Infection, SSTI) stellen eine verbreitete Krankheitsentität mit schwierigem Therapiemanagement dar. Im Fokus dieser Arbeit liegt die Wundinfektion. Der aktuelle Goldstandard ist das radikale chirurgische Débridement und die systemische Gabe von antibiotisch wirksamen Stoffen. Dieses Therapieregime kann von der lokalen Antibiotikatherapie flankiert werden, wobei die antibiotisch aktive Substanz entweder allein oder in Kombination mit einem Trägermaterial auf die Wunde aufgebracht wird. Eine Möglichkeit zur lokalen antibiotischen Therapie ist die Besprühung der Wundfläche mit einem Antibiotikum-Fibrinkleber-Gemisch. Es ist nach aktuellem Stand unklar, wie sich die Konzentration von Colistin in einem Zeitraum von vier Stunden nach Besprühung und Fixierung durch Fibrinkleber verhält und mit welcher Applikationsmethode die Wirkstoffkonzentration des Antibiotikums im Gewebe am höchsten ist.
Unter Berücksichtigung geltender Labor- und Tierwohlstandards wurde eine tierexperimentelle Studie an 29 männlichen Ratten aus dem Stamm Wistar durchgeführt. Es wurden vier je 100 mm² große subkutane Wunden auf Muskel-/Faszienniveau auf dem Rücken der Tiere, die unter sterilen Kautelen operativ zugefügt worden waren, entweder nur mit Colistin (C) oder nur gleichzeitig (CF+) oder nur aufeinanderfolgend (CF-) mit Colistin und einem Fibrinkleber besprüht.
Durch flüssigkeitschromatografische und massenspektrometrische Analysen konnten eine Stunde nach Applikation signifikant höhere Gewebekonzentrations¬werte von Colistin A in der Gruppe CF+ gegenüber CF- (p = 0,02) und C (p = 0,00) sowie in der Gruppe CF- gegenüber C (p = 0,00) gemessen werden: mediane Gewebekonzentrationen von Colistin A 185,67 ng/mg (CF+), 89,45 ng/mg (CF-) und 60,95 ng/mg (C). Nach zwei Stunden waren die Unterschiede nicht signifikant. Nach vier Stunden zeigten sich signifikant höhere Werte in der Gruppe CF+ gegenüber C (p = 0,01): mediane Gewebekonzentrationen von Colistin A: 37,00 ng/mg (CF+), 19,03 ng/mg (CF-) und 9,95 ng/mg (C).
Die Fixierung von Colistin durch das Besprühen mit Fibrinkleber stellt eine unkomplizierte und günstige Methode zur lokalen antibiotischen Therapie dar und ergibt eine längere Antibiotikaverfügbarkeit im Gewebe. Eine Stunde nach Applikation liegen in allen Gruppen die höchsten Messwerte vor. Die simultane Besprühung ist die zu bevorzugende Methode. Als zusätzliche Maßnahme neben dem chirurgischen Débridement und der systemischen Antibiotikatherapie kann die Besprühung mit einem Gemisch aus Colistin und Fibrinkleber als ein vielversprechendes Verfahren in der Therapie von Haut- und Weichteilwunden angesehen werden.
Das Neuroblastom ist der am häufigsten vorkommende extrakranielle solide Tumor im Kindesalter. Der klinische Verlauf ist sehr heterogen und reicht von spontaner Regression der Erkrankung bis zum Tod trotz intensiver multimodaler Therapie. Vor allem die Prognose des Hochrisiko-Neuroblastoms hat sich in den letzten 20 Jahren kaum verbessert. Nach wie vor versterben 50% der Patient*innen mit Hochrisiko-Neuroblastom trotz intensiver Therapie. Chemoresistenz zählt zu den größten Problemen der heutigen Krebstherapie. In der AG Cinatl am Institut für Medizinische Virologie des Universitätsklinikum Frankfurt existiert eine Sammlung von adaptierten chemoresistenten Tumorzelllinien (Resistant Cancer Cell Line Collection).
Die humane Neuroblastomzelllinie IMR5 und ihre chemoresistenten Sublinien (adaptiert gegen Cisplatin, Gemcitabin, Vincristin und Doxorubicin) wurden in der vorliegenden Arbeit zunächst hinsichtlich der Resistenzmechanismen charakterisiert. In IMR5 wurde durch die Adaption an Vincristin und Doxorubicin eine MDR1-Expression induziert, nicht jedoch durch Adaption an Gemcitabin und Cisplatin. MDR1 vermittelt in IMR5 die Kreuzresistenz zwischen Vincristin und Doxorubicin. Anhand der Daten kann von einer Kreuzresistenz der Vincristin und Doxorubicin adaptierten Sublinien zu anderen MDR1-abhängigen Substraten ausgegangen werden. Verapamil wurde zur Revertierung der MDR1-vermittelten Resistenz verwendet. In der Sequenzierung des TP53-Gens konnte bei allen IMR5-Sublinien Wildtyp-TP53 mit dem Polymorphismus P72R bestätigt und somit TP53-Mutationen als Resistenzmechanismus ausgeschlossen werden. Auch gegen den MDM2-Inhibitor und p53-Aktivator Nutlin-3 zeigen die resistenten Sublinien keine signifikanten Unterschiede. Die Adaptierung hat in keiner Sublinie zu TP53-Mutationen geführt.
Des Weiteren wurde die Wirksamkeit von vier PARP-Inhibitoren (Olaparib, Rucaparib, Niraparib, Talazoparib) in den resistenten IMR5-Sublinien getestet. Talazoparib zeigt sich dabei als der wirksamste PARP-Inhibitor mit IC50-Werten im nM-Bereich. Eine Kreuzresistenz der MDR1-exprimierenden Sublinien IMR5rVCR10 und IMR5rDOXO20 zu den als MDR1-Substraten bekannten PARP-Inhibitoren Olaparib, Rucaparib und Talazoparib konnte ebenfalls nachgewiesen und auf die MDR1-Expression zurückgeführt werden. Auffällig ist die gleich starke Wirksamkeit von Niraparib in allen Sublinien, unabhängig von der Adaption und des MDR1-Status der jeweiligen IMR5-Sublinie. Niraparib ist somit sehr interessant für die klinische Anwendung.
IMR5rCDDP1000 zeigt trotz nur geringer MDR1-Expression eine signifikante Kreuzresistenz gegen Rucaparib und Talazoparib. Verapamil zeigt an IMR5rCDDP1000 keine Veränderung der Wirksamkeit der PARP-Inhibitoren. In IMR5rCDDP1000 ist die Kreuzresistenz gegen PARP-Inhibitoren also MDR1-unabhängig. IMR5rGEMCI20 zeigt dagegen gegen alle PARP-Inhibitoren die gleiche Sensitivität wie IMR5 PAR, gegen Olaparib sogar eine Hypersensitivität.
Die Trinukleotidreduktase SAMHD1 ist als Resistenzmechanismus gegenüber Cytarabin und möglicher Biomarker der AML bekannt. Auch in der Neuroblastomzelllinie IMR5 konnte durch den Abbau von SAMHD1 mit VPX-VLPs die Wirksamkeit des Nukleosidanalogons Cytarabin erhöht werden. Die Wirksamkeit des Nukleosidanalogons Gemcitabin konnte durch den Abbau von SAMHD1 in den IMR5-Sublinien nicht erhöht werden. Eine Beteiligung von SAMHD1 an der Hydrolyse von Gemcitabin konnte somit nicht nachgewiesen werden. Außerdem konnte eine Beteiligung von SAMHD1 an der DNA-Reparatur nicht bestätigt werden: Durch den Abbau von SAMHD1 wurde die Wirksamkeit von DNA-schädigenden Cytostatika wie Topotecan und PARP-Inhibitoren nicht erhöht.
Im Verlauf der Arbeit wurde zusätzlich die Olaparib-resistente Sublinie IMR5rOLAPARIB20 etabliert. Die erworbene Resistenz gegen Olaparib wurde bestätigt, die Zelle zeigt zusätzlich eine MDR1-unabhängige Kreuzresistenz zu Niraparib, Rucaparib und Talazoparib. Die Resistenz beruht wahrscheinlich auf der verminderten Expression von PARP. In IMR5rOLAPARIB20 erhöht der Abbau von SAMHD1 mit VPX-VLPs wie erwartet die Wirksamkeit von Cytarabin, zeigt aber keinen Einfluss auf die Toxizität von PARP-Inhibitoren. Erstaunlicherweise konnte eine erhöhte Wirksamkeit von PARP-Inhibitoren in Kombination mit VPR-VLPs in IMR5 PAR und IMR5rOLAPARIB20 gezeigt werden. PARP-Inhibitoren werden bereits bei soliden Tumoren wie Eierstock- und Brustkrebs eingesetzt und könnten in Kombination mit VPR-VLPs eine weitere Therapiemöglichkeit des Neuroblastoms sein.
The heart is the first functional organ that develops in the embryo. To become a functional organ, it undergoes several morphogenetic processes. These morphogenetic events involve different cell types, that interact with each other and respond to the surrounding extracellular matrix, as well as intrinsic and extrinsic mechanical forces, assuming different behaviors. Additionally, transcription factor networks, conserved among vertebrates, control the development.
To have a better understanding of cell behavior during development, it is necessary to find a model system that allows the investigation in vivo and at single-cell resolution. Thanks to the common evolutionary origin of the different cardiac structures, together with the conserved molecular pathways, the two-chambered zebrafish heart offers many advantages to study cell behavior during cardiac morphogenesis. Here, using the zebrafish heart as a model system, I uncovered the cell behavior behind two of the main cardiac morphogenetic events: cardiac wall maturation and cardiac valve formation.
In the first part of this study, I investigated how the cardiac wall is maintained at the molecular level. Using genetic, transcriptomic, and chimeric analyses in zebrafish, we find that Snai1b is required for myocardial wall integrity. Global loss of snai1b leads to the extrusion of CMs away from the cardiac lumen, a process we show is dependent on cardiac contractility. Examining CM junctions in snai1b mutants, we observed that N-cadherin localization was compromised, thereby likely weakening cell-cell adhesion. In addition, extruding CMs exhibit increased actomyosin contractility basally, as revealed by the specific enrichment of canonical markers of actomyosin tension - phosphorylated myosin light chain (active myosin) and the α-catenin epitope α-18. By comparing the transcriptome of wild-type and snai1b mutant hearts at the early stages of CM extrusion, we found the dysregulation of intermediate filament genes in mutants including the upregulation of desmin b. We tested the role of desmin b in myocardial wall integrity and found that CM-specific desmin b overexpression led to CM extrusion, recapitulating the snai1b mutant phenotype. Altogether, these results indicate that Snai1 is a critical regulator of intermediate filament gene expression in CMs and that it maintains the integrity of the myocardial epithelium during embryogenesis, at least in part by repressing desmin b expression.
In the second part of this study, I focused on the behavior of valve cells during cardiac development. Using the zebrafish atrioventricular valve, I focus on the valve interstitial cells which confer biomechanical strength to the cardiac valve leaflets. We find that initially AV endocardial cells migrate collectively into the cardiac jelly to form a bilayered structure; subsequently, the cells that led this migration invade the extracellular matrix (ECM) between the two EC monolayers, undergo an endothelial-to-mesenchymal transition as marked by loss of intercellular adhesion, and differentiate into VICs. These cells proliferate and are joined by a few neural crest-derived cells. VIC expansion and a switch from a pro-migratory to an elastic ECM drive valve leaflet elongation. Functional analysis of Nfatc1 reveals its requirement during VIC development. Zebrafish nfatc1 mutants form significantly fewer VICs due to reduced proliferation and impaired recruitment of endocardial and neural crest cells during the early stages of VIC development. Analysis of downstream effectors reveals that Nfatc1 promotes the expression of twist1b, a well-known regulator of epithelial-to-mesenchymal transition. This study shows for the first time that Nfatc1 regulates zebrafish VICs formation regulating valve EMT in part by regulating twist1b expression. Moreover, it proposes the zebrafish valve as an excellent model to study the cellular and molecular process that regulate VIC development and dysfunction.
In conclusion, my work: 1) identified an unsuspected role of Snai1 in maintaining the integrity of the myocardial epithelium, opening new avenues in its role in regulating cellular contractility; 2) uncovered the function of Nfatc1 in the establishment of the VIC, establishing a new model to study valve development and function.
Aortic valve (AV) and root replacement with composite graft and re-implantation of coronary arteries described first by Bentall and de Bono in 1968, is considered as a standard operation for treatment of different pathologies of the AV and aortic root. In centres where aortic valve and root repair techniques and Ross operation are well established, generally severely diseased patients remain indicated for this procedure. The aim of this study was to evaluate the early and long-term outcomes after Bentall-De Bono (BD) procedures in high-risk population with complex pathologies and multiple comorbidities.
Between 2005 and 2018, a total of 273 consecutive patients (median age 66 years; 23 % female) underwent AV and root replacement with composite-graft in so called button technique. We divided our population in the following groups: 1. acute type A aortic dissection group (ATAAD) (n = 48), 2. endocarditis group (n = 99) and 3. all other pathologies group (n = 126). The surgery has been per- formed emergent/urgent in 131 patients (49 %) and in 109 cases (40%) as a reoperation. Concomitant surgery was required in 97 patients (58%) and 167 pa- tients (61%) received a biological composite-graft.
Follow-up was completed in 96% (10 patients lost to follow-up) with a mean of 8.6 years (range 0.1-15.7 years), counting a total of 1450 patient-years. Thirty- day mortality was 17% (46 patients). The overall estimated survival in 5 and 10 years was 64% ± 3%) and 46% ±4 %). Group comparison showed a significant difference in favour of patient from the dissection group (p = 0.008). Implantation of a biological valve graft was associated with lower survival probability (p < 0.001). There was no significant difference in the freedom of reoperation rate between the groups. The same applies for freedom of postoperative endocarditis, thromboembolic events, and aortic prosthesis dysfunction. According to the uni- variate and multivariate logistic regression analysis primarily postoperative neu- rological dysfunction (OR 5.45), hypertension (OR 4.8) peripheral artery disease (OR 4.4), re-exploration for bleeding (OR 3.37) and postoperative renal replace- ment therapy (OR 3.09) were identified as leading predictors of mortality.
In conclusion, the BD operation can be performed with acceptable short- and long-term results in high-risk patients with complex aortic pathologies in a centre with well-established AV repair and Ross operation program.
Im Zentrum dieser Arbeit steht die Diagnostik eines Wasserstoff-Theta-Pinch-Plasmas hinsichtlich der integrierten Elektronen- und Neutralgasdichte mittels Zweifarben Interferometrie. Die integrierte Elektronen- und Neutralgasdichte sind essenzielle Größen, aus welchen sich die Ratenkoeffizienten der Ionisation und Rekombination bei einer Plasma-Ionenstrahl-Wechselwirkung bestimmen lassen.
Ein Theta-Pinch-Plasma ist ein induktiv gezündetes Plasma, wobei das zur Zündung notwendige elektrische Feld durch ein magnetisches Wechselfeld generiert wird. Das induzierte, azimutale elektrische Feld beschleunigt freie Elektronen im Arbeitsgas, welches durch Stoßionisation in den Plasmazustand gebracht wird. Der azimutale Plasmastrom erzeugt einen radialen magnetischen Druckgradienten, der das Plasma komprimiert. Da in axialer Richtung keine Kompressionskraft wirkt, weicht das Plasma einer weiteren Kompression aus, wodurch es zu einer axialen Expansion des Plasmas kommt. Die Expansion erzeugt eine Ionisationswelle im kalten Restgas und es wird eine lange, hoch ionisierte Plasmasäule gebildet.
Dieser hochdynamische Prozess ist mit einem Mach-Zehnder-Interferometer bei der Verwendung von zwei verschiedenen Versionen des Theta-Pinchs zeitaufgelöst untersucht worden. Der Unterschied dieser Versionen liegt in der Geometrie und Induktivität der Spulen, wobei zum einen eine zylindrische und zum anderen eine sphärische Spule eingesetzt worden ist. Das grundlegende Messprinzip beruht darauf, dass das Plasma einen Brechungsindex besitzt, welcher von den Dichten der im Plasma enthaltenen Teilchenspezies abhängt. In einem Wasserstoffplasmas sind dies der Beitrag der freien Elektronen und der des Neutralgases, wodurch ein Zweifarben-Interferometer eingesetzt wird. Um eine von den Laserintensitäten unabhängige Messung zu ermöglichen, wird das heterodyne Verfahren benutzt, bei dem die Referenzstrahlen beider Wellenlängen jeweils mit einem akusto-optischen Modulator frequenzverschoben werden. Durch einen Vergleich mit einem stationären Referenzsignal mittels eines I/Q-Demodulators wird die interferometrische Phasenverschiebung aus dem Messsignal extrahiert.
Mit diesem diagnostischen Verfahren ist die integrierte Elektronen- und Neutralgasdichte des Theta-Pinch-Plasmas bei Variation des Arbeitsdrucks und der Ladespannung der Kondensatorbank untersucht worden. Mit der zylindrischen Experimentversion ist eine optimale Kombination aus integrierter Elektronendichte und effektivem Ionisationsgrad η von (1,45 ± 0,04) · 1018 cm−2 bei η = (0,826 ± 0,022) bei einem Arbeitsdruck von 20 Pa und einer Ladespannung von 16 kV ermittelt worden. Dagegen beträgt die optimale Kombination bei einem Arbeitsdruck von 20 Pa und einer Ladespannung von 18 kV bei Verwendung der sphärischen Experimentversion lediglich (1,23 ± 0,03) · 1018 cm−2 bei η = (0,699 ± 0,019).
Des Weiteren ist bei beiden Experimentversionen nachgewiesen worden, dass die integrierte Elektronendichte dem oszillierenden Strom folgend periodische lokale Maxima zeigt, welche zeitlich mit signifikanten Einbrüchen in der integrierten Neutralgasdichte zusammenfallen. Diese Einbrüche werden durch die axiale Expansion des Plasmas und der damit verbundenen Ionisationswelle im Restgas erzeugt. Neben diesem zentralen Teil dieser Arbeit ist eine lasergestützte polarimetrische Diagnostik durchgeführt worden, mit der die longitudinale Komponente der magnetischen Flussdichte der Theta-Pinch-Spulen zeit- und ortsaufgelöst bestimmt worden ist. Als Messprinzip ist der Faraday-Effekt eines magneto-optischen TGGKristalls verwendet worden.
Vor der polarimetrischen Diagnostik ist der TGG-Kristall bezüglich seiner Verdet- Konstante kalibriert worden, wobei ein Wert von V = (−149,7 ± 6,4) rad/Tm gemessen worden ist. Die ortsaufgelöste polarimetrische Diagnostik ist durch einen Seilzug ermöglicht worden, mit dem der TGG-Kristall auf einem Schlitten an unterschiedliche Positionen entlang der Spulenachse gefahren werden konnte. An den jeweiligen Messpunkten ist für beide Experimentversionen die magnetische Flussdichte für verschiedene Ladespannungen zeitaufgelöst bestimmt worden. Als Messverfahren ist dabei das Δ/Σ-Verfahren eingesetzt worden, mit dem sich eine intensitätsunabhängige Messung erzielen ließ.
Die ortsaufgelösten Messergebnisse fallen gegenüber Simulationen allerdings zu niedrig aus. Bei der zylindrischen Spule betragen die Abweichungen im Spulenzentrum circa 14 - 16% und bei der sphärischen Spule in etwa 16 - 18%. Bei einer Normierung der Messwerte und der simulierten Werte auf den jeweiligen Wert im Zentrum ist dagegen innerhalb der Fehler eine völlige Übereinstimmung zwischen den Messwerten und der Simulation für die zylindrische Spule erzielt worden. Als Ursache der negativen Abweichungen wird die Hysterese des TGG-Kristalls diskutiert. Es zeigt sich insbesondere zu Beginn der Entladung eine zeitliche Verzögerung der gemessenen magnetischen Flussdichte gegenüber dem Strom, die in der Umgebung des Stromnulldurchgangs besonders stark ausgeprägt ist.
While B-cell acute lymphoblastic leukaemia (B-ALL) can be described as the leukaemia of childhood, chronic myeloid leukaemia (CML) mostly develops in elderly individuals. Understanding and utilising mechanisms involved in the development and persistence of these leukaemias as possible targets for treatment strategies has received particular interest. Processes that happen in the vicinity of the cancerous cells themselves could influence cancer growth and behaviour and hence can serve as novel targets, leading to the development of two-pronged therapies that act both on leukaemic cells directly as well as their niche. The niche in the case of leukaemia is the bone marrow microenvironment (BMM) where these cells are not only generated but also instructed and protected. As the BMM is situated inside bones that undergo drastic changes and growth processes during the ageing process, the BMM itself is also being altered throughout life. These alterations and the very process of expansion itself may therefore also provide distinct regulatory influences on the cells (healthy or malignant) that are generated inside this niche, leading to the question: Does the age of the bone marrow microenvironment differentially influence the development of (“childhood”) B-ALL versus (“adult”) CML by the release of cytokines?
In previous studies by the host-laboratory the age distribution of B-ALL versus CML in a murine transduction/ transplantation model could be recapitulated; young mice which received the same number of leukaemia-initiating cells as their old counterparts died significantly earlier of B-ALL while showing a significantly delayed clinical course, when they were suffering from CML. The tumour load and other leukaemia-associated parameters also showed a clear disposition towards preferential induction of CML in elderly and B-ALL in younger mice.
In this project we could support the hypothesis that the age of the BMM differentially influences the proliferation of leukaemic cells and thereby the development and persistence of different types of leukaemias by utilising different in vitro culture experiments. Specifically, we could show that young (compared to old) bone marrow
11 stroma cells (BMSC) support the growth of (BCR-ABL1+) B-ALL cells both in a direct, cell on cell co-culture setting, as well as in young BMSC-derived conditioned medium. This supports the hypothesis that varying factors are differentially released from a young versus an old BMM and influence the growth of the leukaemia cells. The opposite might be true for CML cells (BCR-ABL1+ 32D cells); BMSC obtained from old animals showed a tendency to support their growth more profoundly than cells acquired from young animals.
Possible proteins responsible for the distinct regulation of myeloid versus lymphatic leukaemic cells by young versus old BMM have also been studied. We investigated C-X-C motif chemokine 13 (CXCL13) and growth differentiation factor 11 (GDF11) in their effect on leukaemia cells, as both proteins having previously been described to have tumour-modelling properties and age-dependent levels (see below).
We identified an increased secretion of CXCL13, a B-cell chemotactic factor, into conditioned medium from young versus old BMSC. In accordance with this we found migration of B-ALL cells towards BMSC from young compared to old mice to be improved, while adhesion of both B-ALL and CML cells to young versus old BMSC did not show any differences. By blocking CXCL13 the proliferation-supporting effect of young BMSC on B-ALL cells could be diminished. Similar effects could be demonstrated by blocking GDF11.
In the case of CML cells we could observe the opposite effect; blocking CXCL13 and GDF11 increased their proliferation in a co-culture with BMSC. This supported our hypothesis that both cytokines differentially regulate B-ALL and CML behaviour. After the completion of this thesis, another member of the host-laboratory convincingly demonstrated the role of BMM age in the regulation of B-ALL via CXCL13 signalling (see discussion).
The aim of this thesis is to provide a complete and consistent derivation of second-order dissipative relativistic spin hydrodynamics from quantum field theory. We will proceed in two main steps. The first one is the formulation of spin kinetic theory from quantum field theory using the Wigner-function formalism and performing an expansion in powers of the Planck constant. The essential ingredient here is the nonlocal collision term. We will find that the nonlocality of the collision term arises at first order in the Planck constant and is responsible for the spin alignment with vorticity, as it allows for conversion between spin and orbital angular momentum.
In the second step, this kinetic theory is used as the starting point to derive hydrodynamics including spin degrees of freedom. The so-called canonical form of the conserved currents follows from Noether’s theorem.
Applying an HW pseudo-gauge transformation, we obtain a spin tensor and energy-momentum tensor with obvious physical interpretation. Promoting all components of the HW tensors to be dynamical, we derive
second-order dissipative spin hydrodynamics. The additional equations of motion for the dissipative currents are obtained from kinetic theory generalizing the method of moments to include spin degrees of freedom.
Leukemia is a cancer of the blood and bone marrow characterized by an uncontrolled proliferation and accumulation of abnormal white blood cells. Leukemia can be classified based on the course of the disease (acute or chronic) and the blood cell type involved (myeloid or lymphocytic), leading to four main subtypes: acute lymphoblastic leukemia (ALL), acute myeloid leukemia (AML), chronic lymphocytic leukemia (CLL) and chronic myeloid leukemia (CML). Leukemia represents 2.5% of all new cancer cases per year, and survival rates in some leukemias remain low at 40%.
The bone marrow microenvironment (BMM) is a system within the bone marrow comprising cellular and acellular components, all of which play a major role in hematopoiesis, providing the physical space where hematopoietic stem cells (HSCs) reside. The BMM interacts with HSCs, offering a “niche” for those cells and in case of leukemia, the BMM has a supportive role in disease maintenance and progression by supporting Leukemia stem cells (LSCs). One of the components of the BMM are calcium ions. Calcium is the most abundant mineral in the body, a key component of bones and is released by parathyroid hormone (PTH) induced bone remodeling. Calcium ions play a role in the localization, engraftment and adhesion of normal HSC to extracellular matrix (ECM) proteins in the BMM via the calcium sensing receptor (CaSR), thereby maintaining normal hematopoiesis. In addition of a major regulator of calcium homeostasis, CaSR contribute to the development of different cancers, functioning as either tumor suppressor or oncogene, depending on the involved tissue. However, the role of CaSR and its associated pathways in the local BMM for the development of leukemia is poorly understood. We hypothesized that calcium ions released from bone, subject to a fine balance between osteoblasts and osteoclasts, and/or CaSR, contribute to development, progression and response to therapy.
We have shown that the local calcium concentration forms a gradient in the bone marrow niche and in mice with CML is similarly low as in control mice, but significantly higher in mice suffering from BCR ABL1 driven B ALL or MLL AF9 driven AML. Similarly, the calcium concentration in the human BMM was found to be higher in AML than in other leukemias. Regarding the function of calcium in leukemia cells, we found that AML and CML cells respond differently to calcium exposure, with AML cells exhibiting regulation of cellular processes such as adhesion to the ECM protein fibronectin and migration toward CXCL 12, whereas CML cells remained mostly unaltered. Using genetic deletion or overexpression of CaSR in murine models of leukemia, we observed that CaSR acts as tumor suppressor in BCR-ABL1 driven CML and B ALL and as oncogene in AML.
Focusing on AML, our data shows that deficiency of CaSR on LICs leads, on one hand to increased apoptosis, and on the other hand to reduced cell cycle, reactive oxygen species (ROS) production and DNA damage in vivo, which may explain the observed prolongation of survival of mice. Complementary, in vitro experiments demonstrated that cells overexpressing CaSR have a distinct, cancer promoting phenotype compared to wildtype cells. Overexpression of CaSR led to an increase in proliferation, cell cycle, ROS production, DNA damage and reduced apoptosis. We have identified CaSR mediated pathways in AML and shown that CaSR enhances leukemia progression by activating MAPK/ERK and Wnt β catenin signaling. In addition, the CaSR interacting protein filamin A (FLNA) was shown to contribute to aggressive disease in vitro and in vivo. Furthermore, the mechanism underlying the role of CaSR in AML pathogenesis and possible regulation of LSCs was studied. Our findings demonstrated that CaSR ablation reduces myeloid progenitor function and proved that CaSR is required for maintenance of LSC pool by regulating its frequency and function. Further supporting the role of CaSR in LSC maintenance, genes associated with AML stemness and self renewal capacity were upregulated when CaSR was overexpressed and downregulated when CaSR was depleted. Given the role of CaSR in AML, the CaSR antagonist NPS 2143 was tested in vivo. The combination treatment of NPS 2143 with the standard of care, ara C, significantly reduced the tumor burden and prolonged the survival of mice with AML in syngeneic and xenotransplantation experiments. Based on the finding that CaSR functions as a tumor suppressor in CML, treatment of mice with the CaSR agonist cinacalcet in combination with imatinib prolonged survival of mice with CML compared to treatment with the mice given vehicle.
Our results suggest that calcium ions stemming from the calcium-rich BMM via CaSR strongly and differentially influence leukemia progression. As an adjunct to existing treatment therapies, targeting of CaSR with specific pharmacologic antagonists may prolong survival of patients with AML.
Mitochondria are important for cellular health and their dysfunction is linked to a variety of diseases, especially neurodegeneration. Thus, the renewal and degradation of dysfunctional mitochondria is crucial for the well-being of organisms. The selective digestion of damaged mitochondria via the lysosome (mitophagy), is the main pathway to do so.
In my dissertational work, I investigated the connection between protein misfolding, protein import into mitochondria and the degradation of mitochondria via mitophagy. Here, I present a new model for the initiation of mitophagy without collapse of the membrane potential. This model provides the link between protein import into mitochondria, stress signal transduction to the cytosol and the mitochondrial stress sensor PINK1. To comprehensively examine how mitophagy can be triggered, I performed a genome-wide CRISPR knockout screen utilizing the mitophagy reporter mitochondrial mKEIMA. Thereby, I observed numerous novel gene deletions that induce mitophagy. Prominently, I identified an accumulation of gene deletions of the protein import and of protein quality control factors. I validated several of those and examined HSPA9 (mitochondrial HSP70) and LONP1 (a mitochondrial matrix AAA protease) in more detail, regarding their effect on mitophagy and protein import. For this, I used an established fluorescence-based, mitochondrial-targeted EGFP, as well as a newly-developed pulsed-SILAC mass spectrometry approach (mePRODmt). Depletions of both genes resulted in reduced protein import and PINK1-dependent mitophagy. Strikingly, I did not observe any loss of mitochondrial membrane potential, which was hitherto believed to be essential for activation of PINK1-mediated mitophagy. Literature shows that certain mitochondrial stressors can also induce mitophagy without mitochondrial membrane depolarization, which I confirmed with my assays. Next, I characterized the impact of LONP1 and HSPA9 depletion, which are involved in proteostasis maintenance, and the mtHSP90 inhibitor GTPP on mitochondrial protein folding in more detail. GTPP treatment and LONP1 depletion both resulted in the accumulation of an insoluble protein fraction, as judged by proteomic analysis. This insoluble protein fraction enriched several components of the presequence translocase-associated motor PAM, including TIMM44. TIMM44 acts as a link between the translocon, the import pore of the inner mitochondrial membrane (TIM) complex and the PAM complex. Thus, I hypothesized that TIMM44 dissociates from the TIM complex upon protein folding stress, when it becomes part of the insoluble protein fraction. To validate this model, I measured the TIMM44 interactome upon proteostasis disturbance using proximity labeling. Indeed, interaction of TIMM44 with the import pore was almost completely abolished, explaining the loss of matrix-targeted import upon protein folding stress. From these findings, I reasoned that an import reduction mediated by the PAM complex would likely also inhibit the degradation of PINK1. Consistent with this hypothesis, I observed that mitophagy induced by HSPA9 or LONP1 deletion was prevented when PINK1 was genetically deleted. In comparison, non-processed PINK1 was stabilized on mitochondria in wild type cells when mitochondrial protein import was impaired. On this basis, I drew the conclusion that the loss of mitochondrial import was the stress signal, which leads to the stabilization of PINK1, as it could not be processed anymore via the inner mitochondrial membrane protease PARL. PINK1 auto-activates itself upon accumulation and signals to the cytosol that this mitochondrion is damaged. Mitophagy is subsequently initiated by the ubiquitin kinase activity of PINK1. As a result, the autophagy apparatus gets activated, damaged mitochondria are engulfed by a double membrane and removed via lysosomal digestion. This proposed model is, to the best of my knowledge, the first to provide an explanation for protein folding stress-induced and protein import inhibition-triggered mitophagy without mitochondrial depolarization. The model thus extends the PINK1/PARKIN-dependent mitophagy pathway to milder stresses and clears some of the open questions in the field. Furthermore, this work is also important, because protein misfolding stress and dysfunctional mitochondria are two hallmarks of neurodegeneration. In particular, mitochondrial protein import inhibition during Parkinson’s and Huntington disease might be driver of mitochondrial dysfunction. Hence, I hope and anticipate that the newly developed protein import method, mePRODmt, and the proposed model will be beneficial to further characterize underlying processes and to establish which factors prevent or drive these disorders on molecular level.
This thesis is concerned with the study of symmetry breaking phenomena for several different semilinear partial differential equations. Roughly speaking, this encompasses equations whose symmetries are not necessarily inherited by their solutions, which is particularly interesting for ground state solutions.
Die Multiple Sklerose (MS) ist die häufigste nicht-traumatische, autoimmun-vermittelte Erkrankung des zentralen Nervensystems (ZNS), welche vor allem bei jüngeren Patienten mit Invalidisierung und anhaltenden neurologischen Defiziten einhergehen kann.
Im Rahmen eines optimalen Therapiekonzepts wurden deshalb immer neuere und potentere Medikamente eingeführt. Mit den Sphingosin-1-Phosphat-Rezeptor-1 (S1P1) -Agonisten Fingolimod und Siponimod sind seit mehreren Jahren Medikamente auf dem Markt deren Wirksamkeit bewiesen, jedoch die genauen Wirkprinzipien noch nicht vollends verstanden sind. Angenommen wurde bisher eine Lymphozytendepletion aufgrund einer Hemmung der Lymphozyteninfiltation ins ZNS über den ubiquitär exprimierten, G-protein gekoppelten S1P1-Rezeptor. Neben Wirksamkeiten im Bereich des Immunsystems spielt der S1P1-Rezeptor und sein natürliches Substrat, das S1P, in vielen essenziellen Bereichen eine entscheidende Rolle, unter anderem in der Ausbildung und Reifung des vaskulären Systems in der Embryogenese.
Die genaue Untersuchung des S1P1-Signalwegs in-vivo gestaltete sich deshalb erschwert, da S1P1-Knock-Out-Mäuse einen letalen Phänotyp ausbilden. Jedoch deuten immer mehr Untersuchungen auch auf eine direkte S1P1-Rezeptor-vermittelte Wirksamkeit von Fingolimod auf Zellen des ZNS hin, somit eine Wirkung über die bisher bekannte Lymphozytenaffektion hinaus. Eine genaue Darstellung der im ZNS-beteiligten Zellen und ihrer S1P1-Aktivität gelang bisher auf zellulärer Ebene nicht.
Mit dem in dieser Arbeit genutzten Mausmodell der genmodifizierten S1P1-Signaling-Maus sollte erstmals eine lokoregionale und zelluläre Untersuchung der am S1P1-Signalweg beteiligten Zellen im Rahmen von physiologischen und experimentellen autoimmunen Enzephalomyelitis (EAE)-Bedingungen im ZNS erfolgen. Hierbei entspricht die EAE weitgehend einem tierexperimentellen Korrelat der menschlichen MS. Bei Aktivierung eines S1P1-Rezeptors bei der S1P1-Signaling-Maus erfolgt durch eine gekoppelte Signalkaskade eine konsekutive Expression eines Histonproteins, welches an ein grün-fluoreszierendes Protein gekoppelt ist. Es resultiert eine grüne Fluoreszenz des Zellkerns der betroffenen Zelle. Bei der Kontroll-Maus findet sich keine Kopplung zwischen Rezeptor und im Zellkern befindlicher Proteine.
Hierbei konnte mit Hilfe von Immunhistochemie sowie der quantitativen Methode der Durchflusszytometrie ein S1P1-Signaling in peripheren Organen wie beispielweise der im Rahmen der MS bedeutsamen Milz nachgewiesen werden. Dadurch eröffnen sich Einblicke in Migrationsverhalten und Zusammensetzung der Lymphozyten-Subtypen und deren S1P1-Signaling im Rahmen von physiologischen Bedingungen und unter EAE-Bedingungen.
Die Darstellung des S1P1-Signalings im ZNS, als Hauptmanifestationsort der MS, gelang unter Zuhilfenahme der EAE mit dem genmodifizierten Mausmodell jedoch nicht. Da sich keine Unterschiede in der GFP-Expression zwischen der Signaling-Maus und der heterozygoten Kontroll-Maus zeigen, sind keinerlei Rückschlüsse auf ein echtes S1P1-Signaling möglich. Es zeigen sich zwar deutliche Expressionsunterschiede des GFP im Vergleich erkrankter und gesunder Versuchstiere, Rückschlüsse auf eine echte S1P1-Aktivität konnten jedoch nicht getroffen werden.
Zusammenfassend eignet sich das hier genutzte Mausmodell der genmodifizierten S1P1-Maus zur Untersuchung peripherer Organe und ihrem S1P1-Signaling, z.B. zur Untersuchung kardiovaskulärer Fragestellungen oder zur dezidierteren Veranschaulichung peripher lymphatischer Prozesse.
Zur Untersuchung ZNS-eigener Zellen sowie zur Beantwortung der Frage, ob und wie sie über den S1P1-Rezeptor agieren, bedarf es jedoch noch der Entwicklung eines geeigneteren Tiermodells.
Die bereits erprobte Möglichkeit der Biolumineszenz zeigte in vorherigen Untersuchungen zwar eine S1P1-Aktivität in-vivo, jedoch sind hier keinerlei Untersuchungen auf zellulärer Basis möglich, sodass mit dem aktuellen Stand der Forschung ein direkter Nachweis der S1P1-Aktivität auf zellulärer Ebene im ZNS nicht möglich ist.
Extreme convective precipitation events are among the most severe hazards in central Europe and are expected to intensify under global warming. However, the degree of intensification and the underlying processes are still uncertain. In this thesis, recent advances in continuous, radar-based precipitation monitoring and convection-permitting climate modeling are used to investigate Lagrangian properties of convective rain cells such as precipitation intensity, cell area, and precipitation sum and their relationship to large-scale, environmental conditions.
Firstly, convective precipitation objects are tracked in a gauge-adjusted radar-data set and the properties of these cells are related to large-scale environmental variables to investigate the observed super-Clausius-Clapeyron (CC) scaling of convective extreme precipitation. The Lagrangian precipitation sum of convective cells increases with dew point temperature at rates well above the CC-rate with increasing rates for higher dew point temperatures. These varying, high rates are caused by a covarying increase of CAPE with dew point temperature as well as the effect of high vertical wind shear causing an increase in cell area and thus precipitation sum. At the same time, cells move faster at high vertical wind shear so that Eulerian scaling rates are lower than Lagrangian but still above the CC-rate. The results show that wind shear and static instability need to be taken into account when transferring precipitation scaling under current climate conditions to future conditions. Secondly, the representation of convective cell properties in the convection-permitting climate model COSMO-CLM is evaluated. The model can simulate the observed frequency distributions of cell properties such as lifetime, area, mean and maximum intensity, and precipitation sum. The increase of area and intensity with lifetime is also well captured despite an underestimation of the intensity of the most severe cells. Furthermore, the model can represent the temperature scaling of intensity, area, and precipitation sum but fails to simulate the observed increase of lifetime. Thus, the model is suitable to study climatologies of convective storms in Germany. Thirdly, two COSMO-CLM projections at the end of the century under emission scenario RCP8.5 were investigated. While the number of convective cells and their lifetime remain approximately constant compared to present conditions, intensity and area increase strongly. The relative increase of intensity and area is largest for the highest percentiles meaning that extreme events intensify the most. The characteristic afternoon maximum of convective precipitation is damped, and shifted to later times of day which leads to an increase of nighttime precipitation in the future. Scaling rates of cell properties with dew point temperature are nearly identical in present and future in the simulation driven by the EC-Earth model which means that the upper limit of cell properties like intensity, area, and precipitation sum could be predicted from near-surface dew point temperature. However, this result could not be reproduced by the simulation driven by MIROC5 and needs further investigation.
Ziel: Obwohl es eine Fülle an Literatur zur Messung der Jodaufnahme mittels Dual-Energy-CT bei unterschiedlichen Pathologien gibt, wurden bisher noch keine zuverlässigen physiologischen Referenzwerte für diese Messtechnik bestimmt. Aus diesem Grund wurde die Jodaufnahme von morphologisch gesunden abdominellen Organen sowie Organen des Beckens in einer großen Studienkohorte untersucht.
Material und Methoden: Aufeinanderfolgende portalvenöse abdominelle DECT-Aufnahmen wurden überprüft und morphologisch gesunde Untersuchungsunterlagen wurden eingeschlossen (n=599; weiß/asiatisch=574, durchschnittliches Alter=58 ± 16,6Jahre; 263w/ 336m). ROI-Messungen wurden in den folgenden anatomischen Regionen durchgeführt (Anzahl der ROIs): Leber (9), Pankreas (3), Milz (3), Nebenniere (2), Nieren (6), Prostata (4), Uterus (2), Blasenwand (1) und Lymphknoten (3). Die Jodaufnahme wurde zwischen unterschiedlichen Organen verglichen und eine Subgruppenanalyse fand statt (jung vs alt/ männlich vs weiblich/niedriger BMI vs. hoher BMI).
Ergebnisse: Die gesamte Jodaufnahme war wie folgt (mg/ml): Leber=1,96 ± 0,59, Pankreas=2,07 ± 0,58, Milz=2,45 ± 0,66, Nebenniere=1,61 ± 0,43, Nieren=6,1 ± 1,32, Prostata=1,1 ± 0,53, Uterus=1,01 ± 0,68, Blasenwand=0,69 ± 0,26 und Lymphknoten=0,71 ± 0,28.
Bei Frauen kommt es zu einer höheren Jodaufnahme in der Leber (2,12 ± 0,54 vs 1,84 ± 0,43 mg/ml), Pankreas (2,27 ± 0,54 vs 1,91±0,46 mg/ml), Milz (2,7 ± 0,64 vs 2,3 ± 0,51 mg/ml), Nebenniere (1,72 ± 0,47 vs 1,52 ± 0,39 mg/ml) und Niere (6,6 ± 1,31 vs 5,65 ± 1,1 mg/ml) als bei Männern (P < 0,001). In älteren Patienten nimmt die Jodaufnahme in der Leber (1,80 ± 0,45 vs 2,04 ± 0,52 mg/ml), im Pankreas (1,87 ± 0,46 vs. 2,21 ± 0,52 mg/ml) und der Milz (2,21 ± 0,46 vs 2,64 ± 0,65 mg/ml) verglichen mit jüngeren Studienteilnehmern zu (P ≤ 0.040). Einzig im Uterus präsentierten sich niedrigere Werte in älteren Frauen (01,31 ± 0,72 vs 0,75 ± 0,46 mg/ml, P < 0,001). Bei Patienten mit einem hohen BMI kommt es in der Leber (2,32 ± 0,54 vs. 1,84 ± 0,45 mg/ml), im Pankreas (2,54 ± 0,67 vs. 1,95 ± 0,48 mg/ml), in der Milz (2,85 ± 0,66 vs. 2,32 ± 0,55 mg/ml) und in den Nebennieren (1,79 ± 0,38 vs. 1,56 ±0,44 mg/ml) zu einer signifikanten Abnahme der Jodaufnahme (P < 0,001).
Fazit: Die physiologische Jodaufnahme zeigt alters-, geschlechts- und BMI-abhängige Unterschiede für Leber, Pankreas und Milz. Pankreas und Nebennieren zeigen einen höheren Jod Durchfluss in Frauen. Während die Perfusion des Prostataparenchyms sich unverändert über die gesamte Altersspanne zeigt, nimmt die Jodaufnahme des Uterus bei Frauen im Laufe des Lebens ab. Lymphknoten als auch die Blase zeigen sich unbeeinflusst von demographischen Faktoren sowie von der Veränderung des BMI.
Klinische Relevanz: Wir definierten physiologische Referenzwerte für den statischen Durchfluss der abdominellen Organe wie angegeben mittels DECT-Jodaufnahme-Messungen in einer großen Studienkohorte und beschrieben die zusammenhängenden Unterschiede in Bezug auf Alter und Geschlecht. Dies soll die zuverlässige klinische Anwendung erleichtern und zu einer potentiellen Implementierung in zukünftige Richtlinien führen.
Diamant hat besondere physikalische und optische Eigenschaften sowie eine starke Resistenz gegenüber Strahlenschädigung. Diese Eigenschaften ermöglichen eine vielfältige Anwendung von Diamant in Wissenschaft und Technik, wie zum Beispiel als Sensormaterial in Strahlungsdetektoren.
Kubisches Zirconiumdioxid (ZrO2) wird aufgrund seiner mechanisch und optisch ähnlichen Eigenschaften unter anderem an Stelle von Diamant eingesetzt. Es ist ebenfalls ein geeignetes Material für viele technische Anwendungen und wird durch seine Strahlenresistenz in Strahlungsumgebungen verwendet. Da beide Materialien in diesem Anwendungsbereich hoher energetischer Strahlung ausgesetzt sind, sind Reaktionen auf die Bestrahlung wie etwa strukturelle Veränderungen oder die Änderungen von Materialeigenschaften von großem Interesse.
In der vorliegenden Arbeit wurde die Morphologie, Struktur und physikalischen Eigenschaften von Diamant und Yttriumoxid-stabilisiertem kubischem ZrO2 nach der Bestrahlung mit 14 MeV Au-Ionen und 1.6 GeV Au-Ionen untersucht. Die durch die Bestrahlung verursachten Veränderungen der Oberflächen und der bestrahlten Volumina wurden mit diversen komplementären analytischen Methoden charakterisiert, bewertet und für die verschiedenen Materialien und Ionenenergien verglichen.
Mittels Röntgenfluoreszenzmessungen wurde die Verteilung und Menge an implantiertem Au semi-quantitativ ermittelt. Die Oberflächen der Proben wurden mit optischer Mikroskopie, Rasterkraftmikroskopie, Rasterelektronenmikroskopie, Röntgenreflektometrie und Elektronenrückstreubeugung untersucht. Strukturelle Veränderungen wurden mit Raman-Spektroskopie analysiert. Der elektrische Widerstand, die Dichte, die Härte sowie das Ätzverhalten der bestrahlten Proben wurden ermittelt und geben Auskunft über die Änderung physikalischer Eigenschaften der Materialien.
Diamant und kubisches ZrO2 reagieren sehr unterschiedlich auf die Bestrahlung mit Au-Ionen gleicher Energien und Fluenzen. Die Diamantproben zeigen nach der Bestrahlung mit 14 MeV Au-Ionen deutliche Veränderungen und Schädigungen der Oberfläche sowie des bestrahlten Volumens. Es wird eine Änderung der Struktur, der Dichte, der Härte, des elektrischen Widerstands sowie des Ätzverhaltens der Proben beobachtet, was auf die Amorphisierung von Diamant zurückgeführt wird. Kubisches ZrO2 ist deutlich strahlungsresistenter gegenüber der Bestrahlung mit 14 MeV Au-Ionen. Es werden keine signifikanten strukturellen Änderungen im getesteten Fluenzbereich beobachtet.
Die mit 1.6 GeV Au-Ionen bestrahlten Diamanten zeigen nur geringe Schädigungen und keine deutliche Änderung der Struktur oder der physikalischen Eigenschaften. Die kubischen ZrO2 Proben sind als Folge der Bestrahlung mit 1.6 GeV Au-Ionen zerbrochen, was auf hohe interne Spannung durch Defektbildung zurückgeführt wird.
In dieser Arbeit konnte 1,8-Diborylnaphthalin (11) präparativ in einer Stufe und 65% Ausbeute aus dem literaturbekannten Boronsäureanhydrid 9 dargestellt werden. 11 ist das zweite bekannte, aromatisch verbrückte Derivat des Diborans B2H6. 11 kann als Startverbindung für eine Reihe strukturverwandter BNB-dotierter Phenalenderivate verwendet werden. Dazu werden zwei der vier Bor-gebundenen Protonen durch die Umsetzung mit einem Mesitylgrignard und Trimethylsilylchlorid substituiert. Die Umsetzung mit Wasser bzw. Aminen liefert BOB- bzw. BNB-Phenalene unter Freisetzung von elementarem Wasserstoff. Alle, auf diese Weise dargestellten Verbindungen, zeigen reversible Redoxeigenschaften und Photolumineszenz mit zum Teil besonders scharfen Emissionssignalen mit Halbhöhenbreiten von bis zu 31 nm. Zusätzlich wurden drei analoge Vertreter einer NBN-Phenalen Spezies dargestellt und charakterisiert. Die entgegengesetzte Dotierung äußert sich in einem grundlegend verschiedenem Redoxverhalten. Abschließend wurde die Reduktion des BNB-Phenalens 22 untersucht. Dabei gelang es das Radikal K[32] zu charakterisieren und seine Abbaureaktion in THF aufzuklären.
Die vorgelegte Dissertation behandelt den Einfluss homöostatischer Adaption auf die Informationsverarbeitung und Lenrprozesse in neuronalen Systemen. Der Begriff Homöostase bezeichnet die Fähigkeit eines dynamischen Systems, bestimmte interne Variablen durch Regelmechanismen in einem dynamischen Gleichgewicht zu halten. Ein klassisches Beispiel neuronaler Homöostase ist die dynamische Skalierung synaptischer Gewichte, wodurch die Aktivität bzw. Feuerrate einzelner Neuronen im zeitlichen Mittel konstant bleibt. Bei den von uns betrachteten Modellen handelt es sich um eine duale Form der neuronalen Homöostase. Das bedeutet, dass für jedes Neuron zwei interne Parameter an eine intrinsische Variable wie die bereits erwähnte mittlere Aktivität oder das Membranpotential gekoppelt werden. Eine Besonderheit dieser dualen Adaption ist die Tatsache, dass dadurch nicht nur das zeitliche Mittel einer dynamischen Variable, sondern auch die zeitliche Varianz, also die stärke der Fluktuation um den Mittelwert, kontrolliert werden kann. In dieser Arbeit werden zwei neuronale Systeme betrachtet, in der dieser Aspekt zum Tragen kommt.
Das erste behandelte System ist ein sogennantes Echo State Netzwerk, welches unter die Kategorie der rekurrenten Netzwerke fällt. Rekurrente neuronale Netzwerke haben im Allgemeinen die Eigenschaft, dass eine Population von Neuronen synaptische Verbindungen besitzt, die auf die Population selbst projizieren, also rückkoppeln. Rekurrente Netzwerke können somit als autonome (falls keinerlei zusätzliche externe synaptische Verbindungen existieren) oder nicht-autonome dynamische Systeme betrachtet werden, die durch die genannte Rückkopplung komplexe dynamische Eigenschaften besitzen. Abhängig von der Struktur der rekurrenten synaptischen Verbindungen kann beispielsweise Information aus externem Input über einen längeren Zeitraum gespeichert werden. Ebenso können dynamische Fixpunkte oder auch periodische bzw. chaotische Aktivitätsmuster entstehen. Diese dynamische Vielseitigkeit findet sich auch in den im Gehirn omnipräsenten rekurrenten Netzwerken und dient hier z.B. der Verarbeitung sensorischer Information oder der Ausführung von motorischen Bewegungsmustern. Das von uns betrachtete Echo State Netzwerk zeichnet sich dadurch aus, dass rekurrente synaptische Verbindungen zufällig generiert werden und keiner synaptischen Plastizität unterliegen. Verändert werden im Zuge eines Lernprozesses nur Verbindungen, die von diesem sogenannten dynamischen Reservoir auf Output-Neuronen projizieren. Trotz der Tatsache, dass dies den Lernvorgang stark vereinfacht, ist die Fähigkeit des Reservoirs zur Verarbeitung zeitabhängiger Inputs stark von der statistischen Verteilung abhängig, die für die Generierung der rekurrenten Verbindungen verwendet wird. Insbesondere die Varianz bzw. die Skalierung der Gewichte ist hierbei von großer Bedeutung. Ein Maß für diese Skalierung ist der Spektralradius der rekurrenten Gewichtsmatrix.
In vorangegangenen theoretischen Arbeiten wurde gezeigt, dass für das betrachtete System ein Spektralradius nahe unterhalb des kritischen Wertes von 1 zu einer guten Performance führt. Oberhalb dieses Wertes kommt es im autonomen Fall zu chaotischem dynamischen Verhalten, welches sich negativ auf die Informationsverarbeitung auswirkt. Der von uns eingeführte und als Flow Control bezeichnete duale Adaptionsmechanismus zielt nun darauf ab, über eine Skalierung der synaptischen Gewichte den Spektralradius auf den gewünschten Zielwert zu regulieren. Essentiell ist hierbei, dass die verwendete Adaptionsdynamik im Sinne der biologischen Plausibilität nur auf lokale Größen zurückgreift. Dies geschieht im Falle von Flow Control über eine Regulation der im Membranpotential der Zelle auftretenden Fluktuationen. Bei der Evaluierung der Effektivität von Flow Control zeigte sich, dass der Spektralradius sehr präzise kontrolliert werden kann, falls die Aktivitäten der Neuronen in der rekurrenten Population nur schwach korreliert sind. Korrelationen können beispielsweise durch einen zwischen den Neuronen stark synchronisierten externen Input induziert werden, der sich dementsprechend negativ auf die Präzision des Adaptionsmechanismus auswirkt.
Beim Testen des Netzwerks in einem Lernszenario wirkte sich dieser Effekt aber nicht negativ auf die Performance aus: Die optimale Performance wurde unabhängig von der stärke des korrelierten Inputs für einen Spektralradius erreicht, der leicht unter dem kritischen Wert von 1 lag. Dies führt uns zu der Schlussfolgerung, dass Flow Control unabhängig von der Stärke der externen Stimulation in der Lage ist, rekurrente Netze in einen für die Informationsverarbeitung optimalen Arbeitsbereich einzuregeln.
Bei dem zweiten betrachteten Modell handelt es sich um ein Neuronenmodell mit zwei Kompartimenten, welche der spezifischen Anatomie von Pyramidenneuronen im Kortex nachempfunden ist. Während ein basales Kompartiment synaptischen Input zusammenfasst, der in Dendriten nahe des Zellkerns auftritt, repräsentiert das zweite apikale Kompartiment die im Kortex anzutreffende komplexe dendritische Baumstruktur. In früheren Experimenten konnte gezeigt werden, dass eine zeitlich korrelierte Stimulation sowohl im basalen als auch apikalen Kompartiment eine deutlich höhere neuronale Aktivität hervorrufen kann als durch Stimulation nur einer der beiden Kompartimente möglich ist. In unserem Modell können wir zeigen, dass dieser Effekt der Koinzidenz-Detektion es erlaubt, den Input im apikalen Kompartiment als Lernsignal für synaptische Plastizität im basalen Kompartiment zu nutzen. Duale Homöostase kommt auch hier zum Tragen, da diese in beiden Kompartimenten sicherstellt, dass sich der synaptische Input hinsichtlich des zeitlichen Mittels und der Varianz in einem für den Lernprozess benötigten Bereich befindet. Anhand eines Lernszenarios, das aus einer linearen binären Klassifikation besteht, können wir zeigen, dass sich das beschriebene Framework für biologisch plausibles überwachtes Lernen eignet.
Die beiden betrachteten Modelle zeigen beispielhaft die Relevanz dualer Homöostase im Hinblick auf zwei Aspekte. Das ist zum einen die Regulation rekurrenter neuronaler Netze in einen dynamischen Zustand, der für Informationsverarbeitung optimal ist. Der Effekt der Adaption zeigt sich hier also im Verhalten des Netzwerks als Ganzes. Zum anderen kann duale Homöostase, wie im zweiten Modell gezeigt, auch für Plastizitäts- und Lernprozesse auf der Ebene einzelner Neuronen von Bedeutung sein. Während neuronale Homöostase im klassischen Sinn darauf beschränkt ist, Teile des Systems möglichst präzise auf einen gewünschten Mittelwert zu regulieren, konnten wir Anhand der diskutierten Modelle also darlegen, dass eine Kontrolle des Ausmaßes von Fluktuationen ebenfalls Einfluss auf die Funktionalität neuronaler Systeme haben kann.
In der vorliegenden Arbeit wurde die Ionisation von Atomen und Molekülen in starken Laserfeldern experimentell untersucht. Hierbei kam die COLTRIMS-Technik zur koinzidenten Messung der Impulse aller aus einem Ionisationsereignis stammender Ionen und Elektronen zum Einsatz. Unter Mitwirkung des Autors wurde ein COLTRIMS-Reaktionsmikroskop umgebaut und mit einem neuen Spektrometer sowie einer atomaren Wasserstoffquelle ausgestattet. Des Weiteren entstand ein interferometrischer Aufbau zur Erzeugung von Zwei-Farben-Feldern. Aus jedem der vorgestellten Experimente konnten Informationen über die elektronische Wellenfunktion an der Grenze zum klassisch verbotenen Bereich gewonnen werden. Dies geschah sowohl im Hinblick auf die Amplitude, als auch auf die Phase der Wellenfunktion. Mit dem Wasserstoffatom (Kapitel 9), dem Wasserstoffmolekül (Kapitel 10) und dem Argondimer (Kapitel 11) wurden drei Systeme unterschiedlicher Komplexität gewählt.
The intensive use of the North Sea area through offshore activities, sand mining, and the spreading of dredged material is leading to increasing pollution of the ecosystem by chemicals such as hydrophobic organic contaminants (HOCs). Due to their toxicological properties and their ability to accumulate in the environment, HOCs are of particular concern. The contaminants partition between aqueous (pore water, overlying water) and solid phases (sediment, suspended particulate matter, and biota) within these systems. The accumulated contaminants in the sediment are of major concern for benthic organisms, who are in close contact with sediment and interstitial water. It is thus particularly important to better understand how contaminants interact with biota, as these animals may contribute to trophic transfer through the food web. Furthermore, sediments are a crucial factor for the water quality of aquatic systems. They not only represent a sink for contaminants but also determine environmental fate, bioavailability, and toxicity. The Marine Strategy Framework Directive (MSFD) was introduced to protect our marine environment across Europe and includes the assessment of pollutant concentrations in the total sediment, which, however, rarely reflects the actual exposure situation. The consideration of the pollutant concentrations in the pore water is not implemented, although this is needed for the evaluation of bioavailability and risk assessment. For this reason, special attention is given to further development, implementation, and validation of pollutant monitoring methods that can determine the bioavailable fraction in sediment pore water. For risk assessment purposes, it is furthermore important to use biological indicators in addition to classical analytics to determine the effect of pollutants on organisms. The main objective of this thesis was to gain insight into the pollution load and the potential risk of hydrophobic organic chemicals (HOCs) in the sediment of the North Sea and to evaluate these results with regard to possible risks for benthic organisms and the ecosystem. The following five aims are covered within these studies to gain a holistic assessment of sediment contamination:
1. Assessment of the pore water concentrations of PAHs and PCBs
2. Determination of the bioturbation potential by macrofauna analysis
3. Application of the SPME method on biological tissue
4. Assessment of recreated environmental mixtures in passive dosing bioassays
5. Development of SPME method for DDT in sediments
The thesis is comprised of three main studies supported by three additional studies ...
Folgend auf den ersten Realisierungen von Bose-Einstein Kondensaten erschienen weitere innovative Experimente, die sich in den optischen Gittern gefangenen Quantengasen widmeten. In diesen zahlreichen, wissenschaftlichen Untersuchungen konnten die Eigenschaften von Bose-Einstein Kondensaten besser verstanden werden. Das Prinzip von Vielteilchensystemen, gefangen in einem periodischen Potential, bot eine Plattform zur Untersuchung weiterer Quantenphasen.
Eine konzeptionell einfache Modifikation von solchen Systemen erhält man durch die Kopplung der Grundzustände der gefangenen Teilchen an hoch angeregten Zuständen mithilfe einer externen Lichtquelle. Im Falle dessen, dass diese Zustände nahe der Ionisationsgrenze des Atoms liegen, spricht man von Rydberg-Zuständen und Atome, welche zu diesen Zuständen angeregt werden, bezeichnet man als Rydberg-Atome. Eines der vielen charakteristischen Eigenschaften von Rydberg-Atomen ist die Fähigkeit über große Entfernungen jenseits der atomaren Längenskalen zu wechselwirken. Im Rahmen von Vielteilchensystemen wurden dementsprechend Kristallstrukturen aus gefangenen Rydberg-Atomen experimentell beobachtet.
Nun stellt sich die Frage, was mit einem gefangenen Bose-Einstein Kondensat passiert, dessen Teilchen an langreichweitig wechselwirkenden Zuständen gekoppelt sind. Gibt es ein Parameterregime, in dem sowohl Kristallstruktur als auch Suprafluidität in solchen Systemen koexistieren können? Dies ist die zentrale Frage dieser Arbeit, die sich mit der Theorie von gefangenen Quantengasen gekoppelt an Rydberg-Zuständen auseinandersetzt.
Im Sinne einer nachhaltigen Stadt- und Verkehrsentwicklung verspricht das Konzept autoreduzierter Quartiere, die Autonutzung und den Autobesitz der Bewohnenden zu verringern sowie deren autounabhängige Mobilität zu fördern. Der Forschungsstand zeigt indes, dass nicht automatisch davon auszugehen ist, dass die gelebte Praktik der Planungsvision entspricht, da die Mobilität nicht nur von oben herab geplant, sondern auch von unten, also den Bewohnenden selbst sowie den Mobilitätskontexten, geprägt ist.
Anhand zweier autoreduziert entwickelter Quartiere in Darmstadt verfolgt die Arbeit deshalb das Ziel, mittels eines planungskritischen Ansatzes zunächst die Narrative autoreduzierter Quartiere zu identifizieren, um die Planungsvision zu ergründen. Des Weiteren werden mithilfe eines biographisch inspirierten, praxistheoretischen Ansatzes die mobilitätsbezogenen Praktiken autoreduzierter Quartiere sowie etwaige Veränderungen dieser nach dem Wohnortwechsel analysiert, um das Verständnis der Alltagsmobilität und deren Wandel zu verbessern sowie Potenziale und Grenzen der Umsetzung solcher Quartierskonzepte zu ermitteln. Abschließend soll der Vergleich beider Perspektiven dazu beitragen, besser zu verstehen, was eine nachhaltige Stadt- und Verkehrsgestaltung sowie eine autounabhängige Mobilität und ein autofreies Leben unterstützt bzw. behindert.
Zur Identifikation der Narrative wurden Expert*inneninterviews mit verschiedenen Personen durchgeführt, die am Planungs- und Umsetzungsprozess beider Quartiere beteiligt waren. Die Ergebnisse legen nahe, dass die Entwicklung autoreduzierter Quartiere (i) bewusst in die Nachhaltigkeitsdebatte eingebettet und (ii) von Machtverhältnissen geprägt ist sowie (iii) normativen Indikatoren folgt und (iv) deren Planungsideale im Kontrast zur gelebten Realität stehen können.
Zur Analyse der mobilitätsbezogenen Praktiken sowie der Veränderungen derselben wurden Bewohnende qualitativ interviewt. Dabei zeigt sich, dass der materielle Kontext eines autoreduzierten Quartiers sowie die persönlich-zeitlichen und soziokulturellen Kontexte der Mobilitätspraktiken die Autounabhängigkeit der Bewohnenden stabilisieren und fördern. Behindert wird sie dagegen vom materiellen Kontext außerhalb der Quartiere, der Verwobenheit des Autofahrens mit anderen Alltagspraktiken sowie der affektiven Zufriedenheit mit der Autonutzung und dem Autobesitz.
Aus dem Vergleich beider Erhebungen und damit der Gegenüberstellung der Planungsvision mit der gelebten Praktik lässt sich schlussfolgern, dass trotz feststellbarer Unterschiede die Realität im autoreduzierten Quartier größtenteils dem Ideal einer autounabhängigen Mobilität entspricht. Dagegen erweisen sich ein autofreies Leben und die Parkrestriktionen weiterhin als kontroversere Themen. Schließlich offenbart die Arbeit sowohl Veränderungen in der Mobilitätsgestaltung von oben als auch in der Mobilitätspraktik von unten, gleichzeitig aber auch persistente automobile Abhängigkeiten, weshalb sie im Sinne der Verkehrs- und Mobilitätswende einen kontinuierlichen materiellen und immateriellen Wandel fordert.
The relevant field of interest in High Energy Physics experiments is shifting to searching and studying extremely rare particles and phenomena. The search for rare probes requires an increase in the number of available statistics by increasing the particle interaction rate. The structure of the events also becomes more complicated, the multiplicity of particles in each event increases, and a pileup appears. Due to technical limitations, such data flow becomes impossible to store fully on available storage devices. The solution to the problem is the correct triggering of events and real-time data processing.
In this work, the issue of accelerating and improving the algorithms for reconstruction of the charged particles' trajectories based on the Cellular Automaton in the STAR experiment is considered to implement them for track reconstruction in real-time within the High-Level Trigger. This is an important step in the preparation of the CBM experiment as part of the FAIR Phase-0 program. The study of online data processing methods in real conditions at similar interaction energies allows us to study this process and determine the possible weaknesses of the approach.
Two versions of the Cellular Automaton based track reconstruction are discussed, which are used, depending on the detecting systems' features. HFT~CA Track Finder, similar to the tracking algorithm of the CBM experiment, has been accelerated by several hundred times, using both algorithm optimization and data-level parallelism. TPC~CA Track Finder has been upgraded to improve the reconstruction quality while maintaining high calculation speed. The algorithm was tuned to work with the new iTPC geometry and provided an additional module for very low momentum track reconstruction.
The improved track reconstruction algorithm for the TPC detector in the STAR experiment was included in the HLT reconstruction chain and successfully tested in the express production for the online real data analysis. This made it possible to obtain important physical results during the experiment runtime without the full offline data processing. The tracker is also being prepared for integration into a standard offline data processing chain, after which it will become the basic track search algorithm in the STAR experiment.
Einleitung: Empathie ist ein entscheidender Faktor mit direktem Bezug auf das therapeutische Outcome in der Arzt-Patienten Beziehung. Die Ausbildung junger Mediziner:innen ist jedoch sehr fachlich orientiert, soziale Fähigkeiten werden nur in geringem Ausmaß gelehrt. Am Fachbereich Medizin der Goethe Universität Frankfurt wurden Simulationspatient:innen (SPs) bisher hauptsächlich in Prüfungen eingesetzt, nicht aber in der Lehre. Die vorliegende Arbeit beschäftigt sich mit der Fragestellung, ob der Einsatz von SPs in der curricularen Lehre im Fach Chirurgie zur Vermittlung von strukturierten chirurgischen Anamnese- und Aufklärungsgesprächen umsetzbar ist, ob dieses einen Einfluss auf das empathische Verhalten der Studierenden hat, und ob es bei der gezeigten Empathie einen Unterschied zwischen SPs und reale Patient:innen (RPs) gibt. Zusätzlich wird untersucht, ob der Einsatz von SPs einen Einfluss auf den Lernerfolg in kommunikationsbasierten Prüfungen hat.
Methoden: Studienteilnehmende waren Studierende im 3. klinischen Semester am Fachbereich Medizin der Goethe Universität, die aktuell ihr curriculares Blockpraktikum Chirurgie absolvierten. Im Rahmen des Blockpraktikums Chirurgie durchliefen die Studierenden das ‚Training Praktischer Fertigkeiten‘ und hierbei das Modul ‚Kommunikation (Anamnese und Aufklärung)‘. Das Modul dauerte insgesamt 210 Minuten und setzte sich aus theoretischen Einheiten sowie praktischen Übungen (Rollenspielen) zusammen. Die Studienteilnehmenden wurden in 3 Studiengruppen randomisiert. Alle Teilnehmenden füllten zunächst zwei Fragebögen zum selbsteingeschätzten Empathielevel aus und lernten die identischen theoretischen Inhalte des Moduls. In den Rollenspielen trainierte Gruppe 1 mit SPs und wusste auch, dass es sich um SPs handelt. Gruppe 2 übte ebenfalls mit SPs, ging aber davon aus, dass es sich um reale Patient:innen handelte (Inkognito Patient:innen = IPs), Gruppe 3 übte mit RPs und war auch darüber informiert. Im Anschluss wurden die Studierenden anhand eines 10-Items Fragebogen in Hinblick auf die gezeigte Empathie durch die (Simulations-)-Patient:innen bewertet. Der Lernerfolg wurde anhand der Ergebnisse des Chirurgie-OSCE’s, den die Teilnehmenden 5-12 Wochen nach dem Modul absolvierten, ausgewertet.
Ergebnisse: Es zeigten sich signifikante Unterschiede bei dem vom Patienten wahrgenommenen Empathielevel zwischen Gruppe 1 (SP) und 2 (IP) und 1 (SP) und 3 (RP), nicht aber zwischen Gruppe 2 (IP) und 3 (RP). In dieser Konstellation wurden Studierende, welche mit RPs übten oder zumindest davon ausgingen, signifikant weniger empathisch bewertet. Es zeigten sich signifikante Unterschiede in der Eigeneinschätzung zwischen Männern und Frauen, nicht aber in der Fremdeinschätzung. Es gab keine signifikanten Unterschiede in den Ergebnissen der kommunikationsbasierenden Stationen der Chirurgie-OSCE zwischen den einzelnen Gruppen.
Schlussfolgerung: Der Einsatz von SPs im Hinblick auf den Lernerfolg in kommunikationsbasierenden Prüfungen ist gerechtfertigt und eine gute Möglichkeit, um Studierenden das Üben von Gesprächssituationen realistisch zu ermöglichen, ohne dabei akut klinische Patient:innen rekrutieren zu müssen. Dabei muss aber beachtet werden, dass das empathische Verhalten der Studierenden ein anderes ist, wenn sie mit RPs arbeiten, beziehungsweise davon ausgehen, mit einem RP zu arbeiten. Zur Förderung der Empathie sollten RPs und Feedback durch diese früh in die studentische Lehre implementiert werden.
Die allgemein steigende Komplexität technischer Systeme macht sich auch in eingebetteten Systemen bemerkbar. Außerdem schrumpfen die Strukturgrößen der eingesetzten Komponenten, was wiederum die Auftrittswahrscheinlichkeit verschiedener Effekte erhöht, die zu Fehlern und Ausfällen dieser Komponenten und damit der Gesamtsysteme führen können. Da in vielen Anwendungsbereichen ferner Sicherheitsanforderungen eingehalten werden müssen, sind zur Gewährleistung der Zuverlässigkeit flexible Redundanzkonzepte nötig.
Ein Forschungsgebiet, das sich mit Methoden zur Beherrschung der Systemkomplexität befasst, ist das Organic Computing. In dessen Rahmen werden Konzepte erforscht, um in natürlichen Systemen beobachtbare Eigenschaften und Organisationsprinzipien auf technische Systeme zu übertragen. Hierbei sind insbesondere sogenannte Selbst-X-Eigenschaften wie Selbstorganisation, -konfiguration und -heilung von Bedeutung.
Eine konkrete Ausprägung dieses Forschungszweigs ist das künstliche Hormonsystem (artificial hormone system, AHS). Hierbei handelt es sich um eine Middleware für verteilte Systeme, welche es ermöglicht, die Tasks des Systems selbstständig auf seine Prozessorelemente (PEs) zu verteilen und insbesondere Ausfälle einzelner Tasks oder ganzer PEs automatisch zu kompensieren, indem die betroffenen Tasks auf andere PEs migriert werden. Hierbei existiert keine zentrale Instanz, welche die Taskverteilung steuert und somit einen Single-Point-of-Failure darstellen könnte. Entsprechend kann das AHS aufgrund seiner automatischen (Re)konfiguration der Tasks als selbstkonfigurierend und selbstheilend bezeichnet werden, was insbesondere die Zuverlässigkeit des realisierten Systems erhöht. Die Dauer der Selbstkonfiguration und Selbstheilung unterliegt zudem harten Zeitschranken, was den Einsatz des AHS auch in Echtzeitsystemen erlaubt.
Das AHS nimmt jedoch an, dass alle Tasks gleichwertig sind, zudem werden alle Tasks beim Systemstart in einer zufälligen Reihenfolge auf die einzelnen PEs verteilt. Häufig sind die in einem System auszuführenden Tasks jedoch für das Gesamtsystem von unterschiedlicher Wichtigkeit oder müssen gar in einer bestimmten Reihenfolge gestartet werden.
Um den genannten Eigenschaften Rechnung zu tragen, liefert diese Dissertation gegenüber dem aktuellen Stand der Forschung folgende Beiträge:
Zunächst werden die bisher bekannten Zeitschranken des AHS genauer betrachtet und verfeinert.
Anschließend wird das AHS durch die Einführung von Zuteilungsprioritäten erweitert: Mithilfe dieser Prioritäten kann eine Reihenfolge definiert werden, in welcher die Tasks beim Start des Systems auf die PEs verteilt beziehungsweise in welcher betroffene Tasks nach einem Ausfall auf andere PEs migriert werden.
Die Zeitschranken dieser AHS-Erweiterung werden im Detail analysiert.
Durch die Priorisierung von Tasks ist es möglich, implizit Teilmengen von Tasks zu definieren, die ausgeführt werden sollen, falls die Rechenkapazitäten des Systems nach einer bestimmten Anzahl von PE-Ausfällen nicht mehr ausreichen, um alle Tasks auszuführen: Die im Rahmen dieser Dissertation entwickelten Erweiterungen erlauben es in solchen Überlastsituationen, das System automatisch und kontrolliert zu degradieren, sodass die wichtigsten Systemfunktionalitäten lauffähig bleiben.
Überlastsituationen werden daher im Detail betrachtet und analysiert. In solchen müssen gegebenenfalls Tasks niedriger Priorität gestoppt werden, um auf den funktionsfähig verbleibenden PEs hinreichend viel Rechenkapazität zu schaffen, um Tasks höherer Priorität ausführen zu können und das System so in einen wohldefinierten Zustand zu überführen. Die Entscheidung, in welcher Reihenfolge hierbei Tasks gestoppt werden, wird von einer Task-Dropping-Strategie getroffen, die entsprechend einen großen Einfluss auf die Dauer einer solchen Selbstheilung nimmt.
Es werden zwei verschiedene Task-Dropping-Strategien entwickelt und im Detail analysiert: die naive Task-Dropping-Strategie, welche alle niedrigprioren Tasks auf einmal stoppt, sowie das Eager Task Dropping, das in mehreren Phasen jeweils höchstens eine Task pro PE stoppt. Im Vergleich zeigt sich, dass von letzterem fast immer weniger Tasks gestoppt werden als von der naiven Strategie, was einen deutlich schnelleren Abschluss der Selbstheilung ermöglicht. Lediglich in wenigen Sonderfällen ist die naive Strategie überlegen.
Es wird detailliert gezeigt, dass die entwickelte AHS-Erweiterung auch in Überlastsituationen die Einhaltung bestimmter harter Zeitschranken garantieren kann, was den Einsatz des erweiterten AHS in Echtzeitsystemen erlaubt.
Alle theoretisch hergeleiteten Zeitschranken werden durch umfassende Evaluationen vollumfänglich bestätigt.
Abschließend wird das erweiterte, prioritätsbasierten AHS mit verschiedenen verwandten Konzepten verglichen, um dessen Vorteile gegenüber dem Stand der Forschung herauszuarbeiten sowie zukünftige vertiefende Forschung zu motivieren.
Oxidative stress is thought to be a driver for several diseases. However, many data to support this concept were obtained by the addition of extracellular H2O2 to cells. This does not reflect the dynamics of intracellular redox modifications. Cells actively control their redox-state, and increased formation of ROS is a response to cellular stress situations such as chronic inflammation.
In this study, it was shown that different types of ROS lead to different metabolic and transcriptomic responses of HUVECs. While 300 μM extracellular H2O2 led to substantial metabolic and transcriptomic changes, the effects of DAO-derived H2O2 and menadione were low to moderate, indicating that the source and the concentration of ROS are important in eliciting changes in metabolism and gene expression.
Specifically, it was identified that acute increases in ROS transiently inactivate the enzyme ω-amidase/NIT2 of the glutaminase II pathway, which supplies cells with anaplerotic α-ketoglutarate. The pathway has not been studied systematically because, as noted above, the major intermediate, KGM, is not commercially available. In the present study, an internal standard for targeted detection of KGM in cells and blood plasma/serum was used. Deletion of NIT2 by CRISPR/Cas9 significantly reduced α-ketoglutarate levels in HUVECs and elevated KGM levels. It appears that in cell culture conditions, hydrolysis of KGM to α-ketoglutarate is very efficient. Knockout of the glutamine transaminases significantly reduced methionine, suggesting that the glutaminase II pathway is an important source of amino acid replenishment.
Similar to genetic silencing of GLS1 [91,92], HUVECs lacking NIT2 showed reduced proliferation and angiogenic sprouting. Furthermore, our results indicate that, at least in HUVECs, the enzyme also locates in the mitochondria where it interacts with key enzymes of glutamine/glutamate/α-ketoglutarate metabolism.
The data of the present work indicate that the glutaminase II pathway is an underappreciated, redox-sensitive pathway for glutamine utilization in HUVECs. Genetic deletion of NIT2 has considerable physiological effects highlighting the importance of glutamine for ECs.
Das Buch nimmt die Beobachtung zum Ausgangspunkt, dass wahrnehmende Lebewesen immer auch sich bewegende Lebewesen sind. Der Zusammenhang zwischen den Vermögen der Wahrnehmung und der Selbstbewegung wird hier als ein konstitutiver gefasst, der insofern Auswirkungen für das Verständnis und die philosophische Analyse des jeweiligen Vermögens hat. Im Fokus steht das wechselseitige Verhältnis zwischen Wahrnehmung und Handeln beim Menschen und damit auch die Frage, in welcher Beziehung das begriffliche Denken zu den genannten Vermögen steht. Die Arbeit diskutiert Schriften von Wittgenstein, Anscombe, Merleau-Ponty, Dreyfus, McDowell, sowie neuere Beiträge aus der enaktivistischen und phänomenologischen Tradition.
Im ersten Kapitel wird der Zusammenhang zwischen Wahrnehmung und Handlung in der Erkenntnistheorie untersucht. Hier stehen enaktivistische Theorien, die auf den grundsätzlichen Handlungscharakter der Wahrnehmung verweisen, im Mittelpunkt. Anhand einer Kritik der Kamerametaphorik des menschlichen Blicks wird dafür argumentiert, dass die (visuelle) Wahrnehmung als aktiver Prozess verstanden werden muss. Das Sehen ist weder punktförmig noch bildhaft aufzufassen, vielmehr ist es eine stets prekäre Errungenschaft eines leiblichen Wesens im Austausch mit der es umgebenden Welt. Die Ergebnisse aus dem ersten Kapitel werden im zweiten Kapitel mit Ludwig Wittgensteins Überlegungen zum Aspektsehen in Kontakt gebracht. Wittgensteins Bemerkungen zum Sehen und Aspektsehen lassen sich als Anstoß zu einem pluralistischen Verständnis der Wahrnehmung verstehen. In Anbetracht der vielfältigen Diskussionen, für die Wittgensteins Bemerkungen über das Aspektsehen relevant sind, wird hier herausgearbeitet, inwieweit sie als eine Kritik an jeder Form des Gegebenseins in der Wahrnehmung verstanden werden können. Eine Diskussion des ebenso ungewöhnlichen wie wenig beachteten Beitrags Anscombes zur Theorie der Wahrnehmung, den sie hauptsächlich in »The Intentionality of Sensation« ausarbeitet, beschließt das zweite Kapitel.
Im dritten Kapitel geht es um den zweiten Teil der These, Wahrnehmung und Handeln seien wechselseitig voneinander abhängig. In diesem Kapitel geht es um Theorien, für die die Wahrnehmung nicht einfach Informationen über die Umwelt bereitstellt, sondern selbst Bestandteil des Handelns ist. Eine besondere Herausforderung besteht darin, die Rolle der Wahrnehmung sowohl für das geistesabwesende Tun als auch für das überlegte Handeln und auch für mentale Handlungen, wie etwa Entscheidungen, zu bestimmen. Besonders offensichtlich wird die Rolle der Wahrnehmung im Handeln immer dort, wo das Überlegen zurücktritt und das gekonnte Handeln auf die Wahrnehmung von Gelegenheiten angewiesen ist – also insbesondere dort, wo das Handeln Ausdruck spezialisierter Fähigkeiten ist.
Der Wahrnehmungsbegriff, der in der Arbeit im Mittelpunkt steht, ist gerade kein allgemeiner oder übergreifenden – und erst recht kein »zugrundliegender« Begriff der Wahrnehmung. Vielmehr soll Wahrnehmung plural verstanden werden: die Wahrnehmung im Alltag, die beobachtenden Wahrnehmung, die Wahrnehmung des Profis, die begriffliche Wahrnehmung. Diese Herangehensweise läuft zwangsläufig auch auf die Frage hinaus, inwiefern sich die menschliche Wahrnehmung und die Wahrnehmung der Tiere unterscheiden. Zwar gilt für Tiere wie für Menschen, dass sie wahrnehmen und sich bewegen – aber bestimmte Formen der Wahrnehmung sind klarerweise dem Menschen vorbehalten, etwa die ästhetische, die moralische und die begriffliche Wahrnehmung. Das vierte Kapitel diskutiert – ausgehend von der Frage nach der Begrifflichkeit der menschlichen Vermögen des Wahrnehmens und Handelns –, in welchem Verhältnis diese zu denen der Tiere stehen.
Ein auffälliger Unterschied zwischen den Vermögen des Menschen und denen der Tiere – so wird sich herausstellen – ist die Flexibilität und Pluralität der menschlichen Vermögen. Doch diese Pluralität ist kein natürliches Faktum, sondern Produkt bestimmter Tätigkeiten und Praktiken. Erst im tätigen Umgang mit der Welt, durch den Erwerb bestimmter Techniken und innerhalb bestimmter Praktiken verwirklicht sich die grundsätzliche Offenheit der menschlichen Vermögen. Diese Idee, dass unsere natürlichen Vermögen in Kontakt und Auseinandersetzung mit unserer Lebenswelt sich allererst entwickeln, ist Gegenstand des fünften Kapitels.
Die konstitutiven Beziehungen zwischen Wahrnehmung und Handeln in den Mittelpunkt dieser Untersuchung zu rücken, ist dabei Ausdruck eines bestimmten Philosophieverständnisses, nämlich eines, das das wahrnehmende, denkende und handelnde Lebewesen in den Fokus seiner Untersuchung stellt – nicht das einzelne Vermögen, sondern der ganze Organismus sind der point of interest.
Die Verwendung von photolabilen Schutzgruppen zur nicht-invasiven Kontrolle von Systemen birgt ein großes Potential für verschiedenste Anwendungsgebiete, die von der Erforschung und Regulation biologischer Prozesse, über den Einsatz in medizinischer Therapie bis hin zur Verwendung als molekulare Datenspeicher reichen. Für diese Umsetzung benötigt es allerdings eine breite Auswahl an entsprechenden PPGs und das Wissen über ihre Reaktionsmechanismen. Im Allgemeinen lässt sich die Konzeptionierung von PPGs in drei Prozesse einteilen, beginnend bei dem Design und der Synthese einer neuen PPG. Bei diesem Schritt liegt der Fokus auf ein oder zwei besonderen Eigenschaften, wie beispielsweise einer Absorptionswellenlänge in einem bestimmten Spektralbereich oder einer hohen Uncaging-Quantenausbeute. Im zweiten Schritt folgt die Untersuchung der PPG bezüglich spektroskopischer und mechanistischer Eigenschaften und ggf. anschließender Optimierung auf synthetischer Ebene. Die so gewonnenen Informationen sind dann hilfreich bei dem letzten Schritt, bei dem es um den Einsatz der PPG in einem entsprechenden System geht. Hierbei müssen die verwendeten PPGs genau auf das Zielsystem abgestimmt sein, dazu zählen verschiedenste Parameter wie Anregungswellenlänge, Extinktionskoeffizient, Art und Struktur der Photoprodukte sowie Uncaging-Effizienz und Geschwindigkeit.
In der vorliegenden Arbeit wurde über die drei vorgestellten Projekte mittels spektroskopischer Methoden zu allen drei genannten Stadien zur Konzeptionierung von PPGs ein Beitrag geleistet. Dazu zählt die Entwicklung der CBT-basierten PPGs, die Untersuchung der Struktur-Wirkungsbeziehung von (DMA)(2)F-PPGs und die Etablierung einer wellenlängenselektiven An-/Aus-Funktionalität eines Antibiotikums. In enger interdisziplinärer Zusammenarbeit zwischen theoretischen, synthetischen und biologischen Teilgebieten konnte jedes Projekt innerhalb der jeweiligen Entwicklungsstufe erfolgreich abgeschlossen werden.
Mithilfe des relativ neuen Ansatzes, bei dem durch quantenmechanische Berechnungen der vertikalen Anregungsenergie von der kationischen Spezies einer PPG-Grundstruktur eine Aussage über ihre Qualität postuliert werden kann, konnte ausgehend von der Fluoren-Grundstruktur eine neue Klasse von PPGs gefunden werden. Dabei erwies sich die CBT-Struktur mit den Schwefelatomen an der para-Position als besonders geeignet. Insbesondere konnte die Grundstruktur durch die (OMePh)2-Substitution, welche in einer signifikanten bathochromen Verschiebung des Absorptionsmaximums resultierte, optimiert werden. Die Untersuchung der Ultrakurzzeit-Dynamik beider p-CBT Strukturen gab Aufschluss über die unterschiedlichen photochemischen Eigenschaften als PPG.
Für die Stoffklasse der Dimethylamino-Fluorene wurde ein wichtiger Unterschied zwischen den einfach- und zweifach-substituierten Derivaten aufgedeckt, der entscheidend für einen signifikanten Uncaging-Effizienzunterschied ist. Dabei stellt sich die Stabilität des symmetrisch-substituierten Fluorenyl-Kations als der wichtigste Faktor bezüglich der Uncaging-Quantenausbeuten heraus. Beide Schutzgruppen sind in der Lage photoinduziert eine AG freizusetzen, wobei der Reaktionsmechanismus über die kationische Spezies (DMA)(2)F + abläuft. Der Unterschied hierbei liegt in der Lebensdauer der beiden Kationen, die im Falle der symmetrischen PPG stark lösungsmittelabhängig ist und bis zu mehreren Stunden betragen kann, was bis dato das langlebigste Kation dieser Molekülklasse darstellt. Für die zukünftige Optimierung dieser PPG-Klasse ist die Erkenntnis über die Gründe für die Stabilität des Kations von großem Vorteil. Der stabilisierende Faktor ist zum einen die zweite Dimethylamino-Gruppe der symmetrischen Verbindung, welche durch die Erweiterung der Mesomerie zur besseren Verteilung der positiven Ladung im Molekül führt. Zum anderen spielt das Lösungsmittel eine entscheidende Rolle. Dabei bieten protische, polare Medien eine zusätzliche Stabilisierung, die notwendig für die Langlebigkeit des Kations ist. Die Lebensdauer des Kations war zudem durch eine zweite Bestrahlungswellenlänge kontrollierbar. Ausgehend vom Kation konnte eine reversible Nebenreaktion in protischen Lösungsmitteln identifiziert werden, die einen Austausch der AG durch das Lösungsmittel darstellt.
Zusätzlich konnte die kleine Stoffklasse der bisher bekannten Photobasen durch die Verbindung (DMA)2F-OH erweitert werden. Genauer betrachtet handelt es sich dabei um eine photoinduzierte Hydroxidfreisetzung, wodurch je nach eingesetzter Konzentration ein pH-Sprung von bis zu drei Einheiten erreicht werden konnte. Dabei stellt sich die Lebensdauer des pH-Sprungs als ein entscheidender Parameter für Photobasen dar, welcher sich für die hier untersuchte Verbindung aufgrund der besonderen Stabilität des entsprechenden Kations, im Vergleich zu einigen der bereits bekannten Verbindungen, als besonders langlebig herausgestellt hat. Ein weiterer Vorteil des Einsatzes von (DMA)2F-OH als Photobase ist die Möglichkeit den pH-Sprung durch zwei verschiedene Wellenlängen sowohl zeitlich als auch örtlich zu kontrollieren, indem die Verbindung zwischen den zwei Spezies (DMA)2F-OH und (DMA)2F + geschaltet werden kann.
Im Hinblick auf die Anwendungen von PPGs zur verbesserten zeitlichen und örtlichen Kontrolle biologischer Zielsysteme ist im Rahmen dieser Arbeit das Prinzip vom wellenlängenselektiven Uncaging zweier PPGs an einem Molekül (two-PPG-one-molecule, TPOM) etabliert worden. Das Zielmolekül war hier das Antibiotikum Puromycin, welches durch seine Fähigkeit an das Ribosom zu binden, die Proteinbiosynthese inhibieren kann. Dabei wurden zwei verschiedene PPGs gefunden, die sowohl aufeinander als auch auf das Biomolekül selbst abgestimmt sind. Im Ausgangszustand sind beide PPGs am Puromycin angebracht, wodurch es in seiner biologischen Wirkung inaktiv ist. Befindet sich das doppelt geschützte Puromycin in der ROI, so kann es durch die Bestrahlung mit einer bestimmten Wellenlänge infolge des ersten Uncaging-Schritts aktiviert werden. Da biologische Systeme nicht statisch sind, können aktivierte Moleküle stets von der gewünschten ROI nach außen gelangen, wodurch der Anspruch der räumlichen Kontrolle nicht erfüllt wird. In diesem Fall kann durch die TPOM-Umsetzung die zweite Bestrahlungswellenlänge auf den entsprechenden Bereich angewendet werden, wodurch das Uncaging der zweiten PPG initiiert und folglich das Puromycin deaktiviert wird. Des Weiteren konnte gezeigt werden, dass die Deaktivierungswellenlänge auch in der Lage ist beide PPGs zu entfernen, wodurch eine vollständige Inaktivierung des Puromycins außerhalb der ROI garantiert werden kann.
Ist die Proteinbiosynthese längerfristig blockiert, führt das schließlich zum Zelltod. Ein großes Anwendungsgebiet dieses Antibiotikums sind die Neurowissenschaften. Aufgrund der Tatsache, dass Puromycin keine Unterscheidung zwischen eukaryotischen und prokaryotischen Zellen macht, findet es keine Anwendung in der Medizin. Eine zeitliche und örtliche Kontrolle seiner Wirkung könnte den Anwendungsbereich dieses Antibiotikums evtl. ausweiten. Das wohl naheliegendste wäre der Einsatz bei Tumorzellen, deren Behandlung durch Zytostatika auf den gesamten Körper wirken und dadurch viele schwere Nebenwirkungen verursachen.
Wie bereits weiter oben beschrieben muss für jedes Biomolekül und das entsprechende Wirkzentrum die Auswahl des passenden PPG-Paares einzeln abgestimmt werden. Dennoch lässt sich anhand des hier etablierten Systems ein Konzept für die erfolgreiche Umsetzung zukünftiger TPOM-Systeme an anderen biomolekularen Wirkstoffen zusammenfassend formulieren.
* Der erste Schritt sollte die Betrachtung des Wirkzentrums des zu modifizierenden Biomoleküls sein: Welche funktionelle Gruppe bzw. Gruppen sind entscheidend für die Bindetasche oder –stelle? Dieser Bereich des Biomoleküls soll im Zuge des Uncagings entweder blockiert oder abgespalten werden. In der unmittelbaren Nähe muss die PPG1 angebracht werden.
* Bei der Wahl von PPG1 ist das wichtigste Kriterium, dass das Biomolekül mit enthaltener Schutzgruppe in seiner Wirkung unbeeinträchtigt bleibt. Dies schränkt die Auswahl beträchtlich ein. Eine mögliche Umsetzung wäre die Anbringung einer Nitro-Gruppe falls vorhanden an einen Benzolring, welcher sich im Fall eines großen Biomoleküls in der Nähe der wichtigen funktionellen Stelle befindet.
* Die zweite PPG (PPG2), deren photoinduzierte Abspaltung zur Aktivierung des Wirkstoffs führen soll, kann strukturell frei gewählt werden. Das Auswahlkriterium hierbei ist das Absorptionsspektrum. Hierbei sollte das Absorptionsmaximum rotverschoben zur PPG1 sein, um eine unerwünschte Abspaltung zu vermeiden. Außerdem darf keine signifikante Absorption von PPG2 bei der Uncaging-Wellenlänge von PPG1 vorhanden sein.
* Beide PPGs sollten eine ähnliche Uncaging-Quantenausbeute vorweisen, um im Deaktivierungsschritt der doppelt geschützten Verbindung durch das höher energetische Licht keine Bevorzugung einer einzelnen Schutzgruppe zu riskieren.
Anhand der erarbeiteten Herangehensweise können weitere Wirkstoffe oder Biomoleküle hin zu einer An- / Aus-Funktionalität modifiziert werden. Mit der Umsetzung des TPOM-Konzepts kann eine Verbesserung der örtlichen und zeitlichen Kontrolle der Aktivität eines Antibiotikums erreicht werden. Für die Anwendung in biologischer Umgebung ist diese präzische Kontrolle essentiell, um unerwünschte Nebenwirkungen angesundem Gewebe zu verhindern.
Die minoren Aktinoiden dominieren auf lange Sicht die Radioaktivität des gesamten abgebrannten Brennstoffes und können somit, obwohl sie nur etwa 0,2 % davon ausmachen, als die Hauptverursacher der Endlagerproblematik betrachtet werden.
Neben einer möglichen Endlagerung und den damit verbundenen Problemen, bietet die Transmutation eine Alternative im Umgang mit dieser Art der radioaktiven Abfälle. Hierbei werden die minoren Aktinoide durch Neutroneneinfang zur Spaltung angeregt, wodurch sowohl deren Halbwertszeit, als auch deren Radiotoxizität deutlich reduziert werden soll.
Innerhalb des in der vorliegenden Arbeit vorgestellten MYRRHA-Projektes, das im belgischen Mol realisiert werden soll, soll gezeigt werden, dass die Transmutation in einem industriellen Maßstab möglich ist. Bei MYRRHA handelt es sich um ein sog. ADS (Accelerator Driven System), bei dem ein 4 mA Protonenstrahl mit 600 MeV in einem Target aus LBE (Lead-Bismuth Eutectic) per Spallation Neutronen erzeugen soll, die für die Transmutation in einem ansonsten unterkritischen Reaktor notwendig sind. Da eine solche Anlage enorme Ansprüche an die Zuverlässigkeit des Teilchenstrahls stellt, um den thermischen Stress innerhalb des Reaktors so gering wie möglich zu halten, werden auch hohe Ansprüche an die verwendeten Kavitäten innerhalb des Beschleunigers gestellt.
Besonderes Augenmerk muss hierbei auf den Injektor gelegt werden. In diesem wird der Protonenstrahl auf 16,6 MeV beschleunigt, wobei in seinem aktuellen Design nur noch normalleitende Kavitäten verwendet werden.
Als erstes beschleunigendes Bauteil nach der Ionenquelle fungiert hier ein im Rahmen der vorliegenden Arbeit gebauter 4-Rod-RFQ, dessen HF-Design auf dem bereits am IAP getesteten MAX-Prototypen basiert.
Für den MYRRHA-RFQ konnte eine neue Art der Dipolkompensation für 4-Rod-RFQs entwickelt werden, die bereits in anderen Beschleunigern, wie etwa dem neuen HLI-RFQ-Prototypen eingesetzt werden konnte. Hierbei werden die Stützen, auf denen die Elektroden befestigt werden alternierend verbreitert, um so den Strompfad zum niedrigeren Elektrodenpaar zu verlängern, wodurch sich die dortige Spannung erhöht. Im Zuge dieser Entwicklung wurden Simulations- und Messmethoden erarbeitet, um den Dipolanteil sowohl an bereits gebauten, wie auch an zukünftigen 4-Rod-RFQs untersuchen zu können. Der Erfolg dieser neuartigen Dipolkompensation konnte in den Low-Level-Messungen, die sich an den Zusammenbau des MYRRHA-RFQs anschlossen, validiert werden.
Die CH-Sektion, die im MYRRHA-Injektor auf den RFQ und die MEBT folgt, besteht aus insgesamt 16 normalleitenden Kavitäten. Sie gliedert sich in sieben beschleunigende CHs, auf die ein CH-Rebuncher und weitere acht beschleunigende CHs folgen.
Im Rahmen der vorliegenden Arbeit wurde - aufbauend auf bereits vorhandenen Entwürfen - das Design der ersten sieben CH-Strukturen des MYRRHA-Injektors erstellt und hinsichtlich seiner HF-Eigenschaften optimiert.
Die dabei während den Simulationen zu CH1 auftretende Problematik einer parasitären Tunermode konnte durch zahlreiche Simulationen umgangen werden.
Weiter wurde das aus der FRANZ-CH bekannte Kühlkonzept überarbeitet, um eine hohe thermische Stabilität gewährleisten zu können, wobei mehrere verschiedene Konzepte entwickelt, simuliert und bewertet wurden.
Das so entwickelte HF- und Kühldesign der ersten sieben MYRRHA-CHs dient als Vorlage für die weiteren MYRRHA-CHs sowie für zukünftige Beschleunigerprojekte, wie etwa HBS am Forschungszentrum Jülich.
Im Anschluss an die Designphase wurden die ersten beiden CH-Strukturen des Injektors und ein zusätzlicher dickschichtverkupferter Deckel für CH1 von den Fimen NTG und PINK gefertigt und anschließend Low-Level-Messungen unterzogen, in denen die Simulationsergebnisse bestätigt werden konnten, während diese Messungen zusätzlich als Vorbereitung für die Konditionierung dienten.
Sowohl der MYRRHA-RFQ, als auch die CH-Strukturen wurden nach ihren jeweiligen Low-Level-Messungen duch eine Konditionierung auf den späteren Strahlbetrieb vorbereitet.\\
Die Konditionierung des MYRRHA-RFQ erfolgte in zwei Phasen. Zunächst wurde er in der Experimentierhalle des IAP im cw-Betrieb vorkonditioniert, bevor er nach Louvain-la-Neuve transportiert wurde. In der dort fortgesetzten Konditionierung, die sowohl gepulst, als auch im cw-Betrieb erfolgte, konnten im Rahmen dieser Arbeit 120 kW cw stabil eingkoppelt werden, wobei diese transmittierte Leistung später noch vom SCK auf bis zu 145 kW cw gesteigert wurde. Nach Abschluss der Konditionierung konnten sowohl vom IAP, als auch vom SCK Röntgenspektren aufgenommen werden, um so die Shuntimpedanz bestimmen zu können. Die Ergebnisse dieser Messungen zusammen mit der alternativen Bestimmung der Shuntimpedanz über den R/Q-Wert wurden ebenfalls in dieser Arbeit besprochen.
Die CH-Kavitäten wurden im Bunker der Experimentierhalle des IAP konditioniert, wobei zusätzlich neue Konditionierungsmethoden erarbeitet und erprobt werden konnten. In den abschließenden Untersuchungen, die sich an jede der drei Konditionierungen anschlossen, konnten Erkenntnisse über das thermische Verhalten der CHs, sowie über den Einfluss verschiedener Verschaltungen des Kühlsystems darauf gewonnen werden, die bei der Installation auch zukünftiger CHs von Nutzen sein werden.
Damit in der Schule die Vermittlung eines adäquaten Energieverständnisses gelingen kann, benötigt es eine Lehrkräfteausbildung, die dessen Herausforderungen in den Blick nimmt und die angehenden (Chemie-) Lehrerinnen und Lehrer aus fachwissenschaftlicher und didaktischer Perspektive vorbereitet. Denn in die Unterrichtsvorbereitung fließen neben bildungspolitischen und curricularen Vorgaben auch die Vorstellungen und Überzeugungen der Lehrkräfte mit ein. Zu den Herausforderungen, mit denen Lernende wie Lehrende konfrontiert sind, zählen die verschiedenen mentalen Repräsentationen zum Wort Energie aus Alltag und Naturwissenschaft, die zahlreichen chemischen Fachkontexte, in denen Energie bzw. Energiephänomene eine Rolle spielen, die unterschiedlichen Wissensnetze, die mit dem Begriff in den verschiedenen Naturwissenschaften verknüpft sind und der Einfluss der Fach- bzw. Alltagssprache.
Die (angehenden) Lehrkräfte fühlen sich auf diese Aufgabe oftmals fachlich nicht ausreichend vorbereitet. Um die Lehrkräfteausbildung in ihrem ersten Ausbildungsabschnitt auf die genannten Herausforderungen anzupassen und Lehrformate zu erweitern, benötigt es umfangreiche Kenntnisse über die mentalen Repräsentationen der Studierenden zur Energie sowie die damit verbundenen alternativen Konzepte zu schulrelevanten und lehrplanorientierten Themenschwerpunkten und die sprachlichen Besonderheiten. Die Vielschichtigkeit des Begriffs Energie erfordert eine ganzheitliche Betrachtung aller Aspekte, die es so bislang nicht gibt.
Aus diesem Grund ist es Ziel dieser Studie, die mentalen Repräsentationen der Studierenden, wie auch deren alternative Konzepte zu ausgewählten energiebezogenen Fachbegriffen aus den Bereichen chemische Bindungen, Thermodynamik und chemische Reaktionen zu erheben, in einen gemeinsamen fachlichen und sprachlichen Kontext zu setzen und daraus Rückschlüsse auf das Energieverständnis zu ziehen.
Im Sinne des Modells der didaktischen Rekonstruktion wird eine fachliche Klärung zum Untersuchungsgegenstand Energie durchgeführt. Für die Erhebung der empirischen Daten findet ein Rückgriff auf halbstandardisierte Leitfadeninterviews statt. Zielgruppe sind angehende Chemielehrkräfte, die mindestens im 5. Fachsemester Chemie für das Lehramt an Gymnasien studierten. Die Auswertung der Interviews erfolgt unter Rückgriff auf die qualitative Inhaltsanalyse nach Mayring und wird mit quantifizierenden Elementen trianguliert.
Die Studie zeigt die Erklärungsvielfalt des Begriffs Energie auf, denen sich die Studierenden bedienen. Dabei werden vor allem Beispiele einzelner Energiephänomene oder Energieformen herangezogen. In den verschiedenen Fachkontexten konnten diverse alternative Konzepte detektiert werden. Darüber hinaus konnten übergreifende Herausforderungen detektiert werden. Erkennen die Studierenden Widersprüche in ihrem Energieverständnis, wird Energie als abstrakt und schwer fassbar beschrieben. Zudem wird eine anthropozentrische Sicht eingenommen. Die angehenden Lehrkräfte neigen zu einer starken Kompartmentalisierung und begründen Wissenslücken mit der Zugehörigkeit zu anderen Fachwissenschaften. Eine weitere wichtige Erkenntnis aus der Studie ist, dass in den Fachwissenschaftlichen Veranstaltung die qualitativen Diskussionen angeregt werden müssen. Die zukünftigen Lehrerinnen und Lehrer bewegen sich in einem Spannungsverhältnis zwischen Fachwissenschaft und Didaktik und sind sich dessen sehr deutlich bewusst, indem sie bei Begriffsdefinitionen und Erklärungen die Anschaulichkeit der Exaktheit vorziehen. Es besteht die Notwendigkeit, Fachbegriffe in einem größeren Zusammenhang zu erläutern und die Studierenden zur Kommunikation darüber anzuregen.
Single-electron transport in focused electron beam induced deposition (FEBID)-based nanostructures
(2022)
Mit steigender Komplexität von integrierten Schaltungen im Nanometer-Maÿstab werden immer innovativere Techniken nötig, um diese zu fabrizieren. Dies erfordert einen starken Fokus auf die Kontrolle der Fabrikation akkurater Strukturen und der Materialreinheit, und dies im Zusammenhang mit einer skalierbaren Produktion. In diesem Kontext hat Elektronenstrahlinduzierte Abscheidung (engl. Focused Electron Beam Induced Deposition, FEBID) eine wachsende Aufmerksamkeit im Bereich der Nanostrukturierung gewonnen. Der FEBID-Prozess basiert auf der lokalen Abscheidung von Material auf einem Substrat. Das Deponat entsteht durch die Spaltung von Präkursor-Molekülen durch die Interaktion mit einem Elektronenstrahl entsteht. Als Beispiel sei hier der Präkursor Me3PtCpMe angeführt. Das auf dem Substrat abgelagerte Material besteht aus wenigen Nanometer großen Kristalliten aus Platin, welche in einer Matrix aus amorphem Kohlenstoff eingebettet sind. Die Pt-C FEBID Ablagerungen sind nano-granulare Metalle, deren elektrische Transporteigenschaften die Folge des Zusammenspiels von diffusivem Transport von Ladungen innerhalb der Pt-Kristalliten und temperaturabhängigen Tunneleffekten sind. Das größte Interesse an diesen Materialien liegt an der Möglichkeit, Strukturen für technische Anwendungen im Nanometerbereich herstellen zu können.
In dieser Arbeit wurden Anwendungen, die auf Einzelelektroneneffekten beruhen, ausgewählt, um die FEBID basierte Probenpräparation zu testen. Um Einzelelektronentransport zu ermöglichen, der auf dem Tunneln einzelner Elektronen basiert, müssen alle Parameter wie Grösse und Abstände der Strukturen genauestens definiert sein. Im Rahmen dieser Arbeit wurden Einzelelektronenbausteine entwickelt, die auf zwei unterscheidlichen Anwendungen des Pt-C FEBID-Prozesses basieren. Die beiden Anwendungen sind: 1) Arrays von Gold-Nanopartikeln (Au-NP), welche mittels Pt-Strukturen kontaktiert wurden, die mit FEBID präpariert und anschlieÿend aufgereinigt wurden; 2) Einzelelektronentransistoren (engl. Single-Electron Transistors, SET), deren Inseln aus elektronennachbestrahlten Pt-C FEBID Deponate bestehen. Die elektrischen Eigenschaften der präparierten Nanostrukturen wurden charakterisiert und mit der erzielten Auflösung und Materialqualität in Relation gesetzt. Es wurden Optimierungen an der Präparationsmethode durchgeführt, welche direkt die Leitfähigkeit des Pt-C FEBID-Materials erhöhen. Dies kann durch die Änderung der
Karbonmatrix oder die Erhöhung des metallischen Gehalts der Struktur geschehen. In dieser Arbeit wurde eine katalytische Aufreinigungsmethode von Pt-C FEBID Strukturen für zwei Anwendungen genutzt: zum Einen wurden die aufgereinigten Strukturen als Keimschichten für die nachfolgende ortsgenaue Atomlagenabscheidung (engl. Area-Selective Atomic Layer
Deposition, AS-ALD) von Pt-Dünnschichten genutzt. Zum Anderen wurde diese Technik dafür genutzt, Metallbrücken zwischen den bereits durch Auftropfen zufällig auf dem Substrat aufgebrachten NP-Gruppen und den zuvor aufgebrachten UV-Lithographie (UVL) präparierten Cr-Au Kontakten zu erzeugen. Eine NP-Gruppe ist ein periodisches, granulares Array von Partikeln, welche uniform in Größe und Form sind und einen unterschiedlichen Grad von Ordnung inne haben. Durch die Art des Aufbringens kann die Anordnung der Nanopartikel durch Lösen und Erzeugen der Verbindungen beeinflusst werden. Diese Systeme zeigen ein Verhalten wie Tunnelkontakte mit Coulombblockade und eine Verteilung der Schwellspannung. Die Ergebnisse der elektrischen Messungen bestätigen den Einzelelektronentransport durch die Nanopartikel in einem typischen Elektronentransportregime mit schwacher Kopplung. Trotz dieser Ergebnisse war die Anwendung dieser Technik für die SET Nanostrukturierung nicht erfolgreich. Die Ursache
konnte zurückgeführt werden auf das Vorhandensein von Pt-Partikeln in der Nähe der Kontakte zu den Au-NP-Arrays. Die Pt-Partikel sind durch den FEBID Fertigungsprozess in
der Nähe der vorgegebenen Struktur entstanden. Aus diesem Grund wurde das FEBID Co-Deponat in der folgenden SET-Nanofabrikation entfernt.
Ein SET basiert auf einer Nano-Insel, welche durch Tunnelkontakte mit Source- und Drain-Elektroden verbunden ist. Darüber hinaus besteht eine kapazitive Verbindung zu einer
oder mehreren Gate-Elektrode(n). Innerhalb der Insel gibt es eine feste Anzahl von Elektronen.
In dieser Arbeit wurden die Source-, Drain- und Gate-Kontakte durch Ätzen mittels eines fokussierten Gallium-Strahls erzeugt, was Abstände von 50nm ermöglichte, wohingegen die SET Insel mit Pt-C FEBID-Material erzeugt wurde. Die Leitfähigkeit der Insel aus Pt-C wurde mit anschließender Elektronenbestrahlung erhöht. Als letzter Präparationsmethode wurde ein neueartiges Argon-Ätzverfahren genutzt, um die durch FEBID erzeugten Co-Ablagerungen in der direkten Umgebung der Insel zu entfernen. Durch die Elektronennachbestrhalung kann die Kopplung der einzelnen metallischen Kristalliten angepasst werden. Die Auswirkungen unterschiedlicher starker Tunnelkontakte auf die elektronischen Eigenschaften der Insel und die daraus resultierende Performanz des SETs wurden in dieser Arbeit beobachtet ...
Die vorliegende Dissertationsarbeit behandelt eine umfangreiche Studie des nukleären Rezeptors (NR) TLX (engl. tailless homolog, TLX). Als ligandenaktivierbarer Transkriptionsfaktor ist TLX in Differenzierungs- und Proliferationsprozessen involviert und übernimmt somit eine tragende regulatorische Rolle in der Neurogenese von neuronalen Stammzellen87,88. Zahlreiche Studien haben gezeigt, dass eine fehlgesteuerte TLX-Expression mit gravierenden kognitiven, visuellen und neurodegenerativen sowie tumorigenen Erkrankungen assoziiert ist, sodass TLX ein vielversprechendes Wirkstofftarget mit hohem therapeutischem Potential darstellt94,95,99,100 105. Die pharmakologische Validierung von TLX als neues Wirkstofftarget befindet sich allerdings aufgrund limitierter Verfügbarkeit von validierten und potenten synthetischen und natürlichen kleinen organischen Molekülen in einer frühen Phase. Daher ist das Interesse sehr groß neuartige und wünschenswerterweise selektive TLX-Modulatoren zu generieren109,119-121.
Im Rahmen dieser Dissertationsarbeit wurden zu diesem Zweck mehrere Reportergenassays eingeführt, die die in vitro Aktivitätsstudie von TLX sowohl im Gal4-Hybridformat in Kombination mit Gal4-VP16 als starken Transkriptionsaktivator als auch als TLX-Volllängenprotein in HEK293T-Zellen (engl. human embryonic kidney, HEK293T) erlaubten. Zusätzlich wurde Gal4-TLX in Kombination mit VP16-RXRα untersucht, um bisherige unbekannte potentielle Heterodimer-vermittelte Effekte zu studieren. In einem primären Screeningansatz im Gal4-Format unter Verwendung einer kommerziell erhältlichen Wirkstofffragmentbibliothek und ausgewählter strukturähnlicher Wirkstoffe wurden mehrere Wirkstofffragmentkandidaten identifiziert (30, 34, 39, 45 und 47), die einen attraktiven Ausgangspunkt zur Darstellung von TLX-Modulatoren darstellten. Insgesamt wurden in vier Projekten vier strukturdiverse Chemotypen anhand von Struktur-Wirkungs-Beziehungs-Studien anhand der Aktivität an TLX untersucht. Ausgehend von Fragment 34 beinhaltete das erste Projekt die Identifizierung und Charakterisierung von Xanthinderivaten als inverse TLX-Agonisten. Eine systematische Struktur-Wirkungs-Beziehungs-Studie lieferte mehrere hochpotente Derivate, die auf das Grundgerüst von 8-Phenyltheophyllin (97) basierten. Parallel konnte Istradefyllin (116), welches aktuell zur Behandlung der Parkinson-Erkrankung in den USA und Japan Anwendung findet, als potenter inverser TLX-Agonist identifiziert werden. Mehrere orthogonale zelluläre und zellfreie Experimente klassifizierten die Xanthine als neue erste TLX-Modulatoren. Das zweite Projekt umfasste die Identifizierung und Charakterisierung des unselektiven β-Adrenorezeptorblockers Propranolol (54) ausgehend vom Wirkstofffragment 30. Durch eine vorläufige systematische Struktur-Wirkungs-Beziehungs-Untersuchung der aliphatischen Aminoalkoholseitenkette von 54 konnte die sekundäre Aminogruppe als determinierendes Strukturmotiv für eine Aktivität an TLX bestimmt werden. Weitere Migrations- und Zellviabilitätsexperimente demonstrierten erste phänotypische Effekte in T98G-Glioblastomzellen seitens 54, die TLX-vermittelt sein könnten. Das dritte Projekt behandelte die Darstellung eines potenten neuartigen TLX-Agonisten mit Hilfe eines ligandenbasierten Pharmakophormodells. Das verwendete Pharmakophormodell wurde hierbei unter Verwendung des publizierten Referenzliganden ccrp2 (2) und dem identifizierten Wirkstofffragment 45 aus dem vorherigen Screeningansatz generiert. Durch eine anschließende rationale Fragmentfusion von 45 mit weiteren TLX-Agonisten aus dem Wirkstofffragmentscreening konnte der neuartige potente TLX-Agonist 137h synthetisiert werden, welcher eine verbesserte mikrosomale Stabilität im Vergleich zu 45 und 2 aufwies. Das vierte Projekt beinhaltete die Darstellung neuartiger TLX-Modulatoren mit Hilfe eines Scaffold Hopping Ansatzes. Hierbei wurden essentielle Strukturmotive aus der Xanthin-Struktur-Wirkungs-Beziehung (erstes Projekt) auf weitere Wirkstofffragmente übertragen. Die Validierung dieses Scaffold Hoppings anhand der Verbindung 156 führte anhand eines darauf folgenden kombinatorisch-chemischen Ansatzes zur Darstellung einer Substanzbibliothek (255 Amidrohprodukte). Ein Aktivitätsscreening der Amidrohprodukte deutete in den Reportergenassays auf drei aktive TLX-Modulatoren hin (582, 611 und 629), welche nachträglich gezielt synthetisiert, isoliert und erneut auf Aktivität an TLX validiert wurden. Hierbei hob sich besonders 629 hervor, welches in drei orthogonalen zellulären Reportergenassays TLX-vermittelte Effekte aufwies und zusätzlich einen Bindungseffekt an rekombinanter exprimierter TLX-Ligandenbindedomäne zeigte.
Mit dieser Arbeit konnte mit Hilfe der Einführung diverser TLX-basierter Reportergenassays zur Aktivitätsstudie von TLX mehrere strukturdiverse Liganden als potentielle tool compounds identifiziert und charakterisiert werden. Alle abgeleiteten TLX-Modulatoren können somit als wertvolle neue Startpunkte zur Derivatisierung neuartiger potenter Liganden und somit zu einem Fortschritt in der pharmakologischen Validierung von TLX als Wirkstofftarget dienen.
Die diskursanalytische Dissertation beschäftigt sich mit der Frage, wie das amerikanische Kino von seinen Anfängen bis in die Gegenewart das Thema des Scheiterns und Versagens dargestellt hat.
Ausgangspunkt der Arbeit ist dabei zunächst eine Einordnung und Differenzierung des Begriffspaares aus etymologischer Perspektive. Es wird bereits an dieser Stelle auf semantische Unterschiede verwiesen, denen sich divergierende Plotstrukturen anschließen: Die Geschichte des Versagens ist eine andere als die des Scheiterns. Außerdem werden anthropologische Erkenntnisse der Aufklärung benannt, die ein eigenständiges Scheitern und Versagen überhaupt erst ermöglichen.
Im Anschluss an diese sprachtheoretische Untersuchung widmet sich die Arbeit den Besonderheiten des amerikanischen Narrativs des Scheiterns und Versagens und damit einer historischen Perspektivierung, die von der Analyse ausgewählter literarischer Texte abgeschlossen wird.
Die Ergebnisse der sprachtheoretischen Untersuchung, der historischen Perspektivierung und der Literaturanalyse bilden schließlich das Fundament für die sich anschließende Filmanalyse, die die Frage stellt, wie tradierte Erzählformen des Scheiterns und Versagens ab dem 20. Jahrhundert in filmischer Form bestätigt, subvertiert oder gänzlich neu etabliert werden.
Im Vordergrund steht hier zunächst das klassische Hollywood-Kino. Dabei wird grundsätzlich zwischen zwei unterschiedlichen Narrativen unterschieden: Dem Versagen und dem Scheitern. Im ersten Teil stehen die Versager, bewusste Aussteiger, die auf der Suche nach alternativen Lebensentwürfen sind. Bespiele hierfür sind der tramp Chaplins, der singende Obdachlose Bumper in Halleluja, I'm a Bum oder der glückliche Tunichtgut Thadeus Winship Page in The Magnificent Dope. Demgegenüber stehen die Figuren, die an äußeren Umständen scheitern und meist an diesen zerbrechen, wie die lost woman in Blonde Venus oder der forgotten man in I Am a Fugitive from a Chain Gang. Ziel der Analyse ist es, iterative Semantiken und syntaktische Strukturen zu benennen, die die Grundlage eigener Erzählgenres bilden, wie das des „Glücklichen Versagers“ oder der lost woman.
Im letzten Kapitel werden die bisherigen Ergebnisse um Erkenntnisse erweitert, die sich dem modernen amerikanischen Kino entnehmen lassen. Ausgangspunkt ist das New Hollywood-Kino der 60er und 70er Jahre mit Filmen wie Easy Rider, The Graduate, oder The Swimmer.
Auf der Reflexion über die eigene Tätigkeit liegt vor allem im letzten Teil dieses Kapitels der Schwerpunkt. Hier sind es vorwiegend Künstler des 21. Jahrhunderts, wie Drehbuchschreiber, Theaterregisseure oder Comicautoren, die ihre eigenen Handlungen in Frage stellen. Neu ist, dass sich das künstlerische Versagen der Protagonisten nicht nur innerhalb der Diegese auf den Film auswirkt, bzw. dessen Form modifiziert, sondern diese geradezu dekonstruiert und aufbricht.
As part of two drilling campaigns of the International Continental Scientific Drilling Program (ICDP), several geophysical borehole measurements were carried out by the Leibniz Institute for Applied Geophysics (LIAG) in two lakes. The acquired data was used to answer stratigraphic and paleoclimatic research questions, including the establishment of robust age-depth models and the construction of continuous lithological profiles.
Lake Towuti is located on Sulawesi (Indonesia), within the "Indo-Pacific Warm Pool" (IPWP), a globally important region for atmospheric heat and moisture budgets. The lake exists for approximately one million years, but its exact age is uncertain. We present the first agedepth model for the approximately 100 m continuous sediment sequence from the central part of the lake. The basis for this model is the magnetic susceptibility measured in the borehole and a tephra layer with an age of about 797 ka at 72 m depth. Our age-depth model is inferred from cyclostratigraphic analysis of borehole data and covers a period from 903 ± 11 to 131 ± 67 ka. We suggest that orbital eccentricity and/or changes between global cold and warm periods are responsible for hydroclimatic changes in the IPWP, that these changes affect sedimentation processes in Lake Towuti, and that we can measure and observe this effect in the sediment properties today. Additionally, we created a continuous artificial lithological profile from a series of different borehole data using cluster analysis. This provides information from parts of the borehole where no sediment is available due to core loss.
Lake Ohrid is 1.36 million years old and is located on the Balkan Peninsula on the border between Albania and North Macedonia. The primary hole 'DEEP' in the central part of the lake has been the subject of several investigations, but information about sediments of the marginal locations 'Pestani' and 'Cerava' have not been published yet. In our study, we use natural gamma radiation (GR) measured in the borehole to generate an age-depth model for DEEP. This is performed using the correlation of GR to the global LR04 reference record of Lisiecki and Raymo (2005).
The age information is then transferred via prominent seismic marker horizons to the other two sites, Pestani and Cerava, where it provides the first age-control points for the construction of age-depth models from correlation of GR to LR04. The generated age-depth models are tested using cyclostratigraphic methods, but the limits of this approach are revealed. At DEEP, sedimentation rates (SR) from the cyclostratigraphic method and the correlative approach differ by 2.8 %, at Pestani this difference is 16.7 %, and at Cerava the quality of the data does not allow a reliable evaluation of SR using the cyclostratigraphic approach. We used cluster analysis to construct artificial lithological profiles at all three sites and integrated them into the respective age-depth models. This enables us to determine which sediment types were deposited at what time, and we recognize the change between warm and cold periods in the sediment properties at all three locations. The analyses in this study were all performed on borehole and seismic data and thus do not involve sediment core data. Especially at Pestani and Cerava, new insights into the sedimentological history of Lake Ohrid could be obtained.
In the last part we discuss the occurrence of the half-precession (HP) signal in the European region during the last one million years. The focus is on Lake Ohrid, but a range of other proxies, from the eastern Mediterranean, across the European continent, up to Greenland are analyzed in regards to HP. Applying filters, we focus on the frequency range with a period of 13-8.5 ka and only HP remains in the records. We use correlative methods to determine the clarity of the HP signal in proxies distributed across the European realm. Additionally, we determined the development of HP over time. The HP signal is clearest in the southeast and decreases toward the north. It is further more pronounced in interglacial periods and in the younger part (<621 ka) of most proxies. We suggest that there are mechanisms that transmit the HP signal from its origin near the equator to higher latitudes via different processes. In this context, for instance, the African monsoon, the Nile River and the Mediterranean outflow via the Strait of Gibraltar can be important factors.
Autism spectrum disorder (ASD) is a common neurodevelopmental disorder with a multifarious clinical presentation. Even though many genetic risk factors have been identified and studied in mouse models, the neurophysiological mechanisms underlying the autistic phenotype are still unclear. Based on the high rates of comorbidity with epilepsy, it was hypothesized that the balance between excitation and inhibition in neural circuits may be disrupted in autistic individuals.
In this dissertation, synaptic and network activity was measured in three different genetically modified mouse models that exhibit the characteristic behavioral abnormalities of the disorder: the Neurobeachin (Nbea) haploinsufficient mouse, the Neuroligin-3 (Nlgn3) knockout (KO) mouse, and the Neuroligin-4 (Nlgn4) KO mouse. Each of the affected proteins is involved in the formation and/or function of synapses in the central nervous system. Therefore, it was posited that the reduction or deletion of these proteins might alter the balance of excitatory to inhibitory synaptic transmission in individual neurons and in neural circuits. Extracellular recordings in the hippocampal dentate gyrus of anesthetized mice revealed that the excitation-inhibition (E-I) balance was reduced in Nbea haploinsufficient and Nlgn4 KO mice, but unchanged in Nlgn3 KO mice despite a reduction in excitatory synaptic transmission to dentate granule cells. Unexpectedly, the intrinsic excitability of dentate granule cells was altered in all three mouse models. These results imply that a homeostatic increase in the intrinsic excitability is able to compensate for the decreased excitatory transmission in Nlgn3 KO mice, whereas the decreased intrinsic excitability in the Nbea haploinsufficient and Nlgn4 KO mice leads to a reduction in the E-I balance. Taken together, these findings suggest that the influence of genetic factors on the E-I balance might be a potential common mechanism underlying the development of ASD.
Acute myeloid leukemia (AML) is one of the most frequently occurring and fatal types of leukemia. Initiated by genetic alterations in hematopoietic stem and progenitor cells, rapidly proliferating cancer cells (leukemic blasts) infiltrate the bone marrow and damage healthy hematopoiesis. Subgroups of AML are defined by underlying molecular and cytogenetic abnormalities, which are decisive for treatment and prognosis. For AML patients that can be intensively treated, the first line treatment remains a combination of cytarabine and anthracycline, which was developed in the 1970s. While this treatment regimen clears the disease and reinstates normal hematopoiesis (complete remission, CR) in 60% to 80% of patients below the age of 60, CR rates in patients above the age of 60 are only 40% to 50%. Relapse and refractory disease are the major cause of death of AML patients, despite large efforts to improve risk-adjusted post-remission therapy with further chemotherapy cycles and, if possible, allogeneic bone marrow transplantation. Elderly patients are particularly difficult to treat because of age-related comorbidities and because their disease tends to relapse more often than the disease of younger patients. Thus, the cure rates of AML vary with age, with 5-year survival rates of about 50% in young patients, and less than 20% in patients above the age of 65 years. With the median age of AML patients being 68 years, the need for novel therapeutic options is immense. The recent approval of eight new agents (venetoclax, midostaurin, gilteritinib, glasdegib, ivosidenib, enasidenib, gemtuzumab ozogamicin and CPX-351 (liposomal cytarabine and daunorubicin)) has added considerably to the therapeutic armamentarium of AML and has increased cure rates in specific subgroups of AML. However, the high heterogeneity among patients, clonal evolution and commonly occurring drug resistance, which cause the high relapse rates, remain a substantial problem in the treatment of AML. Therefore, a better understanding of currently used therapeutics and further development of novel therapeutics is urgently needed.
In recent years, attention has increasingly focused on therapeutic strategies to interfere with the metabolic requirements of cancer cells. The last three decades have provided extensive insights into the diversity and flexibility of AML metabolism. AML cells use different sources of nutrients compared to normal hematopoietic progenitor cells and reprogram their metabolic pathways to fulfill their exquisite anabolic and energetic needs. As a result, they develop high metabolic plasticity that enables them to thrive in the bone marrow microenvironment, where oxygen and nutrient availability are subject to constant change.
Cancer cells, specifically AML cells, have a strong dependency for the amino acid glutamine. Glutamine serves in energy production, redox control, cell signaling as well as an important nitrogen source. The only enzyme capable of de novo glutamine synthesis is glutamine synthetase (GS). GS catalyzes glutamine production from glutamate and ammonium. In AML, the metabolic role and dependency of GS is poorly understood. Here, we investigated the effects of GS deletion on AML growth, and its functional relevance in AML metabolism. Genetic deletion of GS resulted in a significant decrease of cell growth in vitro, and impaired leukemia progression in vivo in a xenotransplantation mouse model. Interestingly, the dependency of AML cell growth on GS was shown to be independent of its functional role in glutamine synthesis. Glutamine starvation did not increase the dependency of the AML cells on GS, nor did increased glutamine availability rescue the GS-knockout-associated growth disadvantage. Instead, functional studies revealed the role of GS in the detoxification of ammonium. GS-deficient cells showed elevated ammonium secretion as well as a higher sensitivity towards the toxic metabolite. Exogenous provision of 15N-labeled ammonium was detoxified by GS-driven incorporation into glutamine. Studies on cells that had gained resistance to GS-knockout-mediated growth inhibition indicated enzymes involved in the urea cycle and the arginine biogenesis pathway to compensate for a loss of GS. Together, these findings unveiled GS as an important ammonium scavenger in AML.
Clinical studies on AML patients revealed increased ammonium concentrations in the blast-infiltrated bone marrow compared to peripheral blood. In line with this finding, proteome and transcriptome analysis of AML blasts showed a significant upregulation of GS in AML compared to healthy progenitors, further indicating its importance in ammonium detoxification.
Analyzing pathways that contribute to ammonium production revealed protein uptake followed by amino acid catabolism as a yet not identified mechanism supporting AML growth. Protein endocytosis and subsequent proteolytic degradation were shown to rescue AML cells from otherwise growth-inhibiting glucose or amino acid depletion. Furthermore, protein metabolization led to the reactivation of the mammalian target of rapamycin (mTOR) signaling pathway, which was deactivated upon leucine and glutamine depletion, revealing protein consumption as an important alternative source of amino acids in AML.
...
We discuss aspects of the phase structure of a three-dimensional effective lattice theory of Polyakov loops derived from QCD by strong coupling and hopping parameter expansions. The theory is valid for the thermodynamics of heavy quarks where it shows all qualitative features of nuclear physics emerging from QCD. In particular, the SU(3) pure gauge effective theory also exhibits a first-order thermal deconfinement transition due to spontaneous breaking of its global Z₃ center symmetry. The presence of heavy dynamical quarks breaks this symmetry explicitly and consequently, the transition weakens with decreasing quark mass until it disappears at a critical endpoint. At non-zero baryon density, the effective theory can be evaluated either analytically by the so-called high-temperature expansion which does not suffer from the sign problem, or numerically by standard Monte-Carlo methods due to its mild sign problem. The first part of this work devotes to a systematic derivation of the effective theory up to the 6th order in the hopping parameter κ. This method combined with the SU(3) link update algorithm provides a way to simulate the O(κ⁶) effective theory. The second part involves a study of the deconfinement transition of the pure gauge effective theory, with and without static quarks, at all chemical potentials with help of the high-temperature expansion. Our estimate of the deconfinement transition and its critical endpoint as a function of quark mass and all chemical potentials agrees well with recent Monte-Carlo simulations. In the third part, we investigate the N ſ ∈ {1,2} effective theory with zero chemical potential up to O(κ⁴). We determine the location of the critical hopping parameter at which the first-order deconfinement phase transition terminates and changes to a crossover. Our results for the critical endpoint of the O(κ²) effective theory are in excellent agreement with the determinations from simulations of four-dimensional QCD with a hopping expanded determinant by the WHOT-QCD collaboration. For the O(κ⁴) effective theory, our estimate suggests that the critical quark mass increases as the order of κ-contributions increases. We also compare with full lattice QCD with N ſ = 2 degenerate standard Wilson fermions and thus obtain a measure for the validity of both the strong coupling and the hopping expansion in this regime.
Weltweit werden etwa 17% aller Infektionskrankheiten von Vektoren auf den Menschen übertragen. Dabei dienen meist blutsaugende Arthropoden wie Stechmücken, Zecken oder Sandfliegen als Überträger von Bakterien, Viren oder einzelligen Parasiten. Zur letzteren Gruppe gehört auch der protozoische Erreger der Chagas-Krankheit Trypanosoma cruzi. Er wird von hämatophagen Triatominae, einer Unterfamilie der Raubwanzen (Hemiptera: Reduviidae) während der Blutmahlzeit an einem infizierten Säugerwirt aufgenommen, durchläuft komplexe Entwicklungsschritte im intestinalen Trakt der triatominen Insekten und wird anschließend über den Fäzes und Urin der Wanzen abgegeben. Die Infektion des nächsten Wirts erfolgt dann durch das versehentliche Einreiben der Erreger in die Stichwunde oder auf Schleimhäute. Auch eine Infektion über die orale Aufnahme von kontaminierter Nahrung, Mutter-Kind-Infektionen und die Übertragung durch Blutkonserven und Organtransplantate sind möglich. Die Chagas‑Krankheit, oder auch Amerikanische Trypanosomiasis, ist insbesondere in Mittel- und Südamerika verbreitet und betrifft nach Schätzungen der WHO 6 bis 7 Millionen Menschen. Infolge von globaler Immigration und erhöhtem Reiseverkehr treten jedoch in den letzten Jahrzehnten auch vermehrt Fälle in Europa, den USA, Kanada und den westlichen Pazifikstaaten auf. Da dort bislang geeignete Vektoren fehlen, kommt es außerhalb des lateinamerikanischen Kontinents nicht zu vektorübertragenen Infektionen. Dies könnte sich jedoch im Zuge des Klimawandels und einer voranschreitenden Globalisierung ändern, sollte der Ausbreitung der Chagas-Krankheit eine Ausbreitung ihrer triatominen Vektoren folgen.
Inwieweit Triatominae unter heutigen Bedingungen klimatisch geeignete Habitate außerhalb des amerikanischen Kontinents finden, wurde innerhalb des ersten Projekts der vorliegenden Dissertation untersucht. Dazu wurde mit Hilfe der ökologischen Nischenmodellierung und Vorkommensdaten verschiedener vektorkompetenter Raubwanzenarten sowie klimatischer Umweltvariablen die klimatische Eignung verschiedenster Lebensräume modelliert und global projiziert. Es zeigte sich, dass insbesondere tropische und subtropische Gebiete Afrikas sowie Ost- und Südostasiens zwischen 21° nördlicher Breite und 24° südlicher Breite für viele triatomine Vektorarten geeignete Bedingungen aufweisen. Auffällig ist dabei insbesondere die Art Triatoma rubrofasciata, welche nachweislich bereits in Südchina, Vietnam und weiteren Ländern Afrikas und Asiens gefunden wurde. Die Modellierung
offenbarte, dass weitere ausgedehnte Teile der Küstenregionen Afrikas und Südostasiens als für T. rubrofasciata klimatisch geeignet angesehen werden müssen. Eine weitere Ausbreitung dieser Art ist demnach äußerst wahrscheinlich und stellt bislang das größte Risiko autochthon übertragener Chagas-Infektionen außerhalb des amerikanischen Kontinents dar. Es konnten außerdem zwei triatomine Arten identifiziert werden, namentlich T. infestans und T. sordida, welche in gemäßigten Klimazonen geeignete Habitate finden. Zu diesen gehören beispielsweise Neuseeland und Teile Australiens, aber auch südeuropäische Länder wie Spanien, Italien, Griechenland und Portugal. Da mit einer Ausweitung der klimatisch geeigneten Gebiete infolge des sich verändernden Klimas zu rechnen ist, wäre ein Monitoring der Vektoren, wie es bereits in Südchina etabliert ist, aber insbesondere die Einführung der Meldepflicht für Amerikanische Trypanosomiasis in diesen Regionen sinnvoll. Die Ergebnisse der Studie zeigen deutlich, dass die bisher vernachlässigte Tropenkrankheit Chagas nicht allein ein Problem des lateinamerikanischen Kontinents ist, sondern deren Erforschung vielmehr weltweit Beachtung finden sollte.
So konzentrierten sich die folgenden Forschungsprojekte der Promotion verstärkt auf die Mechanismen, welche die Entwicklung und Transmission des Parasiten und die Interaktion mit seinen Vektoren betreffen. Von besonderem Interesse waren dabei die ökologischen Prozesse, welche bei der Kolonisation des Darmtrakts der Vektoren durch T. cruzi ablaufen und essentiell für die Proliferation und damit die Übertragung des Parasiten sind. Eine entscheidende Rolle spielen dabei die mit dem Vektor assoziierten Mikroorganismen und ihre funktionellen Fähigkeiten – zusammengefasst als Mikrobiom bezeichnet. Dieses erfüllt wichtige physiologische Funktionen des Insekts und kann beispielsweise das Immunsystem und die Detoxifikation beeinflussen. Um die Veränderungen der organismischen Zusammensetzung und der funktionellen Kapazitäten, welche die Infektion mit dem Pathogen im Darmtrakt der Vektoren auslösen, zu untersuchen, wurde ein metagenomischer Shotgun Sequenzierungsansatz gewählt. Die daraus resultierenden Datensätze wurden anschließend bioinformatisch ausgewertet und auf ihre mikrobielle Zusammensetzung und metabolischen Fähigkeiten hin untersucht. Es zeigte sich zunächst, dass das Bakterium Rhodococcus rhodnii, welches lange als alleiniger echter Symbiont des untersuchten Vektors Rhodnius prolixus galt, in seiner Funktionalität nicht einzigartig im Mikrobiom des Insekts ist. ...
In this thesis, the emission of protons as well as the production of Λ hyperons, Κ0S mesons and 3ΛH hypernuclei are analyzed multi-differentially as a function of transverse momentum, rapidity and centrality. Therefore, the 3.03 billion 30 % most central Ag(1.58A GeV)+Ag events recorded by HADES are used. Furthermore, the lifetimes of Λ hyperons, Κ0S mesons and 3ΛH hypernuclei are measured. The obtained 3ΛH lifetime of (253 ± 24 ± 42) ps is compatible with the lifetime of free Λ hyperons, as predicted by theoretic calculations due to its low binding energy. Finally, also the double strange Ξ– hyperons are reconstructed. Unfortunately, the fully optimized signals lie below the confidence threshold of 5σ, which is why both an production rate and an upper production limit are estimated using averaged acceptance and efficiency corrections. Never before, 3ΛH or Ξ– were successfully reconstructed and analyzed in heavy-ion collisions at such low energies. The obtained results are compared to previous measurements and put in context with world data form different energies and collision systems.
Since Vietnamese is an isolating language, word order plays an important role in identifying the function of a particular word. Yet in some contexts word order may be flexible especially in the case of special information-structural settings. Discontinuous noun phrases constitute a specific case of non-canonical word order in Vietnamese.
I have conducted two read-speech experiments in order to find out whether there are prosodic or intonational effects in a comparison between continuous and discontinuous noun phrases in Vietnamese. In the first experiment, speakers from the Northern dialect were recorded and in the second experiment speakers from the Southern dialect. The results showed prosodic differences in the two word order conditions in both dialects. The duration of the classifier is significantly longer (p<0.001, ANOVA calculation) in the case of discontinuous noun phrases and the rising tone (sắc) is clearly articulated as rising. In the case of continuous noun phrases, the duration of the classifier is significantly shorter (p<0.001, ANOVA calculation) and a classifier with rising tone may lose its rising property. These prosodic effects are related to prosodic boundaries. In the case of discontinuous noun phrases, the classifier constitutes the prosodic boundary, whereas with continuous noun phrases, the (right) prosodic boundary occurs further to the right.
I assume that in Vietnamese there is generally a correspondence between syntactic and prosodic structure as in Selkirk (2011) and Féry (2017).
This means that for example the DP hai trái cam ‘two oranges’ (two CLF orange) is matched by a prosodic phrase, thus (hai trái cam)Φ. However, when the noun cam ‘orange’ is separated from the numeral-classifier complex, the noun and the classifier form a prosodic phrase on their own: (hai trái)Φ. It can thus be concluded that intonation effects in Vietnamese are not only present when expressing sentence modality and when changing the role of function words (Đỗ et al. 1998 and Hạ & Grice 2010), but they also play a role in word order change, as in discontinuous nominal phrases.
When it comes to syntactic aspects of discontinuous noun phrases, I discuss whether split constructions in Vietnamese involve movement as proposed by Trịnh (2011) or base-generation as put forward by Fanselow & Féry (2006). I argue for base-generation analysis since the second part of a discontinuous NP (remnant) may also occur outside of discontinuous noun phrases without its head noun and some discontinuous noun phrases do not have a continuous counterpart. My study confirms the connection between syntax and prosody.
The two parts of the discontinuous noun phrase form their own phrases syntactically as well as prosodically.
The increasing demand of the high value ω-3 fatty acids due to its beneficial role for human health, explains the huge need for alternative production ways of ω-3 fatty acids. The oleaginous alga Phaeodactylum tricornutum is a prominent candidate and has been investigated as biofactory for ω-3 fatty acids, e.g. the synthesis of eicosapentaenoic acid (EPA). In general, the growth and the lipid content of diatoms can be enhanced by genetic engineering or are influenced by environmental factors, e.g. nutrients, light or temperature.
In this study, the potential of P. tricornutum as biofactory was improved by heterologously expressing the hexose uptake protein 1 (HUP1) from the Chlorophyte Chlorella kessleri.
An in situ localization study revealed that only the full length HUP1 protein fused to eGFP was correctly targeted to the plasma membrane, whereas the N-terminal sequence of the protein is only sufficient to enter the ER. Protein and gene expression data displayed that the gene-promoter combination was relevant for the expression level of HUP1, while only cells expressing the protein under the light-inducible fcpA promoter showed a significant expression. In these mutants an efficient glucose uptake was detectable under mixotrophic growth condition, low light intensities and low glucose concentrations leading to an increased cell dry weight.
In a second approach, the growth and lipid content of wildtype cells were analyzed in a small 1l photobioreactor. Here, a commercial F/2 medium and a common culture medium, ASP and modified versions were compared. There was neither a significant impact on the growth and lipid content in P. tricornutum cells due to the supplemention of trace elements nor due to elevated salt concentrations in the media. In a modified version of ASP medium, with adapted nitrate and phosphate concentration a constantly high biomass productivity was achieved, yielding the highest value of 82 mg l-1 d-1 during the first three days. This was achieved even though light intensity was reduced by 40%. The differences in biomass productivity as well as the lipid content and the lipid composition underlined the importance of the choice of culture medium and the harvest time for enhanced growth and EPA yields in P. tricornutum.
Standard cancer therapy research targets tumor cells while not considering the damage on the tumor microenvironment (TME) and its associated implications in impairing therapy response. Employing patients-derived organoids (PDOs) and matched stroma cells or a novel murine preclinical rectal cancer model of local radiotherapy, it was demonstrated that tumor cells-derived IL-1α polarizes cancer-associated fibroblasts towards an inflammatory (iCAFs) phenotype. While numerous studies in different tumor entities highlighted the molecular heterogeneity of CAFs, so far there are no clear findings on their functional heterogeneity and relevance in therapy resistance and response. The present study molecularly characterized iCAFs subpopulation among RCA patients as well as the preclinical mouse model and importantly unraveled the detailed molecular mechanism underlying their contribution to impair therapy response. Mechanistically, iCAFs were demonstrated to be characterized by an upregulation of nitric oxide synthase (iNOS) which triggered accumulation of reactive nitrogen species (RNS) and subsequently an oxidative DNA damage response (DDR). Such a baseline IL-1α-driven DNA damage further sensitized iCAFs to a p53-mediated therapy induced senescence (TIS) causing extensive extracellular matrix (ECM) changes and induction of senescence associated secretory phenotype (SASP) that favored tumor progression and hindered tumor cell death. Moreover, iCAFs reversibility and repolarization into more quiescent like phenotype was demonstrated upon IL-1 signaling inhibition by anakinra, a recombinant IL-1 receptor antagonist (IL1RA). Accordingly, treating mice with anakinra or specific deletion of Il1r1 in CAFs sensitized stroma-rich resistant tumors to chemoradiotherapy (CRT). Similarly, targeting CAFs senescence by senotherapy (venetoclax chemical) or employing Trp53 deficient mice reverted therapy resistance among non-responsive tumors in vivo by reducing ECM deposition and consequently favoring CD8+ T cells intratumoral infiltration posttherapy. Importantly, rectal cancer patients that do not completely respond to neoadjuvant therapy displayed an iCAFs senescence program post-CRT. Moreover, these patients presented a baseline increased CAFs content, a dominant iCAFs signature that correlated with poorer disease-free survival (DFS) and a significantly reduced circulating IL1RA serum levels. While reduced pretherapeutic IL1RN gene expression predicted poor prognosis among RCA patients, IL1RA serum levels were associated with rs4251961 (T/C) single nucleotide polymorphism (SNP) in the IL1RN gene. Finally, functional validation assays revealed that conditioned media of PDOs drove inflammatory polarization of fibroblasts and consequently rendered them sensitive to RNS-mediated DNA damage and TIS. Collectively, the study highlighted a crucial and novel role of a CAFs subset, iCAFs, in therapy resistance among RCA patients, shedding light on their functional relevance by identifying IL-1 signaling as an appealing target for their repolarization and successful targeting. Therefore, it makes sense to combine the newly demonstrated and thoroughly proven therapeutic approach of targeting IL-1 signaling in combination with conventional CRT and possibly immunotherapy. This might have a major impact on RCA therapy and be of immense relevance for other stroma-rich tumors.
Kurz zusammengefasst waren die Ziele dieser Arbeit, die in vivo Untersuchung einer Hyperhomocysteinämie und spezifischer diätetischer Mikronährstoffe im Kontext der Alzheimer-Erkrankung. Zu diesem Zweck wurden zwei Krankheitsmodelle in den Mäusen induziert. Zum einen wurde eine Alzheimer-ähnliche Pathologie genetisch simuliert durch den Einsatz des neuen AppNL-G-F knock-in Modells, das im Zuge dieser Arbeit auch weiter charakterisiert wurde. Zum anderen wurde eine chronische Hyperhomocysteinämie in den Tieren induziert via Langzeit-Fütterung einer Spezialdiät, die defizient an den Vitaminen B6, B12 und Folat war, was sich durch erhöhte Werte der Aminosäuren Homocystein und Homocysteinsäure in verschiedenen biologischen Matrices der Mäuse wie Serum, Urin und Hirngewebe, bemerkbar machte. Durch die Kombination der Krankheitsmodelle wurden sowohl Aspekte einer familiären Alzheimer-Erkrankung (verstärkter Amyloid-β-Anabolismus im knock-in Modell) als auch ein potentielles Charakteristikum der sporadischen Form der Krankheit (erhöhte Homocystein-Spiegel) simuliert. Auswirkungen des AppNL-G-F Genotyps, einer zusätzlichen Hyperhomocysteinämie und potentiell vorteilhafter, oder gar präventiv wirksamer Mikronährstoffe wurden dabei mit Hilfe von diversen Verhaltensversuchen und ergänzenden ex vivo Analysen bewertet.
Trotz massiver cerebraler Amyloidose war lediglich ein milder Einfluss auf die kognitive Leistungsfähigkeit der AppNL-G-F Tiere im Vergleich zur gleichaltrigen Wildtyp-Kontrolle detektierbar. Dies weist zum einen auf die Subtilität des Mausmodells hin und zum anderen befeuert es die kontroverse, häufig geführte Diskussion um die zentrale Bedeutung der „Amyloid-Hypothese“ im Rahmen der komplexen Alzheimer-Pathologie. Die kognitiven Fähigkeiten der entsprechenden Mäuse verschlechterten sich auch nicht bei gleichzeitig signifikant erhöhten Homocystein- und Homocysteinsäurespiegeln, d.h. die Hyperhomocysteinämie hat in diesem Modell für familiären Alzheimer nicht kausal zur Verschlimmerung der induzierten Pathologie beigetragen sowohl hinsichtlich der kognitiven Leistung in diversen Verhaltensversuchen als auch hinsichtlich dem Schweregrad der cerebralen Amyloidose.
Zur Hyperhomocysteinämie, vor allem aber auch zur Rolle bestimmter diätetischer Interventionen in dem Kontext, findet man eine heterogene, teilweise konträre Literatur vor, insbesondere im klinischen Kontext. Die untersuchten diätetischen Ansätze in dieser Arbeit, bestehend aus hochdosierten B-Vitaminen, mehrfach ungesättigten Fettsäuren, Betain und einer komplexeren Mikronährstoffkombination, zeigten ebenfalls keinen konsistenten Effekt auf Phänotyp und Amyloid-β-Menge in den Hirnen der Tiere. Die Ergebnisse der durchgeführten Studien legen daher, zumindest in diesem Krankheitsmodell, keinen Wert als potentiell präventiven Ansatz der kognitiven Verschlechterung bei Alzheimer nahe.
Da die dieser Arbeit zugrundeliegenden in vivo Studien keine per se erhöhten, AppNL-G-F-assoziierten Homocysteinspiegel offenbarten, zeigte sich Homocystein nicht als Biomarker, zumindest für die in diesem Mausmodell simulierten Aspekte der komplexen Alzheimer-Pathologie. Neben den zuvor beschriebenen fehlenden Effekten der Hyperhomocysteinämie, konnten in dieser Arbeit jedoch auch statistisch signifikante Einflüsse sichtbar gemacht werden. Wie in der durchgeführten Kinetikstudie gezeigt, resultierte die Alzheimer-ähnliche Pathologie in einem signifikant höheren Schweregrad der ausgebildeten Hyperhomocysteinämie in den AppNL-G-F Tieren im Vergleich zur gleichaltrigen Wildtyp-Kontrolle. Folglich übte der gestörte Amyloid-β-Metabolismus, neben der B-vitamindefizienten Diät, einen zusätzlich verstärkenden Effekt auf den hyperhomocysteinämischen Status aus. Sowohl für knock-in-, als auch Wildtyp-Tiere konnte gezeigt werden, dass bei Beendigung der Karenz an Vitamin B6, B12 und Folat, die erhöhten Homocystein- und Homocysteinsäurespiegel innerhalb kurzer Zeit wieder auf Baseline-Niveau normalisiert werden können.
Weitere signifikante Effekte wurden detektiert bezüglich Erythrozyten-bezogener Parameter wie den Hämoglobingehalt im Blut der hyperhomocysteinämischen Tiere. Ein reduzierter Sauerstofftransport und die damit einhergehende verringerte Versorgung der Neuronen mit Sauerstoff in den entsprechenden experimentellen Gruppen deuten auf eine vornehmlich vaskuläre Wirkung hin im Hinblick auf Homocystein-bezogene Pathomechanismen, die potentiell zu einer Demenz beitragen. Solche Effekte können zusätzlich verstärkt worden sein durch die, in der durchgeführten Proteomanalyse gezeigte, Herunterregulierung angiogener Marker im Serum und in der Cerebrospinalflüssigkeit dieser Tiere. Eine Verringerung der kapillären Dichte im Hirn und ein verringerter cerebraler Blutfluss haben ein zusätzlich reduziertes Angebot an Sauerstoff und Glucose zur Folge und stellen einen Link zu eingeschränkter kognitiver Leistungsfähigkeit in Älteren und Alzheimer-Patienten dar. Translational relevant ist eine vaskuläre Wirkung von Homocystein auch dadurch, dass vaskuläre Demenz und Alzheimer in etwa 40% der Fälle koinzident sind und Homocystein in früheren Humanuntersuchungen eine größere Bedeutung bei der vaskulären Demenz im Vergleich zur Alzheimer-Erkrankung nahelegte.
Auch wenn in Summe die beschriebenen Effekte der Hyperhomocysteinämie nicht groß genug waren, um sich in phänotypischen Einschränkungen in den Tieren auszudrücken, so konnten in der hier vorliegenden Arbeit dennoch Details zur Rolle erhöhter Homocysteinspiegel für verschiedene biologische Prozesse aufgeklärt werden. Insbesondere die Funde der explorativen Proteomanalyse in Serum und CSF könnten Ansatzpunkte für weitergehende Untersuchungen darstellen und sollten in anderen präklinischen Krankheitsmodellen und/oder einer Humanstudie validiert werden.
With 5-10 newly diagnosed patients per 100,000 people every year, glioblastoma is the most common malignant primary brain tumor. Despite extensive research activity in the last decades, clinical effectiveness of the currently available therapy standard of surgery, radiochemotherapy and tumor-treating fields is still limited and mean survival rates in unselected collectives are only about one year. Accordingly, there is an urgent need to explore new therapeutic options. The current standard of care includes surgery followed by radiation therapy in combination with the alkylating chemotherapeutic agent Temozolomide. Even with successful initial therapy, tumor recurrence is still inevitable. Currently, there are no defined recommendations for clinical management of the disease in the event of tumor recurrence. Only 20-30% of patients qualify for a second surgical resection, while other options include retreatment with Temozolomide, CCNU (Lomustine) or Regorafenib and enrollment in a clinical trial.
The development of immunotherapies for glioblastoma, in particular, has been the focus of intense preclinical and clinical efforts. However, low numbers of mutations and a highly immunosuppressive tumor microenvironment result in glioblastoma being considered an immunologically “cold” tumor. Strategies successfully established in mutagen-induced tumors with antibodies directed against the PD-1, PD-L1 or CTLA-A4 immune checkpoints have therefore failed in glioblastoma.
Cellular immunotherapies based on chimeric antigen receptor (CAR)-technology have emerged as an alternative powerful option to tackle immunologically “cold” tumors. Several CAR-T cell products targeting glioma antigens have been developed and some evidence of clinical activity has been demonstrated. Natural killer (NK) cells as carriers of CAR constructs have several advantages over T cells, including a much lower risk of neurotoxicity and better interaction with immune cells in the microenvironment. Based on the human NK cell line NK-92, a clinical-grade product, suitable as an off-the-shelf therapeutic, has been developed. The NK-92/5.28.z clone (CAR-NK) expresses a CAR based on the HER2-specific antibody FRP5 in addition to signal-enhancing CD28 and CD3ζ domains. Similar to several other tumor entities, overexpression of the growth factor receptor HER2 is often found in glioblastoma patients. Because of its substantial role in the regulation of cell proliferation, survival, differentiation, angiogenesis and invasion, this receptor is classified as an oncogene. HER2 overexpression plays a major role in the malignant transformation of cells and its oncogenic potential has been studied in detail in breast cancer. However, HER2 expression was also found in up to 80% of glioblastomas, which correlates with an impaired probability of survival. Under physiological conditions, HER2 is not expressed in the adult central nervous system, making it a promising target antigen for glioblastoma immunotherapy.
In previous projects, it has already been shown that these CAR-NK cells exhibit a high and specific lytic activity towards HER2+ glioblastoma cells. While repetitive intratumoral injections of CAR-NK cells already significantly extended symptom-free survival in murine orthotopic xenograft models, CAR-NK cell therapy in immunocompetent mice promotes an endogenous anti-tumor immune response which improves tumor control and provides persisting anti-tumor immunity after therapy of early-stage tumors. However, in more advanced tumor models, efficacy is limited and induction of the checkpoint-molecule PD-L1 in response to CAR-NK-cell therapy was identified as a key mechanism of therapy resistance.
Immunotherapy employing the intravenous administration of checkpoint inhibitors has already revolutionized the treatment of various malignant diseases such as melanoma or lung cancer. In particular, the approach of cancer immunotherapy has focused on the systemic administration of antibodies directed against immune checkpoints such as PD-1, PD-L1 and CTLA-4. In glioblastoma, both tumor cells and microglia, the brain-resident macrophages, express PD-L1, which hinders the activation of CD8+ and CD4+ T cells. Therefore, immunotherapy directed against the PD-1/PD-L1 axis represents a promising approach for the treatment of glioblastoma. One problem, however, is the severe toxicity caused by the systemic effects of checkpoint inhibitors, since the immune response is stimulated not only in tumor tissue but also in healthy organs. Serious side effects such as colitis, hepatitis, pancreatitis or hypophysitis, including numerous deaths, have been reported.
This study aimed to improve the efficacy of CAR-NK cell therapy by combining it with adeno-associated virus (AAV)-mediated transfer of anti-PD-1 antibodies as a strategy to enable local combination therapy to control intracranial tumors.
AAVs carrying a payload coding for an anti-PD-1 immunoadhesin (aPD-1) retargeted to HER2-expressing cells by fusion of so-called Designed Ankyrin Repeat Proteins (DARPins) with a viral capsid protein were employed for this to focus checkpoint inhibitor therapy to the tumor area, resulting in high intratumoral and low systemic drug concentrations. ...
The thesis is composed of four Chapters.
In the first Chapter, the boundary expression of the one-sided shape derivative of nonlocal Sobolev best constants is derived. As a simple consequence, we obtain the fractional version of the so-called Hadamard formula for the torsional rigidity and the first Dirichlet eigenvalue. An application to the optimal obstacle placement problem for the torsional rigidity and the first eigenvalue of the fractional Laplacian is given.
In the second Chapter, we introduce and prove a new maximum principle for doubly antisymmetric functions. The latter can be seen as the first step towards studying the optimal obstacle placement problem for the second fractional eigenvalue. Using the new maximum principle we derive new symmetry results for odd solutions to semilinear Dirichlet boundary value problems with Lipschitz nonlinearity.
In the third Chapter, we derive new integration by parts formula for the fractional Laplace operator with a general globally Lipschitz vector field and in particular, we obtain a new Pohozaev type identity generalizing the one obtained by X. Ros-Oton and J. Serra. As an application we obtain nonexistence results for semilinear Dirichlet boundary problems in bounded domains that are not necessarly starshaped.
In the last Chapter, we study symmetry properties of second eigenfunctions of annuli. Using results from the first Chapter and the maximum principle in Chpater 2, we extend the result on the optimal obstacle placement problem from the first eigenvalue to the second eigenvalue.
Sterben, Tod und Jenseits werden in der Medienlandschaft täglich behandelt. Bilderbücher und Graphic Novels werden mit diesen Themen häufig nicht in Verbindung gebracht, jedoch steigt die Anzahl an Veröffentlichungen. Dabei stellt sich die Frage, welche Bilder dargestellt werden. Wie wird die teils junge Zielgruppe berücksichtigt?
Anhand von Fallbeispielen aus Bilderbüchern und Graphic Novels zeigt Birte Svea Philippi auf, welche gemeinsame Bildideen die Autor*innen aufgreifen
We present new results on nonlocal Dirichlet problems established by means of suitable spectral theoretic and variational methods, taking care of the nonlocal feature of the operators. We mainly address: First, we estimate the Morse index of radially symmetric sign changing bounded weak solutions to a semilinear Dirichlet problem involving the fractional Laplacian. In particular, we derive a conjecture due to Bañuelos and Kulczycki on the geometric structure of the second Dirichlet eigenfunctions. Secondly, we study a small order asymptotics with respect to the parameter s of the Dirichlet eigenvalues problem for the fractional Laplacian. Thirdly, we deal with the logarithmic Schrödinger operator. In particular, we provide an alternative to derive the singular integral representation corresponding to the associated Fourier symbol and introduce tools and functional analytic framework for variational studies. Finaly, we study nonlocal operators of order strictly below one. In particular, we investigate interior regularity properties of weak solutions to the associated Poisson problem depending on the regularity of the right-hand side.
Machine learning (ML) techniques have evolved rapidly in recent years and have shown impressive capabilities in feature extraction, pattern recognition, and causal inference. There has been an increasing attention to applying ML to medical applications, such as medical diagnosis, drug discovery, personalized medicine, and numerous other medical problems. ML-based methods have the advantage of processing vast amounts of data.
With an ever increasing amount of medical data collection and large, inter-subject variability in the medical data, automated data processing pipelines are very much desirable since it is laborious, expensive, and error-prone to rely solely on human processing. ML methods have the potential to uncover interesting patterns, unravel correlations between complex features, learn patient-specific representations, and make accurate predictions. Motivated by these promising aspects, in this thesis, I present studies where I have implemented deep neural networks for the early diagnosis of epilepsy based on electroencephalography (EEG) data and brain tumor detection based on magnetic resonance spectroscopy (MRS) data.
In the project for early diagnosis of epilepsy, we are dealing with one of the most common neurological disorders, epilepsy, which is characterized by recurrent unprovoked seizures. It can be triggered by a variety of initial brain injuries and manifests itself after a time window which is called the latent period. During this period, a cascade of structural and functional brain alterations takes place leading to an increased seizure susceptibility.
The development and extension of brain tissue capable of generating spontaneous seizures is defined as epileptogenesis (EPG).
Detecting the presence of EPG provides a precious opportunity for targeted early medical interventions and, thus, can slow down or even halt the disease progression. In order to study brain signals in this latent window, animal epilepsy models are used to provide valuable data as it is extremely difficult to obtain this data from human patients. The aim of this study is to discover biomarkers of EPG using animal models and then to find the equivalent and counterparts in human patients' data. However, the EEG features for EPG are not well-understood and there is not a sufficiently large amount of annotated data for ML-based algorithms. To approach this problem, firstly, I utilized the timestamp information of the recorded EEG from an animal epilepsy model where epilepsy is induced by an electrical stimulation. The timestamp serves as a form of weak supervision, i.e., before and after the stimulation. Secondly, I implemented a deep residual neural network and trained it with a binary classification task to distinguish the EEG signals from these two phases. After obtaining a high discriminative ability on the binary classification task, I proposed to divide further the time span after the stimulation for a three-class classification, aiming to detect possible stages of the progression of the latent EPG phase. I have shown that the model can distinguish EEG signals at different stages of EPG with high accuracy and generalization ability. I have also demonstrated that some of the learned features from the network are clinically relevant.
In the task of detecting brain tumors based on MRS data, I first proposed to apply a deep neural network on the MRS data collected from over 400 patients for a binary classification task. To combat the challenge of noisy labeling, I developed a distillation step to filter out relatively ``cleanly'' labeled samples. A mixing-based data augmentation method was also implemented to expand the size of the training set. All the experiments were designed to be conducted with a leave-patient-out scheme to ensure the generalization ability of the model. Averaged across all leave-patient-out cross-validation sets, the proposed method performed on par with human neuroradiologists, while outperforming other baseline methods. I have demonstrated the distillation effect on the MNIST data set with manually-introduced label noise as well as providing visualization of the input influences on the final classification through a class activation map method.
Moreover, I have proposed to aggregate information at the subject level, which could provide more information and insights. This is inspired by the concept of multiple instance learning, where instance-level labels are not required and which is more tolerant to noisy labeling. I have proposed to generate data bags consisting of instances from each patient and also proposed two modules to ensure permutation invariance, i.e., an attention module and a pooling module. I have compared the performance of the network in different cases, i.e., with and without permutation-invariant modules, with and without data augmentation, single-instance-based and multiple-instance-based learning and have shown that neural networks equipped with the proposed attention or pooling modules can outperform human experts.
Die Entstehung der Elemente im Universum wird auf eine Vielzahl von Prozessen zurückgeführt, die sowohl in Urknall - als auch in stellaren Szenarien angesiedelt werden. Die Kenntnis der dort ablaufenden Reaktionen und deren Raten ermöglicht es die zugrundeliegenden Modelle einzugrenzen und somit genauere Aussagen über die Plausibilität der Szenarien zu treffen. Ein Teil dieser Prozesse stützt sich auf Neutroneneinfänge an Atomkernen, wodurch die Massezahl des Ausgangskerns erhöht wird.
Die Aktivierungsmethode ermöglicht die Bestimmung der Wahrscheinlichkeit eines Neutroneneinfangs, sofern der Zielkern eine detektierbare Radioaktivität aufweist. Die experimentelle Untersuchung einer Reaktion mit einem kurzlebigen Produktkern ist eine besondere Herausforderung, da bei langen Aktivierungen zwar viele Einfänge stattfinden, die meisten Produktkerne jedoch schon während der Aktivierung zerfallen. Ein probates Mittel um genügend Zerfälle des Produktkerns beobachten zu können ist die zyklische Aktivierung, wobei die Probe in mehrfachen Wiederholungen kurz bestrahlt und ausgezählt wird.
Im Rahmen dieser Arbeit wurden zwei verschiedene Anwendungen der zyklischen Aktivierung behandelt.
Eine vom Paul Scherrer Institut Villigen bereitgestellte Probe von 10Be wurde am TRIGA Reaktor der Johannes Gutenberg - Universität Mainz mit Neutronen aktiviert. Über die Cadmiumdifferenzmethode konnte der thermische und der epithermische Anteil der Neutronen separiert werden und dadurch sowohl der thermische Wirkungsquerschnitt als auch das Resonanzintegral für die Reaktion 10Be(n,γ)11Be bestimmt werden.
Am Institut für Kernphysik der Goethe Universität Frankfurt wurde mit einem Van - de - Graaff - Beschleuniger über die 7Li(p,n)7Be Reaktion ein quasistellares Neutronenspektrum mit kBT ≈ 25 keV erzeugt. Für die zyklische Aktivierung von Proben wurde die Infrastruktur in Form einer automatisiert ablaufenden Vorrichtung zur Bestrahlung und Auszählung geplant und umgesetzt. In diesem Rahmen wurden die über das Spektrum gemittelten Neutroneneinfangsquerschnitte für verschiedene Reaktionen bestimmt. Für 19F(n,γ)20F konnte der Gesamteinfangsquerschnitt bestimmt werden. Für die Reaktion 45Sc(n,γ)46Sc wurde der partielle Wirkungsquerschnitt in den 142,5 keV Isomerzustand gemessen. Aus der 115In(n,γ)116In Reaktion konnten die partiellen Querschnitte in die Isomerzustände bei 289,7 keV, 127,3 keV sowie den Grundzustand bestimmt werden.
Außerdem wurde mit einer Hafniumprobe die partiellen Einfangsquerschnitte in den 1147,4 keV Isomerzustand von 178Hf und in den 375 keV Isomerzustand von 179Hf gemessen.
Attributive participle constructions in German behave like adjectives in terms of inflection and position, but keep their verbal arguments. They can be extended by adjuncts or arguments and these extended attributive present participles mainly occur in written language (Weber, 1994). As the same content can also be expressed in a relative clause (RC), I compare both constructions in order to find out under which conditions a participle construction could lead to processing difficulties and how this relates to RC processing.
Based on previous assumptions for production (e.g. Weber, 1971; Fabricius-Hansen, 2016), three potential factors on the comprehension of prenominal modifiers and RCs are investigated: modifier length, the internal structure and multiple levels of embedding. The hypotheses for an effect on modifier length are mainly based on two processing accounts that make opposite predictions under specific circumstances: memory-based accounts such as the dependency locality theory (DLT) (e.g. Gibson, 2000) and expectation-based accounts such as surprisal (e.g. Levy, 2008). An increase in modifier length results in more intervening material between determiner and noun for the participle construction, contrary to RCs where these elements are adjacent. This separation of the DP could increase memory load. Therefore, longer participles would slow down processing of the noun, while there should be no difference for RCs. Two acceptability judgment experiments showed a tendency for longer participle phrases to receive lower ratings. The modifier length was further investigated in online processing. Contrary to the predicted locality effect, self-paced reading data reveals an anti-locality effect for participle phrases, with lower RTs on the noun when additional material was present inside the modifier. This experiment was followed up by an eye-tracking experiment which replicated the anti-locality effect, but at the participle instead at the noun.
The second factor that was investigated is the argument structure of the participle (or RC verb). My hypothesis is that more “prototypical” adjectives in terms of syntactic structure and semantics are more acceptable and easier to process. Attributive participles are considered hybrids between verbs and adjectives (e.g. Fuhrhop & Teuber, 2000; L¨ubbe & Rapp, 2011) due to their modifier internal verbal function, but adjectival position and agreement with the noun. This double role could lead to difficulties, in particular with a more complex verbal structure. Therefore, the prediction was that the presence of an accusative object inside a participle phrase would lead to lower acceptability ratings and higher reading times in online processing. In the first two acceptability experiments, this prediction was borne out. In addition, an SPR experiment was conducted which manipulated the presence of either an accusative object or adjunct for participles (of verbs that could be used intransitively and transitively) and the corresponding RCs. The experiment showed an effect of the presence of an accusative object on the participle, with higher reading times if an object was present, compared to an adjunct. No such difference was found for the RC verb, which indicates that only participles are processed more slowly when there is an accusative object. An alternative explanation for this finding is the inherent imperfective aspect of the present participle: a direct object could change the event structure in such a way that the aspect no longer matches.
The third factor I investigate is an effect of double embedding on the acceptability of participle phrases and RCs. While double embedded participles are rated lower than double embedded RCs, there is a smaller decrease from single to double embedding for participles than for RCs, contrary to the predictions calculated by the metric of the DLT.
Overall, the results provide evidence for experience-based processing, but they cannot be explained by either memory- or experience-based accounts alone. The effect concerning the presence of an accusative object suggest that properties of the participle distinguish the construction from RCs and affect its processing. The thesis suggests that the latter effect needs to be investigated further in future research. Furthermore, the findings have implications for the role of attributive present participles in German and for hypotheses about similar constructions in other languages.
Die Behandlung eines hepatozellulären Karzinoms (HCC) mittels transarterieller Chemoembolisation (TACE) hat einen hohen Stellenwert in einem multimodalen Therapiekonzept. Diese komplikationsarme, interventionelle Therapie wird stets kontrolliert durchgeführt. Im Rahmen dieser Studie sollte die postinterventionelle Sonografie mit der regelhaft durchgeführten CT-Abdomen verglichen werden. Hierbei wurde die kontrastmittelverstärkte Sonografie (contrast enhanced ultrasound, CEUS) in Verbindung mit einer quantitativen Auswertung der Signalintensitäten des Kontrastmittels über die Zeit (time intensity curve analysis, TICA) verwendet.
Das primäre Ziel der Studie war der Vergleich der Kontrastmittelsonografie und TICA mit dem Grad der Lipiodol-Einlagerung im CT-Abdomen. Hierbei wurde jeweils die größte mittels TACE behandelte Läsion untersucht. Es wurde hierzu die Hypothese aufgestellt, dass die Bewertung der Restperfusion des Tumors in der CEUS mit der Lipiodol-Einlagerung - als Surrogatparameter der Restperfusion - korreliert. Als sekundäres Ziel wurde die Untersuchung auf Nicht-Unterlegenheit der Sonografie gegenüber der CT-Abdomen in Bezug auf mögliche unerwünschte Wirkungen der TACE definiert. So sollte insgesamt geklärt werden, ob eine Ablösung des CTs postinterventionell nach TACE realisierbar ist.
In vorliegender Arbeit wurden insgesamt 175 Interventionen bei 89 Patienten mit HCC und TACE-Behandlung prospektiv eingeschlossen. Am Tag nach TACE wurde jeweils eine Sonografie mit CEUS und TICA sowie eine CT-Abdomen durchgeführt. Im Anschluss wurde das perfundierte Areal der Läsion in der CEUS und die Lipiodol-Einlagerung in der CT-Abdomen verglichen und jeweils in vier Kategorien (nach mRECIST) eingeteilt. Bei der Auswertung waren die Untersucher für das jeweils andere Ergebnis verblindet und zusätzlich wurde eine TICA durchgeführt. Des Weiteren wurde die Detektion von potenziellen Nebenwirkungen der TACE in der Sonografie mit der CT-Abdomen verglichen.
In Bezug auf das primäre Prüfziel konnte mittels Cohen’s Kappa zur Übereinstimmung der Bewertungen in CEUS und CT-Abdomen (Interraterreliabilität) keine statistisch signifikante Vergleichbarkeit gezeigt werden (κ=0,028, p=0,288). Mittels linear bzw. quadratisch gewichtetem Cohen’s Kappa zeigte sich ebenso keine Korrelation zwischen den Bewertungen in CEUS und CT-Abdomen (κ=0,016 bzw. κ=0,012). Bei der Auswertung der quantitativen, mittels TICA ermittelten, Signalintensitäten des Kontrastmittels konnte eine schwache Korrelation mit der Lipiodol-Einlagerung im CT-Abdomen gefunden werden (p=0,032, r=0,180). Ein signifikanter Unterschied zwischen den TICA-Messwerten im Zentrum und der Peripherie des Tumors konnte gezeigt werden (p=0,013). Die Beurteilung von unerwünschten Wirkungen einer TACE ist in vorliegender Arbeit nur bedingt möglich, da in diesem Patientenkollektiv klinisch nur sehr wenige Nebenwirkungen auftraten. Der Nachweis von Korrelaten möglicher Komplikationen, wie einer Dreischichtung der Gallenblasenwand, gelang zwar zuverlässig sowohl in der B-Bild Sonografie als auch in der CT-Abdomen, die Vergleichbarkeit ist jedoch wie oben genannt eingeschränkt.
Es konnte mit ausreichender statistischer Power gezeigt werden, dass die CEUS und die CT-Abdomen in Bezug auf das primäre Prüfziel abweichende Ergebnisse liefern. Weitere Studien mit verändertem Design zur Evaluation der Vorhersagekraft für das Outcome bzgl. des Gesamtüberlebens der Patienten nach TACE sind somit erforderlich, um eine belastbare Bewertung vornehmen zu können. Die bisher veröffentlichte Literatur legt eine gute Aussagekraft der Sonografie nahe. Für die TICA konnte in vorliegender Arbeit in Bezug auf die Lipiodol-Einlagerung im CT-Abdomen keine relevante Korrelation gezeigt werden. Die TICA muss zudem technisch weiterentwickelt werden, um die Implementierung in den klinischen Alltag zu erleichtern. Bisher erscheint der Einsatz aufgrund einer zeitintensiven Auswertung der generierten Daten im klinischen Alltag wenig praktikabel. Eine Ablösung des CTs bezüglich der Detektion von Komplikationen nach TACE erscheint jedoch möglich und vor dem Hintergrund der Strahlenbelastung des Patienten und der Kosten sinnvoll.
Es kann abschließend festgehalten werden, dass die CEUS mit TICA postinterventionell nach TACE eine sichere, kosteneffektive und aussichtsreiche Untersuchungsmodalität darstellt. Mit ggf. weiteren Studien scheint somit die Ablösung des CTs im klinischen Alltag mittelfristig realisierbar.
The phospholipid bilayers are the primary constituents of the membrane in living cells in which lipids are hold together in bilayer leaflets through a combination of different forces into the liquid crystalline (Lα) phase. Despite their thin fragile formations, the phospholipid bilayers are responsible for performing a variety of important tasks in the cells, some of which are carried out directly by the lipid bilayers and some by various integral proteins embedded within the bilayers. There have been continues efforts over the past decades to replicate the compound biophysical properties of living cell membranes in model lipid bilayers.
An important question remains unanswered: is it possible to replicate physical properties under “non-equilibrium” conditions as found in cell membranes in model lipid bilayers? In almost all previous studies, the model lipid bilayers were under static conditions – for instance, at zero lateral pressure. However, in living organisms, the cell membranes are involved in continuous (nonequilibrium) exchange and (or) transport of lipid species with the surrounding environment which consequently leads them to experience continuous lateral pressure variations. One suitable in vitro approach is to spatiotemporally control the model lipid bilayers over a time period during which they can be spatially stimulated at a level compatible to that found under in vivo conditions. This can be achieved with high spatiotemporal resolution by making lipids light-dependent through implementation of azobenzene photoswitch in their structures.
In this study, a specific azobenzene containing photolipid (AzoPC) is integrated into POPE:POPG bilayers (POPE: 1-palmitoyl-2-oleoyl-sn-glycero-3-phosphoethanolamine, POPG: 1-palmitoyl-2-oleoyl-sn-glycero-3-phospho-(1'-rac-glycerol)) at ~14 mol% to construct a photo responsive model bilayers entitled as photoliposomes. Magic angle spinning solid-state NMR spectroscopy (MAS-NMR) at high field (850 MHz) is the measurement technique of choice by which it is possible to pursue the dynamics (fluidity) of the bulk lipids within the photoliposomes at atomistic resolution. It is shown that the AzoPCs undergo an efficient trans-to-cis isomerization (~85%) within the photoliposomes as the result of UV light absorption, and thermally relax back to the trans state during a period of ~65 h under the MAS measurement conditions. The order parameter measurements based on the C−H dipolar couplings reveal that the non-equilibrium cis-to-trans thermal isomerization impact of AzoPC on the fluidity of the bulk lipid is highly localized – the fluidity perturbations originate from specific order parameter changes in the middle section of the bulk lipid acyl chains. Further 1H NOESY measurements confirm the hypothesis that the azoswitch topologies in either cis and trans conformer of the photolipid is the key parameter in localized alteration of the C−H order parameters along the bulk lipid acyl chains.
Diacylglycerol kinase (DgkA) from E. coli is an enzyme responsible for the phosphorylation of diacylglycerol to phosphatidic acid, at the expense of adenosine triphosphate. Structurally, DgkA is a homo oligomer composed of three symmetric 14 kDa protomers, each of which has three transmembrane helices and one surface helix. Upon embedding within the photoliposomes, it is shown that DgkA enhances the AzoPC localization impact on the fluidity of the bulk lipids. In this regard, the results of a series of statistical simulations of lipid lateral diffusions along the bilayer leaflets in presence and absence of embedded proteins are accompanied with those of experimentally measured based upon which it is justified that membrane proteins markedly limit lipid lateral diffusions in the bilayers. In case of the DgkA proteo-liposomes with lipid-to-protein ratio of 50, it is estimated that the diffusion coefficient of lipids is above 2-fold lower compared to that of the protein free liposomes.
The cis-to-trans AzoPC isomerization and its following consequence in localized alteration of the bulk lipid fluidity is further investigated on the structural dynamics and enzymatic functionality of the embedded DgkA within the proteo-photoliposomes. It is revealed that DgkA structural dynamics are perturbated in a multi-scale, complex manner. The dynamics of residues located in different regions of DgkA changes with the light-induced AzoPC isomerization, but their time courses differ from residue to residue. For example, 29Ala, a residue on the hinge between the surface helix and membrane helix-1, exhibits the steepest time-dependent cross peak intensity changes in time-resolved NCA spectra. The impact of the lasting membrane fluidity perturbation on the enzymatic functionality of the embedded DgkA is subsequently measured which demonstrates a significant variation under cis- and trans-AzoPC conformations within the proteo-photoliposomes.
Identifizierung potenzieller Taspase1 Inhibitoren für die Behandlung von t(4,11) akuter Leukämie
(2022)
Leukämie ist die häufigste bösartige Krebserkrankung im Kindes- und Jugendalter. Bei einem Kind von 1120 Kindern wird Leukämie diagnostiziert, dabei trifft diese Diagnose Jungen 30 % häufiger als Mädchen. Die Krankheitssymptome treten bei den Kindern noch vor dem Schulalter auf und am häufigsten haben die Kinder mit der akuten Form zu kämpfen. Bei einer Diagnose mit einer akuten lymphatischen Leukämie (ALL) haben die Kinder meist eine gute Prognose, während bei der akuten myeloischen Leukämie (AML) eine deutlich schlechtere.1
Die t(4;11)(q21;q23) Translokation ist aufgrund ihres häufigen Auftretens und der damit schlechten verbundenen Prognose eines der bekanntesten strukturellen Chromosomen-anomalien bei akuten Leukämien. Diese Translokation wurde das erste Mal 1977 von Oshimura et al. beschrieben.2 Bei einer t(4;11)-Translokation ist das Chromosom 4 und das Chromosom 11 involviert. Auf Chromosom 4 ist das AF4-Gen lokalisiert (AFF1) und auf dem Chromosom 11 liegt das MLL-Gen (ALL-1, HRX, hTRX, KMT2A).
Taspase1 wurde als ein proteolytisch prozessierendes Enzym identifiziert, das sich in Wirbellosen und Vertebraten zusammen mit Mitgliedern der Trithorax/MLL/KMT2A-Protein¬familie koevolviert hat. Taspase1 prozessiert nicht nur das MLL und MLL2, deren Fusions¬proteine AF4-MLL, sondern auch den Transkriptionsfaktor IIA (TFIIA) sowohl in vitro als auch in vivo.3
Die Dimerisierung von Taspase1 löst eine intrinsische Serinproteasefunktion aus, die zum katalytischen Rest Thr234 führt, der die Konsensussequenz Q-3X-2D-1•G1X2D3D4 katalysiert, die in Mitgliedern der MLL-Familie sowie im Transkriptionsfaktor TFIIA vorhanden ist. Taspase1 ist kein klassisches Enzym, da es seine Zielproteine stöchiometrisch hydrolysiert. Diese Eigenschaft macht es nahezu unmöglich, in einem klassischen Screening-Setup nach potenziellen Inhibitoren zu screenen.
In dieser Arbeit wurde ein Homogeneous time-resolved fluorescence HTRF-Reporter-Assays etabliert. Das etablierte Testsystem ermöglicht erstmalig die Untersuchung von Substanzen zusammen mit Taspase1 Monomere, die in einem zellfreien System (cfs) hergestellt wurden. Durch die Expression non monomeren Taspase1 Proteinen sollten Inhibitoren durch das etablierte Screening-Verfahren gefunden werden, die sowohl (1) Dimerisierung, (2) Autoaktivierung oder (3) Substratbindung selektiv blockieren können. Die durchgeführten Experimente führten zur Identifikation eines ersten Taspase1-Inhibitors, Closantel sodium. Closantel sodium ist ein U.S. Food and Drug Administration (FDA) zugelassenes Medikament, das Taspase1 auf nicht-kovalente Weise bindet. Die erzielten Daten zeigen, dass Closantel sodium den Dimerisierungsschritt und/oder die intrinsische Serinproteasefunktion blockiert. Closantel sodium hemmte die Spaltung des eingesetzten CS2-Substratproteins mit einem IC50 zwischen 1,6 und 3,9 µM, je nachdem, welches Taspase1-Präparat in dem HTRF Screening Assay ver¬wendeten (cfs- oder E.coli-produziert). Die Daten weisen darauf hin, dass Closantel sodium als allosterischer Inhibitor gegen die Taspase1 fungiert. Taspase1 wird zur Aktivierung der AF4-MLL-Onkofusionsproteine benötigt und wird auch in mehreren soliden Tumoren überexprimiert. Daher könnte dieser neue Inhibitor für die weitere Validierung von Taspase1 als Ziel für die Krebstherapie und für das Design potenterer Liganden für zukünftige klinische Anwendungen nützlich sein.
The present work deals with photoionization in the realm of the absorption of one single photon. The formal treatment of one-photon ionization usually employs a semi-classical approach, where the electron’s initial and final states are described as quantum-mechanical wave functions but the photon is treated as a classical electromagnetic wave. In the calculation of photoionization cross sections with this semi-classical method, there is an often used approximation which is called the electric dipole approximation. Mathematically, the application of the dipole approximation corresponds to truncating the series expansion of an exponential after the leading term. Physically, this means neglecting the linear photon momentum and the spatial dependence of the light field. The dipole approximation is valid if the wavelength of the light is much larger than the spatial extent of the target and if the photon momentum is small compared to the momenta of the reaction products, which is generally the case for photon energies short above the electron binding energy.
For the present work, we experimentally investigated nondipolar photoionization, i.e., one-photon ionization at high photon energies where the dipole approximation breaks down. In our experiments, we irradiated single atoms and molecules with such high-energetic photons and measured the three-dimensional momentum distributions of the reaction fragments to uncover the effects of the linear photon momentum and the spatially-dependent light field on photoionization. Our observations allow the first profound insight into photoionization that reveals all photon properties, i.e., photon energy, spin, linear momentum, and the speed of light. Hopefully, our efforts make a constructive contribution to the understanding and the further exploration of light-matter interaction.
Mit der zunehmenden Relevanz des Internets in den letzten zwei Jahrzehnten geht auch die Gefahr einer dysfunktionalen, suchtartigen Nutzung von verschiedenen Internetanwendungen und insbesondere von digitalen Spielen einher. Jugendliche sind von Internetbezogenen Störungen (IbS) in besonderem Maße betroffen. Die vorliegende Dissertation leistet in vier Einzelstudien einen Beitrag zur Beantwortung offener Forschungsfragen auf dem Gebiet der IbS. Studie 1 setzt sich damit auseinander, ob und inwiefern die Aufnahme der „Gaming Disorder“ in die Neuauflage der internationalen Klassifikation der Krankheiten der WHO (ICD-11) gerechtfertigt ist und kommt zu dem Schluss, dass die neue Diagnose sowohl für die Forschung als auch für die klinische Praxis mehr Vor- als Nachteile bietet. Der Gefahr einer Überpathologisierung und Stigmatisierung kann durch eine gründliche Diagnosestellung durch geschulte Fachpersonen begegnet werden. Studie 2 untersucht schulbezogene Risikofaktoren von IbS. Dazu wurden N=418 Jugendliche und junge Erwachsene im Alter von 11 bis 21 Jahren, die vorab auf ein erhöhtes Risiko für IbS gescreent wurden, per Fragebogen nach ihrem Internetnutzungsverhalten, nach IbS-Symptomen, nach Schulnoten und Fehltagen, nach ihrem Lern- und Sozialverhalten sowie nach Prokrastinationstendenzen befragt. Die Daten entstammen dem ersten Messzeitpunkt der PROTECT-Studie (Professioneller Umgang mit technischen Medien). Aufgrund der hierarchischen Datenstruktur wurde zur Analyse ein Mehrebenenansatz gewählt. Die Ergebnisse zeigen, dass Online-Zeit, vermehrtes Gaming und Prokrastination auf der Individualebene sowie Sozialverhalten auf der Schulebene Symptome einer IbS vorhersagen. Studie 3 und Studie 4 befassen sich mit der Prävention von IbS. Studie 3 gibt einen Überblick über den internationalen Stand der Forschung im Bereich der Prävention und Frühintervention und stellt die derzeit verfügbaren deutschsprachigen Präventionsprogramme vor.
Während in den westlichen Ländern vor allem gruppenbasierte, verhaltensorientierte Programme zur Anwendung kommen, werden im ostasiatischen Raum auch verhältnispräventive Maßnahmen eingesetzt, wie etwa Spielzeitbeschränkungen für Minderjährige. In Deutschland sind derzeit 12 Präventionsprogramme für IbS verfügbar.
Für zwei dieser Programme wurde die Wirksamkeit in randomisiert-kontrollierten Studien nachgewiesen. Studie 4 ist eine dieser Untersuchungen. Sie stellt die Ergebnisse der Wirksamkeitsprüfung für das von unserer Arbeitsgruppe entwickelte PROTECT-Präventionsprogramm dar. Dazu wurden N=422 Schülerinnen und Schüler, die vorab auf ein erhöhtes Risiko für IbS gescreent wurden, nach Clustern (Schulen) randomisiert in eine Interventions- und eine Beobachtungsgruppe eingeteilt. Während in der Interventionsgruppe das kognitiv-verhaltenstherapeutisch orientierte 4-wöchige PROTECT-Programm in Kleingruppen durchgeführt wurde, füllten die Teilnehmenden der Beobachtungsgruppe lediglich zu vier Messzeitpunkten (vor und nach der Intervention, nach 4 Monaten und nach 12 Monaten)
diagnostische Fragebögen zur Soziodemografie, zur Internetnutzung, zur IbS-Symptomatik, zu komorbiden psychischen Störungen, zur Emotionsregulation, zum Sozial- und Lernverhalten, zu Prokrastinationstendenzen sowie zum Selbstwertgefühl aus. Die Ergebnisse der Untersuchung zeigen eine Reduktion der IbSSymptomatik in beiden Gruppen. Die Reduktion ist jedoch in der Interventionsgruppe signifikant stärker, was für die Wirksamkeit des PROTECT-Programms spricht. Die Ergebnisse von Studie 1-4 ergänzen bisherige Forschungsbefunde zu IbS im Bereich der Diagnostik, Entstehung und Prävention.
Die vorliegende Arbeit thematisiert den Vergleich der Bildqualität von Liegend-Röntgen-Thorax-Aufnahmen von Patienten auf der Intensivstation des Universitätsklinikums Frankfurt unter Verwendung einerseits eines parallelen und andererseits eines virtuellen Streustrahlenrasters (=Bildverarbeitungssoftware). Es wurde untersucht, ob mit dem virtuellen Raster eine mindestens gleichwertige Bildqualität wie mit dem parallelen Raster erreicht und gleichzeitig Strahlendosis eingespart werden kann.
Insgesamt wurden 378 Röntgen-Thorax-Aufnahmen von 126 Patienten, die jeweils einmal mit parallelem Raster, mit virtuellem Raster und mit dem gleichen virtuellen Raster mit Dosisreduktion durchgeführt wurden, in die Studie eingeschlossen. Das virtuelle Raster ahmt das parallele Raster in der Streustrahlenreduktion nach. Das Übergewicht der Patienten als Einschlusskriterium der Studie rechtfertigte den Einsatz des parallelen Rasters. Jeder Patient wurde nur nach klinischer Indikationsstellung geröntgt, sodass der zeitliche Abstand zwischen zwei Röntgen-Thorax-Aufnahmen unterschiedlicher Aufnahmetechniken desselben Patienten variierte. Für alle Röntgen-Thorax-Aufnahmen wurde derselbe indirekte Flachdetektor verwendet. Die Röhrenspannung betrug konstant 125 kV, das Strom-Zeit-Produkt 1,4 mAs (für das parallele und virtuelle Raster) bzw. 1,0 mAs (für das virtuelle Raster mit Dosisreduktion). Für jeden Röntgen-Thorax wurde das Dosisflächenprodukt bestimmt. Vier Radiologen evaluierten die Bildqualität hinsichtlich sechs Kriterien (Lungenparenchym, Weichteile, thorakale Wirbelsäule, Fremdkörper, Pathologien und Gesamtqualität) anhand einer 9-Punkte-Skala. Der Friedman-Test (p < 0,05: signifikant) wurde angewendet. Die Übereinstimmung der Radiologen wurde über Intraklassenkorrelationskoeffizienten berechnet.
Das virtuelle Raster ohne/mit Dosisreduktion wurde insgesamt von allen vier Radiologen für die Weichteile, die thorakale Wirbelsäule, die Fremdkörper und die Gesamtbildqualität signifikant besser bewertet als das parallele Streustrahlenraster (p ≤ 0,018).
Für das Lungenparenchym und die Pathologien resultierten sowohl signifikante als auch nicht-signifikante Ergebnisse, wobei bei signifikanten Ergebnissen ebenfalls das virtuelle Raster ohne/mit Dosisreduktion besser bewertet wurde als das parallele Streustrahlenraster (p ≤ 0,002). Einzige Ausnahme stellten die Evaluationen der Bildqualität bez. des Lungenparenchyms eines Radiologen dar, der das virtuelle Raster ohne/mit Dosisreduktion signifikant schlechter bewertete als das parallele Raster (p < 0,0001). Insgesamt wurde das virtuelle Raster mit Dosisreduktion für die folgenden Kriterien am besten in absteigender Reihenfolge im Vergleich zum parallelen Raster bewertet: Fremdkörper, thorakale Wirbelsäule, Weichteile, Gesamtbildqualität, Pathologien und Lungenparenchym. Die Übereinstimmung der vier Radiologen in ihren Bildqualitätsbewertungen war maximal gering. Mit dem virtuellen Raster wurde im Durchschnitt etwa 28,7% des Dosisflächenprodukts im Vergleich zum parallelen Streustrahlenraster eingespart (p < 0,0001).
Bisher haben nur vier Studien Streustrahlenreduktionssoftwares an Liegend-Röntgen-Thorax-Aufnahmen untersucht, davon zwei an lebenden Menschen. Limitationen der vorliegenden Studie sind die Subjektivität der Bewertungen der Radiologen, die mögliche Identifizierung der Röntgen-Thorax-Aufnahmen, die mit dem parallelen Streustrahlenraster als gängige Aufnahmetechnik in der Radiologie des Universitätsklinikums Frankfurt durchgeführt wurden, die Konstanz der Expositionsparameter unabhängig des BMI der Patienten und die eingeschränkte Vergleichbarkeit der Röntgen-Thorax-Aufnahmen desselben Patienten aufgrund von Veränderungen der Pathologien, Fremdkörper, etc. bei (großem) zeitlichem Abstand zwischen den Röntgen-Thorax-Aufnahmen.
Das virtuelle Raster erzielte teils eine gleichwertige, teils eine bessere Bildqualität wie/als das parallele Raster bei gleichzeitiger Dosisreduktion von 28,7% und kann es somit bei Liegend-Röntgen-Thorax-Aufnahmen ersetzen. Weitere Studien sollten den Einsatz des virtuellen Rasters bei Röntgenaufnahmen des Thorax (stehend und liegend) und anderer Körperpartien im Hinblick auf die Bildqualität, (höhere) Dosiseinsparungen und den Workflow untersuchen.
This work is about resumptive and non-resumptive relative clauses (RCs) in the three big Ibero-Romance languages: Spanish, Portuguese, and Catalan. In (1), the examined structures are exemplified for Spanish: (1a.) No conozco el hombre que viste _ ayer. “I don’t know the man that you saw yesterday.” (1b.) Es este el hombre que le enviaron el libro. “This is the man to whom they sent the book.” (1c.) Es este el hombre a quien le enviaron el libro. “This is the man to whom they sent the book.”
(1a.) displays a non-resumptive, or canonical, RC, which is characterized by the canonical use of a relativizing operator and a gap in the subordinate’s object position, a piece of evidence which has induced most of the generative literature to assume wh-movement of the relative operator in the sense of Chomsky (1977). The last two decades, however, have seen a big debate regarding the exact derivational analysis, starting with Kayne’s (1994) antisymmetry theory and the following focus on reconstruction and anti-reconstruction effects in RCs. This search for the correct starting site of the RC’s head noun has dismissed the original Head External Analysis (HEA) (Chomsky 1965, 1977) and led to the development of a Head Raising Analysis (RA) (Kayne 1994, Bianchi 1999, a.o.) and a Matching Analysis (MA) (Munn 1994, Sauerland 1998, a.o.). The discussion in this work argues that the data on reconstruction and anti-reconstruction effects are not sufficiently clear and reliable in order to adopt one of the head-internal analyses, i.e. a HEA or a MA. Instead, the work follows a variant of the HEA proposed for Portuguese by Rinke & Aßmann (2017), which adheres to standard assumptions about Romance syntax, and avoids the empirical problems that the other proposals have to face. Arguing that the HEA holds for all Ibero-Romance languages, this work also takes a stance in the debate around the categorical status of the relativizing element que and argues that it is always a D-element, and never of category C, i.e. there is no such thing as a relativizing complementizer (cf. also Kayne 2010, Kato & Nunes 2008, Poletto & Sanfelici 2018).
The work argues that wh-movement in a HEA fashion is the correct analysis also for resumptive relative clauses as in (1b., c.), which crucially lack a gap in argument position but show a resumptive pronominal element instead. Furthermore, it takes advantage of the fact that the choice of such genetically closely related languages like Spanish, Portuguese, and Catalan enables research to address the phenomenon under consideration from a microcomparative perspective, which is “the closest we can come … to a controlled experiment in comparative syntax” (Kayne 2005: 281-282). The descriptive literature suggests that, at least for Spanish and Catalan, there are two types of a resumptive RC structure available: a simple resumption as in (1b.), including mere que, and a complex resumption structure which displays a more complex relativizer like a quien in combination with a resumptive pronoun (1c.). However, a corpus study carried out for this work reveals that speakers of the three languages behave alike insofar as the only resumptive RC used in spontaneous speech is a simple-resumption structure, while complex resumption never occurs. Additionally, a multivariate analysis shows that in all three languages, grammatical case is the most important factor when it comes to the possibility of a resumptive structure in RCs: with a dative argument, simple resumption is obligatory, while for accusative and nominative arguments, resumption is optional. The discussion concludes that simple and complex resumption constitute different phenomena also on a structural level: the latter one is argued to be a subcase of clitic doubling, and therefore, receives an analysis along the lines of Pineda (2016), who argues against a dative alternation in Romance languages and locates the (non-)realisation of the dative clitic in a transitive clitic-doubling structure outside of syntax, it being a case of silent variation along the lines of Sigurðsson (2004) and Kayne (2005). From this perspective, it follows naturally that in Portuguese, complex resumption structures are ungrammatical. Simple resumption, on the other hand, which is a possible structure in all three languages, is argued to represent the phonological counterpart of “scattered deletion”, i.e. the preferred interpretation for an A’-chain according to Chomsky (2003): in the operator position SpecCP, every feature except for the operator feature is deleted, resulting in the phonological outcome que, while in the variable position, everything but the operator is interpreted, resulting in a pronominal element according to the argument’s phi-features.
This work takes a stance in the latest topics on generative analyses for relative clauses. Using not only theoretical considerations but conclusions drawn from empirical data on three languages, it offers a new perspective on pending questions and proposes to take a fresh look on supposedly outdated analyses.
In dieser Arbeit wurde untersucht, ob die Sprachentwicklungsdiagnostik in den pädiatrischen Früherkennungsuntersuchungen U7a (mit 3 Jahren), U8 (4 J.) und U9 (5 J.) wissenschaftliche Qualitätsanforderungen an eine zuverlässige Identifikation von Kindern mit Spezifischen Sprachentwicklungsstörungen (SSES) erfüllt. Im Fokus der Untersuchung stehen mehrsprachige Kinder, da es insbesondere bei dieser Zielgruppe zu Fehleinschätzungen kommt.
In Studie I, einer Fragebogenerhebung mit 36 Kinderärzt/innen, wurde erstens der Frage nachgegangen, welche Informationen zur Sprachbiografie und Indikatoren einer SSES anamnestisch erhoben werden. Den Ergebnisse zufolge werden die relevanten sprachbiografischen Informationen (Alter und Sprachen des Kindes, Sprachgebrauch in der Familie, Alter bei Beginn des Deutscherwerbs, Kontaktdauer) und Risikoindikatoren (späte Produktion erster Wörter und Wortverbindungen, familiäre Sprachauffälligkeiten) von nahezu allen Kinderärzt/innen erfasst. Den Stand der Erstsprache als zentrales differentialdiagnostisches Kriterium erheben 75% der Pädiater/innen. Zweitens wurde untersucht, welche sprachdiagnostischen Methoden und Verfahren zur Untersuchung des Kindes zum Repertoire der Ärzt/innen gehören. Den Ergebnisse zufolge verfügen sie über verschiedenste Verfahren. Sie präferieren Elternfragebögen und nicht standardisierte Verfahren. Diese erfüllen die testtheoretischen Gütekriterien nicht und sind für mehrsprachige Kinder nicht geeignet.
In Studie II wurde mittels teilnehmender Beobachtungen in 21 Vorsorgeuntersuchungen bei 11 Ärzt/innen untersucht, unter welchen Rahmenbedingungen und wie Kinderärzt/innen die Sprachentwicklung mehrsprachiger Kinder überprüfen. Als Methode zur Beurteilung der sprachlichen Fähigkeiten bevorzugen die Ärzt/innen das informelle Gespräch mit dem Kind. Ein Schwerpunkt der Arbeit lag deshalb auf der Analyse ihrer diagnostischen Fragen für die Erfassung sprachlicher Fähigkeiten im Gespräch. Dafür wurden Fragetypen des Deutschen danach klassifiziert, welche sprachlichen Strukturen in den Antworten erwartet werden können und welchen Beitrag sie somit zur Diagnostik einer SSES leisten können. Eine linguistische Analyse aller Fragen und Impulse (n = 801), die die Ärzt/innen an die Kinder richteten, um sie zum Sprechen anzuregen, ergab, dass ihr Potenzial für die Sprachentwicklungsdiagnostik nur unzureichend genutzt wird. 18% der ärztlichen Fragen waren nicht auswertbar, weil sie im Gespräch keine Antwort des Kindes zuließen. Im Mittel waren je Untersuchung lediglich 8,5% aller auswertbaren Fragen (n = 578) dazu geeignet, verbhaltige und v.a. satzwertige Äußerungen zu elizitieren. Diese sind für die SSES-Diagnostik besonders relevant, da sie frühe Symptome einer SSES enthalten können. 43% der Fragen ließen als Antwort verblose Konstituenten erwarten, die jedoch für die Diagnostik von untergeordneter Bedeutung sind. Die übrigen Fragen waren für die Diagnostik nicht relevant.
Den Ergebnisse beider Studien zufolge ist eine flächendeckend zuverlässige Sprachentwicklungsdiagnostik unter Einhaltung wissenschaftlicher Qualitätsanforderungen in den Früherkennungsuntersuchungen nicht gewährleistet.
Mit der Arbeit wird ein Beitrag zur Erforschung der pädiatrischen Sprachentwicklungsdiagnostik geleistet. Mögliche Ursachen für Fehldiagnosen werden offengelegt. Die Ergebnisse zeigen die Bedingungen und Probleme auf, unter denen Sprachentwicklungsdiagnostik in institutionellen Kontexten stattfindet, und weisen damit über das Feld der pädiatrischen Diagnostik hinaus. Die linguistisch fundierte Analyse diagnostischer Fragen ist auch bspw. für die Sprachtherapie und die Sprachförderung in pädagogischen Kontexten bedeutsam. Die Ergebnisse lassen sich folglich nicht nur für die Weiterqualifizierung von Kinderärzt/innen, sondern auch für andere Berufsgruppen fruchtbar machen.
The book deals with a comprehensive constellation of narrative and visual, often counterposed representations of the causes, course, and results of the assault on the Palace of Justice of Colombia by a guerrilla commando and the immediate counterattack launched by state security forces on November 6, 1985, as well as with the local memorial traditions in which the production, circulation and reproduction of these representations have taken place between 1985 and 2020. The research on which it is based was grounded in the method and perspective of classical anthropology, in as much as qualitative fieldwork and the search for the perspective of the actors involved have played a central role. Within that context, memory entrepreneurs belonging to diverse sectors, from the far-right to the human rights movement, were followed through multisited fieldwork in various locations of Colombia, as well as in various countries of America and Europe. The analyses of fieldwork data, documental sources, and visual representations that constitute the core of the argument are framed in the field of memory studies and mainly based on theoretical and methodological resources from Pierre Bourdieu’s Field Theory, Jeffrey Alexander’s theory of social trauma, and Ernst Gombrich’s characterization of iconological analysis.
The book is composed of four chapters preceded by an introduction and followed by the conclusions and documental appendices, and substantiates three main theses. The first is that the Palace of Justice events were a radio- and television-broadcasted dispersed tragedy that affected the lives of actors from different social sectors and regions of Colombia, who have launched since 1985 multiple memorial initiatives in different fields of culture, thereby contributing to the formation and intergenerational transmission of a widespread cultural trauma. The second is that the narrative and visual representations at the core of that trauma express a vast universe of local representational traditions that can be traced at least until the early 20th century, and therefore preexists the so-called Colombian “memory boom”, dated to the mid-1990s. As an example of the preexistence and longstanding impact of these traditions, the local usage of the figure of “holocaust” for representing the effects of politically motivated violence is analyzed regarding the Palace of Justice events, but also traced to other representations emerged in the decade of 1920. The third thesis is that analyzing the diverse, frequently counterposed accounts of political violence elaborated within these traditions provides an opportunity to explore a wide variety of understandings of the causes and characteristics of the longstanding Colombian social and armed conflict.
Keywords: Political violence, Cultural trauma, Collective Memory, Iconology, Holocaust, Colombia.
Der Diskurs über Integration und Integrationsmechanismen fand seinen Beginn in der Migrationsforschung, deren Anfänge bis in die erste Hälfte des 19. Jahrhunderts zurückreichen . Innerhalb dieses Feldes fanden immer wieder Wandlungen der Ausgestaltung des Begriffs der Integration statt, da die theoretischen Konzepte in unterschiedlichen gesellschaftlichen sowie historischen Kontexten entstanden sind bzw. entstehen. Heute existiert eine Vielzahl an theoretischen Perspektiven auf Integration, die eine hohe Heterogenität und auch Interdisziplinarität aufweisen. Generell zeigt sich somit, dass, wenn von Integration gesprochen wird, nicht wirklich klar ist, was unter dem Begriff zu verstehen ist. Die vorliegende Arbeit macht es sich somit zur Aufgabe, den Begriff der Integration und damit verbundene Zielvorstellungen aus Sicht der Akteurinnen und Akteure in Sportorganisationen zu beleuchten. Dafür wird eine Studie im Mixed-Methods-Design durchgeführt, die eine fragebogenbasierte Umfrage, explorative Interviews mit Vereinsvorständen und vertiefende Leitfadeninterviews mit Vereinsmitgliedern umfasst. Ein besonderer Fokus der Gruppenvergleiche liegt dabei auf Personen mit und ohne Migrationshintergrund, um die Perspektive von Personen mit Migrationshintergrund selbst in den Diskurs einbringen zu können. Da sich subjektive Sichtweisen auch aufgrund weiterer Faktoren unterscheiden können, werden außerdem Zusammenhänge zwischen sozialstrukturellen Merkmalen sowie Merkmalen der Vereine und subjektiven Sichtweisen auf Integration untersucht.
Ziel der vorliegenden Arbeit war die Untersuchung der Kurzzeitdynamik zirkulierender Tumorzellen bei hepatozellulären Karzinompatienten, die erstmalig eine radiologische Intervention in Form einer transarteriellen Chemoembolisation oder einer Mikrowellenablation als Therapie erhielten. Dafür wurde in Vorversuchen eine neuartige Methode zur Isolation und Detektion von zirkulierenden Tumorzellen entwickelt.
Zugleich sollte ein potenzieller Einsatz dieser Methode als Screeningverfahren für hepatozelluläre Karzinompatienten mithilfe der Sensitivität und Spezifität überprüft werden. Darüber hinaus wurde eine mögliche Korrelation der Kurzzeitdynamik zirkulierender Tumorzellen sowohl mit der Kurzzeitdynamik des AFP-Wertes als anerkannten HCC-Tumormarker, als auch des IL-6-Wertes als aktuell diskutierten Tumormarker analysiert. Ferner wurde die Kurzzeitdynamik zirkulierender Tumorzellen mit dem klinischen Verlauf der Patienten verglichen.
Im Zeitraum von September 2017 bis Juni 2018 konnten Blutproben von 18 Patienten mit einem hepatozellulären Karzinom untersucht werden. Davon wurden zehn Patienten mittels Mikrowellenablation und acht Patienten mittels transarterieller Chemoembolisation behandelt. Daneben wurden Blutproben von 13 gesunden Probanden ausgewertet.
Methodisch wurden jeweils im Anschluss an die Gewinnung des Patientenblutes, vor und unmittelbar nach jeweiliger radiologischer Intervention, die zirkulierenden Tumorzellen aus dem Blut isoliert und die gewonnenen Zellen durch die Durchflusszytometrie nachgewiesen und quantifiziert. Als zirkulierende Tumorzellen wurden dabei jene Zellen betrachtet, die eine Negativität auf den Marker CD45 sowie eine Positivität auf die Marker ASGPR-1, CD146, CD274 und CD90 zeigten.
Durch den Vergleich der Proben vor und nach radiologischer Intervention konnte gezeigt werden, dass die Anzahlen zirkulierender Tumorzellen nach der radiologischen Intervention im Mittel niedriger sind als vor der Therapie. Die Anzahl zirkulierender Tumorzellen sank dabei im Schnitt bei den mit Mikrowellenablation behandelten Patienten stärker im Vergleich zu denen, die eine transarterielle Chemoembolisation erhielten. Dies bestätigte den klinischen Verlauf der Patientengruppen, da die Mortalität der Gruppe, die eine transarterielle Chemoembolisation erhielten deutlich höher war als bei den übrigen Patienten.
Als klinisch einsetzbare Screening-Methode im Sinne einer „Liquid Biopsy“ für das HCC müssen die Sensitivität und Spezifität weitergehend optimiert werden. Eine signifikante Korrelation zwischen der Kurzzeitdynamik der Anzahlen zirkulierender Tumorzellen und der Kurzzeitdynamik der AFP-Werte und der IL-6-Werte konnte nicht festgestellt werden. Entgegen des erwarteten Trends, legte die angewendete Methode, durch das Absinken der zirkulierenden Tumorzellen, die positive Wirkung der transarteriellen Chemoembolisation und der Mikrowellenablation in hepatozellulären Karzinompatienten dar.
This thesis examines the referential properties of prenominal possessive modifiers in Serbian. The focus of the investigation is on the configurations that have been claimed to violate Binding Principles B and C: lexical or pronominal possessives modifying a noun in subject position binding a pronoun or an R-expression in object position. Such constructions have been claimed to be ungrammatical in Serbian due to the alleged adjectival status of the possessive and its respective syntactic position as NP-adjoined (Despić 2013).
The present thesis takes up the ongoing debate about the categorial status of Serbian possessives as adjectives or determiners. Based on several arguments, such as word order, binding of anaphora, coordination, and the fact that they are typically represented by either nouns or pronouns, it is concluded that possessives rather behave like full noun phrases than adjectives. Therefore, I analyse possessives as DPs from a categorial point of view.
In a second step, the syntactic position of the possessives within the Serbian noun phrase has been investigated. Based on theoretical arguments (cf. Bašić 2004) and empirical evidence, I propose a structural position that would accommodate the binding facts and the referential possibilities in these configurations. In line with Kayne (1994), Bernstein and Tortora (2005) and Alexiadou et al. (2007), I assume that possessives occupy SpecAgrP in Serbian, where they move from their base position (SpecPossP). Thirdly, I question the (im)possibility of coreference with possessives in comparison to ‘typical’ binding constructions without possessives by providing empirical evidence from three experimental studies, showing that coreference between possessive modifiers and objects is indeed available in Serbian.
The results from Experiment 1 (a picture selection task) have shown that coreference between a lexical possessive and a (clitic or strong) pronoun is allowed in Serbian. Further, there is a tendency that the coreferential reading is preferred with clitics, while the disjoint reference is preferred with strong pronouns. The fact that coreference is possible, does not necessarily mean that it is always available as the only interpretation, but can be influenced by other (pragmatic) factors. The same is observed in Experiments 2 and 3 as coreference was chosen between pronominal possessives modifying a noun in subject position and R-expressions but rejected between pronouns and R-expressions in a forced-choice task, suggesting a structural difference – no c-command – in the former case. The results from the self-paced reading task corroborate this finding.
Importantly, the experimental results provide evidence that possessive configurations are not violating Binding Principles B and C. This implies that Serbian possessive constructions do not c-command out of the noun phrase, as predicted by the proposed syntactic analysis.
The findings from all experiments contribute to the bigger picture concerning the nature and behaviour of Serbian possessives and cast doubt on the cross-linguistic DG/AG parameter. Instead, the theoretical arguments and the empirical results from the experiments rather speak for a parallel structure of possessive noun phrases in Serbian and English and ultimately in favour of the Universal DP Hypothesis.