Doctoral Thesis
Refine
Year of publication
- 2022 (238) (remove)
Document Type
- Doctoral Thesis (238) (remove)
Language
- English (135)
- German (101)
- Multiple languages (2)
Has Fulltext
- yes (238)
Is part of the Bibliography
- no (238)
Keywords
- ACLF (2)
- CBM (2)
- Digitalisierung (2)
- HADES (2)
- Leberzirrhose (2)
- Nierentransplantation (2)
- Saccharomyces cerevisiae (2)
- mTOR (2)
- 177Lu-PSMA (1)
- ACKR (1)
Institute
- Medizin (76)
- Biochemie, Chemie und Pharmazie (39)
- Biowissenschaften (32)
- Physik (25)
- Informatik und Mathematik (15)
- Geowissenschaften / Geographie (11)
- Neuere Philologien (8)
- Biochemie und Chemie (6)
- Psychologie und Sportwissenschaften (5)
- Gesellschaftswissenschaften (3)
Die vorgelegte Dissertation behandelt den Einfluss homöostatischer Adaption auf die Informationsverarbeitung und Lenrprozesse in neuronalen Systemen. Der Begriff Homöostase bezeichnet die Fähigkeit eines dynamischen Systems, bestimmte interne Variablen durch Regelmechanismen in einem dynamischen Gleichgewicht zu halten. Ein klassisches Beispiel neuronaler Homöostase ist die dynamische Skalierung synaptischer Gewichte, wodurch die Aktivität bzw. Feuerrate einzelner Neuronen im zeitlichen Mittel konstant bleibt. Bei den von uns betrachteten Modellen handelt es sich um eine duale Form der neuronalen Homöostase. Das bedeutet, dass für jedes Neuron zwei interne Parameter an eine intrinsische Variable wie die bereits erwähnte mittlere Aktivität oder das Membranpotential gekoppelt werden. Eine Besonderheit dieser dualen Adaption ist die Tatsache, dass dadurch nicht nur das zeitliche Mittel einer dynamischen Variable, sondern auch die zeitliche Varianz, also die stärke der Fluktuation um den Mittelwert, kontrolliert werden kann. In dieser Arbeit werden zwei neuronale Systeme betrachtet, in der dieser Aspekt zum Tragen kommt.
Das erste behandelte System ist ein sogennantes Echo State Netzwerk, welches unter die Kategorie der rekurrenten Netzwerke fällt. Rekurrente neuronale Netzwerke haben im Allgemeinen die Eigenschaft, dass eine Population von Neuronen synaptische Verbindungen besitzt, die auf die Population selbst projizieren, also rückkoppeln. Rekurrente Netzwerke können somit als autonome (falls keinerlei zusätzliche externe synaptische Verbindungen existieren) oder nicht-autonome dynamische Systeme betrachtet werden, die durch die genannte Rückkopplung komplexe dynamische Eigenschaften besitzen. Abhängig von der Struktur der rekurrenten synaptischen Verbindungen kann beispielsweise Information aus externem Input über einen längeren Zeitraum gespeichert werden. Ebenso können dynamische Fixpunkte oder auch periodische bzw. chaotische Aktivitätsmuster entstehen. Diese dynamische Vielseitigkeit findet sich auch in den im Gehirn omnipräsenten rekurrenten Netzwerken und dient hier z.B. der Verarbeitung sensorischer Information oder der Ausführung von motorischen Bewegungsmustern. Das von uns betrachtete Echo State Netzwerk zeichnet sich dadurch aus, dass rekurrente synaptische Verbindungen zufällig generiert werden und keiner synaptischen Plastizität unterliegen. Verändert werden im Zuge eines Lernprozesses nur Verbindungen, die von diesem sogenannten dynamischen Reservoir auf Output-Neuronen projizieren. Trotz der Tatsache, dass dies den Lernvorgang stark vereinfacht, ist die Fähigkeit des Reservoirs zur Verarbeitung zeitabhängiger Inputs stark von der statistischen Verteilung abhängig, die für die Generierung der rekurrenten Verbindungen verwendet wird. Insbesondere die Varianz bzw. die Skalierung der Gewichte ist hierbei von großer Bedeutung. Ein Maß für diese Skalierung ist der Spektralradius der rekurrenten Gewichtsmatrix.
In vorangegangenen theoretischen Arbeiten wurde gezeigt, dass für das betrachtete System ein Spektralradius nahe unterhalb des kritischen Wertes von 1 zu einer guten Performance führt. Oberhalb dieses Wertes kommt es im autonomen Fall zu chaotischem dynamischen Verhalten, welches sich negativ auf die Informationsverarbeitung auswirkt. Der von uns eingeführte und als Flow Control bezeichnete duale Adaptionsmechanismus zielt nun darauf ab, über eine Skalierung der synaptischen Gewichte den Spektralradius auf den gewünschten Zielwert zu regulieren. Essentiell ist hierbei, dass die verwendete Adaptionsdynamik im Sinne der biologischen Plausibilität nur auf lokale Größen zurückgreift. Dies geschieht im Falle von Flow Control über eine Regulation der im Membranpotential der Zelle auftretenden Fluktuationen. Bei der Evaluierung der Effektivität von Flow Control zeigte sich, dass der Spektralradius sehr präzise kontrolliert werden kann, falls die Aktivitäten der Neuronen in der rekurrenten Population nur schwach korreliert sind. Korrelationen können beispielsweise durch einen zwischen den Neuronen stark synchronisierten externen Input induziert werden, der sich dementsprechend negativ auf die Präzision des Adaptionsmechanismus auswirkt.
Beim Testen des Netzwerks in einem Lernszenario wirkte sich dieser Effekt aber nicht negativ auf die Performance aus: Die optimale Performance wurde unabhängig von der stärke des korrelierten Inputs für einen Spektralradius erreicht, der leicht unter dem kritischen Wert von 1 lag. Dies führt uns zu der Schlussfolgerung, dass Flow Control unabhängig von der Stärke der externen Stimulation in der Lage ist, rekurrente Netze in einen für die Informationsverarbeitung optimalen Arbeitsbereich einzuregeln.
Bei dem zweiten betrachteten Modell handelt es sich um ein Neuronenmodell mit zwei Kompartimenten, welche der spezifischen Anatomie von Pyramidenneuronen im Kortex nachempfunden ist. Während ein basales Kompartiment synaptischen Input zusammenfasst, der in Dendriten nahe des Zellkerns auftritt, repräsentiert das zweite apikale Kompartiment die im Kortex anzutreffende komplexe dendritische Baumstruktur. In früheren Experimenten konnte gezeigt werden, dass eine zeitlich korrelierte Stimulation sowohl im basalen als auch apikalen Kompartiment eine deutlich höhere neuronale Aktivität hervorrufen kann als durch Stimulation nur einer der beiden Kompartimente möglich ist. In unserem Modell können wir zeigen, dass dieser Effekt der Koinzidenz-Detektion es erlaubt, den Input im apikalen Kompartiment als Lernsignal für synaptische Plastizität im basalen Kompartiment zu nutzen. Duale Homöostase kommt auch hier zum Tragen, da diese in beiden Kompartimenten sicherstellt, dass sich der synaptische Input hinsichtlich des zeitlichen Mittels und der Varianz in einem für den Lernprozess benötigten Bereich befindet. Anhand eines Lernszenarios, das aus einer linearen binären Klassifikation besteht, können wir zeigen, dass sich das beschriebene Framework für biologisch plausibles überwachtes Lernen eignet.
Die beiden betrachteten Modelle zeigen beispielhaft die Relevanz dualer Homöostase im Hinblick auf zwei Aspekte. Das ist zum einen die Regulation rekurrenter neuronaler Netze in einen dynamischen Zustand, der für Informationsverarbeitung optimal ist. Der Effekt der Adaption zeigt sich hier also im Verhalten des Netzwerks als Ganzes. Zum anderen kann duale Homöostase, wie im zweiten Modell gezeigt, auch für Plastizitäts- und Lernprozesse auf der Ebene einzelner Neuronen von Bedeutung sein. Während neuronale Homöostase im klassischen Sinn darauf beschränkt ist, Teile des Systems möglichst präzise auf einen gewünschten Mittelwert zu regulieren, konnten wir Anhand der diskutierten Modelle also darlegen, dass eine Kontrolle des Ausmaßes von Fluktuationen ebenfalls Einfluss auf die Funktionalität neuronaler Systeme haben kann.
In der vorliegenden Arbeit wurde die Ionisation von Atomen und Molekülen in starken Laserfeldern experimentell untersucht. Hierbei kam die COLTRIMS-Technik zur koinzidenten Messung der Impulse aller aus einem Ionisationsereignis stammender Ionen und Elektronen zum Einsatz. Unter Mitwirkung des Autors wurde ein COLTRIMS-Reaktionsmikroskop umgebaut und mit einem neuen Spektrometer sowie einer atomaren Wasserstoffquelle ausgestattet. Des Weiteren entstand ein interferometrischer Aufbau zur Erzeugung von Zwei-Farben-Feldern. Aus jedem der vorgestellten Experimente konnten Informationen über die elektronische Wellenfunktion an der Grenze zum klassisch verbotenen Bereich gewonnen werden. Dies geschah sowohl im Hinblick auf die Amplitude, als auch auf die Phase der Wellenfunktion. Mit dem Wasserstoffatom (Kapitel 9), dem Wasserstoffmolekül (Kapitel 10) und dem Argondimer (Kapitel 11) wurden drei Systeme unterschiedlicher Komplexität gewählt.
The intensive use of the North Sea area through offshore activities, sand mining, and the spreading of dredged material is leading to increasing pollution of the ecosystem by chemicals such as hydrophobic organic contaminants (HOCs). Due to their toxicological properties and their ability to accumulate in the environment, HOCs are of particular concern. The contaminants partition between aqueous (pore water, overlying water) and solid phases (sediment, suspended particulate matter, and biota) within these systems. The accumulated contaminants in the sediment are of major concern for benthic organisms, who are in close contact with sediment and interstitial water. It is thus particularly important to better understand how contaminants interact with biota, as these animals may contribute to trophic transfer through the food web. Furthermore, sediments are a crucial factor for the water quality of aquatic systems. They not only represent a sink for contaminants but also determine environmental fate, bioavailability, and toxicity. The Marine Strategy Framework Directive (MSFD) was introduced to protect our marine environment across Europe and includes the assessment of pollutant concentrations in the total sediment, which, however, rarely reflects the actual exposure situation. The consideration of the pollutant concentrations in the pore water is not implemented, although this is needed for the evaluation of bioavailability and risk assessment. For this reason, special attention is given to further development, implementation, and validation of pollutant monitoring methods that can determine the bioavailable fraction in sediment pore water. For risk assessment purposes, it is furthermore important to use biological indicators in addition to classical analytics to determine the effect of pollutants on organisms. The main objective of this thesis was to gain insight into the pollution load and the potential risk of hydrophobic organic chemicals (HOCs) in the sediment of the North Sea and to evaluate these results with regard to possible risks for benthic organisms and the ecosystem. The following five aims are covered within these studies to gain a holistic assessment of sediment contamination:
1. Assessment of the pore water concentrations of PAHs and PCBs
2. Determination of the bioturbation potential by macrofauna analysis
3. Application of the SPME method on biological tissue
4. Assessment of recreated environmental mixtures in passive dosing bioassays
5. Development of SPME method for DDT in sediments
The thesis is comprised of three main studies supported by three additional studies ...
Folgend auf den ersten Realisierungen von Bose-Einstein Kondensaten erschienen weitere innovative Experimente, die sich in den optischen Gittern gefangenen Quantengasen widmeten. In diesen zahlreichen, wissenschaftlichen Untersuchungen konnten die Eigenschaften von Bose-Einstein Kondensaten besser verstanden werden. Das Prinzip von Vielteilchensystemen, gefangen in einem periodischen Potential, bot eine Plattform zur Untersuchung weiterer Quantenphasen.
Eine konzeptionell einfache Modifikation von solchen Systemen erhält man durch die Kopplung der Grundzustände der gefangenen Teilchen an hoch angeregten Zuständen mithilfe einer externen Lichtquelle. Im Falle dessen, dass diese Zustände nahe der Ionisationsgrenze des Atoms liegen, spricht man von Rydberg-Zuständen und Atome, welche zu diesen Zuständen angeregt werden, bezeichnet man als Rydberg-Atome. Eines der vielen charakteristischen Eigenschaften von Rydberg-Atomen ist die Fähigkeit über große Entfernungen jenseits der atomaren Längenskalen zu wechselwirken. Im Rahmen von Vielteilchensystemen wurden dementsprechend Kristallstrukturen aus gefangenen Rydberg-Atomen experimentell beobachtet.
Nun stellt sich die Frage, was mit einem gefangenen Bose-Einstein Kondensat passiert, dessen Teilchen an langreichweitig wechselwirkenden Zuständen gekoppelt sind. Gibt es ein Parameterregime, in dem sowohl Kristallstruktur als auch Suprafluidität in solchen Systemen koexistieren können? Dies ist die zentrale Frage dieser Arbeit, die sich mit der Theorie von gefangenen Quantengasen gekoppelt an Rydberg-Zuständen auseinandersetzt.
Im Sinne einer nachhaltigen Stadt- und Verkehrsentwicklung verspricht das Konzept autoreduzierter Quartiere, die Autonutzung und den Autobesitz der Bewohnenden zu verringern sowie deren autounabhängige Mobilität zu fördern. Der Forschungsstand zeigt indes, dass nicht automatisch davon auszugehen ist, dass die gelebte Praktik der Planungsvision entspricht, da die Mobilität nicht nur von oben herab geplant, sondern auch von unten, also den Bewohnenden selbst sowie den Mobilitätskontexten, geprägt ist.
Anhand zweier autoreduziert entwickelter Quartiere in Darmstadt verfolgt die Arbeit deshalb das Ziel, mittels eines planungskritischen Ansatzes zunächst die Narrative autoreduzierter Quartiere zu identifizieren, um die Planungsvision zu ergründen. Des Weiteren werden mithilfe eines biographisch inspirierten, praxistheoretischen Ansatzes die mobilitätsbezogenen Praktiken autoreduzierter Quartiere sowie etwaige Veränderungen dieser nach dem Wohnortwechsel analysiert, um das Verständnis der Alltagsmobilität und deren Wandel zu verbessern sowie Potenziale und Grenzen der Umsetzung solcher Quartierskonzepte zu ermitteln. Abschließend soll der Vergleich beider Perspektiven dazu beitragen, besser zu verstehen, was eine nachhaltige Stadt- und Verkehrsgestaltung sowie eine autounabhängige Mobilität und ein autofreies Leben unterstützt bzw. behindert.
Zur Identifikation der Narrative wurden Expert*inneninterviews mit verschiedenen Personen durchgeführt, die am Planungs- und Umsetzungsprozess beider Quartiere beteiligt waren. Die Ergebnisse legen nahe, dass die Entwicklung autoreduzierter Quartiere (i) bewusst in die Nachhaltigkeitsdebatte eingebettet und (ii) von Machtverhältnissen geprägt ist sowie (iii) normativen Indikatoren folgt und (iv) deren Planungsideale im Kontrast zur gelebten Realität stehen können.
Zur Analyse der mobilitätsbezogenen Praktiken sowie der Veränderungen derselben wurden Bewohnende qualitativ interviewt. Dabei zeigt sich, dass der materielle Kontext eines autoreduzierten Quartiers sowie die persönlich-zeitlichen und soziokulturellen Kontexte der Mobilitätspraktiken die Autounabhängigkeit der Bewohnenden stabilisieren und fördern. Behindert wird sie dagegen vom materiellen Kontext außerhalb der Quartiere, der Verwobenheit des Autofahrens mit anderen Alltagspraktiken sowie der affektiven Zufriedenheit mit der Autonutzung und dem Autobesitz.
Aus dem Vergleich beider Erhebungen und damit der Gegenüberstellung der Planungsvision mit der gelebten Praktik lässt sich schlussfolgern, dass trotz feststellbarer Unterschiede die Realität im autoreduzierten Quartier größtenteils dem Ideal einer autounabhängigen Mobilität entspricht. Dagegen erweisen sich ein autofreies Leben und die Parkrestriktionen weiterhin als kontroversere Themen. Schließlich offenbart die Arbeit sowohl Veränderungen in der Mobilitätsgestaltung von oben als auch in der Mobilitätspraktik von unten, gleichzeitig aber auch persistente automobile Abhängigkeiten, weshalb sie im Sinne der Verkehrs- und Mobilitätswende einen kontinuierlichen materiellen und immateriellen Wandel fordert.
The relevant field of interest in High Energy Physics experiments is shifting to searching and studying extremely rare particles and phenomena. The search for rare probes requires an increase in the number of available statistics by increasing the particle interaction rate. The structure of the events also becomes more complicated, the multiplicity of particles in each event increases, and a pileup appears. Due to technical limitations, such data flow becomes impossible to store fully on available storage devices. The solution to the problem is the correct triggering of events and real-time data processing.
In this work, the issue of accelerating and improving the algorithms for reconstruction of the charged particles' trajectories based on the Cellular Automaton in the STAR experiment is considered to implement them for track reconstruction in real-time within the High-Level Trigger. This is an important step in the preparation of the CBM experiment as part of the FAIR Phase-0 program. The study of online data processing methods in real conditions at similar interaction energies allows us to study this process and determine the possible weaknesses of the approach.
Two versions of the Cellular Automaton based track reconstruction are discussed, which are used, depending on the detecting systems' features. HFT~CA Track Finder, similar to the tracking algorithm of the CBM experiment, has been accelerated by several hundred times, using both algorithm optimization and data-level parallelism. TPC~CA Track Finder has been upgraded to improve the reconstruction quality while maintaining high calculation speed. The algorithm was tuned to work with the new iTPC geometry and provided an additional module for very low momentum track reconstruction.
The improved track reconstruction algorithm for the TPC detector in the STAR experiment was included in the HLT reconstruction chain and successfully tested in the express production for the online real data analysis. This made it possible to obtain important physical results during the experiment runtime without the full offline data processing. The tracker is also being prepared for integration into a standard offline data processing chain, after which it will become the basic track search algorithm in the STAR experiment.
Einleitung: Empathie ist ein entscheidender Faktor mit direktem Bezug auf das therapeutische Outcome in der Arzt-Patienten Beziehung. Die Ausbildung junger Mediziner:innen ist jedoch sehr fachlich orientiert, soziale Fähigkeiten werden nur in geringem Ausmaß gelehrt. Am Fachbereich Medizin der Goethe Universität Frankfurt wurden Simulationspatient:innen (SPs) bisher hauptsächlich in Prüfungen eingesetzt, nicht aber in der Lehre. Die vorliegende Arbeit beschäftigt sich mit der Fragestellung, ob der Einsatz von SPs in der curricularen Lehre im Fach Chirurgie zur Vermittlung von strukturierten chirurgischen Anamnese- und Aufklärungsgesprächen umsetzbar ist, ob dieses einen Einfluss auf das empathische Verhalten der Studierenden hat, und ob es bei der gezeigten Empathie einen Unterschied zwischen SPs und reale Patient:innen (RPs) gibt. Zusätzlich wird untersucht, ob der Einsatz von SPs einen Einfluss auf den Lernerfolg in kommunikationsbasierten Prüfungen hat.
Methoden: Studienteilnehmende waren Studierende im 3. klinischen Semester am Fachbereich Medizin der Goethe Universität, die aktuell ihr curriculares Blockpraktikum Chirurgie absolvierten. Im Rahmen des Blockpraktikums Chirurgie durchliefen die Studierenden das ‚Training Praktischer Fertigkeiten‘ und hierbei das Modul ‚Kommunikation (Anamnese und Aufklärung)‘. Das Modul dauerte insgesamt 210 Minuten und setzte sich aus theoretischen Einheiten sowie praktischen Übungen (Rollenspielen) zusammen. Die Studienteilnehmenden wurden in 3 Studiengruppen randomisiert. Alle Teilnehmenden füllten zunächst zwei Fragebögen zum selbsteingeschätzten Empathielevel aus und lernten die identischen theoretischen Inhalte des Moduls. In den Rollenspielen trainierte Gruppe 1 mit SPs und wusste auch, dass es sich um SPs handelt. Gruppe 2 übte ebenfalls mit SPs, ging aber davon aus, dass es sich um reale Patient:innen handelte (Inkognito Patient:innen = IPs), Gruppe 3 übte mit RPs und war auch darüber informiert. Im Anschluss wurden die Studierenden anhand eines 10-Items Fragebogen in Hinblick auf die gezeigte Empathie durch die (Simulations-)-Patient:innen bewertet. Der Lernerfolg wurde anhand der Ergebnisse des Chirurgie-OSCE’s, den die Teilnehmenden 5-12 Wochen nach dem Modul absolvierten, ausgewertet.
Ergebnisse: Es zeigten sich signifikante Unterschiede bei dem vom Patienten wahrgenommenen Empathielevel zwischen Gruppe 1 (SP) und 2 (IP) und 1 (SP) und 3 (RP), nicht aber zwischen Gruppe 2 (IP) und 3 (RP). In dieser Konstellation wurden Studierende, welche mit RPs übten oder zumindest davon ausgingen, signifikant weniger empathisch bewertet. Es zeigten sich signifikante Unterschiede in der Eigeneinschätzung zwischen Männern und Frauen, nicht aber in der Fremdeinschätzung. Es gab keine signifikanten Unterschiede in den Ergebnissen der kommunikationsbasierenden Stationen der Chirurgie-OSCE zwischen den einzelnen Gruppen.
Schlussfolgerung: Der Einsatz von SPs im Hinblick auf den Lernerfolg in kommunikationsbasierenden Prüfungen ist gerechtfertigt und eine gute Möglichkeit, um Studierenden das Üben von Gesprächssituationen realistisch zu ermöglichen, ohne dabei akut klinische Patient:innen rekrutieren zu müssen. Dabei muss aber beachtet werden, dass das empathische Verhalten der Studierenden ein anderes ist, wenn sie mit RPs arbeiten, beziehungsweise davon ausgehen, mit einem RP zu arbeiten. Zur Förderung der Empathie sollten RPs und Feedback durch diese früh in die studentische Lehre implementiert werden.
Die allgemein steigende Komplexität technischer Systeme macht sich auch in eingebetteten Systemen bemerkbar. Außerdem schrumpfen die Strukturgrößen der eingesetzten Komponenten, was wiederum die Auftrittswahrscheinlichkeit verschiedener Effekte erhöht, die zu Fehlern und Ausfällen dieser Komponenten und damit der Gesamtsysteme führen können. Da in vielen Anwendungsbereichen ferner Sicherheitsanforderungen eingehalten werden müssen, sind zur Gewährleistung der Zuverlässigkeit flexible Redundanzkonzepte nötig.
Ein Forschungsgebiet, das sich mit Methoden zur Beherrschung der Systemkomplexität befasst, ist das Organic Computing. In dessen Rahmen werden Konzepte erforscht, um in natürlichen Systemen beobachtbare Eigenschaften und Organisationsprinzipien auf technische Systeme zu übertragen. Hierbei sind insbesondere sogenannte Selbst-X-Eigenschaften wie Selbstorganisation, -konfiguration und -heilung von Bedeutung.
Eine konkrete Ausprägung dieses Forschungszweigs ist das künstliche Hormonsystem (artificial hormone system, AHS). Hierbei handelt es sich um eine Middleware für verteilte Systeme, welche es ermöglicht, die Tasks des Systems selbstständig auf seine Prozessorelemente (PEs) zu verteilen und insbesondere Ausfälle einzelner Tasks oder ganzer PEs automatisch zu kompensieren, indem die betroffenen Tasks auf andere PEs migriert werden. Hierbei existiert keine zentrale Instanz, welche die Taskverteilung steuert und somit einen Single-Point-of-Failure darstellen könnte. Entsprechend kann das AHS aufgrund seiner automatischen (Re)konfiguration der Tasks als selbstkonfigurierend und selbstheilend bezeichnet werden, was insbesondere die Zuverlässigkeit des realisierten Systems erhöht. Die Dauer der Selbstkonfiguration und Selbstheilung unterliegt zudem harten Zeitschranken, was den Einsatz des AHS auch in Echtzeitsystemen erlaubt.
Das AHS nimmt jedoch an, dass alle Tasks gleichwertig sind, zudem werden alle Tasks beim Systemstart in einer zufälligen Reihenfolge auf die einzelnen PEs verteilt. Häufig sind die in einem System auszuführenden Tasks jedoch für das Gesamtsystem von unterschiedlicher Wichtigkeit oder müssen gar in einer bestimmten Reihenfolge gestartet werden.
Um den genannten Eigenschaften Rechnung zu tragen, liefert diese Dissertation gegenüber dem aktuellen Stand der Forschung folgende Beiträge:
Zunächst werden die bisher bekannten Zeitschranken des AHS genauer betrachtet und verfeinert.
Anschließend wird das AHS durch die Einführung von Zuteilungsprioritäten erweitert: Mithilfe dieser Prioritäten kann eine Reihenfolge definiert werden, in welcher die Tasks beim Start des Systems auf die PEs verteilt beziehungsweise in welcher betroffene Tasks nach einem Ausfall auf andere PEs migriert werden.
Die Zeitschranken dieser AHS-Erweiterung werden im Detail analysiert.
Durch die Priorisierung von Tasks ist es möglich, implizit Teilmengen von Tasks zu definieren, die ausgeführt werden sollen, falls die Rechenkapazitäten des Systems nach einer bestimmten Anzahl von PE-Ausfällen nicht mehr ausreichen, um alle Tasks auszuführen: Die im Rahmen dieser Dissertation entwickelten Erweiterungen erlauben es in solchen Überlastsituationen, das System automatisch und kontrolliert zu degradieren, sodass die wichtigsten Systemfunktionalitäten lauffähig bleiben.
Überlastsituationen werden daher im Detail betrachtet und analysiert. In solchen müssen gegebenenfalls Tasks niedriger Priorität gestoppt werden, um auf den funktionsfähig verbleibenden PEs hinreichend viel Rechenkapazität zu schaffen, um Tasks höherer Priorität ausführen zu können und das System so in einen wohldefinierten Zustand zu überführen. Die Entscheidung, in welcher Reihenfolge hierbei Tasks gestoppt werden, wird von einer Task-Dropping-Strategie getroffen, die entsprechend einen großen Einfluss auf die Dauer einer solchen Selbstheilung nimmt.
Es werden zwei verschiedene Task-Dropping-Strategien entwickelt und im Detail analysiert: die naive Task-Dropping-Strategie, welche alle niedrigprioren Tasks auf einmal stoppt, sowie das Eager Task Dropping, das in mehreren Phasen jeweils höchstens eine Task pro PE stoppt. Im Vergleich zeigt sich, dass von letzterem fast immer weniger Tasks gestoppt werden als von der naiven Strategie, was einen deutlich schnelleren Abschluss der Selbstheilung ermöglicht. Lediglich in wenigen Sonderfällen ist die naive Strategie überlegen.
Es wird detailliert gezeigt, dass die entwickelte AHS-Erweiterung auch in Überlastsituationen die Einhaltung bestimmter harter Zeitschranken garantieren kann, was den Einsatz des erweiterten AHS in Echtzeitsystemen erlaubt.
Alle theoretisch hergeleiteten Zeitschranken werden durch umfassende Evaluationen vollumfänglich bestätigt.
Abschließend wird das erweiterte, prioritätsbasierten AHS mit verschiedenen verwandten Konzepten verglichen, um dessen Vorteile gegenüber dem Stand der Forschung herauszuarbeiten sowie zukünftige vertiefende Forschung zu motivieren.
Oxidative stress is thought to be a driver for several diseases. However, many data to support this concept were obtained by the addition of extracellular H2O2 to cells. This does not reflect the dynamics of intracellular redox modifications. Cells actively control their redox-state, and increased formation of ROS is a response to cellular stress situations such as chronic inflammation.
In this study, it was shown that different types of ROS lead to different metabolic and transcriptomic responses of HUVECs. While 300 μM extracellular H2O2 led to substantial metabolic and transcriptomic changes, the effects of DAO-derived H2O2 and menadione were low to moderate, indicating that the source and the concentration of ROS are important in eliciting changes in metabolism and gene expression.
Specifically, it was identified that acute increases in ROS transiently inactivate the enzyme ω-amidase/NIT2 of the glutaminase II pathway, which supplies cells with anaplerotic α-ketoglutarate. The pathway has not been studied systematically because, as noted above, the major intermediate, KGM, is not commercially available. In the present study, an internal standard for targeted detection of KGM in cells and blood plasma/serum was used. Deletion of NIT2 by CRISPR/Cas9 significantly reduced α-ketoglutarate levels in HUVECs and elevated KGM levels. It appears that in cell culture conditions, hydrolysis of KGM to α-ketoglutarate is very efficient. Knockout of the glutamine transaminases significantly reduced methionine, suggesting that the glutaminase II pathway is an important source of amino acid replenishment.
Similar to genetic silencing of GLS1 [91,92], HUVECs lacking NIT2 showed reduced proliferation and angiogenic sprouting. Furthermore, our results indicate that, at least in HUVECs, the enzyme also locates in the mitochondria where it interacts with key enzymes of glutamine/glutamate/α-ketoglutarate metabolism.
The data of the present work indicate that the glutaminase II pathway is an underappreciated, redox-sensitive pathway for glutamine utilization in HUVECs. Genetic deletion of NIT2 has considerable physiological effects highlighting the importance of glutamine for ECs.
Das Buch nimmt die Beobachtung zum Ausgangspunkt, dass wahrnehmende Lebewesen immer auch sich bewegende Lebewesen sind. Der Zusammenhang zwischen den Vermögen der Wahrnehmung und der Selbstbewegung wird hier als ein konstitutiver gefasst, der insofern Auswirkungen für das Verständnis und die philosophische Analyse des jeweiligen Vermögens hat. Im Fokus steht das wechselseitige Verhältnis zwischen Wahrnehmung und Handeln beim Menschen und damit auch die Frage, in welcher Beziehung das begriffliche Denken zu den genannten Vermögen steht. Die Arbeit diskutiert Schriften von Wittgenstein, Anscombe, Merleau-Ponty, Dreyfus, McDowell, sowie neuere Beiträge aus der enaktivistischen und phänomenologischen Tradition.
Im ersten Kapitel wird der Zusammenhang zwischen Wahrnehmung und Handlung in der Erkenntnistheorie untersucht. Hier stehen enaktivistische Theorien, die auf den grundsätzlichen Handlungscharakter der Wahrnehmung verweisen, im Mittelpunkt. Anhand einer Kritik der Kamerametaphorik des menschlichen Blicks wird dafür argumentiert, dass die (visuelle) Wahrnehmung als aktiver Prozess verstanden werden muss. Das Sehen ist weder punktförmig noch bildhaft aufzufassen, vielmehr ist es eine stets prekäre Errungenschaft eines leiblichen Wesens im Austausch mit der es umgebenden Welt. Die Ergebnisse aus dem ersten Kapitel werden im zweiten Kapitel mit Ludwig Wittgensteins Überlegungen zum Aspektsehen in Kontakt gebracht. Wittgensteins Bemerkungen zum Sehen und Aspektsehen lassen sich als Anstoß zu einem pluralistischen Verständnis der Wahrnehmung verstehen. In Anbetracht der vielfältigen Diskussionen, für die Wittgensteins Bemerkungen über das Aspektsehen relevant sind, wird hier herausgearbeitet, inwieweit sie als eine Kritik an jeder Form des Gegebenseins in der Wahrnehmung verstanden werden können. Eine Diskussion des ebenso ungewöhnlichen wie wenig beachteten Beitrags Anscombes zur Theorie der Wahrnehmung, den sie hauptsächlich in »The Intentionality of Sensation« ausarbeitet, beschließt das zweite Kapitel.
Im dritten Kapitel geht es um den zweiten Teil der These, Wahrnehmung und Handeln seien wechselseitig voneinander abhängig. In diesem Kapitel geht es um Theorien, für die die Wahrnehmung nicht einfach Informationen über die Umwelt bereitstellt, sondern selbst Bestandteil des Handelns ist. Eine besondere Herausforderung besteht darin, die Rolle der Wahrnehmung sowohl für das geistesabwesende Tun als auch für das überlegte Handeln und auch für mentale Handlungen, wie etwa Entscheidungen, zu bestimmen. Besonders offensichtlich wird die Rolle der Wahrnehmung im Handeln immer dort, wo das Überlegen zurücktritt und das gekonnte Handeln auf die Wahrnehmung von Gelegenheiten angewiesen ist – also insbesondere dort, wo das Handeln Ausdruck spezialisierter Fähigkeiten ist.
Der Wahrnehmungsbegriff, der in der Arbeit im Mittelpunkt steht, ist gerade kein allgemeiner oder übergreifenden – und erst recht kein »zugrundliegender« Begriff der Wahrnehmung. Vielmehr soll Wahrnehmung plural verstanden werden: die Wahrnehmung im Alltag, die beobachtenden Wahrnehmung, die Wahrnehmung des Profis, die begriffliche Wahrnehmung. Diese Herangehensweise läuft zwangsläufig auch auf die Frage hinaus, inwiefern sich die menschliche Wahrnehmung und die Wahrnehmung der Tiere unterscheiden. Zwar gilt für Tiere wie für Menschen, dass sie wahrnehmen und sich bewegen – aber bestimmte Formen der Wahrnehmung sind klarerweise dem Menschen vorbehalten, etwa die ästhetische, die moralische und die begriffliche Wahrnehmung. Das vierte Kapitel diskutiert – ausgehend von der Frage nach der Begrifflichkeit der menschlichen Vermögen des Wahrnehmens und Handelns –, in welchem Verhältnis diese zu denen der Tiere stehen.
Ein auffälliger Unterschied zwischen den Vermögen des Menschen und denen der Tiere – so wird sich herausstellen – ist die Flexibilität und Pluralität der menschlichen Vermögen. Doch diese Pluralität ist kein natürliches Faktum, sondern Produkt bestimmter Tätigkeiten und Praktiken. Erst im tätigen Umgang mit der Welt, durch den Erwerb bestimmter Techniken und innerhalb bestimmter Praktiken verwirklicht sich die grundsätzliche Offenheit der menschlichen Vermögen. Diese Idee, dass unsere natürlichen Vermögen in Kontakt und Auseinandersetzung mit unserer Lebenswelt sich allererst entwickeln, ist Gegenstand des fünften Kapitels.
Die konstitutiven Beziehungen zwischen Wahrnehmung und Handeln in den Mittelpunkt dieser Untersuchung zu rücken, ist dabei Ausdruck eines bestimmten Philosophieverständnisses, nämlich eines, das das wahrnehmende, denkende und handelnde Lebewesen in den Fokus seiner Untersuchung stellt – nicht das einzelne Vermögen, sondern der ganze Organismus sind der point of interest.
Die Verwendung von photolabilen Schutzgruppen zur nicht-invasiven Kontrolle von Systemen birgt ein großes Potential für verschiedenste Anwendungsgebiete, die von der Erforschung und Regulation biologischer Prozesse, über den Einsatz in medizinischer Therapie bis hin zur Verwendung als molekulare Datenspeicher reichen. Für diese Umsetzung benötigt es allerdings eine breite Auswahl an entsprechenden PPGs und das Wissen über ihre Reaktionsmechanismen. Im Allgemeinen lässt sich die Konzeptionierung von PPGs in drei Prozesse einteilen, beginnend bei dem Design und der Synthese einer neuen PPG. Bei diesem Schritt liegt der Fokus auf ein oder zwei besonderen Eigenschaften, wie beispielsweise einer Absorptionswellenlänge in einem bestimmten Spektralbereich oder einer hohen Uncaging-Quantenausbeute. Im zweiten Schritt folgt die Untersuchung der PPG bezüglich spektroskopischer und mechanistischer Eigenschaften und ggf. anschließender Optimierung auf synthetischer Ebene. Die so gewonnenen Informationen sind dann hilfreich bei dem letzten Schritt, bei dem es um den Einsatz der PPG in einem entsprechenden System geht. Hierbei müssen die verwendeten PPGs genau auf das Zielsystem abgestimmt sein, dazu zählen verschiedenste Parameter wie Anregungswellenlänge, Extinktionskoeffizient, Art und Struktur der Photoprodukte sowie Uncaging-Effizienz und Geschwindigkeit.
In der vorliegenden Arbeit wurde über die drei vorgestellten Projekte mittels spektroskopischer Methoden zu allen drei genannten Stadien zur Konzeptionierung von PPGs ein Beitrag geleistet. Dazu zählt die Entwicklung der CBT-basierten PPGs, die Untersuchung der Struktur-Wirkungsbeziehung von (DMA)(2)F-PPGs und die Etablierung einer wellenlängenselektiven An-/Aus-Funktionalität eines Antibiotikums. In enger interdisziplinärer Zusammenarbeit zwischen theoretischen, synthetischen und biologischen Teilgebieten konnte jedes Projekt innerhalb der jeweiligen Entwicklungsstufe erfolgreich abgeschlossen werden.
Mithilfe des relativ neuen Ansatzes, bei dem durch quantenmechanische Berechnungen der vertikalen Anregungsenergie von der kationischen Spezies einer PPG-Grundstruktur eine Aussage über ihre Qualität postuliert werden kann, konnte ausgehend von der Fluoren-Grundstruktur eine neue Klasse von PPGs gefunden werden. Dabei erwies sich die CBT-Struktur mit den Schwefelatomen an der para-Position als besonders geeignet. Insbesondere konnte die Grundstruktur durch die (OMePh)2-Substitution, welche in einer signifikanten bathochromen Verschiebung des Absorptionsmaximums resultierte, optimiert werden. Die Untersuchung der Ultrakurzzeit-Dynamik beider p-CBT Strukturen gab Aufschluss über die unterschiedlichen photochemischen Eigenschaften als PPG.
Für die Stoffklasse der Dimethylamino-Fluorene wurde ein wichtiger Unterschied zwischen den einfach- und zweifach-substituierten Derivaten aufgedeckt, der entscheidend für einen signifikanten Uncaging-Effizienzunterschied ist. Dabei stellt sich die Stabilität des symmetrisch-substituierten Fluorenyl-Kations als der wichtigste Faktor bezüglich der Uncaging-Quantenausbeuten heraus. Beide Schutzgruppen sind in der Lage photoinduziert eine AG freizusetzen, wobei der Reaktionsmechanismus über die kationische Spezies (DMA)(2)F + abläuft. Der Unterschied hierbei liegt in der Lebensdauer der beiden Kationen, die im Falle der symmetrischen PPG stark lösungsmittelabhängig ist und bis zu mehreren Stunden betragen kann, was bis dato das langlebigste Kation dieser Molekülklasse darstellt. Für die zukünftige Optimierung dieser PPG-Klasse ist die Erkenntnis über die Gründe für die Stabilität des Kations von großem Vorteil. Der stabilisierende Faktor ist zum einen die zweite Dimethylamino-Gruppe der symmetrischen Verbindung, welche durch die Erweiterung der Mesomerie zur besseren Verteilung der positiven Ladung im Molekül führt. Zum anderen spielt das Lösungsmittel eine entscheidende Rolle. Dabei bieten protische, polare Medien eine zusätzliche Stabilisierung, die notwendig für die Langlebigkeit des Kations ist. Die Lebensdauer des Kations war zudem durch eine zweite Bestrahlungswellenlänge kontrollierbar. Ausgehend vom Kation konnte eine reversible Nebenreaktion in protischen Lösungsmitteln identifiziert werden, die einen Austausch der AG durch das Lösungsmittel darstellt.
Zusätzlich konnte die kleine Stoffklasse der bisher bekannten Photobasen durch die Verbindung (DMA)2F-OH erweitert werden. Genauer betrachtet handelt es sich dabei um eine photoinduzierte Hydroxidfreisetzung, wodurch je nach eingesetzter Konzentration ein pH-Sprung von bis zu drei Einheiten erreicht werden konnte. Dabei stellt sich die Lebensdauer des pH-Sprungs als ein entscheidender Parameter für Photobasen dar, welcher sich für die hier untersuchte Verbindung aufgrund der besonderen Stabilität des entsprechenden Kations, im Vergleich zu einigen der bereits bekannten Verbindungen, als besonders langlebig herausgestellt hat. Ein weiterer Vorteil des Einsatzes von (DMA)2F-OH als Photobase ist die Möglichkeit den pH-Sprung durch zwei verschiedene Wellenlängen sowohl zeitlich als auch örtlich zu kontrollieren, indem die Verbindung zwischen den zwei Spezies (DMA)2F-OH und (DMA)2F + geschaltet werden kann.
Im Hinblick auf die Anwendungen von PPGs zur verbesserten zeitlichen und örtlichen Kontrolle biologischer Zielsysteme ist im Rahmen dieser Arbeit das Prinzip vom wellenlängenselektiven Uncaging zweier PPGs an einem Molekül (two-PPG-one-molecule, TPOM) etabliert worden. Das Zielmolekül war hier das Antibiotikum Puromycin, welches durch seine Fähigkeit an das Ribosom zu binden, die Proteinbiosynthese inhibieren kann. Dabei wurden zwei verschiedene PPGs gefunden, die sowohl aufeinander als auch auf das Biomolekül selbst abgestimmt sind. Im Ausgangszustand sind beide PPGs am Puromycin angebracht, wodurch es in seiner biologischen Wirkung inaktiv ist. Befindet sich das doppelt geschützte Puromycin in der ROI, so kann es durch die Bestrahlung mit einer bestimmten Wellenlänge infolge des ersten Uncaging-Schritts aktiviert werden. Da biologische Systeme nicht statisch sind, können aktivierte Moleküle stets von der gewünschten ROI nach außen gelangen, wodurch der Anspruch der räumlichen Kontrolle nicht erfüllt wird. In diesem Fall kann durch die TPOM-Umsetzung die zweite Bestrahlungswellenlänge auf den entsprechenden Bereich angewendet werden, wodurch das Uncaging der zweiten PPG initiiert und folglich das Puromycin deaktiviert wird. Des Weiteren konnte gezeigt werden, dass die Deaktivierungswellenlänge auch in der Lage ist beide PPGs zu entfernen, wodurch eine vollständige Inaktivierung des Puromycins außerhalb der ROI garantiert werden kann.
Ist die Proteinbiosynthese längerfristig blockiert, führt das schließlich zum Zelltod. Ein großes Anwendungsgebiet dieses Antibiotikums sind die Neurowissenschaften. Aufgrund der Tatsache, dass Puromycin keine Unterscheidung zwischen eukaryotischen und prokaryotischen Zellen macht, findet es keine Anwendung in der Medizin. Eine zeitliche und örtliche Kontrolle seiner Wirkung könnte den Anwendungsbereich dieses Antibiotikums evtl. ausweiten. Das wohl naheliegendste wäre der Einsatz bei Tumorzellen, deren Behandlung durch Zytostatika auf den gesamten Körper wirken und dadurch viele schwere Nebenwirkungen verursachen.
Wie bereits weiter oben beschrieben muss für jedes Biomolekül und das entsprechende Wirkzentrum die Auswahl des passenden PPG-Paares einzeln abgestimmt werden. Dennoch lässt sich anhand des hier etablierten Systems ein Konzept für die erfolgreiche Umsetzung zukünftiger TPOM-Systeme an anderen biomolekularen Wirkstoffen zusammenfassend formulieren.
* Der erste Schritt sollte die Betrachtung des Wirkzentrums des zu modifizierenden Biomoleküls sein: Welche funktionelle Gruppe bzw. Gruppen sind entscheidend für die Bindetasche oder –stelle? Dieser Bereich des Biomoleküls soll im Zuge des Uncagings entweder blockiert oder abgespalten werden. In der unmittelbaren Nähe muss die PPG1 angebracht werden.
* Bei der Wahl von PPG1 ist das wichtigste Kriterium, dass das Biomolekül mit enthaltener Schutzgruppe in seiner Wirkung unbeeinträchtigt bleibt. Dies schränkt die Auswahl beträchtlich ein. Eine mögliche Umsetzung wäre die Anbringung einer Nitro-Gruppe falls vorhanden an einen Benzolring, welcher sich im Fall eines großen Biomoleküls in der Nähe der wichtigen funktionellen Stelle befindet.
* Die zweite PPG (PPG2), deren photoinduzierte Abspaltung zur Aktivierung des Wirkstoffs führen soll, kann strukturell frei gewählt werden. Das Auswahlkriterium hierbei ist das Absorptionsspektrum. Hierbei sollte das Absorptionsmaximum rotverschoben zur PPG1 sein, um eine unerwünschte Abspaltung zu vermeiden. Außerdem darf keine signifikante Absorption von PPG2 bei der Uncaging-Wellenlänge von PPG1 vorhanden sein.
* Beide PPGs sollten eine ähnliche Uncaging-Quantenausbeute vorweisen, um im Deaktivierungsschritt der doppelt geschützten Verbindung durch das höher energetische Licht keine Bevorzugung einer einzelnen Schutzgruppe zu riskieren.
Anhand der erarbeiteten Herangehensweise können weitere Wirkstoffe oder Biomoleküle hin zu einer An- / Aus-Funktionalität modifiziert werden. Mit der Umsetzung des TPOM-Konzepts kann eine Verbesserung der örtlichen und zeitlichen Kontrolle der Aktivität eines Antibiotikums erreicht werden. Für die Anwendung in biologischer Umgebung ist diese präzische Kontrolle essentiell, um unerwünschte Nebenwirkungen angesundem Gewebe zu verhindern.
Die minoren Aktinoiden dominieren auf lange Sicht die Radioaktivität des gesamten abgebrannten Brennstoffes und können somit, obwohl sie nur etwa 0,2 % davon ausmachen, als die Hauptverursacher der Endlagerproblematik betrachtet werden.
Neben einer möglichen Endlagerung und den damit verbundenen Problemen, bietet die Transmutation eine Alternative im Umgang mit dieser Art der radioaktiven Abfälle. Hierbei werden die minoren Aktinoide durch Neutroneneinfang zur Spaltung angeregt, wodurch sowohl deren Halbwertszeit, als auch deren Radiotoxizität deutlich reduziert werden soll.
Innerhalb des in der vorliegenden Arbeit vorgestellten MYRRHA-Projektes, das im belgischen Mol realisiert werden soll, soll gezeigt werden, dass die Transmutation in einem industriellen Maßstab möglich ist. Bei MYRRHA handelt es sich um ein sog. ADS (Accelerator Driven System), bei dem ein 4 mA Protonenstrahl mit 600 MeV in einem Target aus LBE (Lead-Bismuth Eutectic) per Spallation Neutronen erzeugen soll, die für die Transmutation in einem ansonsten unterkritischen Reaktor notwendig sind. Da eine solche Anlage enorme Ansprüche an die Zuverlässigkeit des Teilchenstrahls stellt, um den thermischen Stress innerhalb des Reaktors so gering wie möglich zu halten, werden auch hohe Ansprüche an die verwendeten Kavitäten innerhalb des Beschleunigers gestellt.
Besonderes Augenmerk muss hierbei auf den Injektor gelegt werden. In diesem wird der Protonenstrahl auf 16,6 MeV beschleunigt, wobei in seinem aktuellen Design nur noch normalleitende Kavitäten verwendet werden.
Als erstes beschleunigendes Bauteil nach der Ionenquelle fungiert hier ein im Rahmen der vorliegenden Arbeit gebauter 4-Rod-RFQ, dessen HF-Design auf dem bereits am IAP getesteten MAX-Prototypen basiert.
Für den MYRRHA-RFQ konnte eine neue Art der Dipolkompensation für 4-Rod-RFQs entwickelt werden, die bereits in anderen Beschleunigern, wie etwa dem neuen HLI-RFQ-Prototypen eingesetzt werden konnte. Hierbei werden die Stützen, auf denen die Elektroden befestigt werden alternierend verbreitert, um so den Strompfad zum niedrigeren Elektrodenpaar zu verlängern, wodurch sich die dortige Spannung erhöht. Im Zuge dieser Entwicklung wurden Simulations- und Messmethoden erarbeitet, um den Dipolanteil sowohl an bereits gebauten, wie auch an zukünftigen 4-Rod-RFQs untersuchen zu können. Der Erfolg dieser neuartigen Dipolkompensation konnte in den Low-Level-Messungen, die sich an den Zusammenbau des MYRRHA-RFQs anschlossen, validiert werden.
Die CH-Sektion, die im MYRRHA-Injektor auf den RFQ und die MEBT folgt, besteht aus insgesamt 16 normalleitenden Kavitäten. Sie gliedert sich in sieben beschleunigende CHs, auf die ein CH-Rebuncher und weitere acht beschleunigende CHs folgen.
Im Rahmen der vorliegenden Arbeit wurde - aufbauend auf bereits vorhandenen Entwürfen - das Design der ersten sieben CH-Strukturen des MYRRHA-Injektors erstellt und hinsichtlich seiner HF-Eigenschaften optimiert.
Die dabei während den Simulationen zu CH1 auftretende Problematik einer parasitären Tunermode konnte durch zahlreiche Simulationen umgangen werden.
Weiter wurde das aus der FRANZ-CH bekannte Kühlkonzept überarbeitet, um eine hohe thermische Stabilität gewährleisten zu können, wobei mehrere verschiedene Konzepte entwickelt, simuliert und bewertet wurden.
Das so entwickelte HF- und Kühldesign der ersten sieben MYRRHA-CHs dient als Vorlage für die weiteren MYRRHA-CHs sowie für zukünftige Beschleunigerprojekte, wie etwa HBS am Forschungszentrum Jülich.
Im Anschluss an die Designphase wurden die ersten beiden CH-Strukturen des Injektors und ein zusätzlicher dickschichtverkupferter Deckel für CH1 von den Fimen NTG und PINK gefertigt und anschließend Low-Level-Messungen unterzogen, in denen die Simulationsergebnisse bestätigt werden konnten, während diese Messungen zusätzlich als Vorbereitung für die Konditionierung dienten.
Sowohl der MYRRHA-RFQ, als auch die CH-Strukturen wurden nach ihren jeweiligen Low-Level-Messungen duch eine Konditionierung auf den späteren Strahlbetrieb vorbereitet.\\
Die Konditionierung des MYRRHA-RFQ erfolgte in zwei Phasen. Zunächst wurde er in der Experimentierhalle des IAP im cw-Betrieb vorkonditioniert, bevor er nach Louvain-la-Neuve transportiert wurde. In der dort fortgesetzten Konditionierung, die sowohl gepulst, als auch im cw-Betrieb erfolgte, konnten im Rahmen dieser Arbeit 120 kW cw stabil eingkoppelt werden, wobei diese transmittierte Leistung später noch vom SCK auf bis zu 145 kW cw gesteigert wurde. Nach Abschluss der Konditionierung konnten sowohl vom IAP, als auch vom SCK Röntgenspektren aufgenommen werden, um so die Shuntimpedanz bestimmen zu können. Die Ergebnisse dieser Messungen zusammen mit der alternativen Bestimmung der Shuntimpedanz über den R/Q-Wert wurden ebenfalls in dieser Arbeit besprochen.
Die CH-Kavitäten wurden im Bunker der Experimentierhalle des IAP konditioniert, wobei zusätzlich neue Konditionierungsmethoden erarbeitet und erprobt werden konnten. In den abschließenden Untersuchungen, die sich an jede der drei Konditionierungen anschlossen, konnten Erkenntnisse über das thermische Verhalten der CHs, sowie über den Einfluss verschiedener Verschaltungen des Kühlsystems darauf gewonnen werden, die bei der Installation auch zukünftiger CHs von Nutzen sein werden.
Damit in der Schule die Vermittlung eines adäquaten Energieverständnisses gelingen kann, benötigt es eine Lehrkräfteausbildung, die dessen Herausforderungen in den Blick nimmt und die angehenden (Chemie-) Lehrerinnen und Lehrer aus fachwissenschaftlicher und didaktischer Perspektive vorbereitet. Denn in die Unterrichtsvorbereitung fließen neben bildungspolitischen und curricularen Vorgaben auch die Vorstellungen und Überzeugungen der Lehrkräfte mit ein. Zu den Herausforderungen, mit denen Lernende wie Lehrende konfrontiert sind, zählen die verschiedenen mentalen Repräsentationen zum Wort Energie aus Alltag und Naturwissenschaft, die zahlreichen chemischen Fachkontexte, in denen Energie bzw. Energiephänomene eine Rolle spielen, die unterschiedlichen Wissensnetze, die mit dem Begriff in den verschiedenen Naturwissenschaften verknüpft sind und der Einfluss der Fach- bzw. Alltagssprache.
Die (angehenden) Lehrkräfte fühlen sich auf diese Aufgabe oftmals fachlich nicht ausreichend vorbereitet. Um die Lehrkräfteausbildung in ihrem ersten Ausbildungsabschnitt auf die genannten Herausforderungen anzupassen und Lehrformate zu erweitern, benötigt es umfangreiche Kenntnisse über die mentalen Repräsentationen der Studierenden zur Energie sowie die damit verbundenen alternativen Konzepte zu schulrelevanten und lehrplanorientierten Themenschwerpunkten und die sprachlichen Besonderheiten. Die Vielschichtigkeit des Begriffs Energie erfordert eine ganzheitliche Betrachtung aller Aspekte, die es so bislang nicht gibt.
Aus diesem Grund ist es Ziel dieser Studie, die mentalen Repräsentationen der Studierenden, wie auch deren alternative Konzepte zu ausgewählten energiebezogenen Fachbegriffen aus den Bereichen chemische Bindungen, Thermodynamik und chemische Reaktionen zu erheben, in einen gemeinsamen fachlichen und sprachlichen Kontext zu setzen und daraus Rückschlüsse auf das Energieverständnis zu ziehen.
Im Sinne des Modells der didaktischen Rekonstruktion wird eine fachliche Klärung zum Untersuchungsgegenstand Energie durchgeführt. Für die Erhebung der empirischen Daten findet ein Rückgriff auf halbstandardisierte Leitfadeninterviews statt. Zielgruppe sind angehende Chemielehrkräfte, die mindestens im 5. Fachsemester Chemie für das Lehramt an Gymnasien studierten. Die Auswertung der Interviews erfolgt unter Rückgriff auf die qualitative Inhaltsanalyse nach Mayring und wird mit quantifizierenden Elementen trianguliert.
Die Studie zeigt die Erklärungsvielfalt des Begriffs Energie auf, denen sich die Studierenden bedienen. Dabei werden vor allem Beispiele einzelner Energiephänomene oder Energieformen herangezogen. In den verschiedenen Fachkontexten konnten diverse alternative Konzepte detektiert werden. Darüber hinaus konnten übergreifende Herausforderungen detektiert werden. Erkennen die Studierenden Widersprüche in ihrem Energieverständnis, wird Energie als abstrakt und schwer fassbar beschrieben. Zudem wird eine anthropozentrische Sicht eingenommen. Die angehenden Lehrkräfte neigen zu einer starken Kompartmentalisierung und begründen Wissenslücken mit der Zugehörigkeit zu anderen Fachwissenschaften. Eine weitere wichtige Erkenntnis aus der Studie ist, dass in den Fachwissenschaftlichen Veranstaltung die qualitativen Diskussionen angeregt werden müssen. Die zukünftigen Lehrerinnen und Lehrer bewegen sich in einem Spannungsverhältnis zwischen Fachwissenschaft und Didaktik und sind sich dessen sehr deutlich bewusst, indem sie bei Begriffsdefinitionen und Erklärungen die Anschaulichkeit der Exaktheit vorziehen. Es besteht die Notwendigkeit, Fachbegriffe in einem größeren Zusammenhang zu erläutern und die Studierenden zur Kommunikation darüber anzuregen.
Single-electron transport in focused electron beam induced deposition (FEBID)-based nanostructures
(2022)
Mit steigender Komplexität von integrierten Schaltungen im Nanometer-Maÿstab werden immer innovativere Techniken nötig, um diese zu fabrizieren. Dies erfordert einen starken Fokus auf die Kontrolle der Fabrikation akkurater Strukturen und der Materialreinheit, und dies im Zusammenhang mit einer skalierbaren Produktion. In diesem Kontext hat Elektronenstrahlinduzierte Abscheidung (engl. Focused Electron Beam Induced Deposition, FEBID) eine wachsende Aufmerksamkeit im Bereich der Nanostrukturierung gewonnen. Der FEBID-Prozess basiert auf der lokalen Abscheidung von Material auf einem Substrat. Das Deponat entsteht durch die Spaltung von Präkursor-Molekülen durch die Interaktion mit einem Elektronenstrahl entsteht. Als Beispiel sei hier der Präkursor Me3PtCpMe angeführt. Das auf dem Substrat abgelagerte Material besteht aus wenigen Nanometer großen Kristalliten aus Platin, welche in einer Matrix aus amorphem Kohlenstoff eingebettet sind. Die Pt-C FEBID Ablagerungen sind nano-granulare Metalle, deren elektrische Transporteigenschaften die Folge des Zusammenspiels von diffusivem Transport von Ladungen innerhalb der Pt-Kristalliten und temperaturabhängigen Tunneleffekten sind. Das größte Interesse an diesen Materialien liegt an der Möglichkeit, Strukturen für technische Anwendungen im Nanometerbereich herstellen zu können.
In dieser Arbeit wurden Anwendungen, die auf Einzelelektroneneffekten beruhen, ausgewählt, um die FEBID basierte Probenpräparation zu testen. Um Einzelelektronentransport zu ermöglichen, der auf dem Tunneln einzelner Elektronen basiert, müssen alle Parameter wie Grösse und Abstände der Strukturen genauestens definiert sein. Im Rahmen dieser Arbeit wurden Einzelelektronenbausteine entwickelt, die auf zwei unterscheidlichen Anwendungen des Pt-C FEBID-Prozesses basieren. Die beiden Anwendungen sind: 1) Arrays von Gold-Nanopartikeln (Au-NP), welche mittels Pt-Strukturen kontaktiert wurden, die mit FEBID präpariert und anschlieÿend aufgereinigt wurden; 2) Einzelelektronentransistoren (engl. Single-Electron Transistors, SET), deren Inseln aus elektronennachbestrahlten Pt-C FEBID Deponate bestehen. Die elektrischen Eigenschaften der präparierten Nanostrukturen wurden charakterisiert und mit der erzielten Auflösung und Materialqualität in Relation gesetzt. Es wurden Optimierungen an der Präparationsmethode durchgeführt, welche direkt die Leitfähigkeit des Pt-C FEBID-Materials erhöhen. Dies kann durch die Änderung der
Karbonmatrix oder die Erhöhung des metallischen Gehalts der Struktur geschehen. In dieser Arbeit wurde eine katalytische Aufreinigungsmethode von Pt-C FEBID Strukturen für zwei Anwendungen genutzt: zum Einen wurden die aufgereinigten Strukturen als Keimschichten für die nachfolgende ortsgenaue Atomlagenabscheidung (engl. Area-Selective Atomic Layer
Deposition, AS-ALD) von Pt-Dünnschichten genutzt. Zum Anderen wurde diese Technik dafür genutzt, Metallbrücken zwischen den bereits durch Auftropfen zufällig auf dem Substrat aufgebrachten NP-Gruppen und den zuvor aufgebrachten UV-Lithographie (UVL) präparierten Cr-Au Kontakten zu erzeugen. Eine NP-Gruppe ist ein periodisches, granulares Array von Partikeln, welche uniform in Größe und Form sind und einen unterschiedlichen Grad von Ordnung inne haben. Durch die Art des Aufbringens kann die Anordnung der Nanopartikel durch Lösen und Erzeugen der Verbindungen beeinflusst werden. Diese Systeme zeigen ein Verhalten wie Tunnelkontakte mit Coulombblockade und eine Verteilung der Schwellspannung. Die Ergebnisse der elektrischen Messungen bestätigen den Einzelelektronentransport durch die Nanopartikel in einem typischen Elektronentransportregime mit schwacher Kopplung. Trotz dieser Ergebnisse war die Anwendung dieser Technik für die SET Nanostrukturierung nicht erfolgreich. Die Ursache
konnte zurückgeführt werden auf das Vorhandensein von Pt-Partikeln in der Nähe der Kontakte zu den Au-NP-Arrays. Die Pt-Partikel sind durch den FEBID Fertigungsprozess in
der Nähe der vorgegebenen Struktur entstanden. Aus diesem Grund wurde das FEBID Co-Deponat in der folgenden SET-Nanofabrikation entfernt.
Ein SET basiert auf einer Nano-Insel, welche durch Tunnelkontakte mit Source- und Drain-Elektroden verbunden ist. Darüber hinaus besteht eine kapazitive Verbindung zu einer
oder mehreren Gate-Elektrode(n). Innerhalb der Insel gibt es eine feste Anzahl von Elektronen.
In dieser Arbeit wurden die Source-, Drain- und Gate-Kontakte durch Ätzen mittels eines fokussierten Gallium-Strahls erzeugt, was Abstände von 50nm ermöglichte, wohingegen die SET Insel mit Pt-C FEBID-Material erzeugt wurde. Die Leitfähigkeit der Insel aus Pt-C wurde mit anschließender Elektronenbestrahlung erhöht. Als letzter Präparationsmethode wurde ein neueartiges Argon-Ätzverfahren genutzt, um die durch FEBID erzeugten Co-Ablagerungen in der direkten Umgebung der Insel zu entfernen. Durch die Elektronennachbestrhalung kann die Kopplung der einzelnen metallischen Kristalliten angepasst werden. Die Auswirkungen unterschiedlicher starker Tunnelkontakte auf die elektronischen Eigenschaften der Insel und die daraus resultierende Performanz des SETs wurden in dieser Arbeit beobachtet ...
Die vorliegende Dissertationsarbeit behandelt eine umfangreiche Studie des nukleären Rezeptors (NR) TLX (engl. tailless homolog, TLX). Als ligandenaktivierbarer Transkriptionsfaktor ist TLX in Differenzierungs- und Proliferationsprozessen involviert und übernimmt somit eine tragende regulatorische Rolle in der Neurogenese von neuronalen Stammzellen87,88. Zahlreiche Studien haben gezeigt, dass eine fehlgesteuerte TLX-Expression mit gravierenden kognitiven, visuellen und neurodegenerativen sowie tumorigenen Erkrankungen assoziiert ist, sodass TLX ein vielversprechendes Wirkstofftarget mit hohem therapeutischem Potential darstellt94,95,99,100 105. Die pharmakologische Validierung von TLX als neues Wirkstofftarget befindet sich allerdings aufgrund limitierter Verfügbarkeit von validierten und potenten synthetischen und natürlichen kleinen organischen Molekülen in einer frühen Phase. Daher ist das Interesse sehr groß neuartige und wünschenswerterweise selektive TLX-Modulatoren zu generieren109,119-121.
Im Rahmen dieser Dissertationsarbeit wurden zu diesem Zweck mehrere Reportergenassays eingeführt, die die in vitro Aktivitätsstudie von TLX sowohl im Gal4-Hybridformat in Kombination mit Gal4-VP16 als starken Transkriptionsaktivator als auch als TLX-Volllängenprotein in HEK293T-Zellen (engl. human embryonic kidney, HEK293T) erlaubten. Zusätzlich wurde Gal4-TLX in Kombination mit VP16-RXRα untersucht, um bisherige unbekannte potentielle Heterodimer-vermittelte Effekte zu studieren. In einem primären Screeningansatz im Gal4-Format unter Verwendung einer kommerziell erhältlichen Wirkstofffragmentbibliothek und ausgewählter strukturähnlicher Wirkstoffe wurden mehrere Wirkstofffragmentkandidaten identifiziert (30, 34, 39, 45 und 47), die einen attraktiven Ausgangspunkt zur Darstellung von TLX-Modulatoren darstellten. Insgesamt wurden in vier Projekten vier strukturdiverse Chemotypen anhand von Struktur-Wirkungs-Beziehungs-Studien anhand der Aktivität an TLX untersucht. Ausgehend von Fragment 34 beinhaltete das erste Projekt die Identifizierung und Charakterisierung von Xanthinderivaten als inverse TLX-Agonisten. Eine systematische Struktur-Wirkungs-Beziehungs-Studie lieferte mehrere hochpotente Derivate, die auf das Grundgerüst von 8-Phenyltheophyllin (97) basierten. Parallel konnte Istradefyllin (116), welches aktuell zur Behandlung der Parkinson-Erkrankung in den USA und Japan Anwendung findet, als potenter inverser TLX-Agonist identifiziert werden. Mehrere orthogonale zelluläre und zellfreie Experimente klassifizierten die Xanthine als neue erste TLX-Modulatoren. Das zweite Projekt umfasste die Identifizierung und Charakterisierung des unselektiven β-Adrenorezeptorblockers Propranolol (54) ausgehend vom Wirkstofffragment 30. Durch eine vorläufige systematische Struktur-Wirkungs-Beziehungs-Untersuchung der aliphatischen Aminoalkoholseitenkette von 54 konnte die sekundäre Aminogruppe als determinierendes Strukturmotiv für eine Aktivität an TLX bestimmt werden. Weitere Migrations- und Zellviabilitätsexperimente demonstrierten erste phänotypische Effekte in T98G-Glioblastomzellen seitens 54, die TLX-vermittelt sein könnten. Das dritte Projekt behandelte die Darstellung eines potenten neuartigen TLX-Agonisten mit Hilfe eines ligandenbasierten Pharmakophormodells. Das verwendete Pharmakophormodell wurde hierbei unter Verwendung des publizierten Referenzliganden ccrp2 (2) und dem identifizierten Wirkstofffragment 45 aus dem vorherigen Screeningansatz generiert. Durch eine anschließende rationale Fragmentfusion von 45 mit weiteren TLX-Agonisten aus dem Wirkstofffragmentscreening konnte der neuartige potente TLX-Agonist 137h synthetisiert werden, welcher eine verbesserte mikrosomale Stabilität im Vergleich zu 45 und 2 aufwies. Das vierte Projekt beinhaltete die Darstellung neuartiger TLX-Modulatoren mit Hilfe eines Scaffold Hopping Ansatzes. Hierbei wurden essentielle Strukturmotive aus der Xanthin-Struktur-Wirkungs-Beziehung (erstes Projekt) auf weitere Wirkstofffragmente übertragen. Die Validierung dieses Scaffold Hoppings anhand der Verbindung 156 führte anhand eines darauf folgenden kombinatorisch-chemischen Ansatzes zur Darstellung einer Substanzbibliothek (255 Amidrohprodukte). Ein Aktivitätsscreening der Amidrohprodukte deutete in den Reportergenassays auf drei aktive TLX-Modulatoren hin (582, 611 und 629), welche nachträglich gezielt synthetisiert, isoliert und erneut auf Aktivität an TLX validiert wurden. Hierbei hob sich besonders 629 hervor, welches in drei orthogonalen zellulären Reportergenassays TLX-vermittelte Effekte aufwies und zusätzlich einen Bindungseffekt an rekombinanter exprimierter TLX-Ligandenbindedomäne zeigte.
Mit dieser Arbeit konnte mit Hilfe der Einführung diverser TLX-basierter Reportergenassays zur Aktivitätsstudie von TLX mehrere strukturdiverse Liganden als potentielle tool compounds identifiziert und charakterisiert werden. Alle abgeleiteten TLX-Modulatoren können somit als wertvolle neue Startpunkte zur Derivatisierung neuartiger potenter Liganden und somit zu einem Fortschritt in der pharmakologischen Validierung von TLX als Wirkstofftarget dienen.
Die diskursanalytische Dissertation beschäftigt sich mit der Frage, wie das amerikanische Kino von seinen Anfängen bis in die Gegenewart das Thema des Scheiterns und Versagens dargestellt hat.
Ausgangspunkt der Arbeit ist dabei zunächst eine Einordnung und Differenzierung des Begriffspaares aus etymologischer Perspektive. Es wird bereits an dieser Stelle auf semantische Unterschiede verwiesen, denen sich divergierende Plotstrukturen anschließen: Die Geschichte des Versagens ist eine andere als die des Scheiterns. Außerdem werden anthropologische Erkenntnisse der Aufklärung benannt, die ein eigenständiges Scheitern und Versagen überhaupt erst ermöglichen.
Im Anschluss an diese sprachtheoretische Untersuchung widmet sich die Arbeit den Besonderheiten des amerikanischen Narrativs des Scheiterns und Versagens und damit einer historischen Perspektivierung, die von der Analyse ausgewählter literarischer Texte abgeschlossen wird.
Die Ergebnisse der sprachtheoretischen Untersuchung, der historischen Perspektivierung und der Literaturanalyse bilden schließlich das Fundament für die sich anschließende Filmanalyse, die die Frage stellt, wie tradierte Erzählformen des Scheiterns und Versagens ab dem 20. Jahrhundert in filmischer Form bestätigt, subvertiert oder gänzlich neu etabliert werden.
Im Vordergrund steht hier zunächst das klassische Hollywood-Kino. Dabei wird grundsätzlich zwischen zwei unterschiedlichen Narrativen unterschieden: Dem Versagen und dem Scheitern. Im ersten Teil stehen die Versager, bewusste Aussteiger, die auf der Suche nach alternativen Lebensentwürfen sind. Bespiele hierfür sind der tramp Chaplins, der singende Obdachlose Bumper in Halleluja, I'm a Bum oder der glückliche Tunichtgut Thadeus Winship Page in The Magnificent Dope. Demgegenüber stehen die Figuren, die an äußeren Umständen scheitern und meist an diesen zerbrechen, wie die lost woman in Blonde Venus oder der forgotten man in I Am a Fugitive from a Chain Gang. Ziel der Analyse ist es, iterative Semantiken und syntaktische Strukturen zu benennen, die die Grundlage eigener Erzählgenres bilden, wie das des „Glücklichen Versagers“ oder der lost woman.
Im letzten Kapitel werden die bisherigen Ergebnisse um Erkenntnisse erweitert, die sich dem modernen amerikanischen Kino entnehmen lassen. Ausgangspunkt ist das New Hollywood-Kino der 60er und 70er Jahre mit Filmen wie Easy Rider, The Graduate, oder The Swimmer.
Auf der Reflexion über die eigene Tätigkeit liegt vor allem im letzten Teil dieses Kapitels der Schwerpunkt. Hier sind es vorwiegend Künstler des 21. Jahrhunderts, wie Drehbuchschreiber, Theaterregisseure oder Comicautoren, die ihre eigenen Handlungen in Frage stellen. Neu ist, dass sich das künstlerische Versagen der Protagonisten nicht nur innerhalb der Diegese auf den Film auswirkt, bzw. dessen Form modifiziert, sondern diese geradezu dekonstruiert und aufbricht.
As part of two drilling campaigns of the International Continental Scientific Drilling Program (ICDP), several geophysical borehole measurements were carried out by the Leibniz Institute for Applied Geophysics (LIAG) in two lakes. The acquired data was used to answer stratigraphic and paleoclimatic research questions, including the establishment of robust age-depth models and the construction of continuous lithological profiles.
Lake Towuti is located on Sulawesi (Indonesia), within the "Indo-Pacific Warm Pool" (IPWP), a globally important region for atmospheric heat and moisture budgets. The lake exists for approximately one million years, but its exact age is uncertain. We present the first agedepth model for the approximately 100 m continuous sediment sequence from the central part of the lake. The basis for this model is the magnetic susceptibility measured in the borehole and a tephra layer with an age of about 797 ka at 72 m depth. Our age-depth model is inferred from cyclostratigraphic analysis of borehole data and covers a period from 903 ± 11 to 131 ± 67 ka. We suggest that orbital eccentricity and/or changes between global cold and warm periods are responsible for hydroclimatic changes in the IPWP, that these changes affect sedimentation processes in Lake Towuti, and that we can measure and observe this effect in the sediment properties today. Additionally, we created a continuous artificial lithological profile from a series of different borehole data using cluster analysis. This provides information from parts of the borehole where no sediment is available due to core loss.
Lake Ohrid is 1.36 million years old and is located on the Balkan Peninsula on the border between Albania and North Macedonia. The primary hole 'DEEP' in the central part of the lake has been the subject of several investigations, but information about sediments of the marginal locations 'Pestani' and 'Cerava' have not been published yet. In our study, we use natural gamma radiation (GR) measured in the borehole to generate an age-depth model for DEEP. This is performed using the correlation of GR to the global LR04 reference record of Lisiecki and Raymo (2005).
The age information is then transferred via prominent seismic marker horizons to the other two sites, Pestani and Cerava, where it provides the first age-control points for the construction of age-depth models from correlation of GR to LR04. The generated age-depth models are tested using cyclostratigraphic methods, but the limits of this approach are revealed. At DEEP, sedimentation rates (SR) from the cyclostratigraphic method and the correlative approach differ by 2.8 %, at Pestani this difference is 16.7 %, and at Cerava the quality of the data does not allow a reliable evaluation of SR using the cyclostratigraphic approach. We used cluster analysis to construct artificial lithological profiles at all three sites and integrated them into the respective age-depth models. This enables us to determine which sediment types were deposited at what time, and we recognize the change between warm and cold periods in the sediment properties at all three locations. The analyses in this study were all performed on borehole and seismic data and thus do not involve sediment core data. Especially at Pestani and Cerava, new insights into the sedimentological history of Lake Ohrid could be obtained.
In the last part we discuss the occurrence of the half-precession (HP) signal in the European region during the last one million years. The focus is on Lake Ohrid, but a range of other proxies, from the eastern Mediterranean, across the European continent, up to Greenland are analyzed in regards to HP. Applying filters, we focus on the frequency range with a period of 13-8.5 ka and only HP remains in the records. We use correlative methods to determine the clarity of the HP signal in proxies distributed across the European realm. Additionally, we determined the development of HP over time. The HP signal is clearest in the southeast and decreases toward the north. It is further more pronounced in interglacial periods and in the younger part (<621 ka) of most proxies. We suggest that there are mechanisms that transmit the HP signal from its origin near the equator to higher latitudes via different processes. In this context, for instance, the African monsoon, the Nile River and the Mediterranean outflow via the Strait of Gibraltar can be important factors.
Autism spectrum disorder (ASD) is a common neurodevelopmental disorder with a multifarious clinical presentation. Even though many genetic risk factors have been identified and studied in mouse models, the neurophysiological mechanisms underlying the autistic phenotype are still unclear. Based on the high rates of comorbidity with epilepsy, it was hypothesized that the balance between excitation and inhibition in neural circuits may be disrupted in autistic individuals.
In this dissertation, synaptic and network activity was measured in three different genetically modified mouse models that exhibit the characteristic behavioral abnormalities of the disorder: the Neurobeachin (Nbea) haploinsufficient mouse, the Neuroligin-3 (Nlgn3) knockout (KO) mouse, and the Neuroligin-4 (Nlgn4) KO mouse. Each of the affected proteins is involved in the formation and/or function of synapses in the central nervous system. Therefore, it was posited that the reduction or deletion of these proteins might alter the balance of excitatory to inhibitory synaptic transmission in individual neurons and in neural circuits. Extracellular recordings in the hippocampal dentate gyrus of anesthetized mice revealed that the excitation-inhibition (E-I) balance was reduced in Nbea haploinsufficient and Nlgn4 KO mice, but unchanged in Nlgn3 KO mice despite a reduction in excitatory synaptic transmission to dentate granule cells. Unexpectedly, the intrinsic excitability of dentate granule cells was altered in all three mouse models. These results imply that a homeostatic increase in the intrinsic excitability is able to compensate for the decreased excitatory transmission in Nlgn3 KO mice, whereas the decreased intrinsic excitability in the Nbea haploinsufficient and Nlgn4 KO mice leads to a reduction in the E-I balance. Taken together, these findings suggest that the influence of genetic factors on the E-I balance might be a potential common mechanism underlying the development of ASD.
Acute myeloid leukemia (AML) is one of the most frequently occurring and fatal types of leukemia. Initiated by genetic alterations in hematopoietic stem and progenitor cells, rapidly proliferating cancer cells (leukemic blasts) infiltrate the bone marrow and damage healthy hematopoiesis. Subgroups of AML are defined by underlying molecular and cytogenetic abnormalities, which are decisive for treatment and prognosis. For AML patients that can be intensively treated, the first line treatment remains a combination of cytarabine and anthracycline, which was developed in the 1970s. While this treatment regimen clears the disease and reinstates normal hematopoiesis (complete remission, CR) in 60% to 80% of patients below the age of 60, CR rates in patients above the age of 60 are only 40% to 50%. Relapse and refractory disease are the major cause of death of AML patients, despite large efforts to improve risk-adjusted post-remission therapy with further chemotherapy cycles and, if possible, allogeneic bone marrow transplantation. Elderly patients are particularly difficult to treat because of age-related comorbidities and because their disease tends to relapse more often than the disease of younger patients. Thus, the cure rates of AML vary with age, with 5-year survival rates of about 50% in young patients, and less than 20% in patients above the age of 65 years. With the median age of AML patients being 68 years, the need for novel therapeutic options is immense. The recent approval of eight new agents (venetoclax, midostaurin, gilteritinib, glasdegib, ivosidenib, enasidenib, gemtuzumab ozogamicin and CPX-351 (liposomal cytarabine and daunorubicin)) has added considerably to the therapeutic armamentarium of AML and has increased cure rates in specific subgroups of AML. However, the high heterogeneity among patients, clonal evolution and commonly occurring drug resistance, which cause the high relapse rates, remain a substantial problem in the treatment of AML. Therefore, a better understanding of currently used therapeutics and further development of novel therapeutics is urgently needed.
In recent years, attention has increasingly focused on therapeutic strategies to interfere with the metabolic requirements of cancer cells. The last three decades have provided extensive insights into the diversity and flexibility of AML metabolism. AML cells use different sources of nutrients compared to normal hematopoietic progenitor cells and reprogram their metabolic pathways to fulfill their exquisite anabolic and energetic needs. As a result, they develop high metabolic plasticity that enables them to thrive in the bone marrow microenvironment, where oxygen and nutrient availability are subject to constant change.
Cancer cells, specifically AML cells, have a strong dependency for the amino acid glutamine. Glutamine serves in energy production, redox control, cell signaling as well as an important nitrogen source. The only enzyme capable of de novo glutamine synthesis is glutamine synthetase (GS). GS catalyzes glutamine production from glutamate and ammonium. In AML, the metabolic role and dependency of GS is poorly understood. Here, we investigated the effects of GS deletion on AML growth, and its functional relevance in AML metabolism. Genetic deletion of GS resulted in a significant decrease of cell growth in vitro, and impaired leukemia progression in vivo in a xenotransplantation mouse model. Interestingly, the dependency of AML cell growth on GS was shown to be independent of its functional role in glutamine synthesis. Glutamine starvation did not increase the dependency of the AML cells on GS, nor did increased glutamine availability rescue the GS-knockout-associated growth disadvantage. Instead, functional studies revealed the role of GS in the detoxification of ammonium. GS-deficient cells showed elevated ammonium secretion as well as a higher sensitivity towards the toxic metabolite. Exogenous provision of 15N-labeled ammonium was detoxified by GS-driven incorporation into glutamine. Studies on cells that had gained resistance to GS-knockout-mediated growth inhibition indicated enzymes involved in the urea cycle and the arginine biogenesis pathway to compensate for a loss of GS. Together, these findings unveiled GS as an important ammonium scavenger in AML.
Clinical studies on AML patients revealed increased ammonium concentrations in the blast-infiltrated bone marrow compared to peripheral blood. In line with this finding, proteome and transcriptome analysis of AML blasts showed a significant upregulation of GS in AML compared to healthy progenitors, further indicating its importance in ammonium detoxification.
Analyzing pathways that contribute to ammonium production revealed protein uptake followed by amino acid catabolism as a yet not identified mechanism supporting AML growth. Protein endocytosis and subsequent proteolytic degradation were shown to rescue AML cells from otherwise growth-inhibiting glucose or amino acid depletion. Furthermore, protein metabolization led to the reactivation of the mammalian target of rapamycin (mTOR) signaling pathway, which was deactivated upon leucine and glutamine depletion, revealing protein consumption as an important alternative source of amino acids in AML.
...
We discuss aspects of the phase structure of a three-dimensional effective lattice theory of Polyakov loops derived from QCD by strong coupling and hopping parameter expansions. The theory is valid for the thermodynamics of heavy quarks where it shows all qualitative features of nuclear physics emerging from QCD. In particular, the SU(3) pure gauge effective theory also exhibits a first-order thermal deconfinement transition due to spontaneous breaking of its global Z₃ center symmetry. The presence of heavy dynamical quarks breaks this symmetry explicitly and consequently, the transition weakens with decreasing quark mass until it disappears at a critical endpoint. At non-zero baryon density, the effective theory can be evaluated either analytically by the so-called high-temperature expansion which does not suffer from the sign problem, or numerically by standard Monte-Carlo methods due to its mild sign problem. The first part of this work devotes to a systematic derivation of the effective theory up to the 6th order in the hopping parameter κ. This method combined with the SU(3) link update algorithm provides a way to simulate the O(κ⁶) effective theory. The second part involves a study of the deconfinement transition of the pure gauge effective theory, with and without static quarks, at all chemical potentials with help of the high-temperature expansion. Our estimate of the deconfinement transition and its critical endpoint as a function of quark mass and all chemical potentials agrees well with recent Monte-Carlo simulations. In the third part, we investigate the N ſ ∈ {1,2} effective theory with zero chemical potential up to O(κ⁴). We determine the location of the critical hopping parameter at which the first-order deconfinement phase transition terminates and changes to a crossover. Our results for the critical endpoint of the O(κ²) effective theory are in excellent agreement with the determinations from simulations of four-dimensional QCD with a hopping expanded determinant by the WHOT-QCD collaboration. For the O(κ⁴) effective theory, our estimate suggests that the critical quark mass increases as the order of κ-contributions increases. We also compare with full lattice QCD with N ſ = 2 degenerate standard Wilson fermions and thus obtain a measure for the validity of both the strong coupling and the hopping expansion in this regime.