Doctoral Thesis
Refine
Year of publication
- 2022 (237) (remove)
Document Type
- Doctoral Thesis (237) (remove)
Language
- English (134)
- German (101)
- Multiple languages (2)
Has Fulltext
- yes (237)
Is part of the Bibliography
- no (237)
Keywords
- ACLF (2)
- CBM (2)
- Digitalisierung (2)
- HADES (2)
- Leberzirrhose (2)
- Nierentransplantation (2)
- Saccharomyces cerevisiae (2)
- mTOR (2)
- 177Lu-PSMA (1)
- ACKR (1)
Institute
- Medizin (75)
- Biochemie, Chemie und Pharmazie (39)
- Biowissenschaften (32)
- Physik (25)
- Informatik und Mathematik (15)
- Geowissenschaften / Geographie (11)
- Neuere Philologien (8)
- Biochemie und Chemie (6)
- Psychologie und Sportwissenschaften (5)
- Gesellschaftswissenschaften (3)
In der vorliegenden Arbeit wurde die Ionisation von Atomen und Molekülen in starken Laserfeldern experimentell untersucht. Hierbei kam die COLTRIMS-Technik zur koinzidenten Messung der Impulse aller aus einem Ionisationsereignis stammender Ionen und Elektronen zum Einsatz. Unter Mitwirkung des Autors wurde ein COLTRIMS-Reaktionsmikroskop umgebaut und mit einem neuen Spektrometer sowie einer atomaren Wasserstoffquelle ausgestattet. Des Weiteren entstand ein interferometrischer Aufbau zur Erzeugung von Zwei-Farben-Feldern. Aus jedem der vorgestellten Experimente konnten Informationen über die elektronische Wellenfunktion an der Grenze zum klassisch verbotenen Bereich gewonnen werden. Dies geschah sowohl im Hinblick auf die Amplitude, als auch auf die Phase der Wellenfunktion. Mit dem Wasserstoffatom (Kapitel 9), dem Wasserstoffmolekül (Kapitel 10) und dem Argondimer (Kapitel 11) wurden drei Systeme unterschiedlicher Komplexität gewählt.
The intensive use of the North Sea area through offshore activities, sand mining, and the spreading of dredged material is leading to increasing pollution of the ecosystem by chemicals such as hydrophobic organic contaminants (HOCs). Due to their toxicological properties and their ability to accumulate in the environment, HOCs are of particular concern. The contaminants partition between aqueous (pore water, overlying water) and solid phases (sediment, suspended particulate matter, and biota) within these systems. The accumulated contaminants in the sediment are of major concern for benthic organisms, who are in close contact with sediment and interstitial water. It is thus particularly important to better understand how contaminants interact with biota, as these animals may contribute to trophic transfer through the food web. Furthermore, sediments are a crucial factor for the water quality of aquatic systems. They not only represent a sink for contaminants but also determine environmental fate, bioavailability, and toxicity. The Marine Strategy Framework Directive (MSFD) was introduced to protect our marine environment across Europe and includes the assessment of pollutant concentrations in the total sediment, which, however, rarely reflects the actual exposure situation. The consideration of the pollutant concentrations in the pore water is not implemented, although this is needed for the evaluation of bioavailability and risk assessment. For this reason, special attention is given to further development, implementation, and validation of pollutant monitoring methods that can determine the bioavailable fraction in sediment pore water. For risk assessment purposes, it is furthermore important to use biological indicators in addition to classical analytics to determine the effect of pollutants on organisms. The main objective of this thesis was to gain insight into the pollution load and the potential risk of hydrophobic organic chemicals (HOCs) in the sediment of the North Sea and to evaluate these results with regard to possible risks for benthic organisms and the ecosystem. The following five aims are covered within these studies to gain a holistic assessment of sediment contamination:
1. Assessment of the pore water concentrations of PAHs and PCBs
2. Determination of the bioturbation potential by macrofauna analysis
3. Application of the SPME method on biological tissue
4. Assessment of recreated environmental mixtures in passive dosing bioassays
5. Development of SPME method for DDT in sediments
The thesis is comprised of three main studies supported by three additional studies ...
Folgend auf den ersten Realisierungen von Bose-Einstein Kondensaten erschienen weitere innovative Experimente, die sich in den optischen Gittern gefangenen Quantengasen widmeten. In diesen zahlreichen, wissenschaftlichen Untersuchungen konnten die Eigenschaften von Bose-Einstein Kondensaten besser verstanden werden. Das Prinzip von Vielteilchensystemen, gefangen in einem periodischen Potential, bot eine Plattform zur Untersuchung weiterer Quantenphasen.
Eine konzeptionell einfache Modifikation von solchen Systemen erhält man durch die Kopplung der Grundzustände der gefangenen Teilchen an hoch angeregten Zuständen mithilfe einer externen Lichtquelle. Im Falle dessen, dass diese Zustände nahe der Ionisationsgrenze des Atoms liegen, spricht man von Rydberg-Zuständen und Atome, welche zu diesen Zuständen angeregt werden, bezeichnet man als Rydberg-Atome. Eines der vielen charakteristischen Eigenschaften von Rydberg-Atomen ist die Fähigkeit über große Entfernungen jenseits der atomaren Längenskalen zu wechselwirken. Im Rahmen von Vielteilchensystemen wurden dementsprechend Kristallstrukturen aus gefangenen Rydberg-Atomen experimentell beobachtet.
Nun stellt sich die Frage, was mit einem gefangenen Bose-Einstein Kondensat passiert, dessen Teilchen an langreichweitig wechselwirkenden Zuständen gekoppelt sind. Gibt es ein Parameterregime, in dem sowohl Kristallstruktur als auch Suprafluidität in solchen Systemen koexistieren können? Dies ist die zentrale Frage dieser Arbeit, die sich mit der Theorie von gefangenen Quantengasen gekoppelt an Rydberg-Zuständen auseinandersetzt.
Im Sinne einer nachhaltigen Stadt- und Verkehrsentwicklung verspricht das Konzept autoreduzierter Quartiere, die Autonutzung und den Autobesitz der Bewohnenden zu verringern sowie deren autounabhängige Mobilität zu fördern. Der Forschungsstand zeigt indes, dass nicht automatisch davon auszugehen ist, dass die gelebte Praktik der Planungsvision entspricht, da die Mobilität nicht nur von oben herab geplant, sondern auch von unten, also den Bewohnenden selbst sowie den Mobilitätskontexten, geprägt ist.
Anhand zweier autoreduziert entwickelter Quartiere in Darmstadt verfolgt die Arbeit deshalb das Ziel, mittels eines planungskritischen Ansatzes zunächst die Narrative autoreduzierter Quartiere zu identifizieren, um die Planungsvision zu ergründen. Des Weiteren werden mithilfe eines biographisch inspirierten, praxistheoretischen Ansatzes die mobilitätsbezogenen Praktiken autoreduzierter Quartiere sowie etwaige Veränderungen dieser nach dem Wohnortwechsel analysiert, um das Verständnis der Alltagsmobilität und deren Wandel zu verbessern sowie Potenziale und Grenzen der Umsetzung solcher Quartierskonzepte zu ermitteln. Abschließend soll der Vergleich beider Perspektiven dazu beitragen, besser zu verstehen, was eine nachhaltige Stadt- und Verkehrsgestaltung sowie eine autounabhängige Mobilität und ein autofreies Leben unterstützt bzw. behindert.
Zur Identifikation der Narrative wurden Expert*inneninterviews mit verschiedenen Personen durchgeführt, die am Planungs- und Umsetzungsprozess beider Quartiere beteiligt waren. Die Ergebnisse legen nahe, dass die Entwicklung autoreduzierter Quartiere (i) bewusst in die Nachhaltigkeitsdebatte eingebettet und (ii) von Machtverhältnissen geprägt ist sowie (iii) normativen Indikatoren folgt und (iv) deren Planungsideale im Kontrast zur gelebten Realität stehen können.
Zur Analyse der mobilitätsbezogenen Praktiken sowie der Veränderungen derselben wurden Bewohnende qualitativ interviewt. Dabei zeigt sich, dass der materielle Kontext eines autoreduzierten Quartiers sowie die persönlich-zeitlichen und soziokulturellen Kontexte der Mobilitätspraktiken die Autounabhängigkeit der Bewohnenden stabilisieren und fördern. Behindert wird sie dagegen vom materiellen Kontext außerhalb der Quartiere, der Verwobenheit des Autofahrens mit anderen Alltagspraktiken sowie der affektiven Zufriedenheit mit der Autonutzung und dem Autobesitz.
Aus dem Vergleich beider Erhebungen und damit der Gegenüberstellung der Planungsvision mit der gelebten Praktik lässt sich schlussfolgern, dass trotz feststellbarer Unterschiede die Realität im autoreduzierten Quartier größtenteils dem Ideal einer autounabhängigen Mobilität entspricht. Dagegen erweisen sich ein autofreies Leben und die Parkrestriktionen weiterhin als kontroversere Themen. Schließlich offenbart die Arbeit sowohl Veränderungen in der Mobilitätsgestaltung von oben als auch in der Mobilitätspraktik von unten, gleichzeitig aber auch persistente automobile Abhängigkeiten, weshalb sie im Sinne der Verkehrs- und Mobilitätswende einen kontinuierlichen materiellen und immateriellen Wandel fordert.
The relevant field of interest in High Energy Physics experiments is shifting to searching and studying extremely rare particles and phenomena. The search for rare probes requires an increase in the number of available statistics by increasing the particle interaction rate. The structure of the events also becomes more complicated, the multiplicity of particles in each event increases, and a pileup appears. Due to technical limitations, such data flow becomes impossible to store fully on available storage devices. The solution to the problem is the correct triggering of events and real-time data processing.
In this work, the issue of accelerating and improving the algorithms for reconstruction of the charged particles' trajectories based on the Cellular Automaton in the STAR experiment is considered to implement them for track reconstruction in real-time within the High-Level Trigger. This is an important step in the preparation of the CBM experiment as part of the FAIR Phase-0 program. The study of online data processing methods in real conditions at similar interaction energies allows us to study this process and determine the possible weaknesses of the approach.
Two versions of the Cellular Automaton based track reconstruction are discussed, which are used, depending on the detecting systems' features. HFT~CA Track Finder, similar to the tracking algorithm of the CBM experiment, has been accelerated by several hundred times, using both algorithm optimization and data-level parallelism. TPC~CA Track Finder has been upgraded to improve the reconstruction quality while maintaining high calculation speed. The algorithm was tuned to work with the new iTPC geometry and provided an additional module for very low momentum track reconstruction.
The improved track reconstruction algorithm for the TPC detector in the STAR experiment was included in the HLT reconstruction chain and successfully tested in the express production for the online real data analysis. This made it possible to obtain important physical results during the experiment runtime without the full offline data processing. The tracker is also being prepared for integration into a standard offline data processing chain, after which it will become the basic track search algorithm in the STAR experiment.
Einleitung: Empathie ist ein entscheidender Faktor mit direktem Bezug auf das therapeutische Outcome in der Arzt-Patienten Beziehung. Die Ausbildung junger Mediziner:innen ist jedoch sehr fachlich orientiert, soziale Fähigkeiten werden nur in geringem Ausmaß gelehrt. Am Fachbereich Medizin der Goethe Universität Frankfurt wurden Simulationspatient:innen (SPs) bisher hauptsächlich in Prüfungen eingesetzt, nicht aber in der Lehre. Die vorliegende Arbeit beschäftigt sich mit der Fragestellung, ob der Einsatz von SPs in der curricularen Lehre im Fach Chirurgie zur Vermittlung von strukturierten chirurgischen Anamnese- und Aufklärungsgesprächen umsetzbar ist, ob dieses einen Einfluss auf das empathische Verhalten der Studierenden hat, und ob es bei der gezeigten Empathie einen Unterschied zwischen SPs und reale Patient:innen (RPs) gibt. Zusätzlich wird untersucht, ob der Einsatz von SPs einen Einfluss auf den Lernerfolg in kommunikationsbasierten Prüfungen hat.
Methoden: Studienteilnehmende waren Studierende im 3. klinischen Semester am Fachbereich Medizin der Goethe Universität, die aktuell ihr curriculares Blockpraktikum Chirurgie absolvierten. Im Rahmen des Blockpraktikums Chirurgie durchliefen die Studierenden das ‚Training Praktischer Fertigkeiten‘ und hierbei das Modul ‚Kommunikation (Anamnese und Aufklärung)‘. Das Modul dauerte insgesamt 210 Minuten und setzte sich aus theoretischen Einheiten sowie praktischen Übungen (Rollenspielen) zusammen. Die Studienteilnehmenden wurden in 3 Studiengruppen randomisiert. Alle Teilnehmenden füllten zunächst zwei Fragebögen zum selbsteingeschätzten Empathielevel aus und lernten die identischen theoretischen Inhalte des Moduls. In den Rollenspielen trainierte Gruppe 1 mit SPs und wusste auch, dass es sich um SPs handelt. Gruppe 2 übte ebenfalls mit SPs, ging aber davon aus, dass es sich um reale Patient:innen handelte (Inkognito Patient:innen = IPs), Gruppe 3 übte mit RPs und war auch darüber informiert. Im Anschluss wurden die Studierenden anhand eines 10-Items Fragebogen in Hinblick auf die gezeigte Empathie durch die (Simulations-)-Patient:innen bewertet. Der Lernerfolg wurde anhand der Ergebnisse des Chirurgie-OSCE’s, den die Teilnehmenden 5-12 Wochen nach dem Modul absolvierten, ausgewertet.
Ergebnisse: Es zeigten sich signifikante Unterschiede bei dem vom Patienten wahrgenommenen Empathielevel zwischen Gruppe 1 (SP) und 2 (IP) und 1 (SP) und 3 (RP), nicht aber zwischen Gruppe 2 (IP) und 3 (RP). In dieser Konstellation wurden Studierende, welche mit RPs übten oder zumindest davon ausgingen, signifikant weniger empathisch bewertet. Es zeigten sich signifikante Unterschiede in der Eigeneinschätzung zwischen Männern und Frauen, nicht aber in der Fremdeinschätzung. Es gab keine signifikanten Unterschiede in den Ergebnissen der kommunikationsbasierenden Stationen der Chirurgie-OSCE zwischen den einzelnen Gruppen.
Schlussfolgerung: Der Einsatz von SPs im Hinblick auf den Lernerfolg in kommunikationsbasierenden Prüfungen ist gerechtfertigt und eine gute Möglichkeit, um Studierenden das Üben von Gesprächssituationen realistisch zu ermöglichen, ohne dabei akut klinische Patient:innen rekrutieren zu müssen. Dabei muss aber beachtet werden, dass das empathische Verhalten der Studierenden ein anderes ist, wenn sie mit RPs arbeiten, beziehungsweise davon ausgehen, mit einem RP zu arbeiten. Zur Förderung der Empathie sollten RPs und Feedback durch diese früh in die studentische Lehre implementiert werden.
Die allgemein steigende Komplexität technischer Systeme macht sich auch in eingebetteten Systemen bemerkbar. Außerdem schrumpfen die Strukturgrößen der eingesetzten Komponenten, was wiederum die Auftrittswahrscheinlichkeit verschiedener Effekte erhöht, die zu Fehlern und Ausfällen dieser Komponenten und damit der Gesamtsysteme führen können. Da in vielen Anwendungsbereichen ferner Sicherheitsanforderungen eingehalten werden müssen, sind zur Gewährleistung der Zuverlässigkeit flexible Redundanzkonzepte nötig.
Ein Forschungsgebiet, das sich mit Methoden zur Beherrschung der Systemkomplexität befasst, ist das Organic Computing. In dessen Rahmen werden Konzepte erforscht, um in natürlichen Systemen beobachtbare Eigenschaften und Organisationsprinzipien auf technische Systeme zu übertragen. Hierbei sind insbesondere sogenannte Selbst-X-Eigenschaften wie Selbstorganisation, -konfiguration und -heilung von Bedeutung.
Eine konkrete Ausprägung dieses Forschungszweigs ist das künstliche Hormonsystem (artificial hormone system, AHS). Hierbei handelt es sich um eine Middleware für verteilte Systeme, welche es ermöglicht, die Tasks des Systems selbstständig auf seine Prozessorelemente (PEs) zu verteilen und insbesondere Ausfälle einzelner Tasks oder ganzer PEs automatisch zu kompensieren, indem die betroffenen Tasks auf andere PEs migriert werden. Hierbei existiert keine zentrale Instanz, welche die Taskverteilung steuert und somit einen Single-Point-of-Failure darstellen könnte. Entsprechend kann das AHS aufgrund seiner automatischen (Re)konfiguration der Tasks als selbstkonfigurierend und selbstheilend bezeichnet werden, was insbesondere die Zuverlässigkeit des realisierten Systems erhöht. Die Dauer der Selbstkonfiguration und Selbstheilung unterliegt zudem harten Zeitschranken, was den Einsatz des AHS auch in Echtzeitsystemen erlaubt.
Das AHS nimmt jedoch an, dass alle Tasks gleichwertig sind, zudem werden alle Tasks beim Systemstart in einer zufälligen Reihenfolge auf die einzelnen PEs verteilt. Häufig sind die in einem System auszuführenden Tasks jedoch für das Gesamtsystem von unterschiedlicher Wichtigkeit oder müssen gar in einer bestimmten Reihenfolge gestartet werden.
Um den genannten Eigenschaften Rechnung zu tragen, liefert diese Dissertation gegenüber dem aktuellen Stand der Forschung folgende Beiträge:
Zunächst werden die bisher bekannten Zeitschranken des AHS genauer betrachtet und verfeinert.
Anschließend wird das AHS durch die Einführung von Zuteilungsprioritäten erweitert: Mithilfe dieser Prioritäten kann eine Reihenfolge definiert werden, in welcher die Tasks beim Start des Systems auf die PEs verteilt beziehungsweise in welcher betroffene Tasks nach einem Ausfall auf andere PEs migriert werden.
Die Zeitschranken dieser AHS-Erweiterung werden im Detail analysiert.
Durch die Priorisierung von Tasks ist es möglich, implizit Teilmengen von Tasks zu definieren, die ausgeführt werden sollen, falls die Rechenkapazitäten des Systems nach einer bestimmten Anzahl von PE-Ausfällen nicht mehr ausreichen, um alle Tasks auszuführen: Die im Rahmen dieser Dissertation entwickelten Erweiterungen erlauben es in solchen Überlastsituationen, das System automatisch und kontrolliert zu degradieren, sodass die wichtigsten Systemfunktionalitäten lauffähig bleiben.
Überlastsituationen werden daher im Detail betrachtet und analysiert. In solchen müssen gegebenenfalls Tasks niedriger Priorität gestoppt werden, um auf den funktionsfähig verbleibenden PEs hinreichend viel Rechenkapazität zu schaffen, um Tasks höherer Priorität ausführen zu können und das System so in einen wohldefinierten Zustand zu überführen. Die Entscheidung, in welcher Reihenfolge hierbei Tasks gestoppt werden, wird von einer Task-Dropping-Strategie getroffen, die entsprechend einen großen Einfluss auf die Dauer einer solchen Selbstheilung nimmt.
Es werden zwei verschiedene Task-Dropping-Strategien entwickelt und im Detail analysiert: die naive Task-Dropping-Strategie, welche alle niedrigprioren Tasks auf einmal stoppt, sowie das Eager Task Dropping, das in mehreren Phasen jeweils höchstens eine Task pro PE stoppt. Im Vergleich zeigt sich, dass von letzterem fast immer weniger Tasks gestoppt werden als von der naiven Strategie, was einen deutlich schnelleren Abschluss der Selbstheilung ermöglicht. Lediglich in wenigen Sonderfällen ist die naive Strategie überlegen.
Es wird detailliert gezeigt, dass die entwickelte AHS-Erweiterung auch in Überlastsituationen die Einhaltung bestimmter harter Zeitschranken garantieren kann, was den Einsatz des erweiterten AHS in Echtzeitsystemen erlaubt.
Alle theoretisch hergeleiteten Zeitschranken werden durch umfassende Evaluationen vollumfänglich bestätigt.
Abschließend wird das erweiterte, prioritätsbasierten AHS mit verschiedenen verwandten Konzepten verglichen, um dessen Vorteile gegenüber dem Stand der Forschung herauszuarbeiten sowie zukünftige vertiefende Forschung zu motivieren.
Oxidative stress is thought to be a driver for several diseases. However, many data to support this concept were obtained by the addition of extracellular H2O2 to cells. This does not reflect the dynamics of intracellular redox modifications. Cells actively control their redox-state, and increased formation of ROS is a response to cellular stress situations such as chronic inflammation.
In this study, it was shown that different types of ROS lead to different metabolic and transcriptomic responses of HUVECs. While 300 μM extracellular H2O2 led to substantial metabolic and transcriptomic changes, the effects of DAO-derived H2O2 and menadione were low to moderate, indicating that the source and the concentration of ROS are important in eliciting changes in metabolism and gene expression.
Specifically, it was identified that acute increases in ROS transiently inactivate the enzyme ω-amidase/NIT2 of the glutaminase II pathway, which supplies cells with anaplerotic α-ketoglutarate. The pathway has not been studied systematically because, as noted above, the major intermediate, KGM, is not commercially available. In the present study, an internal standard for targeted detection of KGM in cells and blood plasma/serum was used. Deletion of NIT2 by CRISPR/Cas9 significantly reduced α-ketoglutarate levels in HUVECs and elevated KGM levels. It appears that in cell culture conditions, hydrolysis of KGM to α-ketoglutarate is very efficient. Knockout of the glutamine transaminases significantly reduced methionine, suggesting that the glutaminase II pathway is an important source of amino acid replenishment.
Similar to genetic silencing of GLS1 [91,92], HUVECs lacking NIT2 showed reduced proliferation and angiogenic sprouting. Furthermore, our results indicate that, at least in HUVECs, the enzyme also locates in the mitochondria where it interacts with key enzymes of glutamine/glutamate/α-ketoglutarate metabolism.
The data of the present work indicate that the glutaminase II pathway is an underappreciated, redox-sensitive pathway for glutamine utilization in HUVECs. Genetic deletion of NIT2 has considerable physiological effects highlighting the importance of glutamine for ECs.
Das Buch nimmt die Beobachtung zum Ausgangspunkt, dass wahrnehmende Lebewesen immer auch sich bewegende Lebewesen sind. Der Zusammenhang zwischen den Vermögen der Wahrnehmung und der Selbstbewegung wird hier als ein konstitutiver gefasst, der insofern Auswirkungen für das Verständnis und die philosophische Analyse des jeweiligen Vermögens hat. Im Fokus steht das wechselseitige Verhältnis zwischen Wahrnehmung und Handeln beim Menschen und damit auch die Frage, in welcher Beziehung das begriffliche Denken zu den genannten Vermögen steht. Die Arbeit diskutiert Schriften von Wittgenstein, Anscombe, Merleau-Ponty, Dreyfus, McDowell, sowie neuere Beiträge aus der enaktivistischen und phänomenologischen Tradition.
Im ersten Kapitel wird der Zusammenhang zwischen Wahrnehmung und Handlung in der Erkenntnistheorie untersucht. Hier stehen enaktivistische Theorien, die auf den grundsätzlichen Handlungscharakter der Wahrnehmung verweisen, im Mittelpunkt. Anhand einer Kritik der Kamerametaphorik des menschlichen Blicks wird dafür argumentiert, dass die (visuelle) Wahrnehmung als aktiver Prozess verstanden werden muss. Das Sehen ist weder punktförmig noch bildhaft aufzufassen, vielmehr ist es eine stets prekäre Errungenschaft eines leiblichen Wesens im Austausch mit der es umgebenden Welt. Die Ergebnisse aus dem ersten Kapitel werden im zweiten Kapitel mit Ludwig Wittgensteins Überlegungen zum Aspektsehen in Kontakt gebracht. Wittgensteins Bemerkungen zum Sehen und Aspektsehen lassen sich als Anstoß zu einem pluralistischen Verständnis der Wahrnehmung verstehen. In Anbetracht der vielfältigen Diskussionen, für die Wittgensteins Bemerkungen über das Aspektsehen relevant sind, wird hier herausgearbeitet, inwieweit sie als eine Kritik an jeder Form des Gegebenseins in der Wahrnehmung verstanden werden können. Eine Diskussion des ebenso ungewöhnlichen wie wenig beachteten Beitrags Anscombes zur Theorie der Wahrnehmung, den sie hauptsächlich in »The Intentionality of Sensation« ausarbeitet, beschließt das zweite Kapitel.
Im dritten Kapitel geht es um den zweiten Teil der These, Wahrnehmung und Handeln seien wechselseitig voneinander abhängig. In diesem Kapitel geht es um Theorien, für die die Wahrnehmung nicht einfach Informationen über die Umwelt bereitstellt, sondern selbst Bestandteil des Handelns ist. Eine besondere Herausforderung besteht darin, die Rolle der Wahrnehmung sowohl für das geistesabwesende Tun als auch für das überlegte Handeln und auch für mentale Handlungen, wie etwa Entscheidungen, zu bestimmen. Besonders offensichtlich wird die Rolle der Wahrnehmung im Handeln immer dort, wo das Überlegen zurücktritt und das gekonnte Handeln auf die Wahrnehmung von Gelegenheiten angewiesen ist – also insbesondere dort, wo das Handeln Ausdruck spezialisierter Fähigkeiten ist.
Der Wahrnehmungsbegriff, der in der Arbeit im Mittelpunkt steht, ist gerade kein allgemeiner oder übergreifenden – und erst recht kein »zugrundliegender« Begriff der Wahrnehmung. Vielmehr soll Wahrnehmung plural verstanden werden: die Wahrnehmung im Alltag, die beobachtenden Wahrnehmung, die Wahrnehmung des Profis, die begriffliche Wahrnehmung. Diese Herangehensweise läuft zwangsläufig auch auf die Frage hinaus, inwiefern sich die menschliche Wahrnehmung und die Wahrnehmung der Tiere unterscheiden. Zwar gilt für Tiere wie für Menschen, dass sie wahrnehmen und sich bewegen – aber bestimmte Formen der Wahrnehmung sind klarerweise dem Menschen vorbehalten, etwa die ästhetische, die moralische und die begriffliche Wahrnehmung. Das vierte Kapitel diskutiert – ausgehend von der Frage nach der Begrifflichkeit der menschlichen Vermögen des Wahrnehmens und Handelns –, in welchem Verhältnis diese zu denen der Tiere stehen.
Ein auffälliger Unterschied zwischen den Vermögen des Menschen und denen der Tiere – so wird sich herausstellen – ist die Flexibilität und Pluralität der menschlichen Vermögen. Doch diese Pluralität ist kein natürliches Faktum, sondern Produkt bestimmter Tätigkeiten und Praktiken. Erst im tätigen Umgang mit der Welt, durch den Erwerb bestimmter Techniken und innerhalb bestimmter Praktiken verwirklicht sich die grundsätzliche Offenheit der menschlichen Vermögen. Diese Idee, dass unsere natürlichen Vermögen in Kontakt und Auseinandersetzung mit unserer Lebenswelt sich allererst entwickeln, ist Gegenstand des fünften Kapitels.
Die konstitutiven Beziehungen zwischen Wahrnehmung und Handeln in den Mittelpunkt dieser Untersuchung zu rücken, ist dabei Ausdruck eines bestimmten Philosophieverständnisses, nämlich eines, das das wahrnehmende, denkende und handelnde Lebewesen in den Fokus seiner Untersuchung stellt – nicht das einzelne Vermögen, sondern der ganze Organismus sind der point of interest.
Die Verwendung von photolabilen Schutzgruppen zur nicht-invasiven Kontrolle von Systemen birgt ein großes Potential für verschiedenste Anwendungsgebiete, die von der Erforschung und Regulation biologischer Prozesse, über den Einsatz in medizinischer Therapie bis hin zur Verwendung als molekulare Datenspeicher reichen. Für diese Umsetzung benötigt es allerdings eine breite Auswahl an entsprechenden PPGs und das Wissen über ihre Reaktionsmechanismen. Im Allgemeinen lässt sich die Konzeptionierung von PPGs in drei Prozesse einteilen, beginnend bei dem Design und der Synthese einer neuen PPG. Bei diesem Schritt liegt der Fokus auf ein oder zwei besonderen Eigenschaften, wie beispielsweise einer Absorptionswellenlänge in einem bestimmten Spektralbereich oder einer hohen Uncaging-Quantenausbeute. Im zweiten Schritt folgt die Untersuchung der PPG bezüglich spektroskopischer und mechanistischer Eigenschaften und ggf. anschließender Optimierung auf synthetischer Ebene. Die so gewonnenen Informationen sind dann hilfreich bei dem letzten Schritt, bei dem es um den Einsatz der PPG in einem entsprechenden System geht. Hierbei müssen die verwendeten PPGs genau auf das Zielsystem abgestimmt sein, dazu zählen verschiedenste Parameter wie Anregungswellenlänge, Extinktionskoeffizient, Art und Struktur der Photoprodukte sowie Uncaging-Effizienz und Geschwindigkeit.
In der vorliegenden Arbeit wurde über die drei vorgestellten Projekte mittels spektroskopischer Methoden zu allen drei genannten Stadien zur Konzeptionierung von PPGs ein Beitrag geleistet. Dazu zählt die Entwicklung der CBT-basierten PPGs, die Untersuchung der Struktur-Wirkungsbeziehung von (DMA)(2)F-PPGs und die Etablierung einer wellenlängenselektiven An-/Aus-Funktionalität eines Antibiotikums. In enger interdisziplinärer Zusammenarbeit zwischen theoretischen, synthetischen und biologischen Teilgebieten konnte jedes Projekt innerhalb der jeweiligen Entwicklungsstufe erfolgreich abgeschlossen werden.
Mithilfe des relativ neuen Ansatzes, bei dem durch quantenmechanische Berechnungen der vertikalen Anregungsenergie von der kationischen Spezies einer PPG-Grundstruktur eine Aussage über ihre Qualität postuliert werden kann, konnte ausgehend von der Fluoren-Grundstruktur eine neue Klasse von PPGs gefunden werden. Dabei erwies sich die CBT-Struktur mit den Schwefelatomen an der para-Position als besonders geeignet. Insbesondere konnte die Grundstruktur durch die (OMePh)2-Substitution, welche in einer signifikanten bathochromen Verschiebung des Absorptionsmaximums resultierte, optimiert werden. Die Untersuchung der Ultrakurzzeit-Dynamik beider p-CBT Strukturen gab Aufschluss über die unterschiedlichen photochemischen Eigenschaften als PPG.
Für die Stoffklasse der Dimethylamino-Fluorene wurde ein wichtiger Unterschied zwischen den einfach- und zweifach-substituierten Derivaten aufgedeckt, der entscheidend für einen signifikanten Uncaging-Effizienzunterschied ist. Dabei stellt sich die Stabilität des symmetrisch-substituierten Fluorenyl-Kations als der wichtigste Faktor bezüglich der Uncaging-Quantenausbeuten heraus. Beide Schutzgruppen sind in der Lage photoinduziert eine AG freizusetzen, wobei der Reaktionsmechanismus über die kationische Spezies (DMA)(2)F + abläuft. Der Unterschied hierbei liegt in der Lebensdauer der beiden Kationen, die im Falle der symmetrischen PPG stark lösungsmittelabhängig ist und bis zu mehreren Stunden betragen kann, was bis dato das langlebigste Kation dieser Molekülklasse darstellt. Für die zukünftige Optimierung dieser PPG-Klasse ist die Erkenntnis über die Gründe für die Stabilität des Kations von großem Vorteil. Der stabilisierende Faktor ist zum einen die zweite Dimethylamino-Gruppe der symmetrischen Verbindung, welche durch die Erweiterung der Mesomerie zur besseren Verteilung der positiven Ladung im Molekül führt. Zum anderen spielt das Lösungsmittel eine entscheidende Rolle. Dabei bieten protische, polare Medien eine zusätzliche Stabilisierung, die notwendig für die Langlebigkeit des Kations ist. Die Lebensdauer des Kations war zudem durch eine zweite Bestrahlungswellenlänge kontrollierbar. Ausgehend vom Kation konnte eine reversible Nebenreaktion in protischen Lösungsmitteln identifiziert werden, die einen Austausch der AG durch das Lösungsmittel darstellt.
Zusätzlich konnte die kleine Stoffklasse der bisher bekannten Photobasen durch die Verbindung (DMA)2F-OH erweitert werden. Genauer betrachtet handelt es sich dabei um eine photoinduzierte Hydroxidfreisetzung, wodurch je nach eingesetzter Konzentration ein pH-Sprung von bis zu drei Einheiten erreicht werden konnte. Dabei stellt sich die Lebensdauer des pH-Sprungs als ein entscheidender Parameter für Photobasen dar, welcher sich für die hier untersuchte Verbindung aufgrund der besonderen Stabilität des entsprechenden Kations, im Vergleich zu einigen der bereits bekannten Verbindungen, als besonders langlebig herausgestellt hat. Ein weiterer Vorteil des Einsatzes von (DMA)2F-OH als Photobase ist die Möglichkeit den pH-Sprung durch zwei verschiedene Wellenlängen sowohl zeitlich als auch örtlich zu kontrollieren, indem die Verbindung zwischen den zwei Spezies (DMA)2F-OH und (DMA)2F + geschaltet werden kann.
Im Hinblick auf die Anwendungen von PPGs zur verbesserten zeitlichen und örtlichen Kontrolle biologischer Zielsysteme ist im Rahmen dieser Arbeit das Prinzip vom wellenlängenselektiven Uncaging zweier PPGs an einem Molekül (two-PPG-one-molecule, TPOM) etabliert worden. Das Zielmolekül war hier das Antibiotikum Puromycin, welches durch seine Fähigkeit an das Ribosom zu binden, die Proteinbiosynthese inhibieren kann. Dabei wurden zwei verschiedene PPGs gefunden, die sowohl aufeinander als auch auf das Biomolekül selbst abgestimmt sind. Im Ausgangszustand sind beide PPGs am Puromycin angebracht, wodurch es in seiner biologischen Wirkung inaktiv ist. Befindet sich das doppelt geschützte Puromycin in der ROI, so kann es durch die Bestrahlung mit einer bestimmten Wellenlänge infolge des ersten Uncaging-Schritts aktiviert werden. Da biologische Systeme nicht statisch sind, können aktivierte Moleküle stets von der gewünschten ROI nach außen gelangen, wodurch der Anspruch der räumlichen Kontrolle nicht erfüllt wird. In diesem Fall kann durch die TPOM-Umsetzung die zweite Bestrahlungswellenlänge auf den entsprechenden Bereich angewendet werden, wodurch das Uncaging der zweiten PPG initiiert und folglich das Puromycin deaktiviert wird. Des Weiteren konnte gezeigt werden, dass die Deaktivierungswellenlänge auch in der Lage ist beide PPGs zu entfernen, wodurch eine vollständige Inaktivierung des Puromycins außerhalb der ROI garantiert werden kann.
Ist die Proteinbiosynthese längerfristig blockiert, führt das schließlich zum Zelltod. Ein großes Anwendungsgebiet dieses Antibiotikums sind die Neurowissenschaften. Aufgrund der Tatsache, dass Puromycin keine Unterscheidung zwischen eukaryotischen und prokaryotischen Zellen macht, findet es keine Anwendung in der Medizin. Eine zeitliche und örtliche Kontrolle seiner Wirkung könnte den Anwendungsbereich dieses Antibiotikums evtl. ausweiten. Das wohl naheliegendste wäre der Einsatz bei Tumorzellen, deren Behandlung durch Zytostatika auf den gesamten Körper wirken und dadurch viele schwere Nebenwirkungen verursachen.
Wie bereits weiter oben beschrieben muss für jedes Biomolekül und das entsprechende Wirkzentrum die Auswahl des passenden PPG-Paares einzeln abgestimmt werden. Dennoch lässt sich anhand des hier etablierten Systems ein Konzept für die erfolgreiche Umsetzung zukünftiger TPOM-Systeme an anderen biomolekularen Wirkstoffen zusammenfassend formulieren.
* Der erste Schritt sollte die Betrachtung des Wirkzentrums des zu modifizierenden Biomoleküls sein: Welche funktionelle Gruppe bzw. Gruppen sind entscheidend für die Bindetasche oder –stelle? Dieser Bereich des Biomoleküls soll im Zuge des Uncagings entweder blockiert oder abgespalten werden. In der unmittelbaren Nähe muss die PPG1 angebracht werden.
* Bei der Wahl von PPG1 ist das wichtigste Kriterium, dass das Biomolekül mit enthaltener Schutzgruppe in seiner Wirkung unbeeinträchtigt bleibt. Dies schränkt die Auswahl beträchtlich ein. Eine mögliche Umsetzung wäre die Anbringung einer Nitro-Gruppe falls vorhanden an einen Benzolring, welcher sich im Fall eines großen Biomoleküls in der Nähe der wichtigen funktionellen Stelle befindet.
* Die zweite PPG (PPG2), deren photoinduzierte Abspaltung zur Aktivierung des Wirkstoffs führen soll, kann strukturell frei gewählt werden. Das Auswahlkriterium hierbei ist das Absorptionsspektrum. Hierbei sollte das Absorptionsmaximum rotverschoben zur PPG1 sein, um eine unerwünschte Abspaltung zu vermeiden. Außerdem darf keine signifikante Absorption von PPG2 bei der Uncaging-Wellenlänge von PPG1 vorhanden sein.
* Beide PPGs sollten eine ähnliche Uncaging-Quantenausbeute vorweisen, um im Deaktivierungsschritt der doppelt geschützten Verbindung durch das höher energetische Licht keine Bevorzugung einer einzelnen Schutzgruppe zu riskieren.
Anhand der erarbeiteten Herangehensweise können weitere Wirkstoffe oder Biomoleküle hin zu einer An- / Aus-Funktionalität modifiziert werden. Mit der Umsetzung des TPOM-Konzepts kann eine Verbesserung der örtlichen und zeitlichen Kontrolle der Aktivität eines Antibiotikums erreicht werden. Für die Anwendung in biologischer Umgebung ist diese präzische Kontrolle essentiell, um unerwünschte Nebenwirkungen angesundem Gewebe zu verhindern.