Refine
Year of publication
- 2018 (204) (remove)
Document Type
- Doctoral Thesis (204) (remove)
Has Fulltext
- yes (204) (remove)
Is part of the Bibliography
- no (204) (remove)
Keywords
- Lebensqualität (2)
- Spracherwerb (2)
- vascular endothelial cells (2)
- ABCE1 (1)
- ARFI (1)
- Adhärenz (1)
- Afghanistan (1)
- Allosteric inhibition (1)
- Anomalie <Medizin> (1)
- Anwendungsorientierte Forschung (1)
Institute
- Biochemie, Chemie und Pharmazie (44)
- Medizin (39)
- Biowissenschaften (34)
- Physik (21)
- Informatik und Mathematik (17)
- Gesellschaftswissenschaften (8)
- Sprach- und Kulturwissenschaften (8)
- Neuere Philologien (7)
- Biochemie und Chemie (3)
- Kulturwissenschaften (3)
FPP und GGPP sind Intermediate des Mevalonat-Weges und fungieren als post-translationale Modifikation kleiner GTPasen. Die Prenylierung kleiner GTPasen erfolgt katalysiert von spezifischen Prenyltransferasen und ist notwendig um die kleinen GTPasen in Membranen zu verankern, wo ihre Aktivierung stattfindet. Zu den intrazellulären Funktionen der GTPasen gehören unter anderem der Aufbau des Cytoskeletts, das neuronale Zellwachstum, die Leitung und Ausläuferbildung von Axonen, das Dendritenwachstum, die Synapsenformation, die synaptische Plastizität und die Apoptose. Diese Funktionen spielen in der Gehirnalterung sowie in neurodegenerativen Erkrankungen wie der Alzheimer Demenz (AD) und auch bei der Glioblastoma multiforme (GBM) eine wichtige Rolle.
Im Zuge einer in vivo Studie an C57BL/6 Mäusen konnten in der vorliegenden Arbeit altersbedingte Veränderungen der Lokalisation verschiedener Rho- und Rab-GTPasen in Membran- und Cytosol-Präparationen sowie der GGTase-I in Gehirnen gealterter Tiere gezeigt werden. Die zelluläre Lokalisation der Rho GTPasen Rac1, RhoA und Cdc42 verschiebt sich im Alter zu reduzierten Membran-gebundenen und erhöhten cytosolischen Gehalten. Dies ist mit einer Reduktion der Protein- und mRNA- Gehalte des Enzyms GGTase-Iβ assoziiert, der Untereinheit der GGTase-I, die die Bindung des Isoprenoids GGPP an die Rho-GTPasen reguliert. Diese wiederum korrelieren direkt mit der altersbedingten Reduktion der relativen GGTase-Aktivität. Die in vitro Inhibition der GGTase-I mittels GGTI-2133 an SH-SY5Y Zellen erwies sich als Modell, welches die gleichen Effekte wie die gealterten Gehirne in vivo zeigt.
7, 8-Dihydroxyflavon (7, 8-DHF) ist ein natürlich vorkommendes Flavon, welches als hoch affiner selektiver TrkB-Rezeptor-Agonist fungiert und hierdurch wie das Neurotrophin BDNF das Überleben von Neuronen, deren Differenzierung, synaptische Plastizität und Neurogenese vermittelt. In vivo verursacht die orale Gabe von 7, 8-Dihydroxyflavon in Gehirnen alter Tiere eine Abnahme des Isoprenoids GGPP, die Zunahme der prenylierten Membran-gebundenen GTPase Rac1 und eine Reduktion des Gehaltes an Membran-gebundenem Rab3A auf das Niveau der Gehalte in den Gehirnen der jungen Kontroll-Tiere. Das Neurotrophin BDNF interagiert mit dem TrkB-Rezeptor und ist in der Lage direkt an den Rac1-spezifischen GEF Tiam1 zu binden, wodurch dieser aktiviert wird und Veränderungen der zellulären Morphologie der betroffenen Neurone induziert. Während das Alter und die orale Gabe von 7, 8-Dihydroxyflavon in vivo keine Effekte auf die Proteingehalte von BDNF und TrkB in der Tierstudie aufzeigten, konnte eine alterbedingte Reduktion von Tiam1 im Hirngewebe detektiert werden, die wiederum durch 7, 8-Dihydroxyflavon aufgehoben werden konnte.
Die Isoprenoide FPP und GGPP, sowie die Regulation kleiner GTPasen spielen auch eine wichtige Rolle im Zusammenhang mit Veränderungen der APP-Prozessierung in der molekularen Pathogenese der AD. Bei der APP-Prozessierung sind die beiden Sekretasen β- und γ-Sekretase für die Bildung des β-Amyloid-Peptids verantwortlich. In vitro Studien mit dem β-Sekretase-Inhibitor IV und dem γ-Sekretase-Inhibitor DAPT an untransfizierten und APP-transfizierten HEK293 Zellen (HEK293-APP695wt und HEK293-APPsw Zellen) konnten zeigen, dass sowohl die β- als auch die γ-Sekretase an der Regulation der Isoprenoide FPP und GGPP beteiligt sind. FPP und GGPP liegen in APP-transfizierten HEK293 Zellen erhöht vor. Die Inhibition der β-Sekretase führt zur Reduktion von FPP und GGPP. Durch die Inhibition der γ-Sekretase wird ausschließlich FPP reduziert. Weiterhin liegen in APP-transfizierten HEK293 Zellen die Membran-gebundenen prenylierten Rho-GTPasen Rac1, Cdc42 und RhoA erhöht vor. Das Membran-gebundene prenylierte H-Ras kommt jedoch in APP-transfizierten Zellen im Vergleich zu untransfizierten HEK293 Zellen in deutlich niedrigeren Mengen vor. Die Inhibition der β-Sekretase bedingt die Reduktion von Membran-gebundenem prenylierten Rac1 und auch von Membran-gebundenem H-Ras in HEK293-APPsw Zellen.
Veränderungen von Signaltransduktionswegen, die durch kleine GTPasen vermittelt werden, haben sich auch bei der GBM als zentraler Teil der molekularen Pathogenese herausgestellt. Hierbei ist die Prenylierung durch FPP und GGPP die Voraussetzung für die Membran-Insertion und onkogenen Funktion der Ras- und Rho-Proteine über die Stimulierung des Ras-Raf-MEK-ERK Signalweges. In dieser Arbeit konnte gezeigt werden, dass der HMG-CoA-Reduktase Inhibitor Lovastatin die Bildung der beiden Isoprenoide FPP und GGPP in U87 und U343 Glioblastoma Zellen verringert und hierdurch die Isoprenylierung von H-Ras und Rac1 reduziert. Das natürlich vorkommende Monoterpen Perrilylalkohol hingegen inhibiert die Prenyltransferasen FTase und GGTase und verändert dadurch die post-translationale Prenylierung der GTPasen Rac1 und H-Ras in U87 und U343 Zellen ohne die Isoprenoide FPP und GGPP signifikant zu beeinflussen. Jedoch bewirkt Perillylalkohol in U343 Zellen eine Erhöhung des GGPPs. Beide Substanzen bewirkten die Reduktion der ERK-Phosphorylierung und der Migration, Invasion und Proliferation der untersuchten U87 und U343 Glioblastoma Zellen.
Obesity is considered as a type of chronic inflammation. It enhances the risk of developing cardiovascular disease, diabetes, and some cancers. The key players in the induction of inflammation in adipose tissue are macrophages. However the mechanism of macrophage activation in obese fat tissue is still not fully understood. Elevated level of saturated fatty acids in adipose tissue promotes inflammation and insulin resistance. Exposure of macrophages to saturated fatty acids stimulates pro-inflammatory c-Jun N-terminal kinase (JNK), nuclear factor kappa B (NF-kB) signaling, and production of pro-inflammatory cytokines, such as IL-6, IL-8, IL-1β, and TNFα. Palmitate is a major saturated free fatty acid released by adipocytes. It activates inflammatory pathways through Toll-like receptors (TLR) 2 and 4, provokes endoplasmic reticulum (ER) stress and increases levels of diacylglycerols (DAGs) and ceramides. Saturated fatty acids also affect cellular oxidative metabolism. Thus, mitochondrial fatty acid oxidation reduces ER-stress and expression of inflammatory cytokines in palmitate-treated macrophages. On the other hand mitochondrial reactive oxygen species (ROS) promote palmitate-mediated pro-inflammatory cytokine production. Recently, mitochondrial functions were linked to their morphology. Mitochondrial fission has been reported in β-cells and myocytes in response to high levels of glucose and free fatty acids, and was associated with disruption of mitochondrial functions, increased ROS level, and cell death. The aim of this study was to investigate the role of mitochondrial fragmentation in palmitate-induced inflammation in human macrophages. In our settings fatty acids, independently of their saturation, affected mitochondrial morphology. Mixtures of long chain saturated and unsaturated fatty acids as well as triglyceride-rich lipoprotein lipolysis products promoted mitochondrial fission. Mitochondrial fragmentation in palmitate-treated macrophages revealed a time- and concentration-dependent character, and was reversible upon palmitate removal. This observation, together with unaltered levels of mitochondrial protein and DNA content, and intact mitochondrial respiration, suggested that mitochondria were not damaged and were functionally active. Mechanistically, palmitate-induced mitochondrial fragmentation was not regulated by ER stress or loss of mitochondrial membrane potential. However, inhibition of palmitate incorporation into mitochondrial membrane phospholipids decreased mitochondrial fragmentation. Other approach to prevent mitochondrial fission was the inhibition of dynamin-related protein 1 (DRP1) activity, which drives mitochondrial fission by forming ring- like structures around mitochondria and constricting mitochondrial membranes. Palmitate altered mitochondrial membrane lipid composition and promoted DRP1-oligomerization. The inhibition of palmitate-induced mitochondrial fragmentation enhanced mitochondrial ROS production, c-Jun phosphorylation, and upregulated expression of pro-inflammatory cytokines. Taken together, these results suggest that mitochondrial fragmentation is a protective mechanism attenuating palmitate-induced inflammatory responses. Future experiments will be required to investigate the role of mitochondrial fragmentation in obesity-associated diseases in vivo.
Ausgangspunkt der Studie ist die These, dass sprachlich und kulturell heterogene Lerngruppen, an denen Studierende mit und ohne spanischsprachigen Familienhintergrund gemeinsam teilnehmen, als eine günstige Lernsituation betrachtet werden können. Voraussetzung dafür ist, dass die unterschiedlichen sprachlichen und kulturellen Gegebenheiten als Ressourcen für den Unterricht verstanden werden.
Mit dem Fokus auf Sprachveranstaltungen in Spanisch, die von Studierenden an der Johann Wolfgang Goethe-Universität Frankfurt am Main besucht werden, und die im Rahmen ihres Lehramtsstudiums im Fach Spanisch stattfinden, wurden in dieser Studie folgende Forschungsfragen verfolgt:
1. Wie entstehen und entwickeln sich Sprachlernprozesse in sprachlich und kulturell vielfältigen Lernkontexten?
2. Wie zeichnet sich das Lernen in sprachlich und kulturell vielfältigen Lernkontexten aus?
3. Welche sprachlichen und kulturellen Ressourcen können für die sprachliche und kulturelle Förderung genutzt und bewusst eingesetzt werden?
Wichtigste Forschungsergebnisse:
Es wurde festgestellt, dass Sprachlernprozesse bei Studierenden mit und ohne spanischsprachigen Familienhintergrund sowohl im kognitiven als auch im emotionalen Bereich qualitativ unterschiedlich verlaufen und, dass in sprachlich und kulturell vielfältigen Lernkontexten individuelle und überindividuelle Sprachlern-prozesse stattfinden, die einander bedingen.
Was das gemeinsame Lernen angeht, konnte festgestellt werden, dass Studierende ohne spanischsprachigen Familienhintergrund widersprüchliche Erwartungen an die Studierenden mit spanischsprachigem Familienhintergrund haben: Einerseits schätzen sie die Präsenz ihrer Kommilitonen und sehen sie als Mittler zwischen dem Unterricht und der Realität außerhalb des Unterrichts, weil sie die „echte“ Sprache und Kultur in den Klassenraum bringen. Anderseits fühlen sie sich durch ihre Anwesenheit im Unterricht verunsichert, was ihre sprachliche Entwicklung zum Teil hemmt. Bei den Studierenden mit spanischsprachigem Familienhintergrund konnten unterschiedliche Phasen in ihrem Sprachlernprozess beobachtet werden, die ihre Lernattitüde und ihre Haltung zu den Kommilitoninnen und Kommilitonen konditionieren.
Entscheidend für die Konstruktion gemeinsamer Sprachlernprozessen ist, dass die Studierenden ihre Positionierung als peer ihrer Kommilitoninnen und Kommilitonen bewusst wahrnehmen, was nicht immer der Fall ist. Auch die Bewusstwerdung der eigenen Funktion als Mittler zwischen Sprachen und Kulturen insbesondere (aber nicht nur) bei Studierenden mit spanischsprachigem Familienhintergrund soll im Unterricht durch die Reflexion über die eigene sprachliche und kulturelle Identität gefördert werden.
Im Umgang mit solchen Lerngruppen haben Dozentinnen und Dozenten unterschiedliche Erwartungen. In der Regel werden aber Lerninhalte vermittelt, die die sprachliche und kulturelle Vielfalt im Unterricht nicht berücksichtigen. Für die Leistungsbewertung beider Studierendengruppen werden oft unterschiedliche Kriterien angewendet, woraus Konflikte zwischen den Veranstaltungsteilnehmerinnen und -teilnehmern entstehen.
Die Rolle der Dozentinnen und Dozenten selbst ist in der Gestaltung gemeinsamer Lernkontexte, in denen die Interaktion der Studierenden gefördert werden, grundlegend. Damit dies gelingt, sollen sie einerseits für Mehrsprachigkeit als Phänomen der Gesellschaft, das den Sprachunterricht im besonderen Maße betrifft, sensibilisiert sein. Andererseits soll ihnen bewusst werden, dass das Sprachenlernen aus einer kognitiven und einer emotionalen Seite besteht, die in engem Zusammenhang mit mehrsprachigen und mehrkulturellen Identitätskonstruktionen stehen. Beide Seiten sollen im Unterricht gefördert werden.
The Dodd Frank Act of 2010 (DFA) was the legislative response by the US Government to the Global Financial Crisis of 2007. DFA’s rescission of Rule 436 (g) of the Securities Act of 1933 - the exemption from liability clause - was the response to the post-crisis perception that credit rating agencies were insufficiently constrained by reputational risk considerations and consistently failed to provide high quality and accurate credit ratings as a consequence of the immunity they enjoyed and the regulatory reliance placed on ratings, as well as the conflicts of interest that they faced. This paper investigates whether the market failure event that occurred in the Asset Backed Securities market immediately after DFA was signed into law on July 21, 2010 was due to real economic concerns held by rating agencies about operating under a liability regime or whether it was merely an act of brinkmanship on the part of the rating agencies. The paper also predominantly examines US case law to identify the dilution of the freedom of speech defence in state courts, the conflict of interest issues and the legal challenges faced by plaintiffs when bringing a lawsuit against credit rating agencies, and proposes a novel co-pay and capped liability model to address the concerns of both credit rating agencies and investors.
Das Prinzip der endovaskulären Therapie von Aneurysmen mit Platinspiralen hat sich seit seiner Einführung durch Guglielmi 1991 immer mehr als alternatives Verfahren zum neurochirurgischen Clipping etabliert. Insbesondere bei Aneurysmen, die durch den neurochirurgischen Zugang nur schwer zu erreichen sind, hat sich diese Therapieoption bewährt. Neben der Lage spielen auch Größe und Form bei der Entscheidung für das Coiling eine wichtige Rolle. Es ist technisch anspruchsvoll, breitbasige oder besonders kleine Aneurysmen durch dieses Verfahren auszuschalten. Angesichts der aktuellen Datenlage ist es nicht immer möglich, eine zweifelsfreie Entscheidung zu treffen, ob und wie betroffene Patienten bestmöglich behandelt werden sollten. Insbesondere Fragen zur Behandlung und zu Komplikationen bei Aneurysmen ≤ 3 mm sind nicht hinreichend beantwortet, da diese nur in wenigen Studien Gegenstand der Analyse sind. Ziel der vorliegenden Arbeit war es, klinische und bildgebende Ergebnisse von Patienten, die im Institut für Neuroradiologie des Klinikum der Johann Wolfgang Goethe-Universität Frankfurt am Main durch eine endovaskuläre Intervention behandelt wurden, retrospektiv zu analysieren. Insbesondere wurde ein Schwerpunkt auf die Untersuchung der Komplikationsraten und der Aneurysmarupturen gelegt. Dies dient einer erweiterten Einschätzung von Risiko und Nutzen dieser Therapieoption, um eine bestmögliche Beratung und Behandlung der betroffenen Patienten zu gewährleisten.
In der vorliegenden Arbeit wurden 637 endovaskuläre Interventionen betrachtet, die am Institut für Neuroradiologie des Klinikum der Johann Wolfgang Goethe-Universität zwischen Februar 1999 und März 2011 durchgeführt wurden. In diesem Untersuchungszeitraum von 12 Jahren konnten 47 Patienten mit einem Aneurysma ≤ 3 mm in die Studie eingeschlossen werden. Es erfolgte eine retrospektive Datenerhebung mit Hilfe von Krankenakten, radiologischen Befunden und Angiographie-Dokumentationsprotokollen. Die Zusammensetzung des Patientenkollektivs war vergleichbar mit der der bisherigen Literatur. Das Durchschnittsalter des Patientenkollektivs betrug 55 Jahre. 85 % der Patienten waren Frauen. Bei der Häufigkeit des Auftretens an bestimmten Gefäßlokalisationen konnte ein geringer Unterschied festgestellt werden. Während bei ähnlichen Studien der Großteil der Aneurysmen an der ACI gefunden wurde, war in der vorliegenden Arbeit die AcomA am häufigsten betroffen, gefolgt von der ACI. In Bezug auf die Fehlschlagraten sind die Ergebnisse heterogen. In der vorliegenden Studie war es bei 17 % der behandelten Patienten nicht möglich, das Einbringen einer Platinspirale erfolgreich abzuschließen. Ein kompletter Aneurysmaverschluss erfolgte bei 55 % der Patienten. Bei 28 % der Fälle blieb nach der Intervention ein minimaler Halsrest bestehen. Die allgemeine Komplikationsrate betrug 12,8 %. Zu einer durch die Intervention ausgelösten Ruptur kam es in zwei Fällen (4,3 %), wobei dieser Anteil im mittleren Bereich der in der aktuellen Literatur beschriebenen Rupturraten von 0 % bis 11,7 % liegt. Für die Beurteilung des Therapieerfolgs spielt die Verfügbarkeit von Nachkontrollen eine wichtige Rolle. In der vorliegenden Arbeit war es möglich, in 87 % der Fälle Verlaufskontrollen durchzuführen, was Ergebnissen der Literatur entspricht. Die Wiederbehandlungsrate war mit 4,3 % vergleichsweise niedrig. Die Bildung eines Rezidivaneurysmas konnte in einem Fall beobachtet werden. 59 % der Patienten wiesen präoperativ einen Hunt und Hess Grad von 0 bis 2 auf, während es in anderen Arbeiten bis zu 87 % der Patienten waren. Grad 3 lag bei 15 % der Patienten vor, schwer betroffen waren 15 % mit einem Hunt und Hess Grad von 4 und 11 % mit einem von Grad 5. 55,3 % der in der vorliegenden Studie betrachteten Patienten konnten am Ende des Beobachtungszeitraums nach Einschätzung mittels mRS ihren Alltag ohne fremde Hilfe bewältigen (Stadien 0, 1 und 2). 34,0 % der Patienten benötigten fremde Hilfe und 10,9 % verstarben an den Folgen der SAB. Im Gegensatz dazu konnte in anderen Arbeiten ein mRS-Grad von 0-2 in mehr als 75 % gefunden werden. Dies bestärkt die Annahmen, dass ein primär niedriger Hunt und Hess Grad mit einem besseren und ein hoher Hunt und Hess Grad mit einem schlechteren klinischen Verlauf assoziiert sein könnte.
Durch die geringe Größe der Stichprobe und die retrospektive Datenanalyse der vorliegenden Arbeit ist es nicht möglich, zuverlässige allgemein gültige Behandlungsempfehlungen abzuleiten. Hier wurde das eigene Patientenkollektiv detailliert analysiert und die Ergebnisse wurden mit ähnlichen Publikationen verglichen. Weitere prospektiv geplante Studien sind sinnvoll.
Aus der zusammenfassenden Betrachtung der Ergebnisse lässt sich schließen, dass mit den momentan verfügbaren Mitteln bei ausreichender Erfahrung des behandelnden Neuroradiologen eine relativ sichere endovaskuläre Behandlung von sehr kleinen Aneurysmen möglich ist. Neben der Erfahrenheit des interventionellen Neuroradiologen kann die Weiterentwicklung der eingesetzten Materialien wie Coils, Stents, Ballons und Mikrokatheter zur Minimierung des Komplikationsrisikos beitragen.
In dieser Arbeit wurden mittels Fragebogen chronobiologische - hier als Chronobiologika bezeichnet -, biologische und soziale Parameter von Patienten mit einer definierten Malignomerkrankung (Mamma-Karzinom, Kolon-Karzinom, Lymphom) bestimmt und auf Zusammenhänge überprüft. Die Chronobiologika wurden für die Zeit vor der Erkrankung sowie für den Zeitpunkt der Befragung erhoben und die Veränderungen berechnet. Die Parameter vor der Erkrankung wurden bei der Gruppe der Patienten mit Mamma-Karzinom mit einer repräsentativen Referenzgruppe (Gesundheitsmonitor des Jahres 2013 der Bertelsmann Stiftung) auf Unterschiede verglichen. Es wurde insbesondere untersucht, ob Zusammenhänge zwischen den Veränderungen der Chronobiologika und der unter der Chemotherapie empfundenen Belastung (= Distress) bestehen.
Dazu wurden im Rahmen einer multizentrischen Studie bei 378 Personen anhand eines Fragebogens auf Basis des Munich ChronoType Questionnaires (MCTQ) Angaben zu ihrem Schlaf-Wach-Rhythmus, ihrer Malignomerkrankung, deren Therapie, der darunter empfundenen Belastung und dem Lebensstil ausgewertet. Ein besonderes Augenmerk wurde dabei auf den Chronotyp, den Social Jetlag und das Schlafdefizit gelegt.
Es ließen sich nur wenige Unterschiede in den Chronobiologika zum Zeitpunkt vor der Erkrankung und dem aktuellen pathologischen Zustand, zwischen den Malignomgruppen, zwischen den Gruppen mit und ohne Chemotherapie sowie zwischen den Gruppen mit geringem und hohem Distress finden.
Im Rahmen der Malignomerkrankung kam es zu Veränderungen im Schlaf-Wach-Rhythmus der Teilnehmer: So wurden Einschlaf- und Aufwachzeit sowie der Chronotyp früher in den Tagesverlauf verlegt. Der Social Jetlag und das Schlafdefizit verminderten sich. Die Einschlaflatenz wurde länger. Diese Veränderungen fanden sich bevorzugt bei Patienten mit Mamma-Karzinom, Chemotherapie und hohem Distress. Der Distress war bei Frauen und jüngeren Personen stärker ausgeprägt.
Die Studienpopulation zeigte im Vergleich zur vorgenannten Referenzgruppe in allen Altersgruppen einen späteren Chronotyp, einen höheren Social Jetlag und einen höheren Anteil an Berufstätigen.
Die beschriebenen Veränderungen im Schlaf-Wach-Rhythmus ließen sich im Wesentlichen mit der veränderten Berufstätigkeit und dem subjektiven Distress im Rahmen der Erkrankung und ihrer Therapie erklären. So fanden sich die stärksten Veränderungen in den Chronobiologika bei Patienten mit hohem Distress und einer Aufgabe der Berufstätigkeit. Die Unterschiede zwischen der Referenzgruppe und der Gruppe der Patientinnen mit Mamma-Karzinom lassen sich tatsächlich mit einer Krankheitsprädisposition oder durch soziokulturelle Besonderheiten in der Studienpopulation gegenüber der Normalbevölkerung (Referenzgruppe) erklären.
Um molekulare Mechanismen in biologischen Prozessen zu verstehen, ist es unerlässlich biologisch aktive Verbindungen zu kontrollieren. Dabei spielt besonders die Aktivierung bzw. Desaktivierung von Genabschnitten eine zentrale Rolle in der gegenwärtigen chemischen, biologischen und medizinischen Forschung. Nukleinsäuren sind dabei offenkundige Zielmoleküle, da sie die Genexpression auf unterster Ebene regulieren und auf vielfältige Art und Weise an biologischen Prozessen beteiligt sind. Um solch eine genaue Steuerung zu erreichen, werden Nukleinsäuren häufig photolabil modifiziert und unter die Kontrolle von Licht gebracht. Da hochentwickelte Technologien es erlauben Photonen bestimmter Energie unter präziser räumlicher und zeitlicher Auflösung zu dosieren, ist Licht als nicht invasives Triggersignal ein besonders geeignetes Werkzeug um molekulare Prozesse zu kontrollieren.
Die Verwendung photolabiler Schutzgruppen („cage“) ermöglicht es, diese lichtaktivierbaren Nukleinsäuren („caged compound“) herzustellen. Üblicherweise werden Oligonukleotide damit an funktionsbestimmenden Stellen versehen, woraufhin die Funktion der Oligonukleotide unterdrückt wird. Die biologische Aktivität kann durch Bestrahlung mit Licht wieder hergestellt werden, da die photolabile Schutzgruppe durch den Lichtimpuls abgespalten wird. Neben der zeitweiligen Maskierung der Nukleinsäureaktivität existiert auch eine Methode, die als „photoaktivierbarer Strangbruch“ (‘‘caged strand break‘‘) bezeichnet wird. Dabei werden mit Hilfe von photolabilen Linkern (‘‘Verknüpfer‘‘) lichtinduzierte Strangbrüche in Oligonukleotiden ausgelöst, um so beispielsweise die Struktur eines Nukleinsäurestrangs zu zerstören. Die Idee der photoaktivierbaren Strangbrüche ist nicht neu, dennoch werden photolabile Schutzgruppen überwiegend nach der erstgenannten Strategie verwendet. Im Rahmen dieses Promotionsvorhabens wurden neue photosensitive Linkerbausteine für Oligonukleotide entwickelt und hergestellt, welche sich vor allem im Hinblick auf die Anwendbarkeit in lebenden biologischen Systemen von den bisherigen photolabilen Linkern unterscheiden.
Im ersten Projekt wurde ein nicht-nukleosidischer, photolabiler Linker, basierend auf dem Cumaringrundgerüst, entwickelt. Das Ziel war hier, vor allem, einen zweiphotonenaktiven Linker für biologische Anwendungen und Zweiphotonen-Fragestellungen nutzbar zu machen. Bisherige Zweiphotonen-Linker konnten hauptsächlich nur für Proteinverknüpfungen bzw. Neurotransmitter verwendet werden oder mussten chemisch umständlich (z.B. Click-Chemie) und postsynthetisch in Oligonukleotide eingeführt werden. Der neu entwickelte Zweiphotonen-Linker wurde als Phosphoramiditbaustein für die Oligonukelotid-Festphasensynthese synthetisiert, was einen problemlosen und automatisierten Einbau garantiert. Mit einem modifizierten Oligonukleotid konnten die photochemischen Eigenschaften des Linkers bestimmt und mit Hilfe eines fluoreszenzbasierten Verdrängungsassays und Lasertechniken der Zweiphotonen-Effekt visualisiert werden. Dazu wurde ein Hairpin-DNA-Strang hergestellt, welcher eine Linkermodifikation im Bereich der Loopregion enthält. Durch eine Thiolmodifikation am 5‘-Ende des Oligonukleotidstranges war es möglich, diesen in einem Maleimid-funktionalisierten Hydrogel zu fixieren. Ein DNA-Duplex mit einem Fluorophor/Quencherpaar und einer korrespondierenden Sequenz zum modifizierten Hairpin-Strang wurde ebenfalls dem System zugegeben, allerdings wurde dieser nicht fixiert, um Diffusion zu ermöglichen. Durch die räumliche Nähe des Fluorophors zum Quencher konnte im unbelichteten Zustand zunächst keine Fluoreszenz gemessen werden. Mit einem (Femtosekunden-)gepulsten Laser und dem damit verbundenen Bindungsbruch im Hairpin-Strang durch Zweiphotonen-Effekte wurde es dem fluoreszierenden Strang des DNA-Duplex ermöglicht, sich vom Quencher-Strang zu lösen und an den fixierten Strang zu hybridisieren. Das Photolyse-Ereignis konnte so in ein lokales Fluoreszenzsignal übersetzt und detektiert werden.
Der eindeutige Beweis, dass es sich tatsächlich um ein Zweiphotonen-induziertes Ereignis handelt, konnte durch die dreidimensional aufgelöste Photolyse und über die quadratische Anhängigkeit des Fluoreszenzsignals von der eingestrahlten Laserleistung erbracht werden.
Die generelle Kompatibilität des Cumarin-Linkers mit biologischen Systemen konnte in Zellkulturexperimenten gezeigt werden. Dazu wurde eine Transkriptionsfaktor-DNA Decoy-Strategie entwickelt, in der Linker-modifizierte DNA Decoys an regulatorische Transkriptionsfaktoren binden und diese aber auch photochemisch wieder freisetzen können („catch and release-Strategie“). Zellkulturexperimente, um mit dieser Methode das Transkriptionsfaktor-gesteuerte und endogene Gen für Cyclooxygenase-2 (COX2) zu regulieren, lieferten keine aussagekräftigen Ergebnisse. Daher wurden die verwendeten Zellen dahingehend manipuliert, sodass sie das Protein GFP (grün fluoreszierendes Protein) in Abhängigkeit von der Anwesenheit eines Transkriptionsfaktors exprimieren. Das so durch die Zellen verursachte Fluoreszenzsignal steht in direkter Abhängigkeit zur Decoy-Aktivität. Mit Hilfe modifizierter GFP-Decoys konnte hierbei eine Regulation auf Transkriptionsebene in biologischen Organismen erreicht werden. Mit dem Electrophoretic Mobility Shift Assay (EMSA), einer molekularbiologischen in vitro-Analysetechnik, wurden die Interaktionen zwischen modifizierten Decoys und dem Transkriptionsfaktor untersucht.
...
Systemerkrankungen der arteriellen Gefäße stellen eine häufige Todesursache in Deutschland und der westlichen Welt dar. Hierbei sind vor allem die auf Grundlage von Arteriosklerose entstehende Koronare Herzerkrankung sowie der Myokardinfarkt zu nennen. Ursache des Myokardinfarktes ist eine Minderperfusion und damit bedingte Ischämie des Myokardgewebes. Ziel einer jeden Minderperfusion ist die therapeutisch schnellstmögliche Reperfusion. Ischämie- und Hypoxie-bedingt entstehen hierbei durch inflammatorische Prozesse, Ansammlung toxischer Metabolite, veränderter Protein-Expressionsmuster sowie durch das reperfundierende Blut der sogenannte Ischämie-Reperfusionsschaden. Dieser komplexe Effekt lässt sich über dem hinaus auch bei Organtransplantationen beobachten.
Die vorliegende Arbeit beschreibt den Versuch den Ischämie-Reperfusionsschaden durch den Einfluss von mTOR-Inhibition im humanen Gefäßmodel zu quantifizieren. Hierbei wurden die mTOR-Inhibitoren Sirolimus und Everolimus verwendet. Beide Immunsuppressiva finden aktuell unter anderem klinische Anwendung nach Organtransplantationen. Bereits in einigen Studien konnten positive Effekte von Sirolimus als auch Everolimus auf den Ischämie-Reperfusionsschaden nachgewiesen werden. Dieser Versuch sollte nun weitere zielführende Erkenntnisse hinsichtlich mTOR-Inhibition und proinflammatorischer Prozesse sowie der Expression von Zell-Adhäsionsmolekülen im humanen Gefäßmodell liefern. Ebenso sollte die Qualität des Bioreaktors als adäquates Humangefäß-Perfusionsmodell evaluiert werden.
Als Versuchsgrundlage wurde hierbei eine Ischämiezeit der Gefäße von vier bis fünf Stunden festgelegt. Die verwendeten Gefäße wurden in der Folge nach standardisierten Kriterien (Präoxygenierung, Heparinisierung, 37° Grad Celsius Temperatur, Blutgruppe AB Rhesusfaktor negativ, Hämatokritwert 30%) zwei Stunden lang mittels Vollblut im Bioreaktormodel reperfundiert. Unterschieden wurde hierbei eine Gefäßkontrollgruppe (n=7), von einer Sirolimus-Gruppe (n=6, standardisierte Blutkonzentration 10ng/ml) und einer Everolimus-Gruppe (n=7, standardisierte Blutkonzentration 5 ng/ml). Nach standardisierten Zeitpunkten der Reperfusion (0 Minuten, 15 Minuten, 30 Minuten, 60 Minuten und 120 Minuten) wurden jeweils Blutproben dem simulierten Kreislauf entnommen. Mittels Blutgasanalyse wurde über die Bestimmung des Sauerstoffpartialdrucks, des Kohlendioxidpartialdrucks sowie des pH-Wertes eine qualitative Evaluierung des Bioreaktors als humanes Gefäßmodel vorgenommen. Des Weiteren dienten die Blutproben zur Erfassung der proinflammatorischer Marker Interleukin-6, TNF-α, sowie VEGF während der unterschiedlichen Zeitpunkte der Blutentnahme. Nach Beendigung der Reperfusion wurden Gefäßproben mittels immunhistochemischen Verfahren auf die Expression der Zell-Adhäsionsmoleküle CD31 sowie CD11b hin untersucht.
Aufgrund durchgeführter Versuche konnte gezeigt werden, dass in der Kontrollgruppe die Interleukin-6- sowie VEGF-Spiegel signifikant im Zuge der Reperfusion anstiegen. Sirolimus als auch Everolimus konnten demgegenüber einen signifikanten Anstieg dieser proinflammatorischen Signalmoleküle verhindern. Im Vergleich des proinflammatorischen TNF-α konnte allerdings ein signifikanter Einfluss der mTOR-Inhibitoren nicht bestätigt werden. Hinsichtlich des Expressionsmusters konnte Sirolimus als auch Everolimus eine signifikante Reduktion von sowohl CD31-positiven als auch CD11b-positiven Zellen im Vergleich zur Kontrollgruppe aufzeigen.
In der Zusammenschau lässt sich aus den erhobenen Daten schlussfolgern, dass der Bioreaktor als humanes Gefäßmodell ein suffizientes Perfusionssystem darstellt. Sirolimus als auch Everolimus können über ihren Wirkungsmechanismus der mTOR-Inhibition einen Anstieg proinflammatorischen Moleküle zum Teil verhindern. Den größten Einfluss auf den Ischämie-Reperfusionsschaden nehmen Sirolimus als auch Everolimus hierbei mittels der Suppression von Zell-Adhäsionsmolekülen CD31 und CD11b.
Unter Web-based Trainings (WBTs) versteht man multimediale, interaktive und thematisch abgeschlossene Lerneinheiten in einem Browser. Seit der Entstehung des Internets in den 1990er Jahren sind diese ein wichtiger und etablierter Baustein bei der Konzeption und Entwicklung von eLearning-Szenarien. Diese Lerneinheiten werden üblicherweise von Lehrenden mit entsprechenden Autorensystemen erstellt. In selteneren Fällen handelt es sich bei deren Umsetzungen um individuell programmierte Einzellösungen. Betrachtet man WBTs aus der Sicht der Lernenden, dann lässt sich feststellen, dass zunehmend auch nicht explizit als Lerneinheiten erstellte Inhalte genutzt werden, die jedoch genau den Bedürfnissen des jeweiligen Lernenden entsprechen (im Rahmen des informellen und selbstgesteuerten Lernens). Zum einen liegt das an der zunehmenden Verfügbarkeit und Vielfalt von „alternativen Lerninhalten“ im Internet generell (freie Lizenzen und innovative Autorentools). Zum anderen aber auch an der Möglichkeit, diese Inhalte von überall aus und zu jeder Zeit einfach finden zu können (mobiles Internet, Suchmaschinen und Sprachassistenten) bzw. eingeordnet und empfohlen zu bekommen (Empfehlungssysteme und soziale Medien).
Aus dieser Veränderung heraus ergibt sich im Rahmen dieser Dissertation die zentrale Fragestellung, ob das Konzept eines dedizierten WBT-Autorensystems den neuen Anforderungen von frei verfügbaren, interaktiven Lerninhalten (Khan Academy, YouTube und Wikipedia) und einer Vielzahl ständig wachsender und kostenfreier Autorentools für beliebige Web-Inhalte (H5P, PowToon oder Pageflow) überhaupt noch gerecht wird und wo in diesem Fall genau die Alleinstellungsmerkmale eines WBTs liegen?
Zur Beantwortung dieser Frage beschäftigt sich die Arbeit grundlegend mit dem Begriff „Web-based Training“, den über die Zeit geänderten Rahmenbedingungen und den daraus resultierenden Implikationen für die Entwicklung von WBT-Autorensystemen. Mittels des gewählten Design-based Research (DBR)-Ansatzes konnte durch kontinuierliche Zyklen von Gestaltung, Durchführung, Analyse und Re-Design am Beispiel mehrerer eLearning-Projekte der Begriff WBT neudefininiert bzw. reinterpretiert werden, so dass sich der Fokus der Definition auf das konzentriert, was WBTs im Vergleich zu anderen Inhalten und Funktionen im Internet im Kern unterscheidet: dem Lehr-/Lernaspekt (nachfolgend Web-based Training 2.0 (WBT 2.0)).
Basierend auf dieser Neudefinition konnten vier Kernfunktionalitäten ausgearbeitet werden, die die zuvor genannten Herausforderungen adressieren und in Form eines Design Frameworks detailliert beschreiben. Untersucht und entwickelt wurden die unterschiedlichen Aspekte und Funktionen der WBTs 2.0 anhand der iterativen „Meso-Zyklen“ des DBR-Ansatzes, wobei jedes der darin durchgeführten Projekte auch eigene Ergebnisse mit sich bringt, welche jeweils unter didaktischen und vor allem aber technischen Gesichtspunkten erörtert wurden. Die dadurch gewonnenen Erkenntnisse flossen jeweils in den Entwicklungsprozess der LernBar ein („Makro-Zyklus“), ein im Rahmen dieser Arbeit und von studiumdigitale, der zentralen eLearning-Einrichtung der Goethe-Universität, entwickeltes WBT-Autorensystem. Dabei wurden die Entwicklungen kontinuierlich unter Einbezug von Nutzerfeedbacks (jährliche Anwendertreffen, Schulungen, Befragungen, Support) überprüft und weiterentwickelt.
Abschließend endet der letzte Entwicklungszyklus des DBR-Ansatzes mit der Konzeption und Umsetzung von drei WBT 2.0-Systemkomponenten, wodurch sich flexibel beliebige Web-Inhalte mit entsprechenden WBT 2.0-Funktionalitäten erweitern lassen, um auch im Kontext von offenen Lehr-/Lernprozessen durchgeführte Aktivitäten transparent, nachvollziehbar und somit überprüfbar zu machen (Constructive Alignment).
Somit bietet diese Forschungsarbeit einen interdisziplinären, nutzerzentrierten und in der Praxis erprobten Ansatz für die Umsetzung und den Einsatz von WBTs im Kontext offener Lehr-/Lernprozesse. Dabei verschiebt sich der bisherige Fokus von der reinen Medienproduktion hin zu einem ganzheitlichen Ansatz, bei dem der Lehr-/Lernaspekt im Vordergrund steht (Lernbedarf erkennen, decken und überprüfen). Entscheidend ist dabei, dass zum Decken eines Lernbedarfs sämtliche zur Verfügung stehenden Ressourcen des Internets genutzt werden können, wobei WBTs 2.0 dazu lediglich den didaktischen Prozess definieren und diesen für die Lehrenden und Lernende transparent und zugänglich machen.
WBTs 2.0 profitieren dadurch zukünftig von der zunehmenden Vielfalt und Verfügbarkeit von Inhalten und Funktionen im Internet und ermöglichen es, den Entwicklern von WBT 2.0-Autorensystemen sich auf das Wesentliche zu konzentrieren: den Lehr-/Lernprozess.
In den letzten Jahren findet die Wirkung von Polyphenolen auf den Alterungsprozess oder zur Behandlung von Krankheiten immer mehr Beachtung. Das Ziel dieser Arbeit war die Aufklärung der Wirkmechanismen der Polyphenole Gossypol, Curcumin und Quercetin, um Hinweise für neue oder verbesserte Therapieansätze zu erhalten. Die dazu durchgeführten Untersuchungen lieferten folgende Ergebnisse:
1. Der Ascomycet "P. anserina" eignet sich als Modellorganismus zur Untersuchung der Wirkmechanismen verschiedener Polyphenole, da die bereits aus der Literatur bekannten Effekte auf das Überleben höherer Organismen auch in "P. anserina" beobachtet wurden.
2. Die Mitochondrienfunktion spielt auf unterschiedliche Art eine Rolle in der Kompensation von Dysfunktionen oder Stressbedingungen in der Zelle und wirkt somit positiv auf die Regulation der Lebensspanne von "P. anserina". In der "PaSod3"-Deletionsmutante wurde eine Verschiebung der mitochondrialen Atmung von einer Komplex I-abhängigen hin zu einer vermehrt Komplex II-abhängigen Atmung festgestellt. Die damit verbundene Abnahme des mitochondrialen Membranpotentials dient neben der bereits bekannten hohen Superoxid-Menge als Signal zur Mitophagie-Induktion. Auch die Anpassung der Mitochondrienfunktion durch die erhöhte Bildung von mtRSCs, wie im Falle von Gossypol oder Quercetin, kann zur Kompensation von Dysfunktionen beitragen bzw. sie abschwächen.
3. Es gibt keinen grundlegenden gemeinsamen Wirkmechanimus der drei untersuchten Polyphenole. Zwar spielt Wasserstoffperoxid bei verschiedenen Stoffen eine Rolle, aber nicht bei allen. Zusätzlich wurde gezeigt, dass Wasserstoffperoxid abhängig von der vorherrschenden Konzentration wirkt und daher auch keine Allgemeingültigkeit des Effektes vorherzusagen ist. In niedrigen Konzentrationen sorgt Wasserstoffperoxid z. B. für eine Induktion der Autophagie und damit einhergehende eine Lebensverlängerung. Im Gegensatz dazu wirken hohe Wasserstoffperoxid-Konzentrationen lebensverkürzend und lösen verschiedene Formen von Zelltod aus.
4. Die Curcumin-vermittelte Langlebigkeit wurde das erste Mal in Verbindung mit einer funktionellen Autophagie gebracht. Im Detail führt die Behandlung mit Curcumin durch eine PaSOD1-abhängige leichte Erhöhung der Wasserstoffperoxid-Menge zu einer Induktion von nicht-selektiver Autophagie. Die induzierte Autophagie ist Ursache der Lebensverlängerung durch Curcumin.
5. Gossypol wirkt in Abhängigkeit der mitochondrialen Permeabilitäts-Transitionspore bzw. von ihrem Regulator Cyclophilin D. Hierbei verstärkt die deutlich erhöhte Wasserstoffperoxid-Menge wahrscheinlich die Induktion von programmiertem Zelltod. Gleichzeitig wird eine cytoprotektive Form von Autophagie und ein scheinbar ATG-unabhängiger Abbau von Mitochondrien induziert.
6. Quercetin wirkt in "P. anserina" abhängig vom Methylierungs-Status. Untersuchungen mit Mutanten der "O"-Methyltransferase PaMTH1 ergaben die Notwendigkeit der Anwesenheit von PaMTH1 für den lebensverlängernden Effekt von Quercetin. Analysen mit dem methylierten Derivat Isorhamnetin verdeutlichten diese Abhängigkeit und zeigten zudem, dass Quercetin sowohl in der methylierten als auch unmethylierten Form Effekte hervorruft. Jedoch sind nur die Effekte des unmethylierten Quercetin unabhängig von der Lebensverlängerung und eher schädlich für die Zelle.
Im Rahmen dieser Arbeit sollte der tonische BZR-Signalweg im Burkitt Lymphom näher untersucht werden. Ziel war die Identifizierung von Zielstrukturen, die für die Zellen essentiell für die Aufrechterhaltung des tonischen Signalwegs sind und gleichzeitig die Viabilität der Zellen fördern. Durch die Identifizierung noch unbekannter Zielstrukturen wäre man in der Lage, neue Behandlungsstrategien zu entwickeln oder bereits bestehende zu optimieren. Des Weiteren sollte die Signaltransduktion in der B-ALL, die über einen Vorläufer des BZRs, dem prä-BZR vermittelt wird, hinsichtlich eines tonischen Überlebenssignals untersucht werden.
Durch massenspektrometrische Analysen der tonischen BZR-Signaltransduktion im Burkitt Lymphom, die für die Viabilität der Zellen essentiell ist und die Ergebnisse eines Inhibitorscreens konnte HSP90 als potenzielle neue Zielstruktur im Burkitt Lymphom identifiziert werden.
So konnte gezeigt werden, dass Burkitt-Lymphom-Zellen nach Inhibition der Chaperonfunktion von HSP90 durch zwei auf dem Markt bereits verfügbare Inhibitoren einen Zellzyklusarrest erfahren, der letztlich zur Apoptose der Zellen führt. Dieser Effekt wurde auf einen Verlust des (tonischen) BZR-Signals zurückgeführt, der überwiegend durch den aktiven lysosomalen Abbau von SYK nach HSP90-Inhibition zustande kommt. Demnach führte die Überexpression einer HSP90-resistenten Variante von SYK (TEL-SYK) zu einer Aufhebung der apoptotischen Effekte nach HSP90-Inhibition. Zudem wurde SYK als Interaktionspartner von HSP90 (HSP90-Klientprotein) im Burkitt Lymphom und die für die Interaktion essentielle Phosphorylierungsstelle (pY197 in HSP90α bzw. pY192 in HSP90β) identifiziert bzw. validiert.
Das therapeutische Potenzial der HSP90-Inhibitoren im Burkitt Lymphom offenbarte sich ferner durch den Vergleich der Wirkungseffektivität in gesunden B-Zellen mit der in Tumorzellen. So zeigten HSP90-Inhibitoren eine erhöhte Affinität zu Tumorzellen. Bei verwendeten Konzentrationen der Inhibitoren, die bereits eine apoptotische Wirkung in Tumorzellen hervorriefen, waren gesunde B-Zellen resistent.
In der B-ALL konnte durch den Knockdown von CD79a und der Inhibition von SYK eine tonische Antigenrezeptor-Signalleitung identifiziert werden, die wie im Burkitt Lymphom über den PI3K/AKT-Signalweg vermittelt wird. Durch die Kombination der im Rahmen dieser Arbeit gewonnen Erkenntnisse und weiterführende Analysen (wie zum Beispiel durch Inhibitor- oder CRISPR/Cas-Screens) kann so eine Identifizierung von potenziellen Zielstrukturen mit therapeutischem Nutzen in der B-ALL erfolgen.
Die vorliegende Arbeit präsentiert die wissenschaftlichen Erkenntnisse, welche im Rahmen dreier verschiedener Messreihen gewonnen wurden. Kernthema ist in allen Fällen die Ionisation von molekularem Wasserstoff mit Photonen.
Im Rahmen der Messung sollte eine 2014 veröffentlichte Vorhersage der theoretischen Physiker Vladislav V. Serov und Anatoli S. Kheifets im Experiment überprüft werden. Ihren Berechnungen zufolge kann ein sich langsam vom Wasserstoff Molekülion entfernendes Photoelektron durch sein elektrisches Feld das Mutterion polarisieren und dafür sorgen, dass beim anschließenden Aufbruch in ein Proton und ein Wasserstoffatom eine asymmetrische Emissionswinkelverteilung zu beobachten ist [SK14]. Diese Vorhersage konnte mit den Ergebnissen der hier vorgestellten Messung zweifelsfrei untermauert werden. Für drei verschiedene Photonenenergien, welche im relevanten Reaktionskanal Photoelektronenenergien von 1, 2 und 3 eV entsprechen, wurden die prognostizierten Symmetrien in den Messdaten herauspräpariert. Es zeigte sich, dass diese sowohl in qualitativer wie auch in quantitativer Hinsicht gut bis sehr gut mit den Vorhersagen übereinstimmen.
Im zweiten Teil dieser Arbeit wurde erneut die Dissoziationsreaktion, allerdings bei deutlich höheren Photonenenergien, untersucht. Ziel war es, den in Zusammenarbeit mit den Physikern um Fernando Martin gelungenen theoretischen Nachweis der Möglichkeit einer direkten Abbildung von elektronischen Wellenfunktionen auch im Experiment zu vollziehen. Der überwiegende Teil aller Veröffentlichungen im Vorfeld dieser Messung fokussierte sich bei den Untersuchungen der Wellenfunktion entweder auf die rein elektronischen Korrelationen - so zum Beispiel in Experimenten zur Ein-Photon-Doppelionisation, wo Korrelationen zwischen beiden beteiligten Elektronen den Prozess überhaupt erst möglich machen - oder aber auf den Einfluss, welchen das Molekülpotential auf das emittierte Elektron ausübt. Die wenigen Arbeiten, die sich bis heute an einer unmittelbaren Abbildung elektronischer Wellenfunktionen versuchten, gingen meist den im Vergleich zu dieser Arbeit umgekehrten Weg: Man untersuchte hier das Licht höherer Harmonischer, wie sie bei der lasergetriebenen Ionisation und anschließenden Rekombination eines Photoelektrons mit seinem Mutterion entstehen.
In dieser Arbeit wurde ein Ansatz präsentiert, der zwei überaus gängige und verbreitete Messtechniken geschickt kombiniert - Während das Photoelektron direkt nachgewiesen und seine wesentlichen Eigenschaften abgefragt werden, kann der quantenmechanische Zustand des zweiten, gebunden verbleibenden Elektrons über einen koinzident dazu geführten Nachweis des ionischen Reaktionsfragments bestimmt werden. Dieser Vorgang stützt sich wesentlich auf Berechnungen der Gruppe um Fernando Martín, welche eine Quantifizierung der Beiträge einzelner Zustande zum gesamten Wechselwirkungsquerschnitt dieser Reaktion erlauben. Diese unterscheiden sich je nach Energie der Fragmente signifikant, so dass über eine Selektion des untersuchten KER-Intervalls Kenntnis vom elektronischen Zustand des H2 +-Ions nach der Photoemission erlangt werden kann. Die experimentellen Daten unterstützen die Theorie von Martin et al. nicht nur mit verblüffend guter Übereinstimmung, die gemessenen Emissionswinkelverteilungen stehen darüber hinaus auch in sehr gutem Einklang mit ihren theoretisch berechneten Gegenstücken. Die Ergebnisse wurden zwischenzeitlich in der renommierten Fachzeitschrift Nature Communications veröffentlicht [WBM+17].
Die dritte Messreihe innerhalb dieser Arbeit beschäftigt sich mit der Photodoppelionisation von Wasserstoff. Im Rahmen des selben Experiments wie die weiter vorn beschriebene Dissoziationsmessung bei 400 eV Photonenenergie aufgenommen, belegen die Ergebnisse auf wunderbar anschauliche Art und Weise, dass die Natur in unserer Umgebung voller Prozesse ist, die ursprünglich als rein quantenmechanische Laborkonstrukte angesehen wurden. Es konnte zweifelsfrei gezeigt werden, dass die beiden Elektronen, die bei der Photodoppelionisation freigesetzt werden, als ein Quasiteilchen aufgefasst werden können. Sie befinden sich in einem verschränkten Zweiteilchenzustand, und nur eine koinzidente Messung beider Elektronen vermag es, Interferenzeffekte in ihren Impulsverteilungen sichtbar zu machen - betrachtet man beide hingegen individuell, so treten keinerlei derartige Phänomene auf. Es gelang dabei zudem, eine beispielhafte Übereinstimmung zwischen den gemessenen Daten und einer theoretischen Berechnung der Kollegen um Fernando Martín zu erreichen.
Im Kindes- und Jugendalter gehoert das Rhabdomyosarkom zu den haeufigsten Weichteilsarkomen. Bisher belaeuft sich das Therapieverfahren auf chirurgische Entfernung, gefolgt von Chemotherapie, bzw. bei nicht-operablen Faellen auf Radiotherapie und Chemotherapie, jedoch haben sich die Ueberlebenschancen fuer Patienten mit einer Erkrankung in metastasiertem oder rezidiviertem Stadium trotz intensiver Forschung ueber mehrere Jahrzehnte hinweg kaum gebessert und bleiben bei unter 30%. Neue therapeutische Strategien versuchen das Immunsystem des Patienten zu modulieren und dieses gezielter oder aggressiver gegen Tumorzellen zu machen. Nebst direkter Injektion von Zytokinen oder Antikoerpern bietet die adoptive Immunzelltherapie einen vielversprechenden Ansatz. In der vorliegenden Arbeit lag der Fokus auf Natuerlichen Killer- (NK) Zellen, da diese ein hohes zytotoxisches Potential gegenueber Tumorzellen aufweisen. Eine der groessten Herausforderungen der NK-Zellforschung ist die Breitstellung ausreichender Mengen an NK-Zellen mit optimaler antitumoraler Funktion fuer den klinischen Einsatz. Viele aktuell erprobte NK-Zellexpansionsstrategien basieren auf der Verwendung von Hilfs- oder Feeder-Zellen (Versorgerzellen), die jedoch vor der Applikation in Patienten aus dem finalen Produkt entfernt werden muessen. In der vorliegenden Arbeit sollten Feeder-zellfreie NK-Zellexpansionsprotokolle unter Verwendung von Gammakettenzytokinen getestet werden.
Interleukin (IL-) 15 erwies sich dabei vor allem fuer die Vermehrung der NK-Zellen als besonders foerderlich. Im Vergleich dazu fielen die Expansionsraten mit IL-2 oder IL-21 geringer aus. Interessanterweise wurde der expansionsfoerdernde Effekt von IL-15 durch dauerhafte Anwesenheit von IL-21 im Kulturmedium gehemmt. Ein kurzer, dreitaegiger IL-21-Boost am Ende der Expansionsphase wirkte sich wiederum positiv auf die NK-Zellexpansionsraten aus. Zudem zeigte sich durch IL-21 ein vermehrtes Auftreten von NK-Zellen des reiferen CD16posCD56dim Phaenotyps, der die zytotoxische Funktion vermittelt. Bei Degranulationsuntersuchungen wurden eine IL-21-induzierte Exozytoseaktivitaet und die vermehrte Ausschuettung von Perforin und Granzym B, welche Apoptose in den Zielzellen ausloesen, beobachtet. Vor allem der dreitaegige Boost mit IL-21 bewirkte eine gesteigerte Zytotoxizitaet gegenueber Tumorzellen, insbesondere gegenueber Rhabdomyosarkomzellen.
Auf dieser Grundlage bot es sich an fuer die NK-Zellexpansion ein Zwei-Phasen-Protokoll anzuwenden, bestehend aus einer initialen Proliferationsphase mit IL-15 und einem anschliessendem IL-21-Boost, durch den die antitumorale Funktionalitaet der NK-Zellen gesteigert wurde. Dieses IL-15+21boost-Protokoll wurde mit anderen Kombinationen aus den Gammakettenzytokinen IL-2, IL-15 und IL-21 verglichen und stellte sich hinsichtlich der NK-Zellexpansionsraten, der Degranulationskapazitaet und der damit verbundenen Zytotoxizitaet als den anderen Protokollen ueberlegen heraus.
Zytokinexpandierte NK-Zellen zeigten eine hoehere Rezeptorexpression an ihren Oberflaechen als unstimulierte Zellen. Die Expansion mit dem IL-15+21boost-Protokoll bewirkte die hoechste Dichte des Todesrezeptors TRAIL, jedoch auch der inhibitorischen KIR2D-Rezeptorfamilie. Fuer andere Oberflaechenmarker ergab sich jeweils eine mittlere Expressionsdichte verglichen mit dem IL-15- bzw. dem IL-15+21-Expansionsprotokoll. Die Sekretion von proinflammatorischen Zytokinen wie Interferon-gamma (IFN-g) und Tumor-Nekrose-Faktor-alpha (TNF-a) wurde zudem verstaerkt durch IL-21 angeregt, aber ebenso die Sekretion des immunsupprimierenden IL-10.
Weiter wurden die zytoinexpandierten NK-Zellen zur UEberpruefung ihrer in vivo Funktionalitaet anhand eines praeklinischen Xenograftmodells unter Verwendung von NOD SCID IL-2-Rgamma-/- (NSG) Maeusen und der Technologie der in-vivo-Biolumineszenzbildgebung getestet. Dabei konnte beobachtet werden, dass die NK-Zellen das Wachstum luciferaseexprimierender humaner Rhabdomyosarkome verlangsamten. Die Wirksamkeit der IL-15+21boost-expandierten NK-Zellen zeigte sich vor allem in einem kombinierten Ansatz, bei dem die Tumore zunaechst mit ionisierender Strahlung behandelt wurden und residuale Rhabdomyosarkomzellen anschliessend durch den adoptiven Transfer von humanen NK-Zellen in ihrem Wachstum gehemmt waren, solange die NK-Zelltherapie andauerte. Somit stellte sich die Kombination aus Bestrahlung und NK-Zelltransfer als wirksamer im Einsatz gegen Rhabdomyosarkome heraus als die alleinige Behandlung der Tumore durch Radiotherapie.
Zusammengefasst konnte in dieser Arbeit ein NK-Zellexpansionsprotokoll entwickelt werden, dass durch den ausschliesslichen Einsatz von Gammakettenzytokinen zu einem funktionalen NK-Zellprodukt fuehrte, welches auch in vivo lytische Aktivitaet gegenueber Rhabdomyosarkomzellen aufwies.
Atmospheric nanoaerosols have extensive effects on the Earth’s climate and human health. This cumulative work focuses on the development and characterization of instrumentation for measuring various parameters of atmospheric nanoaerosols, and its use to understand new particle formation from organic precursors. The principal research question is, how the chemical composition of nanoaerosol particles can be measured and how atmospheric chemistry influences aerosol processes, especially new particle formation and growth. Therefore, nanoaerosols are investigated under various aspects. More specifically, an instrument is developed to analyze nanoparticles, and field as well as chamber studies are conducted.
The main project is the instrument development of the Thermal Desorption Differential Mobility Analyzer (TD-DMA, project 1, Wagner et al. (2018)). This instrument analyzes the chemical composition of small aerosol particles. By characterization and testing in chamber experiments, it is proven to be suitable for the analysis of freshly nucleated particles.
The second project (Wagner et al. (2017)) applies a broad spectrum of aerosol measurement instruments for the characterization of aerosol particles produced by a skyscraper blasting. A comprehensive picture of the particle population emitted by the demolition is obtained.
Project 3 (K¨urten et al. (2016)) is also an ambient aerosol measurement, focusing of new particle formation in a rural area in central Germany, and the ability of a negative nitrate CI-APi-TOF to detect various substances in atmosphere. Project 4 (Heinritzi et al. (2016)) is a characterization of the negative nitrate CI-APi-TOF used in projects 1, 3, 5, 6, 7 and 8. The following projects focus on understanding new particle formation from atmospherically abundant organic precursors. Key instruments comprise the negative nitrate CI-APiTOF for gas-phase measurements of the nucleating species, and various sizing and counting instruments for quantifying the particle formation and growth. Project 5 (Kirkby et al. (2016)) shows that biogenic organic compounds formed from alpha-pinene can nucleate on their own without the influence of e.g. sulfuric acid. Project 6 (Tr¨ostl et al. (2016)) describe the subsequent growth of these particles. Project 7 (Stolzenburg et al. (2018)) covers the temperature dependence of this growth and in project 8 (Heinritzi et al. (2018)), the suppressing influence of isoprene on the new particle formation is assessed.
Das Standardmodell der Elementarteilchenphysik beschreibt nach aktuellem Kenntnisstand die Entstehung, den Aufbau und das Verhalten der Materie in unserem Universum am erfolgreichsten. Dennoch gibt es einige Phänomene, die sich nicht in dessen Rahmen beschreiben lassen, wie z. B. die Existenz von dunkler Materie und Energie, nicht-verschwindende Neutrinomassen oder die Baryonenasymmetrie. Speziell im Hinblick auf die starke Wechselwirkung, welche im Standardmodell durch die Quantenchromodynamik (QCD) beschrieben wird, gibt es noch immer viele offene Fragen.
Eine Umgebung, in der man die QCD experimentell ergründen kann, bieten vor allem Schwerionenkollisionen, die insbesondere am Large Hadron Collider (LHC) oder am Relativistic Heavy Ion Collider (RHIC) durchgeführt werden.
In dieser Arbeit soll ein Beitrag von theoretischer Seite aus hinsichtlich eines besseren Verständnisses dieser Schwerionenkollisionen und der zugrundeliegenden QCD erbracht werden. Der Fokus liegt dabei auf dem Isotropisierungsprozess unmittelbar nach der Kollision der beiden Kerne.
Neben etlichen effektiven Theorien, die sehr gute Ergebnisse in den entsprechenden Grenzbereichen liefern, ist die Beschreibung der QCD im Rahmen der Gittereichtheorie (Gitter-QCD) die am meisten etablierte. Diese beinhaltet in den meisten Fällen einen Übergang zur euklidischen Raumzeit, da somit ein Auswerten der hochdimensionalen Pfadintegrale mithilfe von Monte-Carlo-Simulation basierend auf dem sogenannten Importance Sampling ermöglicht wird. Aufgrund der Komplexwertigkeit der euklidischen Zeitkomponente ist man jedoch an das Studieren von statischen Observablen gebunden. Da wir aber gerade an einer Zeitentwicklung des Systems interessiert sind, sehen wir von dem Übergang zur euklidischen Raumzeit ab, was den Namen “real-time” im Titel der Arbeit erklärt.
Wir folgen dem sogenannten Hamilton-Ansatz und leiten damit Feldgleichungen in Form von partiellen Differentialgleichungen her, die wir dann mit den Methoden der Gitter-QCD numerisch lösen. Dabei bedienen wir uns der effektive Theorie des Farb-Glas-Kondensats (CGC, aus dem Englischen: “Color Glass Condensate”), um geeignete Anfangsbedingungen zu erhalten. Genauer gesagt basieren unsere Gitter-Anfangsbedingungen auf dem McLerran-Venugopalan-Modell (MV-Modell), das eine klassische Approximation in niedrigster Ordnung darstellt und nur Beiträge rein gluonischer Felder berücksichtigt.
Die klassische Näherung sowie das Vernachlässigen der fermionischen Felder wird insbesondere mit den hohen Besetzungszahlen der Feldmoden begründet. Einerseits dominieren Infrarot-Effekte, welche klassischer Natur sind, und andererseits ist dadurch der Einfluss der Fermionen, die dem Pauli-Prinzip gehorchen, unterdrückt. Gerade bei letzterer Aussage fehlt es jedoch an numerischen Belegen. Wir erweitern daher die klassische MV-Beschreibung durch stochastische Gitter-Fermionen, um diesem Punkt nachzugehen. Da sich Fermionen nicht klassisch beschreiben lassen, spricht man hierbei oft von einem semi-klassischen Ansatz.
Eines der Hauptziele dieser Arbeit liegt darin, den Isotropisierungsprozess, der bislang noch viele Fragen aufwirft, aber unter anderem Voraussetzung für das Anwenden von hydrodynamischen Modellen ist, zu studieren. Wir legen dabei einen besonderen Fokus auf die systematische Untersuchung der verschiedenen Parameter, die durch die CGC-Anfangsbedingungen in unsere Beschreibung einfließen, und deren Auswirkungen auf etwa die Gesamtenergiedichte des Systems oder die zugehörigen Isotropisierungszeiten. Währenddessen überprüfen wir zudem den Einfluss von unphysikalischen Gitter-Artefakten und präsentieren eine eichinvariante Methode zur Analyse der Güte unserer klassischen Näherung. Die Zeitentwicklung des Systems betrachten wir dabei sowohl in einer statischen Box als auch in einem expandierenden Medium, wobei Letzteres durch sogenannte comoving Koordinaten beschrieben wird. Zudem liefern wir einen Vergleich von der realistischen SU(3)-Eichgruppe und der rechentechnisch ökonomischeren SU(2)-Eichgruppe.
Mit unseren numerischen Ergebnissen zeigen wir, dass das System hochempfindlich auf die verschiedenen Modellparameter reagiert, was das Treffen quantitativer Aussagen in dieser Formulierung deutlich erschwert, insbesondere da einige dieser Parameter rein technischer Natur sind und somit keine zugehörigen physikalisch motivierten Größen, die den Definitionsbereich einschränken könnten, vorhanden sind. Es ist jedoch möglich, die Anzahl der freien Parameter zu reduzieren, indem man ihren Einfluss auf die Gesamtenergie des Systems analysiert und sich diesen zunutze macht. Dadurch gelingt es uns mithilfe von Konturdiagrammen einige Abhängigkeiten zu definieren und somit die Unbestimmtheit des Systems einzuschränken. Des Weiteren finden wir dynamisch generierte Filamentierungen in der Ortsdarstellung der Energiedichte, die ein starkes Indiz für die Präsenz von sogenannten chromo-Weibel-Instabilitäten sind. Unsere Studie des fermionischen Einflusses auf den Isotropisierungsprozess des CGC-Systems weist auf, dass dieser bei kleiner Kopplung vernachlässigbar ist. Bei hinreichend großen Werten für die Kopplungskonstante sehen wir allerdings einen starken Effekt hinsichtlich der Isotropisierungszeiten, was ein bemerkenswertes Resultat ist.
Whereas many writers across all times and cultures have written about the potential aesthetic effects of music experiences which could be labeled as absorption, only limited empirical research has been done on the state aspects of this fascinating aspect of human involvement. What is more, there are still few tested models which explain how people can be absorbed by a piece of music as well as continue to be third-person observers monitoring and even reflecting on that same musical experience (cf. Bryant & Veroff, 2007; Dewey, 2005; Wolf, 2013).
Adopting a dual process approach (Dietrich, 2004; Evans & Stanovich, 2013; Lewis, Tamborini & Weber, 2014; Mukhopadhyay, 2014; Schwarz, 2011; Smith & Neumann, 2005) – in which human thinking, emotion, and routes to appraisal are defined in terms of an interplay between two distinct systems of psychological processing – this thesis aimed to examine a) the cognitive mechanisms underlying the essential yet poorly understood paradox of losing oneself in the music on the one hand, and the act of meta-awareness (i.e., rational and controlled sense of self) on the other, b) its corresponding psycho-phenomenological profile(s) when listening intentionally to self-chosen music, and c) the different potential of state and trait aspects of absorption and meta-awareness in predicting three indicators of the aesthetic response to music: enjoyment (a purely pleasurable response), lasting impression (a meaningful response related to mixed emotion), and behavioral intention (future-planned seeking/ avoidance response). Moreover, a dynamically-conceived conceptualization of absorption was proposed in terms of a temporary phase taking place amidst a variety of other cognitive responses to music, including concentration, mind wandering, and mindfulness. Finally, a questionnaire commonly-used for assessing alterations in consciousness (Phenomenology of Consciousness Inventory; Pekala, 1991) was evaluated in the context of music listening, before using it in the development of a self-report questionnaire aimed at measuring absorptive states in or by music. To this end, a quantitative empirical research method (state and trait questionnaires) was employed in a series of online surveys, using self-selected music as well as pre-determined music by the researcher as stimulus, together approaching a naturalistic listening setting.
Situated within an overarching neurocognitive model for music engagement and consistent with several aesthetic theories converging (Benson, 1993; Dewey, 2005; Wolf, 2013), aesthetic absorption was conceptualized as, and later confirmed to be, structured by experiential and meta-consciousness or – in terms of dual process terminology – intuitive type I and reflective type II processing. Two forms of music absorption were empirically identified and labeled as zoning in and tuning in (cf. Schooler, 2007). These experience profiles distinguished themselves significantly in terms of the degree in which a music listener maintained his or her meta-awareness, assessed via volitional control, rationality, self-awareness, and memory of the previous event. The overall pattern of consciousness parameters of both types of absorbed listening are suggestive of a unique interchanging between brain networks for intuitive processing and areas related to self-reference, -awareness and -control. The distinction between zoning in and tuning in was further found to be strongly related to the quality of affective state (i.e., positive vs. mixed emotions). These emotions modulate the experiential intensity of absorption, suggesting this experience to be an affect-biased type of attention. Based on the feelings-as-information theory (Schwarz, 2011), postulating that positive emotions (e.g., happiness) are differently processed than negatively-tinted types of emotions (e.g., nostalgia), it was concluded that music-induced rumination (a negatively-valenced experience related to the self and represented by the feeling of sadness) ‘competes’ with higher-order functions relevant to meta-awareness. From this perspective, the two found absorption types match conceptually with the positively-tinged self-reflection and negatively-tinged self-rumination as two different types of self-focused introspection (Takano & Tanno, 2009; Trapnell & Campbell, 1999). Further examining the construct’s latent structure, it was shown that being absorbed by music is a continuous phenomenon; a matter of ‘more-or-less’ involvement rather than a ‘unique state of mind’. This finding cautions against subtyping absorption experiences as being qualitatively distinct, and assuming it to be guided by ‘special’ mechanisms. Consequently, determining ‘music absorbers’ is a matter of imprecise estimation rather than being marked by a clear observable onset. Finally, as expected, an absorbed state of mind – operationalized here as a multidimensional bifactor model – completely mediated the effect of trait absorption, and was a good predictor for enjoyment, lasting impression, and behavioral intention. Whereas absorption and enjoyment were found to have a mutual positive effect on each other, absorption and meta-awareness were found to be unrelated to each other. Also, meta-awareness contributed little to aesthetic appreciation. The results confirm the need for a dynamic approach to the relationship between state absorption and enjoyment; the one-directional approach common in many research reports does not seem to fully capture the relationship between them. Future research should examine whether the same applies for absorption and meta-awareness, preferably making use of more advanced measures for the latter.
Taken together, this dissertation shows the potential of including the interplay between the trait and state constructs of absorption and meta-awareness in order to better understand the mechanisms underlying aesthetic experiences with music. The present work demonstrated that these two constructs should not be conflated, but, in terms of dual processing, that they represent different levels of consciousness. Moreover, this thesis underlined the power of absorption not only to evoke short-lived pleasurable experiences, but also to stimulate long-lasting impressions. Knowing more about absorbed listening and its potential effects, learning to consciously recognize it as it happens, and perhaps regulate and maintain its positive consequences (i.e., savoring), could further improve the way we engage ourselves with music or other aesthetic objects. Only then could we engage in behavior that we’re sure would make us happy rather than seeking out experiences which we hope would make us happy.
Finally, dual process approach and measures provided by research on altered-states-of-consciousness (ASC) experiences offer new and fruitful perspectives to conceptualize aesthetic absorption and examine its mechanisms. Several major research questions lie ahead in understanding the phenomenological experience and aesthetic role of absorption, including the future comparison between subjective experiences of ASCs across varying music and non-music induction methods (e.g., hypnosis), listening conditions (e.g., live concert experience), and musical ‘cultures’ (human societies, musical styles, classes).
Whereas many writers across all times and cultures have written about the potential aesthetic effects of music experiences which could be labeled as absorption, only limited empirical research has been done on the state aspects of this fascinating aspect of human involvement. What is more, there are still few tested models which explain how people can be absorbed by a piece of music as well as continue to be third-person observers monitoring and even reflecting on that same musical experience.
Adopting a dual process approach – in which human thinking, emotion, and routes to appraisal are defined in terms of an interplay between two distinct systems of psychological processing – this thesis aimed to examine a) the cognitive mechanisms underlying the paradox of losing oneself in the music on the one hand, and meta-awareness on the other, b) its corresponding psychophenomenological profile(s) when listening intentionally to self-chosen music, and c) the different potential of state and trait aspects of absorption and meta-awareness in predicting three indicators of the aesthetic response to music: enjoyment, lasting impression, and behavioral intention.
To this end, a quantitative empirical research method (state and trait questionnaires) was employed in a series of online surveys, using self-selected music as well as pre-determined music by the researcher as stimulus, together approaching a naturalistic listening setting.Aesthetic absorption was confirmed to be structured– in terms of dual process terminology – by intuitive type I and reflective type II processing. Two forms of music absorption were empirically
identified and labeled as zoning in and tuning in. These experience profiles distinguished themselves significantly in terms of the degree in which a music listener maintained his or her meta-awareness, assessed via volitional control, rationality, self-awareness, and memory of the previous event. The overall pattern of consciousness parameters of both types of absorbed listening are suggestive of a unique interchanging between brain networks for intuitive processing and areas related to self-reference, -awareness and -control. The distinction between zoning in and tuning in was further found to be strongly related to the quality of affective state.
These emotions modulate the experiential intensity of absorption, suggesting this experience to be an affect-biased type of attention. Based on the feelings-as-information theory, postulating that positive emotions are differently processed than negatively-tinted types of emotions, it was
concluded that music-induced rumination ‘competes’ with higher-order functions relevant to meta-awareness. From this perspective, the two found absorption types match conceptually with the positively-tinged self-reflection and negatively-tinged self-rumination as two different types of self-focused introspection. It was also shown that being absorbed by music is a continuous phenomenon; a matter of ‘more-or-less’ involvement rather than a ‘unique state of mind’. Consequently, determining ‘music absorbers’ is a matter of imprecise estimation rather than being marked by a clear observable onset. Finally, as expected, an absorbed state of mind - operationalized here as a multidimensional bifactor model – completely mediated the effect of trait absorption, and was a good predictor for enjoyment, lasting impression, and behavioral intention.
Whereas absorption and enjoyment were found to have a mutual positive effect on each other, absorption and meta-awareness were found to be unrelated to each other. Also, meta-awareness contributed little to aesthetic appreciation. The results confirm the need for a dynamic approach to the relationship between state absorption and enjoyment; the one-directional approach common in many research reports does not seem to fully capture the relationship between them. Taken together, this dissertation shows the potential of including the interplay between the trait and state constructs of absorption and meta-awareness in order to better understand the mechanisms underlying aesthetic experiences with music. The present work demonstrated that these two constructs should not be conflated. Moreover, this thesis underlined the power of absorption not only to evoke short-lived pleasurable experiences, but also to stimulate longlasting impressions. Knowing more about absorbed listening and its potential effects, learning to consciously recognize it as it happens, and perhaps regulate and maintain its positive consequences (i.e., savoring), could further improve the way we engage ourselves with music or other aesthetic objects. Only then could we engage in behavior that we’re sure would make us happy rather than seeking out experiences which we hope would make us happy.
With the discovery of light beyond human visibility, scientists strove to extend the range of observation to invisible parts of the light’s spectrum. Realising that light of all frequencies is part the same physical phenomenon, brought a leap in understanding about electromagnetic waves. With the development of more advanced technology, detectors with higher sensitivity for adjacent frequencies to the visible were built. From this, with each new observable wavelength, more insight into otherwise invisible processes and phenomenons were observed. Hand in hand with this went the enhancement of the output power of corresponding sources. This has lead to higher sensitivity setups throughout the spectrum, leading to observations which have given a deeper understanding in various fields of science. Nowadays, detectors and emitters in many different regions of the invisible electro magnetic spectrum have found their way in our every day life. Innovations in technology has lead to practical applications such as X-rays in medicine, motion sensors and remote controls using infrared light, distance sensors and data transmission using radar and radio devices. The frequency regions above infrared are optically generated and below radar can be produced using electric methods. There is no straight line that separates these frequencies. There rather is a whole intermediate region known as the terahertz (THz) regime. Due to the lack of sensitive detectors and efficient sources, the THz frequency region has not been exploited for application use on a widespread basis so far. It combines properties from the surrounding frequency ranges which make it an ideal spectrum for various applications. Consequently, THz radiation and THz imaging are active fields of research.
The work presented in this thesis consists of the development and testing of novel THz imaging concepts, which uses a THz antenna coupled field effect transistor (TeraFET) detector. Two detection principles are applied using two different optical setups. The first uses a pulsed optical parametric oscillator (OPO) THz source where the optical output power is detected. The source relies on a nonlinear effect of a lithium niobate crystal to generate tunable THz pulses from a Q-switched pump laser. The THz signal is detected and amplified by a double stage operational amplifier for monitoring the real time 20 ns pulses on an oscilloscope where a signal to noise ratio (SNR) of ⇠ 25 at a frequency range from 0.75 to 1.1 THz is reached. Imaging of the area of interest with a resolution of 1.2 mm is achieved through raster scanning of the THz pulses. Also spectroscopy with a frequency resolution of ⇠ 50 GHz is demonstrated using a para-aminobenzoic acid sample. The second setup utilises two synchronised electronic multiplier chain sources where their output is mixed on the detector. To form a heterodyne detection setup, the intermediate frequency is fed to a lock-in amplifier which then amplifies the so called beat signal from the TeraFET detector. One source is fixed relative to the detector even through scanning to ensure a stable signal. This detection method allows for amplitude and phase detection for every scanning position, making numerical light field propagation and object reconstruction possible. Numerical focussing is a key feature achieving a lateral resolution of the input transmittance of ⇡ 2 mm.
After the introduction, the second chapter describes the setup, measurement results and challenges which arise using a TeraFET together with the pulsed THz source “Firefly-THz”. In the description of the setup, special attention is given to the shielding of the detector and the electronics. General findings discuss first the overall performance and later spectroscopy and imaging as application examples. Another subsection continues with potential noise sources before the chapter is concluded. Chapter three expands on the topic of Fourier optics from a theoretical point of view. First, parts of the theory of the Fourier Transform (FT) are set out for the reader and how the Fast Fourier Transform (FFT) results from the Discrete Fourier Transform (DFT). This approach is used for theoretical considerations and the implementation of a Fourier optic script that allows for numerical investigations on electro magnetic field propagation through an optical system. The boundary conditions are chosen to be practical relevant to make predictions on measurements presented in chapter four. The following fourth chapter describes the realisation of a heterodyne THz detection setup. Before the measurement results are presented, the setup and its electric configuration are shown. The results come close to the analytical predictions so that the same algorithm which propagates the field from an object to the Fourier plane is used to propagate the measured field back to the object. The influence of phase noise on the measurement results are discussed before simulation and measurement is compared. The last chapter in this thesis concludes on the findings in the pulsed THz detection and the heterodyne THz Fourier imaging and gives an outlook for both configurations.
The present study aimed to assess the tissue response to the SYMBIOS® resorbable collagen membrane SR, which is derived from bovine Achilles tendon, and compare it to the physiological wound healing of a sham operation as a control.
An ex vivo analysis was performed using injectable platelet-rich fibrin (i-PRF), that is gained by the centrifugation of human venous blood and contains fibrin, leukocytes and platelets, to elucidate the membrane permeability and interactions with human cells and plasma proteins. In the in vivo study, a subcutaneous implantation model was established in Wistar rats to evaluate the cellular reactions for up to 30 days after membrane implantation. Histochemical, immunohistochemical and histomorphometric analyses were performed to assess the cellular inflammatory response, vascularization pattern and cell infiltration capacity.
In the ex vivo study, i-PRF components including fibrin, leukocytes and platelets penetrated the membrane after just 15 minutes. Within the observation period, the cellular reaction in the early phase, which included the first 3 days, produced only mononuclear cells. From 10 to 30 days , the formation of multinucleated giant cells (MNGCs) was induced by the collagen membrane. CD-68 positive cells (macrophages) occurred in a high number on day 3, and the number decreased over time up to day 30. Along with the reduction in the number of CD-68 positive cells, the number of MNGCs increased significantly. The presence of MNGCs was accompanied by significantly increased vascularization within the central region of the membrane, and only mononuclear cells (MNCs) did not produce vascularization. In contrast, the accumulated MNGCs were located on the membrane surface. The control group reflected the physiological process of wound healing, as MNGCs did not form over the 30 day period, and a significantly lower level of vascularization was observed compared with the test group.
This finding showed dynamic changes in the cellular reaction, which indicated a relationship between macrophage fusion and MNGC formation, and vascularization of the collagen membrane is circumstantial evidence of a reaction to a foreign body. However, the collagen membrane was able to maintain its structure and integrity over time, showing no signs of premature breakdown and disintegration due to the specific porosity of its membrane structure.
Therefore, we questioned whether the biomaterial-induced formation of MNGCs should be accepted as a biomaterial-induced cellular reaction that is able to restore vascularization or as an adverse reaction. Therefore, extensive preclinical and clinical studies are needed to investigate the type of MNGCs that form in response to the membrane material studied here.
Due to the resurrection of data-hungry models (such as deep convolutional neural nets), there is an increasing demand for large-scale labeled datasets and benchmarks in the computer vision fields (CV). However, collecting real data across diverse scene contexts along with high-quality annotations is often expensive and time-consuming, especially for detailed pixel-level label prediction tasks such as semantic segmentation, etc. To address the scarcity of real-world training sets, recent works have proposed the use of computer graphics (CG) generated data to train and/or characterize performance of modern CV systems. CG based virtual worlds provide easy access to ground truth annotations and control over scene states. Most of these works utilized training data simulated from video games and pre-designed virtual environments and demonstrated promising results. However, little effort has been devoted to the systematic generation of massive quantities of sufficiently complex synthetic scenes for training scene understanding algorithms. In this work, we develop a full pipeline for simulating large-scale datasets along with per-pixel ground truth information. Our simulation pipeline constitutes of mainly two components: (a) a stochastic scene generative model that automatically synthesizes traffic scene layouts by using marked point processes coupled with 3D CAD objects and factor potentials, (b) an annotated-image rendering tool that renders the sampled 3D scene as RGB image with a chosen rendering method along with pixel-level annotations such as semantic labels, depth, surface normals etc. This pipeline is capable of automatically generating and rendering a potentially infinite variety of outdoor traffic scenes that can be used to train convolutional neural nets (CNN).
However, several recent works, including our own initial experiments demonstrated that the CV models that are trained naively on simulated data lack generalization capabilities to real-world scenes. This opens up several fundamental questions about what is it lacking in simulated data compared to real data and how to use it effectively. Furthermore, there has been a long debate since 1980’s on the usefulness of CG generated data for tuning CV systems. Primarily, the impact of modeling errors and computational rendering approximations, due to various choices in the rendering pipeline, on trained CV systems generalization performance is still not clear. In this thesis, we take a case study in the context of traffic scenarios to empirically analyze the performance degradations when CV systems trained with virtual data are transferred to real data. We first explore system performance tradeoffs due to the choice of the rendering engine (e.g., Lambertian shader (LS), ray-tracing (RT), and Monte-Carlo path tracing (MCPT)) and their parameters. A CNN architecture, DeepLab, that performs semantic segmentation, is chosen as the CV system being evaluated. In our case study, involving traffic scenes, a CNN trained with CG data samples generated with photorealistic rendering methods (such as RT or MCPT), shows already a reasonably good performance on real-world testing data from CityScapes benchmark. Use of samples from an elementary rendering method, i.e., LS, degraded the performance of CNN by nearly 20%. This result conveys that training data must be photorealistic enough for better generalizability of the trained CNN models. Furthermore, the use of physics-based MCPT rendering improved the performance by 6% but at the cost of more than three times the rendering time. This MCPT generated dataset when augmented with just 10% of real-world training data from CityScapes dataset, the performance levels achieved are comparable to that of training CNN with the complete CityScapes dataset.
The next aspect we study in the thesis involves the impact of choice of parameter settings of scene generation model on the generalization performance of CNN models trained with the generated data. Towards this end, we first propose an algorithm to estimate our scene generation model parameters given an unlabeled real world dataset from the target domain. This unsupervised tuning approach utilizes the concept of generative adversarial training, which aims at adapting the generative model by measuring the discrepancy between generated and real data in terms of their separability in the space of a deep discriminatively-trained classifier. Our method involves an iterative estimation of the posterior density of prior distributions for the generative graphical model used in the simulation. Initially, we assume uniform distributions as priors over parameters of a scene described by our generative graphical model. As iterations proceed the uniform prior distributions are updated sequentially to distributions for the simulation model parameters that leads to simulated data with statistics that are closer to the distributions of the unlabeled target data.
...