Refine
Year of publication
- 2018 (204) (remove)
Document Type
- Doctoral Thesis (204) (remove)
Has Fulltext
- yes (204) (remove)
Is part of the Bibliography
- no (204) (remove)
Keywords
- Lebensqualität (2)
- Spracherwerb (2)
- vascular endothelial cells (2)
- ABCE1 (1)
- ARFI (1)
- Adhärenz (1)
- Afghanistan (1)
- Allosteric inhibition (1)
- Anomalie <Medizin> (1)
- Anwendungsorientierte Forschung (1)
Institute
- Biochemie, Chemie und Pharmazie (44)
- Medizin (39)
- Biowissenschaften (34)
- Physik (21)
- Informatik und Mathematik (17)
- Gesellschaftswissenschaften (8)
- Sprach- und Kulturwissenschaften (8)
- Neuere Philologien (7)
- Biochemie und Chemie (3)
- Kulturwissenschaften (3)
FPP und GGPP sind Intermediate des Mevalonat-Weges und fungieren als post-translationale Modifikation kleiner GTPasen. Die Prenylierung kleiner GTPasen erfolgt katalysiert von spezifischen Prenyltransferasen und ist notwendig um die kleinen GTPasen in Membranen zu verankern, wo ihre Aktivierung stattfindet. Zu den intrazellulären Funktionen der GTPasen gehören unter anderem der Aufbau des Cytoskeletts, das neuronale Zellwachstum, die Leitung und Ausläuferbildung von Axonen, das Dendritenwachstum, die Synapsenformation, die synaptische Plastizität und die Apoptose. Diese Funktionen spielen in der Gehirnalterung sowie in neurodegenerativen Erkrankungen wie der Alzheimer Demenz (AD) und auch bei der Glioblastoma multiforme (GBM) eine wichtige Rolle.
Im Zuge einer in vivo Studie an C57BL/6 Mäusen konnten in der vorliegenden Arbeit altersbedingte Veränderungen der Lokalisation verschiedener Rho- und Rab-GTPasen in Membran- und Cytosol-Präparationen sowie der GGTase-I in Gehirnen gealterter Tiere gezeigt werden. Die zelluläre Lokalisation der Rho GTPasen Rac1, RhoA und Cdc42 verschiebt sich im Alter zu reduzierten Membran-gebundenen und erhöhten cytosolischen Gehalten. Dies ist mit einer Reduktion der Protein- und mRNA- Gehalte des Enzyms GGTase-Iβ assoziiert, der Untereinheit der GGTase-I, die die Bindung des Isoprenoids GGPP an die Rho-GTPasen reguliert. Diese wiederum korrelieren direkt mit der altersbedingten Reduktion der relativen GGTase-Aktivität. Die in vitro Inhibition der GGTase-I mittels GGTI-2133 an SH-SY5Y Zellen erwies sich als Modell, welches die gleichen Effekte wie die gealterten Gehirne in vivo zeigt.
7, 8-Dihydroxyflavon (7, 8-DHF) ist ein natürlich vorkommendes Flavon, welches als hoch affiner selektiver TrkB-Rezeptor-Agonist fungiert und hierdurch wie das Neurotrophin BDNF das Überleben von Neuronen, deren Differenzierung, synaptische Plastizität und Neurogenese vermittelt. In vivo verursacht die orale Gabe von 7, 8-Dihydroxyflavon in Gehirnen alter Tiere eine Abnahme des Isoprenoids GGPP, die Zunahme der prenylierten Membran-gebundenen GTPase Rac1 und eine Reduktion des Gehaltes an Membran-gebundenem Rab3A auf das Niveau der Gehalte in den Gehirnen der jungen Kontroll-Tiere. Das Neurotrophin BDNF interagiert mit dem TrkB-Rezeptor und ist in der Lage direkt an den Rac1-spezifischen GEF Tiam1 zu binden, wodurch dieser aktiviert wird und Veränderungen der zellulären Morphologie der betroffenen Neurone induziert. Während das Alter und die orale Gabe von 7, 8-Dihydroxyflavon in vivo keine Effekte auf die Proteingehalte von BDNF und TrkB in der Tierstudie aufzeigten, konnte eine alterbedingte Reduktion von Tiam1 im Hirngewebe detektiert werden, die wiederum durch 7, 8-Dihydroxyflavon aufgehoben werden konnte.
Die Isoprenoide FPP und GGPP, sowie die Regulation kleiner GTPasen spielen auch eine wichtige Rolle im Zusammenhang mit Veränderungen der APP-Prozessierung in der molekularen Pathogenese der AD. Bei der APP-Prozessierung sind die beiden Sekretasen β- und γ-Sekretase für die Bildung des β-Amyloid-Peptids verantwortlich. In vitro Studien mit dem β-Sekretase-Inhibitor IV und dem γ-Sekretase-Inhibitor DAPT an untransfizierten und APP-transfizierten HEK293 Zellen (HEK293-APP695wt und HEK293-APPsw Zellen) konnten zeigen, dass sowohl die β- als auch die γ-Sekretase an der Regulation der Isoprenoide FPP und GGPP beteiligt sind. FPP und GGPP liegen in APP-transfizierten HEK293 Zellen erhöht vor. Die Inhibition der β-Sekretase führt zur Reduktion von FPP und GGPP. Durch die Inhibition der γ-Sekretase wird ausschließlich FPP reduziert. Weiterhin liegen in APP-transfizierten HEK293 Zellen die Membran-gebundenen prenylierten Rho-GTPasen Rac1, Cdc42 und RhoA erhöht vor. Das Membran-gebundene prenylierte H-Ras kommt jedoch in APP-transfizierten Zellen im Vergleich zu untransfizierten HEK293 Zellen in deutlich niedrigeren Mengen vor. Die Inhibition der β-Sekretase bedingt die Reduktion von Membran-gebundenem prenylierten Rac1 und auch von Membran-gebundenem H-Ras in HEK293-APPsw Zellen.
Veränderungen von Signaltransduktionswegen, die durch kleine GTPasen vermittelt werden, haben sich auch bei der GBM als zentraler Teil der molekularen Pathogenese herausgestellt. Hierbei ist die Prenylierung durch FPP und GGPP die Voraussetzung für die Membran-Insertion und onkogenen Funktion der Ras- und Rho-Proteine über die Stimulierung des Ras-Raf-MEK-ERK Signalweges. In dieser Arbeit konnte gezeigt werden, dass der HMG-CoA-Reduktase Inhibitor Lovastatin die Bildung der beiden Isoprenoide FPP und GGPP in U87 und U343 Glioblastoma Zellen verringert und hierdurch die Isoprenylierung von H-Ras und Rac1 reduziert. Das natürlich vorkommende Monoterpen Perrilylalkohol hingegen inhibiert die Prenyltransferasen FTase und GGTase und verändert dadurch die post-translationale Prenylierung der GTPasen Rac1 und H-Ras in U87 und U343 Zellen ohne die Isoprenoide FPP und GGPP signifikant zu beeinflussen. Jedoch bewirkt Perillylalkohol in U343 Zellen eine Erhöhung des GGPPs. Beide Substanzen bewirkten die Reduktion der ERK-Phosphorylierung und der Migration, Invasion und Proliferation der untersuchten U87 und U343 Glioblastoma Zellen.
Obesity is considered as a type of chronic inflammation. It enhances the risk of developing cardiovascular disease, diabetes, and some cancers. The key players in the induction of inflammation in adipose tissue are macrophages. However the mechanism of macrophage activation in obese fat tissue is still not fully understood. Elevated level of saturated fatty acids in adipose tissue promotes inflammation and insulin resistance. Exposure of macrophages to saturated fatty acids stimulates pro-inflammatory c-Jun N-terminal kinase (JNK), nuclear factor kappa B (NF-kB) signaling, and production of pro-inflammatory cytokines, such as IL-6, IL-8, IL-1β, and TNFα. Palmitate is a major saturated free fatty acid released by adipocytes. It activates inflammatory pathways through Toll-like receptors (TLR) 2 and 4, provokes endoplasmic reticulum (ER) stress and increases levels of diacylglycerols (DAGs) and ceramides. Saturated fatty acids also affect cellular oxidative metabolism. Thus, mitochondrial fatty acid oxidation reduces ER-stress and expression of inflammatory cytokines in palmitate-treated macrophages. On the other hand mitochondrial reactive oxygen species (ROS) promote palmitate-mediated pro-inflammatory cytokine production. Recently, mitochondrial functions were linked to their morphology. Mitochondrial fission has been reported in β-cells and myocytes in response to high levels of glucose and free fatty acids, and was associated with disruption of mitochondrial functions, increased ROS level, and cell death. The aim of this study was to investigate the role of mitochondrial fragmentation in palmitate-induced inflammation in human macrophages. In our settings fatty acids, independently of their saturation, affected mitochondrial morphology. Mixtures of long chain saturated and unsaturated fatty acids as well as triglyceride-rich lipoprotein lipolysis products promoted mitochondrial fission. Mitochondrial fragmentation in palmitate-treated macrophages revealed a time- and concentration-dependent character, and was reversible upon palmitate removal. This observation, together with unaltered levels of mitochondrial protein and DNA content, and intact mitochondrial respiration, suggested that mitochondria were not damaged and were functionally active. Mechanistically, palmitate-induced mitochondrial fragmentation was not regulated by ER stress or loss of mitochondrial membrane potential. However, inhibition of palmitate incorporation into mitochondrial membrane phospholipids decreased mitochondrial fragmentation. Other approach to prevent mitochondrial fission was the inhibition of dynamin-related protein 1 (DRP1) activity, which drives mitochondrial fission by forming ring- like structures around mitochondria and constricting mitochondrial membranes. Palmitate altered mitochondrial membrane lipid composition and promoted DRP1-oligomerization. The inhibition of palmitate-induced mitochondrial fragmentation enhanced mitochondrial ROS production, c-Jun phosphorylation, and upregulated expression of pro-inflammatory cytokines. Taken together, these results suggest that mitochondrial fragmentation is a protective mechanism attenuating palmitate-induced inflammatory responses. Future experiments will be required to investigate the role of mitochondrial fragmentation in obesity-associated diseases in vivo.
Ausgangspunkt der Studie ist die These, dass sprachlich und kulturell heterogene Lerngruppen, an denen Studierende mit und ohne spanischsprachigen Familienhintergrund gemeinsam teilnehmen, als eine günstige Lernsituation betrachtet werden können. Voraussetzung dafür ist, dass die unterschiedlichen sprachlichen und kulturellen Gegebenheiten als Ressourcen für den Unterricht verstanden werden.
Mit dem Fokus auf Sprachveranstaltungen in Spanisch, die von Studierenden an der Johann Wolfgang Goethe-Universität Frankfurt am Main besucht werden, und die im Rahmen ihres Lehramtsstudiums im Fach Spanisch stattfinden, wurden in dieser Studie folgende Forschungsfragen verfolgt:
1. Wie entstehen und entwickeln sich Sprachlernprozesse in sprachlich und kulturell vielfältigen Lernkontexten?
2. Wie zeichnet sich das Lernen in sprachlich und kulturell vielfältigen Lernkontexten aus?
3. Welche sprachlichen und kulturellen Ressourcen können für die sprachliche und kulturelle Förderung genutzt und bewusst eingesetzt werden?
Wichtigste Forschungsergebnisse:
Es wurde festgestellt, dass Sprachlernprozesse bei Studierenden mit und ohne spanischsprachigen Familienhintergrund sowohl im kognitiven als auch im emotionalen Bereich qualitativ unterschiedlich verlaufen und, dass in sprachlich und kulturell vielfältigen Lernkontexten individuelle und überindividuelle Sprachlern-prozesse stattfinden, die einander bedingen.
Was das gemeinsame Lernen angeht, konnte festgestellt werden, dass Studierende ohne spanischsprachigen Familienhintergrund widersprüchliche Erwartungen an die Studierenden mit spanischsprachigem Familienhintergrund haben: Einerseits schätzen sie die Präsenz ihrer Kommilitonen und sehen sie als Mittler zwischen dem Unterricht und der Realität außerhalb des Unterrichts, weil sie die „echte“ Sprache und Kultur in den Klassenraum bringen. Anderseits fühlen sie sich durch ihre Anwesenheit im Unterricht verunsichert, was ihre sprachliche Entwicklung zum Teil hemmt. Bei den Studierenden mit spanischsprachigem Familienhintergrund konnten unterschiedliche Phasen in ihrem Sprachlernprozess beobachtet werden, die ihre Lernattitüde und ihre Haltung zu den Kommilitoninnen und Kommilitonen konditionieren.
Entscheidend für die Konstruktion gemeinsamer Sprachlernprozessen ist, dass die Studierenden ihre Positionierung als peer ihrer Kommilitoninnen und Kommilitonen bewusst wahrnehmen, was nicht immer der Fall ist. Auch die Bewusstwerdung der eigenen Funktion als Mittler zwischen Sprachen und Kulturen insbesondere (aber nicht nur) bei Studierenden mit spanischsprachigem Familienhintergrund soll im Unterricht durch die Reflexion über die eigene sprachliche und kulturelle Identität gefördert werden.
Im Umgang mit solchen Lerngruppen haben Dozentinnen und Dozenten unterschiedliche Erwartungen. In der Regel werden aber Lerninhalte vermittelt, die die sprachliche und kulturelle Vielfalt im Unterricht nicht berücksichtigen. Für die Leistungsbewertung beider Studierendengruppen werden oft unterschiedliche Kriterien angewendet, woraus Konflikte zwischen den Veranstaltungsteilnehmerinnen und -teilnehmern entstehen.
Die Rolle der Dozentinnen und Dozenten selbst ist in der Gestaltung gemeinsamer Lernkontexte, in denen die Interaktion der Studierenden gefördert werden, grundlegend. Damit dies gelingt, sollen sie einerseits für Mehrsprachigkeit als Phänomen der Gesellschaft, das den Sprachunterricht im besonderen Maße betrifft, sensibilisiert sein. Andererseits soll ihnen bewusst werden, dass das Sprachenlernen aus einer kognitiven und einer emotionalen Seite besteht, die in engem Zusammenhang mit mehrsprachigen und mehrkulturellen Identitätskonstruktionen stehen. Beide Seiten sollen im Unterricht gefördert werden.
The Dodd Frank Act of 2010 (DFA) was the legislative response by the US Government to the Global Financial Crisis of 2007. DFA’s rescission of Rule 436 (g) of the Securities Act of 1933 - the exemption from liability clause - was the response to the post-crisis perception that credit rating agencies were insufficiently constrained by reputational risk considerations and consistently failed to provide high quality and accurate credit ratings as a consequence of the immunity they enjoyed and the regulatory reliance placed on ratings, as well as the conflicts of interest that they faced. This paper investigates whether the market failure event that occurred in the Asset Backed Securities market immediately after DFA was signed into law on July 21, 2010 was due to real economic concerns held by rating agencies about operating under a liability regime or whether it was merely an act of brinkmanship on the part of the rating agencies. The paper also predominantly examines US case law to identify the dilution of the freedom of speech defence in state courts, the conflict of interest issues and the legal challenges faced by plaintiffs when bringing a lawsuit against credit rating agencies, and proposes a novel co-pay and capped liability model to address the concerns of both credit rating agencies and investors.
Das Prinzip der endovaskulären Therapie von Aneurysmen mit Platinspiralen hat sich seit seiner Einführung durch Guglielmi 1991 immer mehr als alternatives Verfahren zum neurochirurgischen Clipping etabliert. Insbesondere bei Aneurysmen, die durch den neurochirurgischen Zugang nur schwer zu erreichen sind, hat sich diese Therapieoption bewährt. Neben der Lage spielen auch Größe und Form bei der Entscheidung für das Coiling eine wichtige Rolle. Es ist technisch anspruchsvoll, breitbasige oder besonders kleine Aneurysmen durch dieses Verfahren auszuschalten. Angesichts der aktuellen Datenlage ist es nicht immer möglich, eine zweifelsfreie Entscheidung zu treffen, ob und wie betroffene Patienten bestmöglich behandelt werden sollten. Insbesondere Fragen zur Behandlung und zu Komplikationen bei Aneurysmen ≤ 3 mm sind nicht hinreichend beantwortet, da diese nur in wenigen Studien Gegenstand der Analyse sind. Ziel der vorliegenden Arbeit war es, klinische und bildgebende Ergebnisse von Patienten, die im Institut für Neuroradiologie des Klinikum der Johann Wolfgang Goethe-Universität Frankfurt am Main durch eine endovaskuläre Intervention behandelt wurden, retrospektiv zu analysieren. Insbesondere wurde ein Schwerpunkt auf die Untersuchung der Komplikationsraten und der Aneurysmarupturen gelegt. Dies dient einer erweiterten Einschätzung von Risiko und Nutzen dieser Therapieoption, um eine bestmögliche Beratung und Behandlung der betroffenen Patienten zu gewährleisten.
In der vorliegenden Arbeit wurden 637 endovaskuläre Interventionen betrachtet, die am Institut für Neuroradiologie des Klinikum der Johann Wolfgang Goethe-Universität zwischen Februar 1999 und März 2011 durchgeführt wurden. In diesem Untersuchungszeitraum von 12 Jahren konnten 47 Patienten mit einem Aneurysma ≤ 3 mm in die Studie eingeschlossen werden. Es erfolgte eine retrospektive Datenerhebung mit Hilfe von Krankenakten, radiologischen Befunden und Angiographie-Dokumentationsprotokollen. Die Zusammensetzung des Patientenkollektivs war vergleichbar mit der der bisherigen Literatur. Das Durchschnittsalter des Patientenkollektivs betrug 55 Jahre. 85 % der Patienten waren Frauen. Bei der Häufigkeit des Auftretens an bestimmten Gefäßlokalisationen konnte ein geringer Unterschied festgestellt werden. Während bei ähnlichen Studien der Großteil der Aneurysmen an der ACI gefunden wurde, war in der vorliegenden Arbeit die AcomA am häufigsten betroffen, gefolgt von der ACI. In Bezug auf die Fehlschlagraten sind die Ergebnisse heterogen. In der vorliegenden Studie war es bei 17 % der behandelten Patienten nicht möglich, das Einbringen einer Platinspirale erfolgreich abzuschließen. Ein kompletter Aneurysmaverschluss erfolgte bei 55 % der Patienten. Bei 28 % der Fälle blieb nach der Intervention ein minimaler Halsrest bestehen. Die allgemeine Komplikationsrate betrug 12,8 %. Zu einer durch die Intervention ausgelösten Ruptur kam es in zwei Fällen (4,3 %), wobei dieser Anteil im mittleren Bereich der in der aktuellen Literatur beschriebenen Rupturraten von 0 % bis 11,7 % liegt. Für die Beurteilung des Therapieerfolgs spielt die Verfügbarkeit von Nachkontrollen eine wichtige Rolle. In der vorliegenden Arbeit war es möglich, in 87 % der Fälle Verlaufskontrollen durchzuführen, was Ergebnissen der Literatur entspricht. Die Wiederbehandlungsrate war mit 4,3 % vergleichsweise niedrig. Die Bildung eines Rezidivaneurysmas konnte in einem Fall beobachtet werden. 59 % der Patienten wiesen präoperativ einen Hunt und Hess Grad von 0 bis 2 auf, während es in anderen Arbeiten bis zu 87 % der Patienten waren. Grad 3 lag bei 15 % der Patienten vor, schwer betroffen waren 15 % mit einem Hunt und Hess Grad von 4 und 11 % mit einem von Grad 5. 55,3 % der in der vorliegenden Studie betrachteten Patienten konnten am Ende des Beobachtungszeitraums nach Einschätzung mittels mRS ihren Alltag ohne fremde Hilfe bewältigen (Stadien 0, 1 und 2). 34,0 % der Patienten benötigten fremde Hilfe und 10,9 % verstarben an den Folgen der SAB. Im Gegensatz dazu konnte in anderen Arbeiten ein mRS-Grad von 0-2 in mehr als 75 % gefunden werden. Dies bestärkt die Annahmen, dass ein primär niedriger Hunt und Hess Grad mit einem besseren und ein hoher Hunt und Hess Grad mit einem schlechteren klinischen Verlauf assoziiert sein könnte.
Durch die geringe Größe der Stichprobe und die retrospektive Datenanalyse der vorliegenden Arbeit ist es nicht möglich, zuverlässige allgemein gültige Behandlungsempfehlungen abzuleiten. Hier wurde das eigene Patientenkollektiv detailliert analysiert und die Ergebnisse wurden mit ähnlichen Publikationen verglichen. Weitere prospektiv geplante Studien sind sinnvoll.
Aus der zusammenfassenden Betrachtung der Ergebnisse lässt sich schließen, dass mit den momentan verfügbaren Mitteln bei ausreichender Erfahrung des behandelnden Neuroradiologen eine relativ sichere endovaskuläre Behandlung von sehr kleinen Aneurysmen möglich ist. Neben der Erfahrenheit des interventionellen Neuroradiologen kann die Weiterentwicklung der eingesetzten Materialien wie Coils, Stents, Ballons und Mikrokatheter zur Minimierung des Komplikationsrisikos beitragen.
In dieser Arbeit wurden mittels Fragebogen chronobiologische - hier als Chronobiologika bezeichnet -, biologische und soziale Parameter von Patienten mit einer definierten Malignomerkrankung (Mamma-Karzinom, Kolon-Karzinom, Lymphom) bestimmt und auf Zusammenhänge überprüft. Die Chronobiologika wurden für die Zeit vor der Erkrankung sowie für den Zeitpunkt der Befragung erhoben und die Veränderungen berechnet. Die Parameter vor der Erkrankung wurden bei der Gruppe der Patienten mit Mamma-Karzinom mit einer repräsentativen Referenzgruppe (Gesundheitsmonitor des Jahres 2013 der Bertelsmann Stiftung) auf Unterschiede verglichen. Es wurde insbesondere untersucht, ob Zusammenhänge zwischen den Veränderungen der Chronobiologika und der unter der Chemotherapie empfundenen Belastung (= Distress) bestehen.
Dazu wurden im Rahmen einer multizentrischen Studie bei 378 Personen anhand eines Fragebogens auf Basis des Munich ChronoType Questionnaires (MCTQ) Angaben zu ihrem Schlaf-Wach-Rhythmus, ihrer Malignomerkrankung, deren Therapie, der darunter empfundenen Belastung und dem Lebensstil ausgewertet. Ein besonderes Augenmerk wurde dabei auf den Chronotyp, den Social Jetlag und das Schlafdefizit gelegt.
Es ließen sich nur wenige Unterschiede in den Chronobiologika zum Zeitpunkt vor der Erkrankung und dem aktuellen pathologischen Zustand, zwischen den Malignomgruppen, zwischen den Gruppen mit und ohne Chemotherapie sowie zwischen den Gruppen mit geringem und hohem Distress finden.
Im Rahmen der Malignomerkrankung kam es zu Veränderungen im Schlaf-Wach-Rhythmus der Teilnehmer: So wurden Einschlaf- und Aufwachzeit sowie der Chronotyp früher in den Tagesverlauf verlegt. Der Social Jetlag und das Schlafdefizit verminderten sich. Die Einschlaflatenz wurde länger. Diese Veränderungen fanden sich bevorzugt bei Patienten mit Mamma-Karzinom, Chemotherapie und hohem Distress. Der Distress war bei Frauen und jüngeren Personen stärker ausgeprägt.
Die Studienpopulation zeigte im Vergleich zur vorgenannten Referenzgruppe in allen Altersgruppen einen späteren Chronotyp, einen höheren Social Jetlag und einen höheren Anteil an Berufstätigen.
Die beschriebenen Veränderungen im Schlaf-Wach-Rhythmus ließen sich im Wesentlichen mit der veränderten Berufstätigkeit und dem subjektiven Distress im Rahmen der Erkrankung und ihrer Therapie erklären. So fanden sich die stärksten Veränderungen in den Chronobiologika bei Patienten mit hohem Distress und einer Aufgabe der Berufstätigkeit. Die Unterschiede zwischen der Referenzgruppe und der Gruppe der Patientinnen mit Mamma-Karzinom lassen sich tatsächlich mit einer Krankheitsprädisposition oder durch soziokulturelle Besonderheiten in der Studienpopulation gegenüber der Normalbevölkerung (Referenzgruppe) erklären.
Um molekulare Mechanismen in biologischen Prozessen zu verstehen, ist es unerlässlich biologisch aktive Verbindungen zu kontrollieren. Dabei spielt besonders die Aktivierung bzw. Desaktivierung von Genabschnitten eine zentrale Rolle in der gegenwärtigen chemischen, biologischen und medizinischen Forschung. Nukleinsäuren sind dabei offenkundige Zielmoleküle, da sie die Genexpression auf unterster Ebene regulieren und auf vielfältige Art und Weise an biologischen Prozessen beteiligt sind. Um solch eine genaue Steuerung zu erreichen, werden Nukleinsäuren häufig photolabil modifiziert und unter die Kontrolle von Licht gebracht. Da hochentwickelte Technologien es erlauben Photonen bestimmter Energie unter präziser räumlicher und zeitlicher Auflösung zu dosieren, ist Licht als nicht invasives Triggersignal ein besonders geeignetes Werkzeug um molekulare Prozesse zu kontrollieren.
Die Verwendung photolabiler Schutzgruppen („cage“) ermöglicht es, diese lichtaktivierbaren Nukleinsäuren („caged compound“) herzustellen. Üblicherweise werden Oligonukleotide damit an funktionsbestimmenden Stellen versehen, woraufhin die Funktion der Oligonukleotide unterdrückt wird. Die biologische Aktivität kann durch Bestrahlung mit Licht wieder hergestellt werden, da die photolabile Schutzgruppe durch den Lichtimpuls abgespalten wird. Neben der zeitweiligen Maskierung der Nukleinsäureaktivität existiert auch eine Methode, die als „photoaktivierbarer Strangbruch“ (‘‘caged strand break‘‘) bezeichnet wird. Dabei werden mit Hilfe von photolabilen Linkern (‘‘Verknüpfer‘‘) lichtinduzierte Strangbrüche in Oligonukleotiden ausgelöst, um so beispielsweise die Struktur eines Nukleinsäurestrangs zu zerstören. Die Idee der photoaktivierbaren Strangbrüche ist nicht neu, dennoch werden photolabile Schutzgruppen überwiegend nach der erstgenannten Strategie verwendet. Im Rahmen dieses Promotionsvorhabens wurden neue photosensitive Linkerbausteine für Oligonukleotide entwickelt und hergestellt, welche sich vor allem im Hinblick auf die Anwendbarkeit in lebenden biologischen Systemen von den bisherigen photolabilen Linkern unterscheiden.
Im ersten Projekt wurde ein nicht-nukleosidischer, photolabiler Linker, basierend auf dem Cumaringrundgerüst, entwickelt. Das Ziel war hier, vor allem, einen zweiphotonenaktiven Linker für biologische Anwendungen und Zweiphotonen-Fragestellungen nutzbar zu machen. Bisherige Zweiphotonen-Linker konnten hauptsächlich nur für Proteinverknüpfungen bzw. Neurotransmitter verwendet werden oder mussten chemisch umständlich (z.B. Click-Chemie) und postsynthetisch in Oligonukleotide eingeführt werden. Der neu entwickelte Zweiphotonen-Linker wurde als Phosphoramiditbaustein für die Oligonukelotid-Festphasensynthese synthetisiert, was einen problemlosen und automatisierten Einbau garantiert. Mit einem modifizierten Oligonukleotid konnten die photochemischen Eigenschaften des Linkers bestimmt und mit Hilfe eines fluoreszenzbasierten Verdrängungsassays und Lasertechniken der Zweiphotonen-Effekt visualisiert werden. Dazu wurde ein Hairpin-DNA-Strang hergestellt, welcher eine Linkermodifikation im Bereich der Loopregion enthält. Durch eine Thiolmodifikation am 5‘-Ende des Oligonukleotidstranges war es möglich, diesen in einem Maleimid-funktionalisierten Hydrogel zu fixieren. Ein DNA-Duplex mit einem Fluorophor/Quencherpaar und einer korrespondierenden Sequenz zum modifizierten Hairpin-Strang wurde ebenfalls dem System zugegeben, allerdings wurde dieser nicht fixiert, um Diffusion zu ermöglichen. Durch die räumliche Nähe des Fluorophors zum Quencher konnte im unbelichteten Zustand zunächst keine Fluoreszenz gemessen werden. Mit einem (Femtosekunden-)gepulsten Laser und dem damit verbundenen Bindungsbruch im Hairpin-Strang durch Zweiphotonen-Effekte wurde es dem fluoreszierenden Strang des DNA-Duplex ermöglicht, sich vom Quencher-Strang zu lösen und an den fixierten Strang zu hybridisieren. Das Photolyse-Ereignis konnte so in ein lokales Fluoreszenzsignal übersetzt und detektiert werden.
Der eindeutige Beweis, dass es sich tatsächlich um ein Zweiphotonen-induziertes Ereignis handelt, konnte durch die dreidimensional aufgelöste Photolyse und über die quadratische Anhängigkeit des Fluoreszenzsignals von der eingestrahlten Laserleistung erbracht werden.
Die generelle Kompatibilität des Cumarin-Linkers mit biologischen Systemen konnte in Zellkulturexperimenten gezeigt werden. Dazu wurde eine Transkriptionsfaktor-DNA Decoy-Strategie entwickelt, in der Linker-modifizierte DNA Decoys an regulatorische Transkriptionsfaktoren binden und diese aber auch photochemisch wieder freisetzen können („catch and release-Strategie“). Zellkulturexperimente, um mit dieser Methode das Transkriptionsfaktor-gesteuerte und endogene Gen für Cyclooxygenase-2 (COX2) zu regulieren, lieferten keine aussagekräftigen Ergebnisse. Daher wurden die verwendeten Zellen dahingehend manipuliert, sodass sie das Protein GFP (grün fluoreszierendes Protein) in Abhängigkeit von der Anwesenheit eines Transkriptionsfaktors exprimieren. Das so durch die Zellen verursachte Fluoreszenzsignal steht in direkter Abhängigkeit zur Decoy-Aktivität. Mit Hilfe modifizierter GFP-Decoys konnte hierbei eine Regulation auf Transkriptionsebene in biologischen Organismen erreicht werden. Mit dem Electrophoretic Mobility Shift Assay (EMSA), einer molekularbiologischen in vitro-Analysetechnik, wurden die Interaktionen zwischen modifizierten Decoys und dem Transkriptionsfaktor untersucht.
...
Systemerkrankungen der arteriellen Gefäße stellen eine häufige Todesursache in Deutschland und der westlichen Welt dar. Hierbei sind vor allem die auf Grundlage von Arteriosklerose entstehende Koronare Herzerkrankung sowie der Myokardinfarkt zu nennen. Ursache des Myokardinfarktes ist eine Minderperfusion und damit bedingte Ischämie des Myokardgewebes. Ziel einer jeden Minderperfusion ist die therapeutisch schnellstmögliche Reperfusion. Ischämie- und Hypoxie-bedingt entstehen hierbei durch inflammatorische Prozesse, Ansammlung toxischer Metabolite, veränderter Protein-Expressionsmuster sowie durch das reperfundierende Blut der sogenannte Ischämie-Reperfusionsschaden. Dieser komplexe Effekt lässt sich über dem hinaus auch bei Organtransplantationen beobachten.
Die vorliegende Arbeit beschreibt den Versuch den Ischämie-Reperfusionsschaden durch den Einfluss von mTOR-Inhibition im humanen Gefäßmodel zu quantifizieren. Hierbei wurden die mTOR-Inhibitoren Sirolimus und Everolimus verwendet. Beide Immunsuppressiva finden aktuell unter anderem klinische Anwendung nach Organtransplantationen. Bereits in einigen Studien konnten positive Effekte von Sirolimus als auch Everolimus auf den Ischämie-Reperfusionsschaden nachgewiesen werden. Dieser Versuch sollte nun weitere zielführende Erkenntnisse hinsichtlich mTOR-Inhibition und proinflammatorischer Prozesse sowie der Expression von Zell-Adhäsionsmolekülen im humanen Gefäßmodell liefern. Ebenso sollte die Qualität des Bioreaktors als adäquates Humangefäß-Perfusionsmodell evaluiert werden.
Als Versuchsgrundlage wurde hierbei eine Ischämiezeit der Gefäße von vier bis fünf Stunden festgelegt. Die verwendeten Gefäße wurden in der Folge nach standardisierten Kriterien (Präoxygenierung, Heparinisierung, 37° Grad Celsius Temperatur, Blutgruppe AB Rhesusfaktor negativ, Hämatokritwert 30%) zwei Stunden lang mittels Vollblut im Bioreaktormodel reperfundiert. Unterschieden wurde hierbei eine Gefäßkontrollgruppe (n=7), von einer Sirolimus-Gruppe (n=6, standardisierte Blutkonzentration 10ng/ml) und einer Everolimus-Gruppe (n=7, standardisierte Blutkonzentration 5 ng/ml). Nach standardisierten Zeitpunkten der Reperfusion (0 Minuten, 15 Minuten, 30 Minuten, 60 Minuten und 120 Minuten) wurden jeweils Blutproben dem simulierten Kreislauf entnommen. Mittels Blutgasanalyse wurde über die Bestimmung des Sauerstoffpartialdrucks, des Kohlendioxidpartialdrucks sowie des pH-Wertes eine qualitative Evaluierung des Bioreaktors als humanes Gefäßmodel vorgenommen. Des Weiteren dienten die Blutproben zur Erfassung der proinflammatorischer Marker Interleukin-6, TNF-α, sowie VEGF während der unterschiedlichen Zeitpunkte der Blutentnahme. Nach Beendigung der Reperfusion wurden Gefäßproben mittels immunhistochemischen Verfahren auf die Expression der Zell-Adhäsionsmoleküle CD31 sowie CD11b hin untersucht.
Aufgrund durchgeführter Versuche konnte gezeigt werden, dass in der Kontrollgruppe die Interleukin-6- sowie VEGF-Spiegel signifikant im Zuge der Reperfusion anstiegen. Sirolimus als auch Everolimus konnten demgegenüber einen signifikanten Anstieg dieser proinflammatorischen Signalmoleküle verhindern. Im Vergleich des proinflammatorischen TNF-α konnte allerdings ein signifikanter Einfluss der mTOR-Inhibitoren nicht bestätigt werden. Hinsichtlich des Expressionsmusters konnte Sirolimus als auch Everolimus eine signifikante Reduktion von sowohl CD31-positiven als auch CD11b-positiven Zellen im Vergleich zur Kontrollgruppe aufzeigen.
In der Zusammenschau lässt sich aus den erhobenen Daten schlussfolgern, dass der Bioreaktor als humanes Gefäßmodell ein suffizientes Perfusionssystem darstellt. Sirolimus als auch Everolimus können über ihren Wirkungsmechanismus der mTOR-Inhibition einen Anstieg proinflammatorischen Moleküle zum Teil verhindern. Den größten Einfluss auf den Ischämie-Reperfusionsschaden nehmen Sirolimus als auch Everolimus hierbei mittels der Suppression von Zell-Adhäsionsmolekülen CD31 und CD11b.
Unter Web-based Trainings (WBTs) versteht man multimediale, interaktive und thematisch abgeschlossene Lerneinheiten in einem Browser. Seit der Entstehung des Internets in den 1990er Jahren sind diese ein wichtiger und etablierter Baustein bei der Konzeption und Entwicklung von eLearning-Szenarien. Diese Lerneinheiten werden üblicherweise von Lehrenden mit entsprechenden Autorensystemen erstellt. In selteneren Fällen handelt es sich bei deren Umsetzungen um individuell programmierte Einzellösungen. Betrachtet man WBTs aus der Sicht der Lernenden, dann lässt sich feststellen, dass zunehmend auch nicht explizit als Lerneinheiten erstellte Inhalte genutzt werden, die jedoch genau den Bedürfnissen des jeweiligen Lernenden entsprechen (im Rahmen des informellen und selbstgesteuerten Lernens). Zum einen liegt das an der zunehmenden Verfügbarkeit und Vielfalt von „alternativen Lerninhalten“ im Internet generell (freie Lizenzen und innovative Autorentools). Zum anderen aber auch an der Möglichkeit, diese Inhalte von überall aus und zu jeder Zeit einfach finden zu können (mobiles Internet, Suchmaschinen und Sprachassistenten) bzw. eingeordnet und empfohlen zu bekommen (Empfehlungssysteme und soziale Medien).
Aus dieser Veränderung heraus ergibt sich im Rahmen dieser Dissertation die zentrale Fragestellung, ob das Konzept eines dedizierten WBT-Autorensystems den neuen Anforderungen von frei verfügbaren, interaktiven Lerninhalten (Khan Academy, YouTube und Wikipedia) und einer Vielzahl ständig wachsender und kostenfreier Autorentools für beliebige Web-Inhalte (H5P, PowToon oder Pageflow) überhaupt noch gerecht wird und wo in diesem Fall genau die Alleinstellungsmerkmale eines WBTs liegen?
Zur Beantwortung dieser Frage beschäftigt sich die Arbeit grundlegend mit dem Begriff „Web-based Training“, den über die Zeit geänderten Rahmenbedingungen und den daraus resultierenden Implikationen für die Entwicklung von WBT-Autorensystemen. Mittels des gewählten Design-based Research (DBR)-Ansatzes konnte durch kontinuierliche Zyklen von Gestaltung, Durchführung, Analyse und Re-Design am Beispiel mehrerer eLearning-Projekte der Begriff WBT neudefininiert bzw. reinterpretiert werden, so dass sich der Fokus der Definition auf das konzentriert, was WBTs im Vergleich zu anderen Inhalten und Funktionen im Internet im Kern unterscheidet: dem Lehr-/Lernaspekt (nachfolgend Web-based Training 2.0 (WBT 2.0)).
Basierend auf dieser Neudefinition konnten vier Kernfunktionalitäten ausgearbeitet werden, die die zuvor genannten Herausforderungen adressieren und in Form eines Design Frameworks detailliert beschreiben. Untersucht und entwickelt wurden die unterschiedlichen Aspekte und Funktionen der WBTs 2.0 anhand der iterativen „Meso-Zyklen“ des DBR-Ansatzes, wobei jedes der darin durchgeführten Projekte auch eigene Ergebnisse mit sich bringt, welche jeweils unter didaktischen und vor allem aber technischen Gesichtspunkten erörtert wurden. Die dadurch gewonnenen Erkenntnisse flossen jeweils in den Entwicklungsprozess der LernBar ein („Makro-Zyklus“), ein im Rahmen dieser Arbeit und von studiumdigitale, der zentralen eLearning-Einrichtung der Goethe-Universität, entwickeltes WBT-Autorensystem. Dabei wurden die Entwicklungen kontinuierlich unter Einbezug von Nutzerfeedbacks (jährliche Anwendertreffen, Schulungen, Befragungen, Support) überprüft und weiterentwickelt.
Abschließend endet der letzte Entwicklungszyklus des DBR-Ansatzes mit der Konzeption und Umsetzung von drei WBT 2.0-Systemkomponenten, wodurch sich flexibel beliebige Web-Inhalte mit entsprechenden WBT 2.0-Funktionalitäten erweitern lassen, um auch im Kontext von offenen Lehr-/Lernprozessen durchgeführte Aktivitäten transparent, nachvollziehbar und somit überprüfbar zu machen (Constructive Alignment).
Somit bietet diese Forschungsarbeit einen interdisziplinären, nutzerzentrierten und in der Praxis erprobten Ansatz für die Umsetzung und den Einsatz von WBTs im Kontext offener Lehr-/Lernprozesse. Dabei verschiebt sich der bisherige Fokus von der reinen Medienproduktion hin zu einem ganzheitlichen Ansatz, bei dem der Lehr-/Lernaspekt im Vordergrund steht (Lernbedarf erkennen, decken und überprüfen). Entscheidend ist dabei, dass zum Decken eines Lernbedarfs sämtliche zur Verfügung stehenden Ressourcen des Internets genutzt werden können, wobei WBTs 2.0 dazu lediglich den didaktischen Prozess definieren und diesen für die Lehrenden und Lernende transparent und zugänglich machen.
WBTs 2.0 profitieren dadurch zukünftig von der zunehmenden Vielfalt und Verfügbarkeit von Inhalten und Funktionen im Internet und ermöglichen es, den Entwicklern von WBT 2.0-Autorensystemen sich auf das Wesentliche zu konzentrieren: den Lehr-/Lernprozess.
In den letzten Jahren findet die Wirkung von Polyphenolen auf den Alterungsprozess oder zur Behandlung von Krankheiten immer mehr Beachtung. Das Ziel dieser Arbeit war die Aufklärung der Wirkmechanismen der Polyphenole Gossypol, Curcumin und Quercetin, um Hinweise für neue oder verbesserte Therapieansätze zu erhalten. Die dazu durchgeführten Untersuchungen lieferten folgende Ergebnisse:
1. Der Ascomycet "P. anserina" eignet sich als Modellorganismus zur Untersuchung der Wirkmechanismen verschiedener Polyphenole, da die bereits aus der Literatur bekannten Effekte auf das Überleben höherer Organismen auch in "P. anserina" beobachtet wurden.
2. Die Mitochondrienfunktion spielt auf unterschiedliche Art eine Rolle in der Kompensation von Dysfunktionen oder Stressbedingungen in der Zelle und wirkt somit positiv auf die Regulation der Lebensspanne von "P. anserina". In der "PaSod3"-Deletionsmutante wurde eine Verschiebung der mitochondrialen Atmung von einer Komplex I-abhängigen hin zu einer vermehrt Komplex II-abhängigen Atmung festgestellt. Die damit verbundene Abnahme des mitochondrialen Membranpotentials dient neben der bereits bekannten hohen Superoxid-Menge als Signal zur Mitophagie-Induktion. Auch die Anpassung der Mitochondrienfunktion durch die erhöhte Bildung von mtRSCs, wie im Falle von Gossypol oder Quercetin, kann zur Kompensation von Dysfunktionen beitragen bzw. sie abschwächen.
3. Es gibt keinen grundlegenden gemeinsamen Wirkmechanimus der drei untersuchten Polyphenole. Zwar spielt Wasserstoffperoxid bei verschiedenen Stoffen eine Rolle, aber nicht bei allen. Zusätzlich wurde gezeigt, dass Wasserstoffperoxid abhängig von der vorherrschenden Konzentration wirkt und daher auch keine Allgemeingültigkeit des Effektes vorherzusagen ist. In niedrigen Konzentrationen sorgt Wasserstoffperoxid z. B. für eine Induktion der Autophagie und damit einhergehende eine Lebensverlängerung. Im Gegensatz dazu wirken hohe Wasserstoffperoxid-Konzentrationen lebensverkürzend und lösen verschiedene Formen von Zelltod aus.
4. Die Curcumin-vermittelte Langlebigkeit wurde das erste Mal in Verbindung mit einer funktionellen Autophagie gebracht. Im Detail führt die Behandlung mit Curcumin durch eine PaSOD1-abhängige leichte Erhöhung der Wasserstoffperoxid-Menge zu einer Induktion von nicht-selektiver Autophagie. Die induzierte Autophagie ist Ursache der Lebensverlängerung durch Curcumin.
5. Gossypol wirkt in Abhängigkeit der mitochondrialen Permeabilitäts-Transitionspore bzw. von ihrem Regulator Cyclophilin D. Hierbei verstärkt die deutlich erhöhte Wasserstoffperoxid-Menge wahrscheinlich die Induktion von programmiertem Zelltod. Gleichzeitig wird eine cytoprotektive Form von Autophagie und ein scheinbar ATG-unabhängiger Abbau von Mitochondrien induziert.
6. Quercetin wirkt in "P. anserina" abhängig vom Methylierungs-Status. Untersuchungen mit Mutanten der "O"-Methyltransferase PaMTH1 ergaben die Notwendigkeit der Anwesenheit von PaMTH1 für den lebensverlängernden Effekt von Quercetin. Analysen mit dem methylierten Derivat Isorhamnetin verdeutlichten diese Abhängigkeit und zeigten zudem, dass Quercetin sowohl in der methylierten als auch unmethylierten Form Effekte hervorruft. Jedoch sind nur die Effekte des unmethylierten Quercetin unabhängig von der Lebensverlängerung und eher schädlich für die Zelle.
Im Rahmen dieser Arbeit sollte der tonische BZR-Signalweg im Burkitt Lymphom näher untersucht werden. Ziel war die Identifizierung von Zielstrukturen, die für die Zellen essentiell für die Aufrechterhaltung des tonischen Signalwegs sind und gleichzeitig die Viabilität der Zellen fördern. Durch die Identifizierung noch unbekannter Zielstrukturen wäre man in der Lage, neue Behandlungsstrategien zu entwickeln oder bereits bestehende zu optimieren. Des Weiteren sollte die Signaltransduktion in der B-ALL, die über einen Vorläufer des BZRs, dem prä-BZR vermittelt wird, hinsichtlich eines tonischen Überlebenssignals untersucht werden.
Durch massenspektrometrische Analysen der tonischen BZR-Signaltransduktion im Burkitt Lymphom, die für die Viabilität der Zellen essentiell ist und die Ergebnisse eines Inhibitorscreens konnte HSP90 als potenzielle neue Zielstruktur im Burkitt Lymphom identifiziert werden.
So konnte gezeigt werden, dass Burkitt-Lymphom-Zellen nach Inhibition der Chaperonfunktion von HSP90 durch zwei auf dem Markt bereits verfügbare Inhibitoren einen Zellzyklusarrest erfahren, der letztlich zur Apoptose der Zellen führt. Dieser Effekt wurde auf einen Verlust des (tonischen) BZR-Signals zurückgeführt, der überwiegend durch den aktiven lysosomalen Abbau von SYK nach HSP90-Inhibition zustande kommt. Demnach führte die Überexpression einer HSP90-resistenten Variante von SYK (TEL-SYK) zu einer Aufhebung der apoptotischen Effekte nach HSP90-Inhibition. Zudem wurde SYK als Interaktionspartner von HSP90 (HSP90-Klientprotein) im Burkitt Lymphom und die für die Interaktion essentielle Phosphorylierungsstelle (pY197 in HSP90α bzw. pY192 in HSP90β) identifiziert bzw. validiert.
Das therapeutische Potenzial der HSP90-Inhibitoren im Burkitt Lymphom offenbarte sich ferner durch den Vergleich der Wirkungseffektivität in gesunden B-Zellen mit der in Tumorzellen. So zeigten HSP90-Inhibitoren eine erhöhte Affinität zu Tumorzellen. Bei verwendeten Konzentrationen der Inhibitoren, die bereits eine apoptotische Wirkung in Tumorzellen hervorriefen, waren gesunde B-Zellen resistent.
In der B-ALL konnte durch den Knockdown von CD79a und der Inhibition von SYK eine tonische Antigenrezeptor-Signalleitung identifiziert werden, die wie im Burkitt Lymphom über den PI3K/AKT-Signalweg vermittelt wird. Durch die Kombination der im Rahmen dieser Arbeit gewonnen Erkenntnisse und weiterführende Analysen (wie zum Beispiel durch Inhibitor- oder CRISPR/Cas-Screens) kann so eine Identifizierung von potenziellen Zielstrukturen mit therapeutischem Nutzen in der B-ALL erfolgen.
Die vorliegende Arbeit präsentiert die wissenschaftlichen Erkenntnisse, welche im Rahmen dreier verschiedener Messreihen gewonnen wurden. Kernthema ist in allen Fällen die Ionisation von molekularem Wasserstoff mit Photonen.
Im Rahmen der Messung sollte eine 2014 veröffentlichte Vorhersage der theoretischen Physiker Vladislav V. Serov und Anatoli S. Kheifets im Experiment überprüft werden. Ihren Berechnungen zufolge kann ein sich langsam vom Wasserstoff Molekülion entfernendes Photoelektron durch sein elektrisches Feld das Mutterion polarisieren und dafür sorgen, dass beim anschließenden Aufbruch in ein Proton und ein Wasserstoffatom eine asymmetrische Emissionswinkelverteilung zu beobachten ist [SK14]. Diese Vorhersage konnte mit den Ergebnissen der hier vorgestellten Messung zweifelsfrei untermauert werden. Für drei verschiedene Photonenenergien, welche im relevanten Reaktionskanal Photoelektronenenergien von 1, 2 und 3 eV entsprechen, wurden die prognostizierten Symmetrien in den Messdaten herauspräpariert. Es zeigte sich, dass diese sowohl in qualitativer wie auch in quantitativer Hinsicht gut bis sehr gut mit den Vorhersagen übereinstimmen.
Im zweiten Teil dieser Arbeit wurde erneut die Dissoziationsreaktion, allerdings bei deutlich höheren Photonenenergien, untersucht. Ziel war es, den in Zusammenarbeit mit den Physikern um Fernando Martin gelungenen theoretischen Nachweis der Möglichkeit einer direkten Abbildung von elektronischen Wellenfunktionen auch im Experiment zu vollziehen. Der überwiegende Teil aller Veröffentlichungen im Vorfeld dieser Messung fokussierte sich bei den Untersuchungen der Wellenfunktion entweder auf die rein elektronischen Korrelationen - so zum Beispiel in Experimenten zur Ein-Photon-Doppelionisation, wo Korrelationen zwischen beiden beteiligten Elektronen den Prozess überhaupt erst möglich machen - oder aber auf den Einfluss, welchen das Molekülpotential auf das emittierte Elektron ausübt. Die wenigen Arbeiten, die sich bis heute an einer unmittelbaren Abbildung elektronischer Wellenfunktionen versuchten, gingen meist den im Vergleich zu dieser Arbeit umgekehrten Weg: Man untersuchte hier das Licht höherer Harmonischer, wie sie bei der lasergetriebenen Ionisation und anschließenden Rekombination eines Photoelektrons mit seinem Mutterion entstehen.
In dieser Arbeit wurde ein Ansatz präsentiert, der zwei überaus gängige und verbreitete Messtechniken geschickt kombiniert - Während das Photoelektron direkt nachgewiesen und seine wesentlichen Eigenschaften abgefragt werden, kann der quantenmechanische Zustand des zweiten, gebunden verbleibenden Elektrons über einen koinzident dazu geführten Nachweis des ionischen Reaktionsfragments bestimmt werden. Dieser Vorgang stützt sich wesentlich auf Berechnungen der Gruppe um Fernando Martín, welche eine Quantifizierung der Beiträge einzelner Zustande zum gesamten Wechselwirkungsquerschnitt dieser Reaktion erlauben. Diese unterscheiden sich je nach Energie der Fragmente signifikant, so dass über eine Selektion des untersuchten KER-Intervalls Kenntnis vom elektronischen Zustand des H2 +-Ions nach der Photoemission erlangt werden kann. Die experimentellen Daten unterstützen die Theorie von Martin et al. nicht nur mit verblüffend guter Übereinstimmung, die gemessenen Emissionswinkelverteilungen stehen darüber hinaus auch in sehr gutem Einklang mit ihren theoretisch berechneten Gegenstücken. Die Ergebnisse wurden zwischenzeitlich in der renommierten Fachzeitschrift Nature Communications veröffentlicht [WBM+17].
Die dritte Messreihe innerhalb dieser Arbeit beschäftigt sich mit der Photodoppelionisation von Wasserstoff. Im Rahmen des selben Experiments wie die weiter vorn beschriebene Dissoziationsmessung bei 400 eV Photonenenergie aufgenommen, belegen die Ergebnisse auf wunderbar anschauliche Art und Weise, dass die Natur in unserer Umgebung voller Prozesse ist, die ursprünglich als rein quantenmechanische Laborkonstrukte angesehen wurden. Es konnte zweifelsfrei gezeigt werden, dass die beiden Elektronen, die bei der Photodoppelionisation freigesetzt werden, als ein Quasiteilchen aufgefasst werden können. Sie befinden sich in einem verschränkten Zweiteilchenzustand, und nur eine koinzidente Messung beider Elektronen vermag es, Interferenzeffekte in ihren Impulsverteilungen sichtbar zu machen - betrachtet man beide hingegen individuell, so treten keinerlei derartige Phänomene auf. Es gelang dabei zudem, eine beispielhafte Übereinstimmung zwischen den gemessenen Daten und einer theoretischen Berechnung der Kollegen um Fernando Martín zu erreichen.
Im Kindes- und Jugendalter gehoert das Rhabdomyosarkom zu den haeufigsten Weichteilsarkomen. Bisher belaeuft sich das Therapieverfahren auf chirurgische Entfernung, gefolgt von Chemotherapie, bzw. bei nicht-operablen Faellen auf Radiotherapie und Chemotherapie, jedoch haben sich die Ueberlebenschancen fuer Patienten mit einer Erkrankung in metastasiertem oder rezidiviertem Stadium trotz intensiver Forschung ueber mehrere Jahrzehnte hinweg kaum gebessert und bleiben bei unter 30%. Neue therapeutische Strategien versuchen das Immunsystem des Patienten zu modulieren und dieses gezielter oder aggressiver gegen Tumorzellen zu machen. Nebst direkter Injektion von Zytokinen oder Antikoerpern bietet die adoptive Immunzelltherapie einen vielversprechenden Ansatz. In der vorliegenden Arbeit lag der Fokus auf Natuerlichen Killer- (NK) Zellen, da diese ein hohes zytotoxisches Potential gegenueber Tumorzellen aufweisen. Eine der groessten Herausforderungen der NK-Zellforschung ist die Breitstellung ausreichender Mengen an NK-Zellen mit optimaler antitumoraler Funktion fuer den klinischen Einsatz. Viele aktuell erprobte NK-Zellexpansionsstrategien basieren auf der Verwendung von Hilfs- oder Feeder-Zellen (Versorgerzellen), die jedoch vor der Applikation in Patienten aus dem finalen Produkt entfernt werden muessen. In der vorliegenden Arbeit sollten Feeder-zellfreie NK-Zellexpansionsprotokolle unter Verwendung von Gammakettenzytokinen getestet werden.
Interleukin (IL-) 15 erwies sich dabei vor allem fuer die Vermehrung der NK-Zellen als besonders foerderlich. Im Vergleich dazu fielen die Expansionsraten mit IL-2 oder IL-21 geringer aus. Interessanterweise wurde der expansionsfoerdernde Effekt von IL-15 durch dauerhafte Anwesenheit von IL-21 im Kulturmedium gehemmt. Ein kurzer, dreitaegiger IL-21-Boost am Ende der Expansionsphase wirkte sich wiederum positiv auf die NK-Zellexpansionsraten aus. Zudem zeigte sich durch IL-21 ein vermehrtes Auftreten von NK-Zellen des reiferen CD16posCD56dim Phaenotyps, der die zytotoxische Funktion vermittelt. Bei Degranulationsuntersuchungen wurden eine IL-21-induzierte Exozytoseaktivitaet und die vermehrte Ausschuettung von Perforin und Granzym B, welche Apoptose in den Zielzellen ausloesen, beobachtet. Vor allem der dreitaegige Boost mit IL-21 bewirkte eine gesteigerte Zytotoxizitaet gegenueber Tumorzellen, insbesondere gegenueber Rhabdomyosarkomzellen.
Auf dieser Grundlage bot es sich an fuer die NK-Zellexpansion ein Zwei-Phasen-Protokoll anzuwenden, bestehend aus einer initialen Proliferationsphase mit IL-15 und einem anschliessendem IL-21-Boost, durch den die antitumorale Funktionalitaet der NK-Zellen gesteigert wurde. Dieses IL-15+21boost-Protokoll wurde mit anderen Kombinationen aus den Gammakettenzytokinen IL-2, IL-15 und IL-21 verglichen und stellte sich hinsichtlich der NK-Zellexpansionsraten, der Degranulationskapazitaet und der damit verbundenen Zytotoxizitaet als den anderen Protokollen ueberlegen heraus.
Zytokinexpandierte NK-Zellen zeigten eine hoehere Rezeptorexpression an ihren Oberflaechen als unstimulierte Zellen. Die Expansion mit dem IL-15+21boost-Protokoll bewirkte die hoechste Dichte des Todesrezeptors TRAIL, jedoch auch der inhibitorischen KIR2D-Rezeptorfamilie. Fuer andere Oberflaechenmarker ergab sich jeweils eine mittlere Expressionsdichte verglichen mit dem IL-15- bzw. dem IL-15+21-Expansionsprotokoll. Die Sekretion von proinflammatorischen Zytokinen wie Interferon-gamma (IFN-g) und Tumor-Nekrose-Faktor-alpha (TNF-a) wurde zudem verstaerkt durch IL-21 angeregt, aber ebenso die Sekretion des immunsupprimierenden IL-10.
Weiter wurden die zytoinexpandierten NK-Zellen zur UEberpruefung ihrer in vivo Funktionalitaet anhand eines praeklinischen Xenograftmodells unter Verwendung von NOD SCID IL-2-Rgamma-/- (NSG) Maeusen und der Technologie der in-vivo-Biolumineszenzbildgebung getestet. Dabei konnte beobachtet werden, dass die NK-Zellen das Wachstum luciferaseexprimierender humaner Rhabdomyosarkome verlangsamten. Die Wirksamkeit der IL-15+21boost-expandierten NK-Zellen zeigte sich vor allem in einem kombinierten Ansatz, bei dem die Tumore zunaechst mit ionisierender Strahlung behandelt wurden und residuale Rhabdomyosarkomzellen anschliessend durch den adoptiven Transfer von humanen NK-Zellen in ihrem Wachstum gehemmt waren, solange die NK-Zelltherapie andauerte. Somit stellte sich die Kombination aus Bestrahlung und NK-Zelltransfer als wirksamer im Einsatz gegen Rhabdomyosarkome heraus als die alleinige Behandlung der Tumore durch Radiotherapie.
Zusammengefasst konnte in dieser Arbeit ein NK-Zellexpansionsprotokoll entwickelt werden, dass durch den ausschliesslichen Einsatz von Gammakettenzytokinen zu einem funktionalen NK-Zellprodukt fuehrte, welches auch in vivo lytische Aktivitaet gegenueber Rhabdomyosarkomzellen aufwies.
Atmospheric nanoaerosols have extensive effects on the Earth’s climate and human health. This cumulative work focuses on the development and characterization of instrumentation for measuring various parameters of atmospheric nanoaerosols, and its use to understand new particle formation from organic precursors. The principal research question is, how the chemical composition of nanoaerosol particles can be measured and how atmospheric chemistry influences aerosol processes, especially new particle formation and growth. Therefore, nanoaerosols are investigated under various aspects. More specifically, an instrument is developed to analyze nanoparticles, and field as well as chamber studies are conducted.
The main project is the instrument development of the Thermal Desorption Differential Mobility Analyzer (TD-DMA, project 1, Wagner et al. (2018)). This instrument analyzes the chemical composition of small aerosol particles. By characterization and testing in chamber experiments, it is proven to be suitable for the analysis of freshly nucleated particles.
The second project (Wagner et al. (2017)) applies a broad spectrum of aerosol measurement instruments for the characterization of aerosol particles produced by a skyscraper blasting. A comprehensive picture of the particle population emitted by the demolition is obtained.
Project 3 (K¨urten et al. (2016)) is also an ambient aerosol measurement, focusing of new particle formation in a rural area in central Germany, and the ability of a negative nitrate CI-APi-TOF to detect various substances in atmosphere. Project 4 (Heinritzi et al. (2016)) is a characterization of the negative nitrate CI-APi-TOF used in projects 1, 3, 5, 6, 7 and 8. The following projects focus on understanding new particle formation from atmospherically abundant organic precursors. Key instruments comprise the negative nitrate CI-APiTOF for gas-phase measurements of the nucleating species, and various sizing and counting instruments for quantifying the particle formation and growth. Project 5 (Kirkby et al. (2016)) shows that biogenic organic compounds formed from alpha-pinene can nucleate on their own without the influence of e.g. sulfuric acid. Project 6 (Tr¨ostl et al. (2016)) describe the subsequent growth of these particles. Project 7 (Stolzenburg et al. (2018)) covers the temperature dependence of this growth and in project 8 (Heinritzi et al. (2018)), the suppressing influence of isoprene on the new particle formation is assessed.
Das Standardmodell der Elementarteilchenphysik beschreibt nach aktuellem Kenntnisstand die Entstehung, den Aufbau und das Verhalten der Materie in unserem Universum am erfolgreichsten. Dennoch gibt es einige Phänomene, die sich nicht in dessen Rahmen beschreiben lassen, wie z. B. die Existenz von dunkler Materie und Energie, nicht-verschwindende Neutrinomassen oder die Baryonenasymmetrie. Speziell im Hinblick auf die starke Wechselwirkung, welche im Standardmodell durch die Quantenchromodynamik (QCD) beschrieben wird, gibt es noch immer viele offene Fragen.
Eine Umgebung, in der man die QCD experimentell ergründen kann, bieten vor allem Schwerionenkollisionen, die insbesondere am Large Hadron Collider (LHC) oder am Relativistic Heavy Ion Collider (RHIC) durchgeführt werden.
In dieser Arbeit soll ein Beitrag von theoretischer Seite aus hinsichtlich eines besseren Verständnisses dieser Schwerionenkollisionen und der zugrundeliegenden QCD erbracht werden. Der Fokus liegt dabei auf dem Isotropisierungsprozess unmittelbar nach der Kollision der beiden Kerne.
Neben etlichen effektiven Theorien, die sehr gute Ergebnisse in den entsprechenden Grenzbereichen liefern, ist die Beschreibung der QCD im Rahmen der Gittereichtheorie (Gitter-QCD) die am meisten etablierte. Diese beinhaltet in den meisten Fällen einen Übergang zur euklidischen Raumzeit, da somit ein Auswerten der hochdimensionalen Pfadintegrale mithilfe von Monte-Carlo-Simulation basierend auf dem sogenannten Importance Sampling ermöglicht wird. Aufgrund der Komplexwertigkeit der euklidischen Zeitkomponente ist man jedoch an das Studieren von statischen Observablen gebunden. Da wir aber gerade an einer Zeitentwicklung des Systems interessiert sind, sehen wir von dem Übergang zur euklidischen Raumzeit ab, was den Namen “real-time” im Titel der Arbeit erklärt.
Wir folgen dem sogenannten Hamilton-Ansatz und leiten damit Feldgleichungen in Form von partiellen Differentialgleichungen her, die wir dann mit den Methoden der Gitter-QCD numerisch lösen. Dabei bedienen wir uns der effektive Theorie des Farb-Glas-Kondensats (CGC, aus dem Englischen: “Color Glass Condensate”), um geeignete Anfangsbedingungen zu erhalten. Genauer gesagt basieren unsere Gitter-Anfangsbedingungen auf dem McLerran-Venugopalan-Modell (MV-Modell), das eine klassische Approximation in niedrigster Ordnung darstellt und nur Beiträge rein gluonischer Felder berücksichtigt.
Die klassische Näherung sowie das Vernachlässigen der fermionischen Felder wird insbesondere mit den hohen Besetzungszahlen der Feldmoden begründet. Einerseits dominieren Infrarot-Effekte, welche klassischer Natur sind, und andererseits ist dadurch der Einfluss der Fermionen, die dem Pauli-Prinzip gehorchen, unterdrückt. Gerade bei letzterer Aussage fehlt es jedoch an numerischen Belegen. Wir erweitern daher die klassische MV-Beschreibung durch stochastische Gitter-Fermionen, um diesem Punkt nachzugehen. Da sich Fermionen nicht klassisch beschreiben lassen, spricht man hierbei oft von einem semi-klassischen Ansatz.
Eines der Hauptziele dieser Arbeit liegt darin, den Isotropisierungsprozess, der bislang noch viele Fragen aufwirft, aber unter anderem Voraussetzung für das Anwenden von hydrodynamischen Modellen ist, zu studieren. Wir legen dabei einen besonderen Fokus auf die systematische Untersuchung der verschiedenen Parameter, die durch die CGC-Anfangsbedingungen in unsere Beschreibung einfließen, und deren Auswirkungen auf etwa die Gesamtenergiedichte des Systems oder die zugehörigen Isotropisierungszeiten. Währenddessen überprüfen wir zudem den Einfluss von unphysikalischen Gitter-Artefakten und präsentieren eine eichinvariante Methode zur Analyse der Güte unserer klassischen Näherung. Die Zeitentwicklung des Systems betrachten wir dabei sowohl in einer statischen Box als auch in einem expandierenden Medium, wobei Letzteres durch sogenannte comoving Koordinaten beschrieben wird. Zudem liefern wir einen Vergleich von der realistischen SU(3)-Eichgruppe und der rechentechnisch ökonomischeren SU(2)-Eichgruppe.
Mit unseren numerischen Ergebnissen zeigen wir, dass das System hochempfindlich auf die verschiedenen Modellparameter reagiert, was das Treffen quantitativer Aussagen in dieser Formulierung deutlich erschwert, insbesondere da einige dieser Parameter rein technischer Natur sind und somit keine zugehörigen physikalisch motivierten Größen, die den Definitionsbereich einschränken könnten, vorhanden sind. Es ist jedoch möglich, die Anzahl der freien Parameter zu reduzieren, indem man ihren Einfluss auf die Gesamtenergie des Systems analysiert und sich diesen zunutze macht. Dadurch gelingt es uns mithilfe von Konturdiagrammen einige Abhängigkeiten zu definieren und somit die Unbestimmtheit des Systems einzuschränken. Des Weiteren finden wir dynamisch generierte Filamentierungen in der Ortsdarstellung der Energiedichte, die ein starkes Indiz für die Präsenz von sogenannten chromo-Weibel-Instabilitäten sind. Unsere Studie des fermionischen Einflusses auf den Isotropisierungsprozess des CGC-Systems weist auf, dass dieser bei kleiner Kopplung vernachlässigbar ist. Bei hinreichend großen Werten für die Kopplungskonstante sehen wir allerdings einen starken Effekt hinsichtlich der Isotropisierungszeiten, was ein bemerkenswertes Resultat ist.
Whereas many writers across all times and cultures have written about the potential aesthetic effects of music experiences which could be labeled as absorption, only limited empirical research has been done on the state aspects of this fascinating aspect of human involvement. What is more, there are still few tested models which explain how people can be absorbed by a piece of music as well as continue to be third-person observers monitoring and even reflecting on that same musical experience (cf. Bryant & Veroff, 2007; Dewey, 2005; Wolf, 2013).
Adopting a dual process approach (Dietrich, 2004; Evans & Stanovich, 2013; Lewis, Tamborini & Weber, 2014; Mukhopadhyay, 2014; Schwarz, 2011; Smith & Neumann, 2005) – in which human thinking, emotion, and routes to appraisal are defined in terms of an interplay between two distinct systems of psychological processing – this thesis aimed to examine a) the cognitive mechanisms underlying the essential yet poorly understood paradox of losing oneself in the music on the one hand, and the act of meta-awareness (i.e., rational and controlled sense of self) on the other, b) its corresponding psycho-phenomenological profile(s) when listening intentionally to self-chosen music, and c) the different potential of state and trait aspects of absorption and meta-awareness in predicting three indicators of the aesthetic response to music: enjoyment (a purely pleasurable response), lasting impression (a meaningful response related to mixed emotion), and behavioral intention (future-planned seeking/ avoidance response). Moreover, a dynamically-conceived conceptualization of absorption was proposed in terms of a temporary phase taking place amidst a variety of other cognitive responses to music, including concentration, mind wandering, and mindfulness. Finally, a questionnaire commonly-used for assessing alterations in consciousness (Phenomenology of Consciousness Inventory; Pekala, 1991) was evaluated in the context of music listening, before using it in the development of a self-report questionnaire aimed at measuring absorptive states in or by music. To this end, a quantitative empirical research method (state and trait questionnaires) was employed in a series of online surveys, using self-selected music as well as pre-determined music by the researcher as stimulus, together approaching a naturalistic listening setting.
Situated within an overarching neurocognitive model for music engagement and consistent with several aesthetic theories converging (Benson, 1993; Dewey, 2005; Wolf, 2013), aesthetic absorption was conceptualized as, and later confirmed to be, structured by experiential and meta-consciousness or – in terms of dual process terminology – intuitive type I and reflective type II processing. Two forms of music absorption were empirically identified and labeled as zoning in and tuning in (cf. Schooler, 2007). These experience profiles distinguished themselves significantly in terms of the degree in which a music listener maintained his or her meta-awareness, assessed via volitional control, rationality, self-awareness, and memory of the previous event. The overall pattern of consciousness parameters of both types of absorbed listening are suggestive of a unique interchanging between brain networks for intuitive processing and areas related to self-reference, -awareness and -control. The distinction between zoning in and tuning in was further found to be strongly related to the quality of affective state (i.e., positive vs. mixed emotions). These emotions modulate the experiential intensity of absorption, suggesting this experience to be an affect-biased type of attention. Based on the feelings-as-information theory (Schwarz, 2011), postulating that positive emotions (e.g., happiness) are differently processed than negatively-tinted types of emotions (e.g., nostalgia), it was concluded that music-induced rumination (a negatively-valenced experience related to the self and represented by the feeling of sadness) ‘competes’ with higher-order functions relevant to meta-awareness. From this perspective, the two found absorption types match conceptually with the positively-tinged self-reflection and negatively-tinged self-rumination as two different types of self-focused introspection (Takano & Tanno, 2009; Trapnell & Campbell, 1999). Further examining the construct’s latent structure, it was shown that being absorbed by music is a continuous phenomenon; a matter of ‘more-or-less’ involvement rather than a ‘unique state of mind’. This finding cautions against subtyping absorption experiences as being qualitatively distinct, and assuming it to be guided by ‘special’ mechanisms. Consequently, determining ‘music absorbers’ is a matter of imprecise estimation rather than being marked by a clear observable onset. Finally, as expected, an absorbed state of mind – operationalized here as a multidimensional bifactor model – completely mediated the effect of trait absorption, and was a good predictor for enjoyment, lasting impression, and behavioral intention. Whereas absorption and enjoyment were found to have a mutual positive effect on each other, absorption and meta-awareness were found to be unrelated to each other. Also, meta-awareness contributed little to aesthetic appreciation. The results confirm the need for a dynamic approach to the relationship between state absorption and enjoyment; the one-directional approach common in many research reports does not seem to fully capture the relationship between them. Future research should examine whether the same applies for absorption and meta-awareness, preferably making use of more advanced measures for the latter.
Taken together, this dissertation shows the potential of including the interplay between the trait and state constructs of absorption and meta-awareness in order to better understand the mechanisms underlying aesthetic experiences with music. The present work demonstrated that these two constructs should not be conflated, but, in terms of dual processing, that they represent different levels of consciousness. Moreover, this thesis underlined the power of absorption not only to evoke short-lived pleasurable experiences, but also to stimulate long-lasting impressions. Knowing more about absorbed listening and its potential effects, learning to consciously recognize it as it happens, and perhaps regulate and maintain its positive consequences (i.e., savoring), could further improve the way we engage ourselves with music or other aesthetic objects. Only then could we engage in behavior that we’re sure would make us happy rather than seeking out experiences which we hope would make us happy.
Finally, dual process approach and measures provided by research on altered-states-of-consciousness (ASC) experiences offer new and fruitful perspectives to conceptualize aesthetic absorption and examine its mechanisms. Several major research questions lie ahead in understanding the phenomenological experience and aesthetic role of absorption, including the future comparison between subjective experiences of ASCs across varying music and non-music induction methods (e.g., hypnosis), listening conditions (e.g., live concert experience), and musical ‘cultures’ (human societies, musical styles, classes).
Whereas many writers across all times and cultures have written about the potential aesthetic effects of music experiences which could be labeled as absorption, only limited empirical research has been done on the state aspects of this fascinating aspect of human involvement. What is more, there are still few tested models which explain how people can be absorbed by a piece of music as well as continue to be third-person observers monitoring and even reflecting on that same musical experience.
Adopting a dual process approach – in which human thinking, emotion, and routes to appraisal are defined in terms of an interplay between two distinct systems of psychological processing – this thesis aimed to examine a) the cognitive mechanisms underlying the paradox of losing oneself in the music on the one hand, and meta-awareness on the other, b) its corresponding psychophenomenological profile(s) when listening intentionally to self-chosen music, and c) the different potential of state and trait aspects of absorption and meta-awareness in predicting three indicators of the aesthetic response to music: enjoyment, lasting impression, and behavioral intention.
To this end, a quantitative empirical research method (state and trait questionnaires) was employed in a series of online surveys, using self-selected music as well as pre-determined music by the researcher as stimulus, together approaching a naturalistic listening setting.Aesthetic absorption was confirmed to be structured– in terms of dual process terminology – by intuitive type I and reflective type II processing. Two forms of music absorption were empirically
identified and labeled as zoning in and tuning in. These experience profiles distinguished themselves significantly in terms of the degree in which a music listener maintained his or her meta-awareness, assessed via volitional control, rationality, self-awareness, and memory of the previous event. The overall pattern of consciousness parameters of both types of absorbed listening are suggestive of a unique interchanging between brain networks for intuitive processing and areas related to self-reference, -awareness and -control. The distinction between zoning in and tuning in was further found to be strongly related to the quality of affective state.
These emotions modulate the experiential intensity of absorption, suggesting this experience to be an affect-biased type of attention. Based on the feelings-as-information theory, postulating that positive emotions are differently processed than negatively-tinted types of emotions, it was
concluded that music-induced rumination ‘competes’ with higher-order functions relevant to meta-awareness. From this perspective, the two found absorption types match conceptually with the positively-tinged self-reflection and negatively-tinged self-rumination as two different types of self-focused introspection. It was also shown that being absorbed by music is a continuous phenomenon; a matter of ‘more-or-less’ involvement rather than a ‘unique state of mind’. Consequently, determining ‘music absorbers’ is a matter of imprecise estimation rather than being marked by a clear observable onset. Finally, as expected, an absorbed state of mind - operationalized here as a multidimensional bifactor model – completely mediated the effect of trait absorption, and was a good predictor for enjoyment, lasting impression, and behavioral intention.
Whereas absorption and enjoyment were found to have a mutual positive effect on each other, absorption and meta-awareness were found to be unrelated to each other. Also, meta-awareness contributed little to aesthetic appreciation. The results confirm the need for a dynamic approach to the relationship between state absorption and enjoyment; the one-directional approach common in many research reports does not seem to fully capture the relationship between them. Taken together, this dissertation shows the potential of including the interplay between the trait and state constructs of absorption and meta-awareness in order to better understand the mechanisms underlying aesthetic experiences with music. The present work demonstrated that these two constructs should not be conflated. Moreover, this thesis underlined the power of absorption not only to evoke short-lived pleasurable experiences, but also to stimulate longlasting impressions. Knowing more about absorbed listening and its potential effects, learning to consciously recognize it as it happens, and perhaps regulate and maintain its positive consequences (i.e., savoring), could further improve the way we engage ourselves with music or other aesthetic objects. Only then could we engage in behavior that we’re sure would make us happy rather than seeking out experiences which we hope would make us happy.
With the discovery of light beyond human visibility, scientists strove to extend the range of observation to invisible parts of the light’s spectrum. Realising that light of all frequencies is part the same physical phenomenon, brought a leap in understanding about electromagnetic waves. With the development of more advanced technology, detectors with higher sensitivity for adjacent frequencies to the visible were built. From this, with each new observable wavelength, more insight into otherwise invisible processes and phenomenons were observed. Hand in hand with this went the enhancement of the output power of corresponding sources. This has lead to higher sensitivity setups throughout the spectrum, leading to observations which have given a deeper understanding in various fields of science. Nowadays, detectors and emitters in many different regions of the invisible electro magnetic spectrum have found their way in our every day life. Innovations in technology has lead to practical applications such as X-rays in medicine, motion sensors and remote controls using infrared light, distance sensors and data transmission using radar and radio devices. The frequency regions above infrared are optically generated and below radar can be produced using electric methods. There is no straight line that separates these frequencies. There rather is a whole intermediate region known as the terahertz (THz) regime. Due to the lack of sensitive detectors and efficient sources, the THz frequency region has not been exploited for application use on a widespread basis so far. It combines properties from the surrounding frequency ranges which make it an ideal spectrum for various applications. Consequently, THz radiation and THz imaging are active fields of research.
The work presented in this thesis consists of the development and testing of novel THz imaging concepts, which uses a THz antenna coupled field effect transistor (TeraFET) detector. Two detection principles are applied using two different optical setups. The first uses a pulsed optical parametric oscillator (OPO) THz source where the optical output power is detected. The source relies on a nonlinear effect of a lithium niobate crystal to generate tunable THz pulses from a Q-switched pump laser. The THz signal is detected and amplified by a double stage operational amplifier for monitoring the real time 20 ns pulses on an oscilloscope where a signal to noise ratio (SNR) of ⇠ 25 at a frequency range from 0.75 to 1.1 THz is reached. Imaging of the area of interest with a resolution of 1.2 mm is achieved through raster scanning of the THz pulses. Also spectroscopy with a frequency resolution of ⇠ 50 GHz is demonstrated using a para-aminobenzoic acid sample. The second setup utilises two synchronised electronic multiplier chain sources where their output is mixed on the detector. To form a heterodyne detection setup, the intermediate frequency is fed to a lock-in amplifier which then amplifies the so called beat signal from the TeraFET detector. One source is fixed relative to the detector even through scanning to ensure a stable signal. This detection method allows for amplitude and phase detection for every scanning position, making numerical light field propagation and object reconstruction possible. Numerical focussing is a key feature achieving a lateral resolution of the input transmittance of ⇡ 2 mm.
After the introduction, the second chapter describes the setup, measurement results and challenges which arise using a TeraFET together with the pulsed THz source “Firefly-THz”. In the description of the setup, special attention is given to the shielding of the detector and the electronics. General findings discuss first the overall performance and later spectroscopy and imaging as application examples. Another subsection continues with potential noise sources before the chapter is concluded. Chapter three expands on the topic of Fourier optics from a theoretical point of view. First, parts of the theory of the Fourier Transform (FT) are set out for the reader and how the Fast Fourier Transform (FFT) results from the Discrete Fourier Transform (DFT). This approach is used for theoretical considerations and the implementation of a Fourier optic script that allows for numerical investigations on electro magnetic field propagation through an optical system. The boundary conditions are chosen to be practical relevant to make predictions on measurements presented in chapter four. The following fourth chapter describes the realisation of a heterodyne THz detection setup. Before the measurement results are presented, the setup and its electric configuration are shown. The results come close to the analytical predictions so that the same algorithm which propagates the field from an object to the Fourier plane is used to propagate the measured field back to the object. The influence of phase noise on the measurement results are discussed before simulation and measurement is compared. The last chapter in this thesis concludes on the findings in the pulsed THz detection and the heterodyne THz Fourier imaging and gives an outlook for both configurations.
The present study aimed to assess the tissue response to the SYMBIOS® resorbable collagen membrane SR, which is derived from bovine Achilles tendon, and compare it to the physiological wound healing of a sham operation as a control.
An ex vivo analysis was performed using injectable platelet-rich fibrin (i-PRF), that is gained by the centrifugation of human venous blood and contains fibrin, leukocytes and platelets, to elucidate the membrane permeability and interactions with human cells and plasma proteins. In the in vivo study, a subcutaneous implantation model was established in Wistar rats to evaluate the cellular reactions for up to 30 days after membrane implantation. Histochemical, immunohistochemical and histomorphometric analyses were performed to assess the cellular inflammatory response, vascularization pattern and cell infiltration capacity.
In the ex vivo study, i-PRF components including fibrin, leukocytes and platelets penetrated the membrane after just 15 minutes. Within the observation period, the cellular reaction in the early phase, which included the first 3 days, produced only mononuclear cells. From 10 to 30 days , the formation of multinucleated giant cells (MNGCs) was induced by the collagen membrane. CD-68 positive cells (macrophages) occurred in a high number on day 3, and the number decreased over time up to day 30. Along with the reduction in the number of CD-68 positive cells, the number of MNGCs increased significantly. The presence of MNGCs was accompanied by significantly increased vascularization within the central region of the membrane, and only mononuclear cells (MNCs) did not produce vascularization. In contrast, the accumulated MNGCs were located on the membrane surface. The control group reflected the physiological process of wound healing, as MNGCs did not form over the 30 day period, and a significantly lower level of vascularization was observed compared with the test group.
This finding showed dynamic changes in the cellular reaction, which indicated a relationship between macrophage fusion and MNGC formation, and vascularization of the collagen membrane is circumstantial evidence of a reaction to a foreign body. However, the collagen membrane was able to maintain its structure and integrity over time, showing no signs of premature breakdown and disintegration due to the specific porosity of its membrane structure.
Therefore, we questioned whether the biomaterial-induced formation of MNGCs should be accepted as a biomaterial-induced cellular reaction that is able to restore vascularization or as an adverse reaction. Therefore, extensive preclinical and clinical studies are needed to investigate the type of MNGCs that form in response to the membrane material studied here.
Due to the resurrection of data-hungry models (such as deep convolutional neural nets), there is an increasing demand for large-scale labeled datasets and benchmarks in the computer vision fields (CV). However, collecting real data across diverse scene contexts along with high-quality annotations is often expensive and time-consuming, especially for detailed pixel-level label prediction tasks such as semantic segmentation, etc. To address the scarcity of real-world training sets, recent works have proposed the use of computer graphics (CG) generated data to train and/or characterize performance of modern CV systems. CG based virtual worlds provide easy access to ground truth annotations and control over scene states. Most of these works utilized training data simulated from video games and pre-designed virtual environments and demonstrated promising results. However, little effort has been devoted to the systematic generation of massive quantities of sufficiently complex synthetic scenes for training scene understanding algorithms. In this work, we develop a full pipeline for simulating large-scale datasets along with per-pixel ground truth information. Our simulation pipeline constitutes of mainly two components: (a) a stochastic scene generative model that automatically synthesizes traffic scene layouts by using marked point processes coupled with 3D CAD objects and factor potentials, (b) an annotated-image rendering tool that renders the sampled 3D scene as RGB image with a chosen rendering method along with pixel-level annotations such as semantic labels, depth, surface normals etc. This pipeline is capable of automatically generating and rendering a potentially infinite variety of outdoor traffic scenes that can be used to train convolutional neural nets (CNN).
However, several recent works, including our own initial experiments demonstrated that the CV models that are trained naively on simulated data lack generalization capabilities to real-world scenes. This opens up several fundamental questions about what is it lacking in simulated data compared to real data and how to use it effectively. Furthermore, there has been a long debate since 1980’s on the usefulness of CG generated data for tuning CV systems. Primarily, the impact of modeling errors and computational rendering approximations, due to various choices in the rendering pipeline, on trained CV systems generalization performance is still not clear. In this thesis, we take a case study in the context of traffic scenarios to empirically analyze the performance degradations when CV systems trained with virtual data are transferred to real data. We first explore system performance tradeoffs due to the choice of the rendering engine (e.g., Lambertian shader (LS), ray-tracing (RT), and Monte-Carlo path tracing (MCPT)) and their parameters. A CNN architecture, DeepLab, that performs semantic segmentation, is chosen as the CV system being evaluated. In our case study, involving traffic scenes, a CNN trained with CG data samples generated with photorealistic rendering methods (such as RT or MCPT), shows already a reasonably good performance on real-world testing data from CityScapes benchmark. Use of samples from an elementary rendering method, i.e., LS, degraded the performance of CNN by nearly 20%. This result conveys that training data must be photorealistic enough for better generalizability of the trained CNN models. Furthermore, the use of physics-based MCPT rendering improved the performance by 6% but at the cost of more than three times the rendering time. This MCPT generated dataset when augmented with just 10% of real-world training data from CityScapes dataset, the performance levels achieved are comparable to that of training CNN with the complete CityScapes dataset.
The next aspect we study in the thesis involves the impact of choice of parameter settings of scene generation model on the generalization performance of CNN models trained with the generated data. Towards this end, we first propose an algorithm to estimate our scene generation model parameters given an unlabeled real world dataset from the target domain. This unsupervised tuning approach utilizes the concept of generative adversarial training, which aims at adapting the generative model by measuring the discrepancy between generated and real data in terms of their separability in the space of a deep discriminatively-trained classifier. Our method involves an iterative estimation of the posterior density of prior distributions for the generative graphical model used in the simulation. Initially, we assume uniform distributions as priors over parameters of a scene described by our generative graphical model. As iterations proceed the uniform prior distributions are updated sequentially to distributions for the simulation model parameters that leads to simulated data with statistics that are closer to the distributions of the unlabeled target data.
...
Microsporidia are a group of parasites that infect a wide range of species, many of which play important roles in agriculture and human disease. At least 14 microsporidian species have been confirmed to cause potentially lifethreatening infectious diseases in both immunocompromised and immunocompetent humans. Approximately 1,400 species of microsporidia have been described. Depending on their host and habitat they are classified into three groups, the aquasporidia, the terresporidia and the marinosporidia.
Microsporidia were originally classified as fungi by Naegeli (1857). However, their lack of typical eukaryotic components – such as mitochondria, Golgi bodies or peroxisomes – suggested to place the microsporidia together with other amitochondriate protists within the Archezoa kingdom. This "microsporidia-early" hypothesis was further supported by molecular phylogenies inferred from individual genes. Despite this evidence, the placement of microsporidia as an early branching eukaryote remained a topic for debate. The phylogeny of microsporidia is prone to suffer from biases in their reconstruction. The high evolutionary rate of microsporidian proteins tends to place these proteins together with other fast evolving lineages, a phenomenon known as long-branch attraction. In 1996, the first molecular phylogenetic studies placed the microsporidia inside the fungi.
Subsequently, several further studies located the microsporidia at different positions inside the fungal clade. Since then, microsporidia have been considered as members of the Ascomycota, Zygomycota, Cryptomycota, or as a sister group to the Ascomycota and Basidiomycota, or even as the sister group of all fungi.
The difficulties in determining the evolutionary origin of microsporidia are not only caused by their lack of several cellular components but also by their reduced genomes and metabolism. Being obligate intracellular parasites, microsporidia successfully reduced their genome sizes, down to the range of bacteria. As the smallest eukaryotic genome described so far, the genome of Encephalitozoon intestinalis is just 2.3 Mbp, about half the size of the one of Escherichia coli. Due to their low number of protein coding genes (less than 4,000), microsporidia are thought to retain only genes essential for their survival and development. Furthermore, several key metabolic pathways are missing in the microsporidia, such as the citric acid cycle, oxidative phosphorylation, or the de novo biosynthesis of nucleotides. As a result they are in an obligatory dependence on many primary metabolites from the hosts. However, the presence of hsp70 protein suggests a more complex genome of the microsporidian ancestor. Consequently, the small microsporidian genomes and the reduced metabolism would be consequences of a secondary loss process that molded the contemporary microsporidia from a functionally more complex ancestral species. However, it remains unclear whether the last common ancestor (LCA) of the microsporidia was already reduced, or whether the genome compaction was lineage-specific and started from a more complex LCA.
We investigated the evolutionary history of the contemporary microsporidia through the reconstruction and analysis of their LCA. As a first step in our analysis, we have developed and implemented a software facilitating an intuitive data analysis of the large presence absence-patterns resulting from the tracing of microsporidian proteins in gene sets of many different species. These so called phylogenetic profiles can now be dynamically visualized and explored with PhyloProfile. The software allows the integration of other additional information layers into the phylogenetic profile, such as the similarity of feature architecture (FAS) between the protein under study and its orthologs. The FAS score can be displayed along the presence-absence pattern, which can help to identify orthologs that have likely diverged in function. PhyloProfile closes the methodological gap that existed between tools to generate large phylogenetic profiles to delineate the evolutionary history and the contemporary distribution of large – and ultimately complete – gene sets, and the more function-oriented analysis of individual protein. In the next step we tackled the problem of how to transfer functional annotation from one protein to another. We have developed HamFAS that integrates a targeted ortholog search based on the HaMStR algorithm with a weighted assessment of feature architecture similarities (FAS) between orthologs. In brief, for a seed protein we identify orthologs in reference species in which proteins have been functionally annotated based on manually curated assignments to KEGG Ortholog (KO) groups. The FAS scores between the orthologs and seed proteins are calculated. Subsequently, we compute pairwise FAS scores for all reference proteins within a KO group. A group's mean FAS score serves then as cutoff that must be exceeded to warrant transfer of its KO identifier to the seed. A benchmark using a manually curated yeast protein set showed that HamFAS yields the best precision (98.5%) when compared with two state-of-the-art annotation tools, KAAS and BlastKOALA. Furthermore, HamFAS achieves a higher sensitivity. On average HamFAS annotates almost 50% more proteins than KAAS or BlastKOALA.
With this extended bioinformatics toolbox at hand, we aimed at reconstructing the evolutionary history of the microsporidia. We generated a robust phylogeny of microsporidia using a phylogenomics approach. As a data basis, we identified a set of microsporidian proteins encoded by 80 core genes with one-to-one orthologs. A maximum likelihood analysis of this data
with 48 fungi and additionally in 13 species from more distantly related such as animals and plants combined in a supermatrix strongly supported the hypothesis that microsporidia form the sister group of the fungi. We confirmed that the data explains this microsporidia-fungi relationship significantly better than any other of the previously proposed phylogenetic hypotheses.
On the basis of this phylogeny, and of the phylogenetic profiles of microsporidian proteins, we then focused on reconstructing the dynamics microsporidian genome evolution. Between 2% of the proteins in the compact microsporidia Encephalitozoon intestinalis and up to 49% of the proteins of Edhazardia aedis are private for individual microsporidian species. A comparison of the sequence characteristics of these proteins to that of proteins with orthologs in other microsporidian species revealed individual differences. Yet, without further evidences it remains unclear whether these private genes are indeed lineage-specific innovations contributing to the adaptation of each microsporidium to its host, or whether these are artifacts introduced in the process of gene annotation. A total of 14,410 microsporidian proteins could then be grouped into 1605 orthologous groups that can be traced back to the last common ancestor of the microsporidia (LCA set). We found that 94% of the microsporidian LCA proteins could be tracked back to the last eukaryotic common ancestor. The high evolutionary age of these proteins, together with the resistance against gene loss in the microsporidia suggests that the corresponding functions are essential for eukaryotic life. Further 3% of the LCA proteins could be dated to the common ancestor microsporidia share with the fungi. Only 3% of the LCA proteins appear as microsporidia specific inventions. These proteins are potentially of importance for the evolutionary of the obligate parasitic lifestyle nowadays shared by all microsporidia.
The functional annotation and metabolic pathway analysis of the microsporidian LCA protein set gave us more insight into the adaptation of the microsporidia to their parasitic lifestyle and the origin of the microsporidian genome reduction. The presence of E1 and E3 components of the pyruvate dehydrogenase complex and the mitochondrial hsp70 protein support an ancestral presence of mitochondria in the ancestral microsporidia. In addition, several ancient proteins that complement gapped metabolic pathways were found in the microsporidian LCA. They suggested a more complex genome and metabolism in the LCA. However, our reconstruction of the metabolic network of the microsporidian LCA still lacks many main pathways. For example, the TCA cycle for effective energy production, and key enzymes that are required for in vivo synthesis of critical metabolites like purines and pyrimidines appear absent. We therefore find that the parasitic lifestyle and the genome reduction already occurred in the microsporidian LCA. This ancestral state was followed by further losses and gains during the evolution of each individual microsporidian lineage.
Für den Zugang zu sozialen Netzwerken - sei es ein klassisches soziales Netzwwerk oder eine objektspezifische Community - ist die Existenz eines Avatars obligatorisch. Die virtuelle Repräsentation bindet die User_innen dahinter als gestaltbares Interface-Objekt in das Kommunikationssystem ein. Der systemspezifische Avatar besteht dabei aus feststehenden Modulen, deren Anordnung von den User_innen unveränderbar ist so dass mit dem Zugang zum System die Annahme der medialen Uniformität ebenfalls obligatorisch einhergeht; sie standadisiert alle Avatare des zugehörigen Systems schablonenhaft. Durch das Füllen der Module der medialen Uniformität mit grafischen Informationen kann eine persönliche grafische Uniform generiert werden, die immer in Bezug zur grafischen Uniformität der jeweiligen Community steht...
Most of the elements in the universe are produced via charged-particle fusion reactions during the primordial nucleosynthesis and different stellar burning stages, as well as via neutron-capture reactions. Around 35 heavy, proton-rich isotopes are bypassed by those reaction paths, the p nuclei. A series of photo-disintegration reactions occurring in supernovae, called the γ process, was suggested as a mechanisms to produce the p nuclei. Numerical simulations of the γ process have been unable to reproduce the observed abundances of the light p isotopes. Recent models showed that a series of proton capture reactions could provide the observed abundances. Hence, the cross sections of the crucial capture reactions have to be measured in order to test those assumptions.
Radiative proton captures in addition to the γ-process could reproduce the observed abundance pattern. This thesis presents preparations of a proton capture measurement on the radioactive 91Nb in standard kinematics with a calorimetric 4π setup. The 91Nb(p,γ)92Mo reaction might be the key to explain the production of one of the most abundant p-nuclei, 92Mo. So far, no experimental data for this reaction is available.
We produced a sample of 91Nb, with a half-life of 680 yr, at the Physikalisch Technische Bundesanstalt in Braunschweig, Germany, by irradiating 92Mo with protons in the energy range of 12 – 20MeV. 91Nb was produced via the reaction 92Mo(p,2p)91Nb and via 92Mo(p,pn)91Mo, where 91Mo decays to 91Nb with a half-life of 15.5min. To predict the amount of produced 91Nb the cross section of 92Mo(p, 2p) was measured. It was found to be higher than the value given by theoretical calculations with TALYS. Finally, 91Nb was chemically separated from the molybdenum carried at Paul-Scherrer- Institut, Villigen, Switzerland.
In-beam total absorption cross-section measurement of the reaction 91Nb(p,γ)92Mo with 2 MeV protons at FRANZ is planed with the produced 91Nb. A 4π BaF2 detector consisting of 41 crystals will be used. During this experiment we will measure the sum energy and the multiplicity of each event. The freshly produced 91Nb constitutes only a minor component of the sample material. The sum energy and multiplicity are crucial to distinguish the desired 91Nb(p,γ) from all the other more dominant reactions. The expected multiplicity and the efficiency of the setup were carefully simulated with DICEBOX and GEANT4. It was possible to show that background reactions can be effectively suppressed. The most important background contributions could be identified and result from 92Mo(p,γ), 19F(p,γ), and 19F(p,α).
An die Soziologie werden zunehmend Fragen des ökonomischen Nutzens und der gesellschaftlichen Relevanz herangetragen. Ein Wissen um den gesellschaftlichen Impact soziologischen Wissens und die Artikulation eines Nutzens für die Praxis sind wertvolle Werkzeuge im Kampf um die Alimentation soziologischer Forschung. Aber wie wird soziologisches Wissen überhaupt angewendet? Um diese Frage zu beantworten, wird soziologisches Wissen definiert und dessen Anwendung expliziert. Unter Zuhilfenahme von Wissenschaftstheorie und Wissenssoziologie wird zunächst eine Definition erarbeitet. Anschließend werden Forschungsgebiete, die sich mit der Anwendung von (soziologischen) Wissen beschäftigen, vorgestellt – allen voran die soziologische Verwendungsforschung. Darauf aufbauend wird eine Explikation der Anwendung soziologischen Wissens erarbeitet, vor dessen Hintergrund aktuelle Bemühungen, soziologisches Wissen stärker anzuwenden, betrachtet werden. Die abschließende Diskussion beschäftigt sich mit den Möglichkeiten und Restriktionen der Anwendung soziologischen Wissens und betont die Rolle der Soziologie als kritische gesellschaftliche Aufklärungsinstanz.
Precise timing of spikes between different neurons has been found to convey reliable information beyond the spike count. In contrast, the role of small phase delays with high temporal variability, as reported for example in oscillatory activity in the visual cortex, remains largely unclear. This issue becomes particularly important considering the high speed of neuronal information processing, which is assumed to be based on only a few milliseconds, or oscillation cycles within each processing step.
We investigate the role of small and imprecise phase delays with a stochastic spiking model that is strongly motivated by experimental observations. Within individual oscillation cycles the model contains only two signal parameters describing directly the rate and the phase. We specifically investigate two quantities, the probability of correct stimulus detection and the probability of correct change point detection, as a function of these signal parameters and within short periods of time such as individual oscillation cycles.
Optimal combinations of the signal parameters are derived that maximize these probabilities and enable comparison of pure rate, pure phase and combined codes. In particular, the gain in detection probability when adding imprecise phases to pure rate coding increases with the number of stimuli. More interestingly, imprecise phase delays can considerably improve the process of detecting changes in the stimulus, while also decreasing the probability of false alarms and thus, increasing robustness and speed of change point detection.
The results are applied to parameters extracted from empirical spike train recordings of neurons in the visual cortex in response to a number of visual stimuli. The results suggest that near-optimal combinations of rate and phase parameters can be implemented in the brain, and that phase parameters could particularly increase the quality of change point detection in cases of highly similar stimuli.
Mit S-303 pathogenreduzierten Erythrozytenkonzentraten können sowohl infektiöse also auch nicht-infektiöse Risiken einer Transfusionen möglicherweise weiter reduziert werden. Frühere Studien mussten abgebrochen werden, da Antikörper gegen S-303-behandelte Erythrozyten festgestellt wurden. S-303 reagiert als unerwünschten Nebeneffekt auch mit Oberflächenmolekülen der roten Blutkörperchen. Dabei wird die Acridin-Komponente von S-303 auf der Oberfläche der roten Blutkörperchen gebunden. Gegen diese Acridin-Komponente können nach Transfusion von pathogenreduzierten EK immuninduzierte AK gebildet werden. Es existieren aber auch natürlich präformierte AK gegen S-303-behandelte Erythrozytenkonzentrate. Das Verfahren wurde modifiziert, indem der Anteil von GSH erhöht wurde. Dadurch wird vermehrt S-303 im Extrazellulärraum abgefangen und weniger Acridin auf der Oberfläche der Erythrozyten gebunden.
In dieser Studie wurden 9671 potentiell transfusionsbedürftigen Patienten auf einen natürlich präformierten Antikörper gegen S-303-behandelte Erythrozytenkonzentrate untersucht. Diese Patienten hatten zuvor noch keine S-303-behandelten Erythrozytenkonzentrate erhalten. Es wurden Testzellen von Blutspendern der Blutgruppe 0 hergestellt. Aus jedem EK wurden drei unterschiedliche Testzellen hergestellt (Erstgenerationszellen, Zweitgenerationszellen, Kontrollzellen). Das Screening erfolgte mittels IAT in Gelkartentechnik mit einer Testzelle der ersten und zweiten Generation. Die Antikörper wurden weiter charakterisiert bezüglich Spezifität, Titer, Antikörperklasse und –subklasse, Affinität und Temperaturreaktivität.
Bei zwölf Patienten konnte ein AK gegen S-303 pathogenreduzierte Erythrozy-tenkonzentrate nachgewiesen werden und somit konnte gezeigt werden, dass die Prävalenz eines solchen Antikörpers gering ist. Bei elf Patienten handelt es sich um einen Anti-Acridin-AK. Alle elf Patienten hatten immer einen positiven AKS mit der Erstgenerationszelle, jedoch nicht mit der Zweitgenerationszelle. Die Sensitivität, einen AK gegen Acridin mit der Erstgenerationszelle zu finden, ist höher als mit der Zweitgenerationszelle. Die Erstgenerationszelle hat auf ihrer Oberfläche mehr Acridin gebunden als die Zweitgenerationszelle. Bei einem Patienten konnte ein AK unbekannter Spezifität nachgewiesen werden, welcher jedoch ausschließlich mit der Zweitgenerationszelle reagierte. Vor einer möglichen Transfusion von S-303 pathogenreduzierten Erythrozytenkonzentraten wird empfohlen immer eine Testung auf Antikörper gegen Testzellen der ersten und der zweiten Generation durchzuführen. Eine Transfusion sollte grundsätzlich nur erfolgen, wenn weder ein AK gegen die Erstgenerationszelle noch gegen die Zweitgenerationszelle nachgewiesen wurde. Insgesamt handelt es sich überwiegend um niedrigtitrige IgG-AK der Subklasse 2 oder 4. Es lässt sich daher vermuten, dass natürlich präformierten AK gegen S-303-behandelte Erythrozytenkonzentrate nur eine geringe klinische Relevanz haben.
Eine klinischen Studie mit 51 kardiochirurgischen Patienten zeigte, dass nach Transfusion von pathogenreduzierten Erythrozytenkonzentraten der zweiten Generation keine immuninduzierten Antikörper gebildet wurden. Somit ist davon auszugehen, dass die Zweitgenerationszelle wegen der geringen Expression von Acridin auf der Zelloberfläche weniger immunogen ist als die Erstgenerationszelle. Klinische Studien mit einer größeren Anzahl an Patienten können nun grundsätzlich geplant werden.
Generell sollten Patienten mit natürlich präformierten Antikörpern gegen S-303-behandelte Erythrozytenkonzentrate keine pathogenreduzierten Erythrozytenkonzentrate erhalten. Patienten, welche nach Transfusion von S-303-behandelten Erythrozytenkonzentraten AK gegen die pathogenreduzierten Erythrozyten gebildet haben, sollten regelmäßig nachuntersucht werden, um eine Hämolyse frühzeitig zu entdecken.
The multistep-processes leading to the formation of tumors have been extensively studied in the past decades, leading to the identification of “hallmarks of cancer”. They are characteristic changes in biological processes that discriminate tumor cells from healthy cells. Increasing knowledge on the molecular structures associated with tumorigenesis allowed their specific inhibition in targeted anti-cancer therapy. However, successful targeted anti-cancer therapy is only available for a limited subset of diseases, so the continuous investigation of tumorigenic mechanisms is required to tackle the immense diversity of neoplastic entities.
AVEN and FUSE binding protein 1 (FUBP1) display the ability to regulate apoptosis and cell cycle progression. Thus, the proteins are associated with hallmarks of cancer (resisting cell death and uncontrolled proliferation). Indeed, aberrant expression of AVEN and FUBP1 could be demonstrated in multiple cancers. In contrast, there is only little knowledge on the physiological function of AVEN and FUBP1. The lack of knowledge results in part from the embryonic lethality of the homozygous knockout of Aven and Fubp1 in mouse models, limiting the gain of information by analyzing these animals.
In this study, I generated conditional Aven and Fubp1 knockout mice to investigate their physiological function.
By analyzing reporter mice expressing β-galactosidase under the control of the endogenous Aven promoter, I identified Aven promoter activity to be both tissue- and cell type-specific and dependent on the developmental stage. Detecting apoptotic cell death by immunohistochemistry did not reveal increased apoptosis in Aven knockout mice, suggesting a functional role of AVEN besides apoptosis inhibition during embryogenesis.
Basing on the significant Aven promoter activity detected in the adult brain and in the mammary gland, I generated and characterized conditional Aven knockout mice with Aven deletion restricted to cells within the brain or the mammary gland. AVEN depletion in these tissues was not embryonic lethal and the affected tissues displayed a normal histology.
Since aberrant Aven expression had been associated with hematologic malignancies, I also analyzed mice with an Aven knockout in the hematopoietic system. Depletion of AVEN in the blood cells had no effect on hematopoietic stem and progenitor cell frequencies. Consequently, AVEN seems to be dispensable for the maintenance and differentiation of stem, progenitor and mature blood cells, at least as far as the expression of particular differentiation markers was concerned.
As loss of AVEN in the analyzed tissues did not affect the viability of mice and did not produce any other obvious phenotype, the exact role of AVEN that is essential for embryo survival remains to be identified.
To study the oncogenic potential of AVEN, I investigated the role of AVEN in a mouse model for breast carcinogenesis. While AVEN expression seemed to be increased in breast tumors, tumor onset and progression were not altered in mice with depleted AVEN expression in the mammary gland. Consistently, Aven knockout tumor cells were neither less proliferative nor more prone to undergo apoptosis than Aven wildtype tumor cells. Cell culture experiments demonstrated that AVEN expression is upregulated by estrogen. Knockdown of AVEN in the breast cancer cell line MCF-7 slightly increased UV irradiation-induced apoptosis and accelerated metabolism. So while AVEN does not promote development or progression of breast tumors, enhanced AVEN expression in ER+ breast cancers might contribute to chemotherapy resistance.
To study the physiological role of FUBP1, I generated a conditional Fubp1 knockout mouse model. While the insertion of loxP sites into the Fubp1 locus was occasionally embryonic lethal, some mice with a cell type-specific deletion of Fubp1 in hematopoietic cells or EPO receptor expressing cells were born alive. In these mice, frequencies of hematopoietic stem and progenitor cells as well as erythrocytes were unaltered. These results conflict with previous publications. However, compensating mechanisms might be responsible for the discrepancies between the observed phenotypes and reported FUBP1 function.
In cell culture studies, I could demonstrate that the previously reported upstream regulation of FUBP1 by TAL1 depended on an intact GATA motif in the FUBP1 promoter and that binding of GATA1 to the FUBP1 promoter increased during erythropoiesis.
To identify new FUBP1 target genes with relevance for erythropoiesis, I performed differential gene expression analysis in cells with wildtype and depleted FUBP1 expression. RNA-sequencing and PCR-arrays revealed only moderate differences in the expression of genes that are components of the EPO receptor signaling pathway as well as genes associated with apoptosis and proliferation of hematopoietic cells. By regulating the transcription of these genes, FUBP1 could contribute to efficient erythropoiesis.
Diese Arbeit trägt dazu bei, die Lutherdarstellung in Lehr- und Schulbüchern der ersten Schulbuchgeneration systematisch zu erschließen. Sie stellt sich der Herausforderung den jeweils spezifischen Akzent der Lutherdarstellung und -konzeption, welcher in den Lehrtexten des Lehrbuchs transportiert wird, herauszuarbeiten und weitergehend im Verbund mit den anderen untersuchten Lehrbüchern auf übergreifende, verbindende und trennende Elemente zu untersuchen. Diese Forschungsarbeit leistet einen Beitrag zur Erschließung Luthers sowie ihrer Art und Intensität in dem Medium des Schulbuchs im Kontext der Aufklärung. Insgesamt werden zehn Werke von acht Autoren im Zeitraum von 1780 bis 1817 untersucht, darunter Schulbücher von Johann Matthias Schröckh, Lorenz von Westenrieder und Jakob Brand.
My study examined MMA training, and thereby the ‘back region’ of MMA, where the ‘everyday life’ of MMA takes place. I enquired into how MMA training corresponds with MMA’s self-description, namely the somehow self-contradicting notion that MMA fights would be dangerous combative goings-on of approximately real fighting, but that MMA fighters would be able to approach these incalculable and uncontrolla-ble combative dangers as calculable and controllable risks.235 Conducting an ethnog-raphy in which I focused on the combination of participation and observation, I stud-ied how the specific interaction organisations of the three core training practices of MMA training provide the training students with specific combative experiences and how they thereby construct the social reality that is MMA training....
Particle physics is living it’s golden age: petabytes of high precision data are being recorded at experimental facilities such as the Relativistic Heavy Ion Collider (RHIC) and the Large Hadron Collider (LHC). Despite the significant theoretical progress achieved in the last years the complete understanding of the internal structure of protons, not computable with perturbative QCD, remains as one of the most challenging unsolved problems in the physics of elementary interactions. Besides its fundamental interest, pinning down the relevant degrees of freedom and their properties, such as their spatial distribution, has profound implications in several phenomenological aspects of high-energy collisions. Currently one of the subjects undergoing intense study is the possibility that droplets of quark-gluon plasma (QGP) are being created not only in heavy ion collisions but in more dilute systems such as high-multiplicity proton-proton interactions. This is a data driven debate as it is rooted in the similar patterns observed across the different collision systems at the LHC (p+p,p+Pb and Pb+Pb) in the flow harmonic analyses: one of the golden probes of QGP formation specially sensitive to the initial collision geometry. Another domain in which the proton structure plays a central role is the description of multi-parton interactions, the mechanism that dominates the underlying event at LHC energies, in Monte Carlo event generators. All in all a precise characterization of the hadronic structure is a crucial ingredient of the physics program of the LHC.
A full characterization of a hadron would require momentum, spatial and spin information, the so-called Wigner distribution. So far obtaining this information experimentally has not been achieved. From a theoretical point of view several complications arise such as non-universality and breaking of factorization theorems. Then, in general, the description of the hadron structure relies on phenomenological tools that require theoretical modeling constrained by experimental data. The main goal of this thesis to characterize the transverse structure of the proton. For that purpose, a wide variety of phenomenological problems that are sensitive to the proton structure have been addressed.
First, elastic scattering data on proton-proton interactions constitutes a powerful probe of the geometry of the collision. A dedicated analysis of this observable focusing on the extraction of the inelasticity density from it at √s=62.5 GeV and √s=7 TeV is presented. In the TeV regime, a unexpected phenomenon, dubbed the hollowness effect, arises: the inelasticity density, a measurement of how effective is the collision producing secondary particles, reaches its maximum at non-zero impact parameter. We provide the first dynamical explanation of the hollowness effect by constructing the elastic scattering amplitude in impact parameter representation according to the Glauber model. For that purpose we relied on a composite description of the proton. More concretely, the relevant degrees of freedom that participate in the scattering process were considered to be gluonic hot spots. The probability distribution for the transverse positions of hot spots inside the proton includes repulsive short-range correlations between all pairs of hot spots controlled by an effective repulsive core rc that effectively enlarges the mean transverse separation distance between them. The main results extracted from this work are as follows. To begin with, we found that our model was not able to describe a growing behavior of the inelasticity density at zero impact parameter in the absence of non-trivial spatial correlations. However, even in the presence of correlations, the emergence of the hollowness effect couldn’t be described when the number of hot spots was smaller than 3. Both features set solid constraints in the proton structure within our model. Finally, we pinpoint the transverse diffusion of the hot spots with increasing collision energy to be the dynamical mechanism underlying the onset of the hollowness effect.
A convenient playground to test further implications of this novel geometric description of the proton are the initial state properties of high energy proton-proton interactions in the context of QGP physics. The parametrization of the geometry of the collision is mandatory in any theoretical model attempting to describe the striking experimental results that suggest collective behavior in proton-proton interactions at the LHC, such as the non-zero value of the flow harmonic coefficients (vn). A quantitative way to characterize the initial geometry anisotropy of the overlap region is to compute the spatial eccentricity moments (εn) that fluctuate on an event by event basis. For that purpose we develop a Monte Carlo Glauber event generator. A systematic investigation of the effect of non-trivial spatial correlations in the spatial eccentricity moments from ISR to LHC energies within our Monte Carlo Glauber approach is presented. We found that both the eccentricity (ε2) and the triangularity (ε3) are affected by the inclusion of short-range repulsive correlations. In particular, the correlated scenario yielded larger values of ε2(3) in ultra-central collisions while reducing them in minimum bias.
Moreover, we explore not only the eccentricities mean but their fluctuations in terms of symmetric cumulants. The experimental measurement by the CMS Collaboration at √s=13 TeV indicates a anti-correlation of v2 and v3 around the same number of tracks in the three collision systems available at the LHC. We lay out, for the first time in the literature, a particular mechanism that permits an anti-correlation of ε2 and ε3 in the highest centrality bins as dictated by data. When modeling the proton as composed by 3 gluonic hot spots, the most common assumption in the literature, we find that the inclusion of spatial correlations is indispensable to reproduce the negative sign. Further, we perform a systematic investigation of the parameter space of the model i.e. radius of the hot spot, radius of the proton, repulsive core and number of hot spots in each proton. Our results suggest that the interplay of the different scales is decisive and confirm the discriminating power of this observable on initial state models. Together with their drastic impact on the description of the hollowness effect and the absolute values of the eccentricities, the symmetric cumulant study adds evidence to the fact that the inclusion of spatial correlations between the sub nucleonic degrees of freedom of the proton modifies the initial state properties of p+p interactions at LHC energies.
Krebs ist eine bedeutende Todesursache, und Krebsfrüherkennungsuntersuchungen in Form von Screeningmaßnahmen sind ein möglicher Ansatz, die spezifische Mortalität der jeweiligen Krebsart zu senken. Die Studienlage zeigt allerdings nur für die Koloskopie als Darmkrebsscreeningmaßnahme einen eindeutigen Nutzen. Brust-, Haut-und Gebärmutterhalskrebsfrüherkennung sind im Vergleich dazu wenig untersucht, und die entsprechenden Studien zeigen zum Teil widersprüchliche Ergebnisse. Eine Beschränkung der Maßnahmen auf Risikogruppen könnte die Kosten-Nutzen-Bilanz der Screeningmaßnahmen möglicherweise ins Positive verschieben. Derzeit raten gesetzliche Empfehlungen für die gesamte Bevölkerung ab einem festgelegten Alter zur Teilnahme an Darm-, Brust-, Haut- und Gebärmutterhalskrebsfrüherkennungs-untersuchungen, wobei die Inanspruchnahme je nach Untersuchung und Studie stark variiert. Hausärzte können als Ansprechpartner der Patienten zur Entscheidungsfindung für oder gegen eine Untersuchung beitragen. Um ihre Bedeutung in diesem Zusammenhang zu untersuchen, ist es sinnvoll, die Einstellung von Hausärzten gegenüber Krebsfrüherkennungsuntersuchen, sowie deren Empfehlung und mögliche Gründe für oder gegen eine Empfehlung zu erfassen. Hierzu wurde im Rahmen dieser Dissertation ein Fragebogen erstellt.
Die mittels des Fragebogens durchgeführte Datenerhebung stellt einen Teil des am Institut für Allgemeinmedizin Frankfurt durchgeführten Projektes „Onkologie in der Hausarztpraxis“ dar. Zur Entwicklung des Fragebogens wurde zunächst eine Literaturrecherche durchgeführt. Im weiteren Verlauf wurde ein Itempool erstellt, der thematisch sowohl auf den Ergebnissen der Recherche, als auch auf qualitativen telefonischen Interviews beruhte, die im Rahmen des oben beschriebenen Projektes „Onkologie in der Hausarztpraxis“ durchgeführt wurden. Aus diesem Itempool wurden zur Beantwortung folgender Forschungsfragen 28 Items zur weiteren Ausarbeitung ausgewählt:
1) Welche Einstellung haben Hausärzte gegenüber den gesetzlich empfohlenen, populationsbasierten Krebsfrüherkennungsuntersuchungen?
2) Unterscheidet sich die hausärztliche Einstellung in Abhängigkeit davon, ob die jeweilige Untersuchung populationsbasiert oder auf definierte Risikogruppen angewandt wird?
3) Für welche Risikogruppen halten die Hausärzte die verschiedenen Krebsfrüh-erkennungsuntersuchungen für sinnvoll?
4) Welche Gründe für oder gegen die Empfehlung von Krebsfrüherkennungsuntersu-chungen werden angegeben?
Die Konstruktion der einzelnen Fragen und Antwortskalen, die Formulierung von Handlungsanweisungen und die Gestaltung des Fragebogens mit Anschreiben, Titelseite und Layout erfolgte auf Basis von publizierten Expertenempfehlungen für eine qualitativ hochwertige Fragebogenkonstruktion. Der entstandene Fragebogen wurde anschließend einem Pretest unterzogen, der aus einer Stichprobe und einer kognitiven Testung bestand. Die Stichprobe wurde mit 35 Lehrärzten des Instituts für Allgemeinmedizin Frankfurt durchgeführt. Drei von ihnen sowie ein weiterer, vom Institut unabhängiger Hausarzt wurden im Verlauf für die kognitive Testung befragt. Auf Grundlage dieses Pretests wurde der Fragebogen nochmals angepasst.
Durch diesen Schritt wurden die 28 ausgewählten Items auf 19 Fragen reduziert, die gemeinsam mit neun Fragen zur Erhebung persönlicher Daten den fertigen Fragebogen bilden. Kriterien, die im Rahmen des Pretests zu Veränderungen geführt haben, waren erhöhte Non-Response-Raten, Hinweise auf mangelndes Fragenverständnis sowie geringe Relevanz einzelner Antwortoptionen. Zur Qualitätsprüfung wurde der fertige Fragebogen mittels einer publizierten Fragencheckliste auf mögliche Kritikpunkte hin getestet. Die Vorgehensweise zur Entwicklung des Fragebogens entsprach gängigen Empfehlungen von Experten. Der entwickelte Fragebogen stellt ein geeignetes Instrument zur Beantwortung der in der Einleitung gestellten Forschungsfragen dar, und leistet einen Beitrag zur Analyse der hausärztlichen Einstellung und Empfehlung zu Krebsfrüherkennungsuntersuchungen.
This thesis presents the first measurement of the proton capture reaction on the isotope 124Xe performed in inverse kinematics. The experiment was carried out in June 2016 at the Experimental Storage Ring (ESR) at the GSI Helmholtz Centre for Heavy Ion Research in Darmstadt, Germany.
124Xe is one of about 35 p-nuclei that cannot be produced via neutron-induced nucleo- synthesis as the vast majority of heavy elements. Its production and destruction provide important information about the nucleosynthesis of the p-nuclei. Measuring the 124Xe(p,g)125Cs reaction also gives strong constraints for its reverse 125Cs(g,p)124Xe reaction.
Fully stripped 124Xe ions repeatedly passed a H2 gas jet target at five different energies between 5.5 MeV/u and 8 MeV/u. An electron cooler compensated for the energy loss in the target and reduced the beam momentum spread. The reaction product 125Cs55+ has a smaller magnetic rigidity than 124Xe54+. Therefore 125Cs55+ was deflected towards smaller radii in the first dipole after the target area and thereby separated from 124Xe54+. It was detected with a position-sensitive Double-Sided Silicon Strip Detector (DSSSD). The novelty of this experiment was the installation of the DSSSD inside the ultra-high vacuum of the storage ring using a newly designed manipulator.
Three High-Purity Germanium X-ray detectors were used to measure the X-rays following the Radiative Electron Capture (REC) events into 124Xe53+. The REC cross sections are well-known and were used to determine the luminosity.
The 124Xe(p,g)125Cs cross sections at ion beam energies between 5.5 MeV/u and 8 MeV/u were determined relatively to the K-REC cross sections and finally compared to the theoretically predicted cross sections. While theoretical predictions of the TENDL database are lower than the measured ones by a factor of up to seven, the NON-SMOKER data are higher by a factor of up to two, except of the cross section at 7 MeV/u, where NON-SMOKER data are slightly lower than the experimental value.
For the first time, a proton capture cross section could be measured in inverse kinematics close to the astrophysically relevant Gamow window. This allows the direct determination of the (p,g) cross section of isotopes with half-lives down to several minutes, which is not possible with any other technique.
Das Peptidhormon Orexin (Hypokretin), das insbesondere in Neuronen des lateralen Hypothalamus synthetisiert wird, hat nach neueren Untersuchungen neben dem Einfluss auf das Essverhalten eine entscheidende Funktion im Schlaf-Wach Verhalten. In optogenetischen Untersuchungen, in denen modifizierte Zellen durch Licht aktiviert werden, konnte durch die Hochregulation von Orexin eine deutliche Wachheits- und Aktivitätszunahme der Tiere verzeichnet werden. Bei erhöhter MCH Freisetzung war eine vermehrte Schlafneigung beobachtet worden. Orexin und MCH scheinen demnach gegensinnige Funktionen in der Schlaf-Wach Regulation einzunehmen.
Mit der vorliegenden Arbeit wurden genauere Einblicke in das orexinerge System im Gehirn von zwei unterschiedlichen Mäusestämmen gewonnen. Es ist nach unserem Wissensstand die erste Arbeit, die das Reaktivitätsmuster von Orexin und MCH bei C3H- und C57BL-Mäusen im Hinblick auf Schlaf und Schlafentzug beleuchtet. Der Vergleich zwischen den Mäusestämmen ist im Besonderen interessant, weil die C57BL-Mäuse das pineale Schlafhormon Melatonin nicht bilden.
Beide Mäusestämme wurden nach Adaptation während drei unterschiedlicher Funktionszustände semiquantitativ immunhistochemisch untersucht: im Schlaf, im aktiven Zustand sowie nach 6-stündigem Schlafentzug. Nach Fixierung der Gehirne wurden die angefertigten Hirnschnitte immunhistochemisch gefärbt und mikroskopiert. Die Semi-Quantifizierung der Immunreaktivität erfolgte durch eine etablierte Bildbearbeitungsmethodik.
Das Verteilungsmuster Orexin- und MCH-ir Neurone ist zwischen den jeweiligen Mäusestämmen gleich und zeigt eine gegenseitige Innervation. Dies spricht für eine geregelte Interaktion beider Botenstoffsysteme.
Weiterhin zeigte sich eine deutliche Schlaf-physiologische Korrelation orexinerger Neurone mit der höchsten Immunreaktivität während der Wachheit. Es konnte jedoch kein Unterschied der Immunreaktivität in Bezug auf Lokalisation und Stadien zwischen C3H- und C57BL-Mäusen nachgewiesen werden, sodass davon auszugehen ist, dass die Melatonindefizienz der C57BL keine bedeutende Rolle in der zirkadianen Regulation von Orexin spielt.
Im Gegensatz zu Orexin konnte kein signifikanter Unterschied in der Immunreaktivität MCH-ir Neurone zu den unterschiedlichen Vigilanzstadien festgestellt werden.
Vermutlich spielt die relative Inaktivität von Orexin in Kombination mit aktiver Sekretion von MCH eine wichtige Rolle in der Induktion und Kontrolle von Schlaf.
Es sind noch viele Fragen offen; insbesondere die Interaktion zwischen Wachheit- und Schlaf-induzierenden Neuronen deren Regulation. Auch der Einfluss vom Nucleus suprachiasmaticus auf Oreginerge/MCHerge Neurone, sowie das Verhältnis von Melatonin zu Orexin und MCH bedarf weiterer Forschungen.
Based on an original dataset of 100 important pieces of legislation passed during the three presidencies of William J. Clinton, George W. Bush, and Barack H. Obama (1992-2013), this study explores two sets of questions:
(1) How do presidents influence legislators in Congress in the legislative arena, and what factors have an effect on the legislative strategies presidents choose?
(2) How successful are presidents in getting their policy positions enacted into law, and what configurations of institutional and actor-centered conditions determine presidential legislative success?
The analyses show that in an hyper-polarized environment, presidents usually have to fight an uphill-battle in the legislative arena, getting more involved if they face less favorable contexts and the odds are against them.
Moreover, the analyses suggest that there is no silver-bullet approach for presidents' legislative success. Instead, multiple patterns of success exist as presidents - depending on the institutional and public environment - can resort to different combinations of actions in order to see their preferred policy outcomes enacted.
Das menschliche Leben erscheint heute als in vielfältiger Weise mit seiner Umwelt verbunden. Bio- und neurowissenschaftliche Forschungen über die Interaktionsweisen mit der Umwelt verändern dabei das Bild des Körpers von einem hierarchisch aufgebauten Organismus zu einem organisch-kognitiv-verteilten Netzwerk. Nicht zuletzt Forschungen zur künstlichen Intelligenz haben gezeigt, dass das menschliche Gehirn nicht isoliert betrachtet werden kann, sondern verkörpert, vernetzt und damit in einer wechselwirkenden Abhängigkeit zu Körpern steht (embedded und extended mind). Epigenetische Forschungen haben ebenfalls auf die Umweltabhängigkeit auch genetischer Prozesse verwiesen (Postgenomik) und damit auf komplexe Wechselwirkungen zwischen Biotischem und Abiotischem aufmerksam gemacht. Diese komplexen Wechselwirkungen und Umweltabhängigkeiten zwischen Lebendigem und Nicht-Lebendigem werden inzwischen zusehends zum Gegenstand menschlicher Selbstorganisation. Sie tauchen in veränderter Form in den Plänen zu den sogenannten Industrien 4.0 auf, wenn es darum geht, intelligente Umgebungen mit dem Menschen interaktiv zu vernetzen. Die hierfür notwendigen digitalen Datenmengen stehen aber nur zur Verfügung, wenn Menschen sich aktiv vernetzen. Die Entstehung digitaler Daten- körper wird dadurch zu einem essentiellen Bestandteil sozialer Teilhabe, wodurch Soziales zum entwicklungsoffenen und unbestimmten Prozess wird. Wie sich Menschen wann und wo vernetzen, ist nicht vorherbestimmt. Digitalisierung ist dabei, so die These der Arbeit, sich zur grundlegenden Praxis menschlicher Vernetzung zu entwickeln.
Die Arbeit geht Digitalisierung aus einer Perspektive koevolutionärer Entstehungs- und Entwicklungszusammenhänge nach und zeigt, dass digitale Praxen zu einer neuen Form menschlicher Selbstorganisation weltweit geworden sind. Angesprochen wird damit, dass Digitalisierung nicht als etwas dem Menschen Äußerliches betrachtet werden kann, sondern in einen größeren kulturellen Entstehungszusammenhang eingebettet werden muss, der bis zu den Anfängen der Menschheit zurückreicht. Um dies zu veranschaulichen, werden in der Arbeit drei verschiedene Wissensformationen benannt, die sich jeweils in unterschiedlicher Art und Weise mit den aktuellen Veränderungen digitalisierter Lebenswelten auseinandersetzen.
Die erste Wissensformation (Kapitel 2) benennt den Humanismus, der im Aufkommen neuer Medientechnologien eine Bedrohung für den Menschen sieht. Eine zweite Wissensformation (Kapitel 3) widmet sich dem „Ende des Humanismus“, indem Ansätze der Science and Technology Studies (STS), der Akteur-Network-Theory (ANT) und des Agentiellen Realismus von Karan Barad diskutiert werden. Mit einer „neuen Ökonomie für eine neue Menschheit“ wird eine dritte Wissensformation (Kapitel 4) benannt, die, von postoperaistischen Ansätzen ausgehend, die These eines „dritten“ oder „kognitiven Kapitalismus“ diskutiert. Hier geht es um die These des Zusammenfallens von Ökonomischem und Sozialem, aus dem neue offene Sozialformationen entstehen. Schließlich wird eine vierte Wissensformation (Kapitel 5) formuliert, die, ausgehend vom Ansatz einer Anthropologie des Medialen (AdM) und dem Modell der Erweiterung kultureller Kapazitäten (EECC) versucht, die als digitalen Wandel bezeichneten Veränderungen in einen größeren Zusammenhang zu stellen.
Mit beiden Ansätzen kann schließlich gezeigt werden, dass sich Veränderungen menschlicher Selbstorganisation immer in der biologischen, individuellen, kulturellen und historisch-sozialen Entwicklungsdimension zugleich vollziehen. Dies lässt sich auch für die Prozesse der Digitalisierung zeigen. Nämlich, dass sich der Mensch als Teil der Natur in einem fortwährenden koevolutionären Prozess befindet. Weder Kultur, noch Soziales, noch Technologien sind unnatürlich. Sie können als „indirekte Biologie“, als „Künstliches“ oder als „Kultur der Biologie“ bezeichnet werden, die der Natur aber nie entkommen. Die Erweiterung kultureller Kapazitäten ist deshalb nicht als eine Ausdehnung des Menschen in die Natur hinaus zu verstehen, sondern bezeichnet die im Laufe der Menschheitsgeschichte komplexer werdenden Reichweiten und Zeittiefen menschlicher Selbstorganisation, die immer auf den drei Ebenen von Phylogenese, Ontogenese, Technogenese und der damit verbundenen Soziogenese basieren.
After entorhinal deafferentiation of the hippocampal dentate gyrus a reinnervation of the denervated neurons by axon collaterals can be observed. This process takes place in a matter of weeks. However, the overall functional effect on the hippocampal network is still unclear.
In an effort to investigate this effect of axonal sprouting on the neuronal network of the dentate gyrus we compared the electrophysiological response of the dentate gyrus after electric stimulation in wild-type mice (WT mice) with a normal post-lesion sprouting, with genetically modified mice with an overexpression of the growth-protein CAP23 (cytoskeleton-associated protein 23). CAP23 overexpressing mice (CAP23tg mice) are known to have an enhanced axonal growth and sprouting after lesion.
The mice (both the WT as well as the CAP23tg mice) were deeply anesthetized and a lesion of the perforant path was induced stereotactically with a wire knife. After that the mice were permitted to survive for 4-6 weeks for partial reinnervation of the dentate gyrus before they were again operated and evoked potentials were measured (extracellular recordings of evoked potentials in the dentate gyrus). Non-lesioned litter-mate mice were taken as reference. The sprouting and the correct position of the electrodes was confirmed histologically.
For electrophysiological investigation we assessed laminar profiles and calculated a current-source density (CSD). In lesioned CAP23tg mice compared to lesioned WT mice this CSD-analysis revealed a significant enhancement of the current sink in the area of deafferentiation (outer molecular layer) and a significant excitation in the granule-cell layer.
Our results show that axonal sprouting seems to enhance the excitability of granule-cells. Thus, even if an enhanced axonal sprouting might accelerate the reinnervation of denervated dendrites after lesion, but it also leads to posttraumatic hyperexcitability of the neuronal network. In a therapeutic approach of fascilitating axonal sprouting this hyperexcitability has to be taken into consideration.
Die Wandreliefs aus dem Nordwest-Palast Aššurnasirpals II. (883-859 v. Chr.) in Nimrud zählen zu den forschungsgeschichtlich frühesten und bedeutendsten Funden des Alten Orients. Sie befinden sich heutzutage in zahlreichen Sammlungen weltweit und bieten durch ihre Darstellungen einen tiefgreifenden Einblick in die assyrische Kultur. Insbesondere Kontext und Position der Reliefs bieten Hinweise zur Bedeutung der dort angebrachten Figuren. Zwar ist eine ‚Schutzfunktion‘ vergleichbarer Repräsentationen textlich bezeugt – jedoch bisher nur unter Vorbehalt auf die Reliefdarstellungen zu übertragen. An dieser Stelle kann die Systematisierung ikonographischer Details in Abhängigkeit von ihrem Anbringungsort konzeptionelle Aspekte erkennbar machen.
Durch eine relationale Datenbank und dreidimensionale Visualisierungstechniken wird geprüft, ob die stilistische Variationsbreite ikonographischer Details eine potentielle Systematik aufweist; ebenso, bis zu welchem Grad die jeweilige Form eines bestimmten Zeichnungsdetails einem intentionalen Anbringungskonzept entspricht. Als Teil dieser Vorgehensweise fungiert die in diesem Zusammenhang generierte 3D-Rekonstruktion als methodisch unterstützende Maßnahme. Sie ermöglicht sowohl eine moderne Zusammenführung ehemals benachbarter Reliefplatten unabhängig ihres gegenwärtigen Aufbewahrungsortes als auch die Wiederherstellung heute kaum noch sichtbarer Gewandverzierungen und Pigmentreste.
Anhand der Ergebnisse wird deutlich, dass eine Systematisierung der Reliefdetails mittels 3D-Modell einen erweiterten Erkenntnisfortschritt impliziert und – nicht zuletzt aufgrund der zurückliegenden Zerstörungen der Palastruine und der damit verbundenen unwiederbringlichen Verluste – auch weitere Untersuchungen unterstützen können.
Die digitale Pathologie ist ein neues, aber stetig wachsendes, Feld in der Medizin. Die kontinuierliche Entwicklung von verbesserten digitalen Scannern erlaubt heute das Abscannen von kompletten Gewebeschnitten und Whole Slide Images gewinnen an Bedeutung. Ziel dieser Arbeit ist die Methodenentwicklung zur Analyse von Whole Slide Images des klassischen Hodgkin Lymphoms. Das Hodgkin-Lymphom, oder Morbus Hodgkin, ist eine Tumorerkrankung des Lymphsystems, bei der die monoklonalen Tumorzellen in der Regel von B-Lymphozyten im Vorläuferstadium abstammen.
Etwas mehr als 9.000 Hodgkin-Lymphom-Fälle werden jährlich in den USA diagnostiziert. Zwar ist die 5-Jahre-Überlebensrate für Hodgkin-Lymphome mit 85,3 % vergleichsweise hoch, dennoch werden etwa 1.100 Todesfälle pro Jahr in den USA registriert. Auf mikroskopischer Ebene sind die Hodgkin-Reed-Sternberg Zellen (HRS-Zellen) typisch für das klassische Hodgkin Lymphom. HRS-Zellen haben einen oder mehrere Zellkerne, die stark vergrößert sind und eine grobe Chromatinstruktur aufweisen. Immunhistologisch gibt es für HRS-Zellen charakterisierende Marker, so sind HRS-Zellen positiv für den Aktivierungsmarker CD30.
Neben der konventionellen Mikroskopie, ermöglichen Scanner das Digitalisieren von ganzen Objektträgern (Whole Slide Image). Whole Slide Images werden bisher wenig in der Routinediagnostik eingesetzt. Ein großer Vorteil von digitalisierten Gewebeschnitten bietet sich bei der computergestützten Analyse. Automatisierte Bildanalyseverfahren wie Zellerkennung können Pathologen bei der Diagnose unterstützen, indem sie umfassende Statistiken zur Anzahl und Verteilung von immungefärbten Zellen bereitstellen.
Die untersuchten immunohistologischen Bilder wurden vom Dr. Senckenbergisches Institut für Pathologie des Universitätsklinikums Frankfurt bereit gestellt. Die betrachteten Gewebeschnitte sind gegen CD30 immungefärbt, einem Membranrezeptor, welcher in HRS-Zellen und aktivierten Lymphozyten exprimiert wird. Die Gewebeschnitte wurden mit einem Aperio ScanScope slide scanner digitalisiert und liegen mit einer hohen Auflösung von 0,25 μm pro Pixel vor. Bei den vorliegenden Gewebeschnittgrößen ergeben sich Bilder mit bis zu 90.000 x 90.000 Pixeln.
Der untersuchte Bilddatensatz umfasst 35 Bilder von Lymphknotengewebeschnitten der drei Krankheitsbilder: Gemischtzelliges klassisches Hodgkinlymphom, noduläres klassisches Hodgkinlymphom und Lymphadenitis. Die Bildverarbeitungspipeline wurden teils neu implementiert, teils von etablierten Bilderkennungssoftware und -bibliotheken wie CellProfiler und Java Advanced Imaging verwendet. CD30-positive Zellobjekte werden in den Gewebeschnitten automatisiert erkannt und neben der globalen Position im Whole Slide Image weitere Morphologiedeskriptoren berechnet, wie Fläche, Feret-Durchmesser, Exzentrität und Solidität. Die Zellerkennung zeigt mit 84 % eine hohe Präzision und mit 95 % eine sehr gute Sensitivität.
Es konnte gezeigt werden, dass in Lymphadenitisfällen im Schnitt deutlich weniger CD30- positive Zellen präsent sind als in klassisches Hodgkinlymphom. Während hier im Schnitt nur rund 3.000 Zellen gefunden wurden, lag der Durchschnitt für das Mischtyp klassisches Hodgkinlymphom bei rund 19.000 CD30 positiven Zellen. Während die CD30-positiven Zellen in Lymphadenitisfällen relativ gleichmäßig verteilt sind, bilden diese in klassischen Hodgkinlymphom-Fällen Zellcluster höherer Dichte.
Die berechneten Morphologiedeskriptoren bieten die Möglichkeit die Gewebeschnitte und den Krankheitsverlauf näher zu beschreiben. Zudem sind bisher Größe und Erscheinungsbild der HRS-Zellen hauptsächlich anhand manuell ausgewählter Zellen bestimmt worden. Ein Maß für die Ausdehnung der Zellen ist der maximale Feret-Durchmesser. Bei CD30-Zellen im klassischen Hodgkinlymphom liegt dieser im Durchschnitt bei 20 μm und ist somit deutlich größer als die durchschnittlich gemessenen 15 μm in Lymphadenitis.
Es wurde ein graphentheoretischer Ansatz gewählt, um die CD30 positiven Zellen und ihre räumliche Nachbarschaft zu modellieren. In CD30-Zellgraphen von klassischen Hodgkinlymphom-Gewebeschnitten ist der durchschnittliche Knotengrad gegenüber den von Lymphadenitis-Bildern stark erhöht. Der Vergleich mit Zufallsgraphen zeigt, dass die beobachteten Knotengradverteilungen nicht für eine zufällige Verteilung der Zellen im Gewebeschnitt sprechen. Eigenschaften und Verteilung von Communities in CD30-Zellgraphen können hinzugenommen werden, um klassisches Hodgkinlymphom Gewebeschnitte näher zu charakterisieren.
Diese Arbeit zeigt, dass die Auswertung von Whole Slide Image unterstützend zur Verbesserung der Diagnose möglich ist. Die mehr als 400.000 automatisch erkannten CD30-positiven Zellobjekte wurden morphologisch beschrieben, und zusammen mit ihrer Position im Gewebeschnitt ist die Betrachtung wichtiger Eigenschaften des klassischen Hodgkinlymphoms realisierbar. Zellgraphen können durch weitere Zelltypen erweitert werden und auf andere Krankheitsbilder angewendet werden.
Pretubulysin (PT), a biosynthetic precursor of the myxobacterial compound tubulysin D, was recently identified as a novel microtubule-targeting agent (MTA) causing microtubule destabilization. MTAs are the most frequently used chemotherapeutic drugs. They are well studied regarding their direct cytotoxic effects against various tumors as well as for their anti-angiogenic and vascular-disrupting action addressing endothelial cells of the tumor vasculature. However, the impact of MTAs on endothelial cells of the non-tumor vasculature has been largely neglected, although tumor cell interactions with the healthy endothelium play a crucial role in the process of cancer metastasis. Besides their use as potent anti-cancer drugs, some MTAs such as colchicine are traditionally used or recommended for the therapy of inflammatory diseases. Here, too, the role of endothelial cells has been largely neglected, although the endothelium is crucially involved in regulating the process of inflammation.
In the present study, the impact of PT on tumor-endothelial cell interactions was therefore analyzed in vitro to gain insights into the mechanism underlying its anti-metastatic effect that was recently confirmed in vivo. In the second part of this work, the influence of PT and other MTAs, namely the microtubule-destabilizing compounds vincristine (VIN) and colchicine (COL) and the microtubule-stabilizing drug paclitaxel (PAC), on leukocyte-endothelial cell interactions was investigated in vitro and in vivo (only PT). It is important to mention that in all in vitro experiments solely endothelial cells and not tumor cells or leukocytes were treated with the MTAs to strictly focus on the role of the endothelium in the action of these compounds.
The impact of PT on tumor-endothelial cell interactions was analyzed in vitro by cell adhesion and transendothelial migration assays as well as immunocytochemistry using the breast cancer cell line MDA-MB-231 and primary human umbilical vein endothelial cells (HUVECs). The treatment of HUVECs with PT increased the adhesion of MDA cells onto the endothelial monolayer, whereas their transendothelial migration was reduced by the compound. Thereafter, the influence of PT on the endothelial cell adhesion molecules (CAMs) E-selectin, N-cadherin, ICAM-1, VCAM-1 and galectin-3 and on the CXCL12/CXCR4 chemokine system was examined, since they might be involved in the PT-triggered tumor cell adhesion. Interestingly, although PT induced the upregulation of ICAM-1, VCAM-1, N-cadherin and CXCL12, cell adhesion assays using neutralizing antibodies or the CXCL12 inhibitor AMD3100 revealed that all these molecules were dispensable for the PT-evoked tumor cell adhesion. As PT induces the formation of interendothelial gaps and MDA cells might adhere onto components of the underlying extracellular matrix (ECM), the precise location of MDA cells attached to the PT-treated endothelial monolayer was investigated. Instead of a direct interaction between tumor and endothelial cells, this work showed that MDA cells preferred to adhere to the ECM component collagen that was exposed within PT-triggered endothelial gaps. Both the PT-evoked increase in tumor cell adhesion onto and the decrease in trans-endothelial migration were completely abolished when β1-integrins were blocked on MDA cells. Similar results were obtained when endothelial cells were treated with VIN and COL but not PAC, indicating that the observed effects of PT depend on its microtubule-destabilizing activity.
The impact of PT, VIN, COL and PAC on leukocyte-endothelial cell interactions was analyzed in vivo (only PT) by intravital microscopy of the mouse cremaster muscle and in vitro by cell adhesion assays using the monocyte-like cell line THP-1 and TNFα-activated human dermal microvascular endothelial cells (HMEC-1). While PT did not affect the rolling of leukocytes on the endothelium, their firm adhesion onto and transmigration through the activated endothelium was reduced by PT in vivo. In accordance, the treatment of HMEC-1 with PT, VIN and COL decreased the TNFα-induced adhesion of THP-1 cells onto the endothelial monolayer, whereas PAC had no influence on this process. Thereafter, the influence of PT, VIN, COL and PAC on endothelial ICAM-1 and VCAM-1 was examined, since these molecules are substantially involved in the firm adhesion of leukocytes onto the endothelium. The cell surface protein expression of ICAM-1 and VCAM-1 was reduced by PT, VIN and COL in activated endothelial cells, whereas PAC did only slightly affect the TNFα-induced upregulation of VCAM-1. As the pro-inflammatory transcription factor NFκB plays a crucial role in the TNFα-induced expression of these CAMs, the impact of the MTAs on the NFκB promotor activity was investigated. While PT, VIN and COL decreased the activation of NFκB in activated endothelial cells, PAC did not affect this process. However, in contrast to the strong effects regarding the cell surface protein expression of ICAM-1 and VCAM-1, the effects of PT, VIN and COL on the NFκB activity was rather low. Thus, the used MTAs might also affect other relevant signaling pathways and/or the intracellular transport of CAMs might be influenced by the impact of the MTAs on the microtubule network.
Taken together, the current study provides – at least in part – an explanation for the anti-metastatic potential of PT and gives first insights into the use of PT and VIN as anti-inflammatory drugs. Moreover, this work highlights the endothelium as an attractive target for the development of new anti-cancer and anti-inflammatory drugs.
Die aktuelle Gesetzeslage fordert mit der im Rahmen der Gesundheitsreform 2007 eingeführten Versicherungspflicht und dem 2013 in Kraft getretenen Gesetz zur Beseitigung sozialer Überforderung bei Beitragsschulden in der Krankenversicherung eine Vollversicherung aller in Deutschland lebenden Personen. Die Erfahrungen aus medizinischen Versorgungseinrichtungen zeigen, dass dieses Ziel nicht erreicht wurde. Nach wie vor wird eine bedeutende Anzahl von Patienten ohne Krankenversicherung in Krankenhäusern, Arztpraxen und medizinischen Hilfseinrichtungen versorgt. In der vorliegenden Studie wird in einer praxisnahen Herangehensweise am Beispiel der Stadt Frankfurt am Main untersucht, wo die Ursachen dafür zu finden sind, wenn die Einbindung in das Regelsystem der Krankenversicherung nicht gelingt und wie sich dies auf die medizinische Versorgung der Betroffenen auswirkt.
Basierend auf einem qualitativen Studienkonzept wird das empirische Material mit Leitfadeninterviews erhoben und mit der qualitativen Inhaltsanalyse nach Gläser und Laudel ausgewertet. Die Auswahl der Interviewpartner erfolgt mittels Sampling über die Zusammenarbeit mit zwei medizinischen Hilfseinrichtungen als zentrale Kontakte im Forschungsfeld. Die 25 Patienteninterviews stellen eine exemplarische Auswahl an dort behandelten nichtversicherten Patienten dar. Die 21 Experteninterviews mit Gesprächspartnern aus den Arbeitsbereichen Hilfseinrichtungen, Krankenhäuser und Behörden bilden die unterschiedlichen Akteure und Sichtweisen im Handlungsfeld der Nichtversicherung ab. Mithilfe der qualitativen Inhaltsanalyse werden die erfassten Fälle rekonstruiert und auf ihre Kausalmechanismen hin analysiert.
Als Ergebnis der Untersuchung werden 13 Grundsituationen typischer Fälle von Nichtversicherung dargestellt und mit den strukturellen Rahmenbedingungen in Zusammenhang gebracht. Daraus werden die Entstehungsmechanismen von Nichtversicherung ersichtlich. Diese zeigen, dass das Fehlen der Krankenversicherung das Resultat einer multifaktoriellen Entwicklung ist. So wirken sich einerseits die individuellen Verhaltensweisen der Betroffenen sowie ihre jeweiligen Lebensum-stände, wie die berufliche Situation, die Wohnsituation, Herkunft, Aufenthaltsstatus und die gesundheitliche Situation, auf die Versicherungssituation aus. Andererseits kommt strukturellen Hürden eine wesentliche Bedeutung bei der Entstehung von Nichtversicherung zu. So lässt die Gesetzgebung in der Versicherungspflicht, dem Sozialleistungsbezug und im Aufenthaltsrecht Lücken, die zwar nicht notgedrungen zum Verlust der Krankenversicherung führen, aber in Wechselwirkung mit bestimmten Lebensumständen und Verhaltensweisen der einzelnen Personen die Eingliederung in das reguläre Versicherungssystem verhindern oder erschweren.
Im zweiten Teil der Studienergebnisse wird die Versorgungssituation für Patienten ohne Krankenversicherung beurteilt. Darin wird deutlich, dass Nichtversicherte im Vergleich zu regulär versicherten Personen schlechter medizinisch versorgt sind. Dies ist einem erschwerten Zugang zum Regelsystem der medizinischen Versorgung sowie den eingeschränkten Behandlungsmöglichkeiten im Hilfsnetz geschuldet. Trotz der gut ausgebauten Hilfestrukturen in Frankfurt am Main muss demnach die Versorgungs-situation für Nichtversicherte als unzureichend beurteilt werden.
Neben den Patienten sind auch die anderen Akteure von den Folgen des Nichtversichertseins betroffen. Dabei zeigen sich zwei gegensätzliche Perspektiven auf das Problemfeld. Auf der einen Seite stehen die hilfeleistenden Einrichtungen, die den Patienten eine medizinische Versorgung zukommen lassen, auf der anderen Seite die Kostenträger, die als Institutionen des Regelsystems diese medizinische Behandlung finanzieren. Die versorgenden Einrichtungen geraten in einen Konflikt zwischen ihrem Behandlungsauftrag, der sich aus der gesetzlich verankerten Behandlungspflicht und der ethischen Verantwortung den Patienten gegenüber ergibt, und dem wirtschaftli-chen Druck, der die Behandlungsmöglichkeiten bei unzureichender Finanzierung begrenzt. Die Kostenträger können ihre Zuständigkeit als Leistungsträger im Einzelfall prüfen und diese gegebenenfalls ablehnen. Da Nichtversicherte als unattraktive Kunden gelten, geht die Ablehnung meist mit einer Kostenersparnis einher und bedeutet somit für die Kostenträger keinen Nachteil. Die daraus entstehenden Versorgungsvakanzen werden wiederum vom Hilfsnetz aufgefangen.
Vor dem Hintergrund dieser Ergebnisse muss das Auftreten von Nichtversicherung als Problem gesehen werden, aus dem Handlungsbedarf hervorgeht, auch wenn die Gruppe der Nichtversicherten insgesamt nur einen kleinen Anteil an der Gesamtbevölkerung ausmacht. Die Zielsetzung dieser Studie ist es, eine fundierte Grundlage zu geben, auf der Lösungsansätze für die beschriebenen Konflikte erarbeitet werden können.
Mycophenolate-Mofetil (MMF) clinically used as CellCept is inserted as immunosuppressive xenobiotic drug for preventing transplantate rejection. It is well known that MMF works selectively through inhibiting the IMPDH which is an essential enzyme in the de novo pathway for biosynthesis of guanosine Nukleotides.
In this study, we investigated the effects of MMF on the astrocytes, because astrocytes are important glial cells of the CNS with various functions in the healthy tissue, such as being involved in the neuronal differentiation, axonal growth and regulation of the environmental composition. They also build up the scared tissue during acute CNS lesions by releasing neurotoxic substances such as NO and different inflammatory Zytokines, e.g. IL-1ß and TNF-a, which even influence the microglial cell proliferation, migration and activity. Therefore, astrocytes are impressingly involved in the extent of the neuronal damage.
Our observations revealed an influence of astrocytic proliferation dependent on the concentration of the serum (10%, 5%, 2%, 1% and serum free medium) used for the in vitro cultivation: the more the serum part in the medium the more the extent of the cell proliferation. The proliferation of astrocytes cultured in serum free medium can be increased by Corticotropin Releasing Factor (CRF) 10µM and Guanosine application. Dose-dependent MMF led to a suppression of the astrocytic proliferation which is antagonisable with Guanosine only.
The number of the isolated proliferating astrocytes labeled by BrdU was significantly reduced after simultaneous treatment with serum (10% or 1%) and dose-dependent MMF (10µg/ ml, 1µg/ ml and 0,1µg/ ml) application, whereas LPS showed no effect on the proliferating rate. But, as measured by ELISA, with LPS conditioned medium contained relevant amounts of TNF-a and NO, but surprisingly not of IL-1ß. There were a significant reduction of cytokine and NO amounts determined in the astrocytic conditioned medium treated only with MMF dependent of the concentration (10µg/ml, 1µg/ml and 0,1µg/ml). Even the simultaneous treatment with LPS and MMF revealed compared to the LPS stimulated astrocytic group a measurable significant decrease of TNF-a. The treatment of the astrocytic cultures with guanosine lifted up the effects of MMF on TNF-a secretion. Therefore, we conclude, that the immunosuppressive drug MMF might have a neuroprotective and scar formation modulating effect through the antiproliferative potency on astrocytic cells and modulating character of the microenvironment by influencing the TNF-a secretion. Moreover, these regulatory effect on microglial cells are described as suppression (Hailer NP,Wirjatijana F,Roser N,Hirschebeth GT,Korf HW,Dehghani F,2001).
Entwicklung von Immunisierungsstrategien zur Induktion hoher funktionaler Antikörperantworten
(2018)
Neuartige Viren und Erreger, die sich antigenetisch tiefgreifend von bekannten Varianten unterscheiden, können verheerende Epidemien auslösen, da weder gegen diese Erreger eine Immunität in der Bevölkerung besteht, noch prophylaktische oder therapeutische Maßnahmen verfügbar sind. Eine prophylaktisch vermittelte Immunität durch Impfung stellt die bei Weitem effektivste Methode zur Vorbeugung viraler Infektionen dar, jedoch sind die Entwicklungs- und Herstellungszeiten eines neuen Impfstoffs in der Regel mit der Ausbruchsdynamik nicht kompatibel. Inzwischen steht zwar eine überschaubare Anzahl antiviraler Medikamente zur Verfügung, doch ist die Wahrscheinlichkeit gering, dass diese meist hoch spezifischen Wirkstoffe gegen neu auftretende Viren aktiv sind. Das beispiellose Ausmaß der Ebola-Epidemie 2014 führte zum Einsatz experimenteller antikörperbasierter Therapien, welche das Potential der passiven Vermittlung von temporärem Immunschutz naiver Personen verdeutlicht. Für viele neuartige Viren ist die Entwicklung von Therapieansätzen allerdings noch nicht entsprechend weit fortgeschritten. Zudem bedingt eine Verwendung des eigentlichen Erregers oft hohe Sicherheitsmaßnahmen, was die Arbeit erschwert. Aus diesem Grund werden Notfalltherapien benötigt, die schnell in klinisch relevanter Qualität und Quantität unter niedrigen biologischen Sicherheitsmaßnahmen produziert werden können.
Diese Arbeit basiert auf der zentralen Hypothese, dass die Induktion von hohen Titern funktioneller Antikörperantworten die Basis für einen breiteren Schutz gegen antigenetisch entferntere Virusstämme sowie für die schnelle Produktion von therapeutischen Antiseren darstellt.
Um diese Hypothese zu testen und Einblicke in verschiedene Aspekte dieses Prozesses zu bekommen, wurde zunächst die Nutzung von Adjuvanzien als Zusätze für Impfstoffe am Beispiel des pandemischen A(H1N1)pdm09-Impfstoffs untersucht. Neben den alljährlichen Epidemien, die von saisonalen Influenza-A-Viren der Subtypen H1N1 oder H2N3 verursacht werden, können neuartige Subtypen zu weltweiten Pandemien führen. Während die saisonalen Influenza-Impfstoffe in der Regel keine Adjuvanzien enthalten, wurden einige pandemische H1N1-Impfstoffe aus 2009 mit einem reduzierten Antigengehalt formuliert und mit squalenbasierten Adjuvanzien kombiniert, um eine ausreichende Wirksamkeit bei größerer Verfügbarkeit zu gewährleisten. Zur Charakterisierung des Effekts dieser Adjuvanzien auf die Immunantworten wurden Frettchen mit 2 µg des kommerziellen H1N1pmd09-Impfstoffes alleine sowie in Kombination mit verschiedenen Adjuvanzien immunisiert, die Antikörpertiter gegen homologe und heterologe Influenzastämme untersucht und mit dem Schutz vor einer Infektion korreliert. Dabei zeigte sich, dass die Verwendung squalenbasierter Adjuvanzien die funktionalen Antikörperantworten um das 100-fache erhöhte und zu einer signifikant reduzierten Viruslast nach der Infektion mit dem homologen pandemischen Virus führte. Während in keiner Gruppe Antikörper gegen die heterologen Hämagglutinin-(HA-)Proteine H3, H5, H7 und H9 nachweisbar waren, induzierten mit squalenbasierten Adjuvanzien kombinierte Impfstoffe subtypenspezifische Antikörper gegen das N1 Neuraminidase-(NA-)Protein einschließlich H5N1. Darüber hinaus führte die Immunisierung mit squalenbasierten Adjuvanzien zu einer besseren Kontrolle der Influenzavirus-Replikation in den oberen Atemwegen.
Anschließend wurde im zweiten Teil dieser Arbeit unter Einbeziehung der gewonnenen Erkenntnisse eine Immunisierungsstrategie zur schnellen Produktion therapeutischer Hyper-immunseren entwickelt, wobei unterschiedliche Antigenexpressionssysteme miteinander verglichen wurden. Während in den frühen Stadien eines Ausbruchs Rekonvaleszenzseren nicht ohne weiteres verfügbar sind, können Antiseren tierischen Ursprungs innerhalb eines kurzen Zeitraums hergestellt werden. Die Herausforderung liegt in der schnellen Induktion einer schützenden Immunität, wobei die effiziente Produktion und Reinigung von Hyperimmunserum in klinisch relevanten Mengen ebenso essenziell ist wie die Anpassungsfähigkeit der Immunisierungsstrategie an neue oder hinsichtlich ihrer Antigenizität veränderte Viren. Hierzu wurden verschiedene Immunisierungsstrategien in Mäusen und Kaninchen verglichen, die unterschiedliche Expressionssysteme für das Modellantigen Ebolavirus-Glykoprotein (EBOV-GP) verwenden: (i) Ebolavirus-ähnliche Partikel (VLP), (ii) das rekombinante modifizierte Vacciniavirus Ankara (MVA) sowie (iii) das rekombinante Virus der vesikulären Stomatitis (VSV). Im Ergebnis induzierte eine dreimalige Immunisierung mit VLPs in Kombination mit squalenhaltigem Adjuvans neutralisierende Antikörpertiter, die vergleichbar mit der Immunisierung mit replikationskompetentem VSVΔG/EBOV-GP waren. Dies deutet darauf hin, dass nicht die De-novo-Antigenexpression, sondern vielmehr die mehrfache Präsentation des Antigens in nativer Konformation für die Produktion von neutralisierenden Antikörpern essenziell ist. Darüber hinaus waren die funktionalen Antikörpertiter aller Kaninchenseren in der In-vitro-Analyse gegen das Wildtypvirus 10- bis 100-fach höher als der Durchschnitt, der in mit VSVΔG/EBOV-GP geimpften Probanden beobachtet wurde. Die Etablierung eines optimierten mehrstufigen Reinigungsverfahrens unter Verwendung einer zweistufigen Ammoniumsulfat-Präzipitation, gefolgt von einer Protein-A-Affinitätschromatographie, führte zu aufgereinigten IgG-Präparationen mit nahezu unveränderter neutralisierender Aktivität, die über neun Tage im xenogenen In-vivo-Modell stabil waren. Die signifikante Erhöhung von totalen und funktionalen Antikörpertitern in Kombination mit einer größeren Breite der Antikörperantwort im Kontext von squalenbasierten Adjuvanzien stützt die Hypothese dieser Arbeit. Adjuvantierte Immunisierungsstrategien sind damit ein vielversprechender Ansatz nicht nur zur Wirksamkeitssteigerung von Subunit- und Proteinimpfstoffen, sondern auch zur schnellen Herstellung von therapeutischen Antiseren.
Der ligandaktivierte Transkriptionsfaktor Farnesoid X Rezeptor (FXR) ist neben seiner Funktion als Regulator des Gallensäurehaushaltes auch in vielen anderen metabolischen Prozessen wie Glukose- und Lipidhomöostase involviert und besitzt antiinflammatorische Eigenschaften. Gerade bei hepatischen, gastrointestinalen und systemischen Erkrankungen erscheint FXR daher als interessante Zielstruktur zur Behandlung metabolischer Erkrankungen. Basierend auf den natürlichen Liganden von FXR, den Gallensäuren, wurde Obeticholsäure (OCA) als seminsynthetisches Derivat der endogenen Chenodesoxycholsäure zu einem potenten FXR-Agonisten entwickelt. OCA wurde in mehreren Studien auf seine therapeutische Wirkung bei hepatisch-entzündlichen Krankheitsbildern wie der primären biliären Cholangitis (PBC), der nicht-alkoholischen Fettleber (engl: non-alcoholic fatty liver disease, NAFLD) und der daraus folgenden nicht-alkoholischen Steatohepatitis (NASH) getestet. Mittlerweile ist OCA als Zweitlinientherapie der PBC auf dem Arzneimittelmarkt zuge-lassen. Neben OCA gibt es noch eine große Anzahl an weiteren FXR-Liganden, deren strukturelle Diversität von Steroiden bis nicht-steroidalen kleinen Molekülen (engl: small molecules) reicht. Trotz dieser Erfolge muss das Therapiepotential von FXR noch weiter ausgebaut werden. Die meisten verfügbaren Liganden besitzen in vitro zwar eine hohe Potenz, können in ihrem pharmakokinetischen Profil oder ihrer Selektivität gegenüber anderen nukleären Rezeptoren aber nicht überzeugen.
Die hier vorliegende Arbeit hat sich mit der Entwicklung unterschiedlicher Liganden für FXR beschäftigt und diese in vitro und teilweise auch in vivo charakterisiert, um sie entsprechend ihrer Wirkungsweise einzuordnen und ein besseres Verständnis der regulatorischen Funktion von FXR zu erlangen.
Modulation von FXR bezieht sich nicht nur auf die agonistische Aktivierung, sondern setzt sich auch mit Antagonismus auseinander. Neben einigen Krankheitsbildern, die aus einer Überexpression von FXR resultieren, werden Antagonisten als Werkzeug (engl: tool compound) zur Aufklärung von konformellen Veränderungen von FXR und deren Auswirkung auf bestimmte Signalwege benötigt. Für die Erforschung solcher FXR-Antagonisten sollte das Potential nicht-steroidaler Antirheumatika (engl: non-steroidal anti-rheumatic drugs, NSAIDs) als etwaige Leitstrukturen untersucht werden, da in einer Veröffentlichung von Lu et al. ein FXR-Antagonismus durch NSAIDs postuliert wurde. Beim Versuch der Reproduktion der Ergebnisse von Lu et al. mit den drei NSAIDs Ibuprofen, Indometacin und Diclofenac wurde festgestellt, dass die Effekte auf den ersten Blick antagonistisch erscheinen, aber bei genaueren biochemischen Untersuchungen zweifelsfrei als Zytotoxizität identifiziert wurden.
FXR-Antagonisten wie Guggulsteron oder Gly-MCA sind auf ihre therapeutische Wirksamkeit unter-sucht worden, aber die genaue Wirkweise ist noch nicht aufgeklärt. Aufgrund ihrer steroidalen Grundstruktur ist ihre Selektivität gegenüber anderen nukleären Rezeptoren fraglich. Die überschaubare Anzahl an publizierten nicht-steroidalen FXR-Antagonisten besitzt zwar moderate IC50-Werte, ihre strukturelle Diversität und Selektivität ist aber limitiert. Zur Entwicklung neuer potenter FXR-Antagonisten, die aus kleinen Molekülen (engl: small molecules) aufgebaut sind, wurde eine N-Phenylbenzamid-Leitstruktur ausgewählt. Diese Leitstruktur wurde im Rahmen der SAR-Unter-suchungen zur Entwicklung von Anthranilsäurederivaten als FXR-Partialagonisten innerhalb des Arbeitskreises entdeckt. Ausgehend von dieser Leitstruktur wurde eine mehrstufige, systematische SAR-Untersuchung durchgeführt, wodurch ein sehr potenter FXR-Antagonist entwickelt werden konnte, der anschließend umfangreich biochemisch auf FXR-Modulation, Selektivität, Löslichkeit, Toxizität und metabolische Stabilität charakterisiert wurde.
Neben dem Verständnis eines Modulationsmechanismus ist die konkrete Anwendung eines FXR-Liganden zu therapeutischen Zwecken von großem Interesse. Die Beteiligung von FXR in unterschiedlichen metabolischen Prozessen macht den Rezeptor zu einem begehrten Ansatzpunkt für die Wirkstoffentwicklung. Doch die Behandlung eines multifaktoriellen Krankheitsbildes (z.B. metabolisches Syndrom, NASH) sollte sich nicht nur auf einen der gestörten Signalwege beziehen, da diese Erkrankungen durch mehrere Faktoren ausgelöst oder beeinflusst werden. Der semisynthetische FXR-Agonist OCA zeigte innerhalb der FLINT-Studie sowohl antientzündliche und antifibrotische Effekte, als auch eine Verbesserung der metabolischen Parameter mit Blick auf NAFLD und NASH. Die lösliche Epoxidhydrolase (engl: soluble epoxidhydrolase, sEH) besitzt nachweislich anti-inflammatorische und antisteatotische Effekte in der Leber. Aus diesem Grund wurde eine Leitstruktur entwickelt, die eine duale Modulation aus FXR-Aktivierung und sEH-Inhibition erzeugt. Dafür wurden die Pharmakophore eines im Arbeitskreis entwickelten FXR-Partialagonisten sowie eines potenten sEH-Inhibitors miteinander verknüpft. Zur Weiterentwicklung einer ausgewogenen hohen Potenz beider Modulationsfaktoren wurden mehrere unterschiedliche SAR-Untersuchungen als translationales Projekt in mehreren Arbeiten durchgeführt. In der hier vorliegenden Arbeit konnten dieses SAR-Untersuchungen zusammengeführt und weiterentwickelt werden. Dabei wurde ein ausgewogener und hochpotenter dualer Modulator erhalten, der umfassend in vitro und in vivo charakterisiert wurde. Die gezielte duale Aktivität, die mit dieser Substanz erreicht wurde, führt in einem Krankheitsbild zu synergistischer Ergänzung zweier Therapieoptionen. Jedoch kann eine unerwünschte Promiskuität über verwandten nukleären Faktoren zu Nebenwirkungen führen. Die Ursache dafür kann eine saure Funktion darstellen. Ein sehr potenter nicht-azider FXR-Agonist mit einem subnanomolaren EC50-Wert konnte im Arbeitskreis entwickelt werden. Diese Verbindung ist FXR-selektiv, hat keinen toxischen Effekt auf HepG2-Zellen und eine moderate metabolische Halbwertszeit. Die qRT-PCR-Untersuchung direkter und indirekter FXR-Zielgene zeigte eine verstärkte Expression nach der Inkubation mit der nicht-aziden Substanz. Dadurch lässt sich das Prinzip der Nebenwirkungsminderung durch nicht-azide Verbindungen beweisen.
Insgesamt konnte in dieser Arbeit gezeigt werden, wie vielfältig und vielversprechend eine FXR-Modulation aufgebaut sein kann. Zum einen konnte über eine ausgeprägte biochemische Evaluation eine Differenzierung zwischen FXR-Antagonismus und Zelltoxizität bewiesen werden, worauf sich aufbauend eine genaue in vitro-Charakterisierung von neuen N-phenylbenzamidbasierten FXR-Antagonisten durchführen ließ, die ausgehend von einer moderat potenten Leitstruktur zu einer sehr potenten optimierten Substanz entwickelt wurden. FXR-Antagonismus und die dazu passenden tool compounds sind nicht nur von Bedeutung zum besseren Verständnis der unterschiedlichen Bindungsmodi des FXR, sondern auch potentielle Therapieansätze zur Behandlung von Krankheiten, in denen eine FXR-Überexpression stattfindet. Die agonistische Modulation von FXR wurde genauer betrachtet in der in vitro-Untersuchung nicht-azider FXR-Agonisten, die durch das Fehlen einer sauren Funktion ein hohes Maß an Selektivität und dabei eine geringe Toxizität aufwiesen. Synergistische Effekte zur Behandlung eines multifaktoriellen Krankheitsbildes durch die Kombination von FXR-Partialagonismus und sEH-Inhibition konnte durch die Entwicklung der potenten und balancierten Substanz sowohl in vitro als auch in vivo bewiesen werden, wodurch diese Verbindung ein vielversprechender Kandidat für weitere klinische Entwicklung ist.
To date, chemicals are used ubiquitous in everyday life and an increasing consumption of pharmaceuticals and personal care products and industrial chemicals results in an increased water pollution. Conventional wastewater treatment plants are not able to completely remove the variety of (polar) organic compounds from today’s wastewater and thus serve as constant key point sources for the unintentional release of (micro-)pollutants into the aquatic environment. Anthropogenic micropollutants are detectable in very low concentrations in almost every aquatic compartment and may cause adverse effects on aquatic organisms. Considering the current situation of water pollution and to enhance water quality with regard to environmental and human health, the implementation of advanced wastewater treatment technologies, such as ozonation and activated carbon filtration was extensively discussed and investigated in recent years. Yet, besides their advantages regarding the efficient removal of a variety of recalcitrant, organic compounds as well as pathogens from the wastewater, it is known that especially the treatment with ozone may lead to the formation of largely unknown ozonation by-products with often unknown toxicity and unknown threats to human and the environment. To address these topics the joint research project TransRisk aimed at the “characterization, communication and minimization of risks originating from emerging contaminants and pathogens in the water cycle”. Within this research project the present thesis focuses on the ecotoxicological investigation of emerging waterborne contaminants, including their potential transformation products (TPs). Additionally, focus was laid on the investigation of combined effects of anthropogenic contaminants and pathogens with effects especially on aquatic invertebrate organisms.
The potential ecotoxicological effects of the antiviral drug acyclovir and two of its structurally identified TPs, were investigated on three aquatic organisms (Raphidocelis subcapitata, Daphnia magna and embryos of Danio rerio). While the parent compound acyclovir caused no acute toxicity up to a tested concentration of 100 mg/l on any of the investigated organisms, both TPs were shown to exhibit an increased aquatic toxicity. Carboxy-acyclovir, the biodegradation product of acyclovir, significantly reduced reproduction of D. magna by 40% at 102 mg/l, and the ozonation product COFA significantly inhibited growth of green algae R. subcapitata (EC10 = 14.1 mg/l). In the present case, advanced wastewater treatment was shown to lead to the formation of TPs, that reveal a higher toxicity towards investigated organisms, than the parent compound. Results highlight the necessity of further research related to the topic of identification and characterization of TPs, formed during advanced wastewater treatment processes.
To investigate the potential reduction or enhancement of toxic effects of nine differently treated wastewater effluents, selected bioassays with Daphnia magna, Lumbriculus variegatus and Lemna minor were conducted in flow-through test systems on a pilot treatment plant. The different treatment processes included ozonation of conventional biological treatment, with subsequent filtration processes as well as membrane bioreactor treatment in combination with ozonation. While exposure to the conventionally treated wastewater did not result in significant impairing effects on D. magna and L. minor, a reduced abundance of L. variegatus (by up to 46%) was observed compared to the medium control. Subsequent ozonation and additional filtration of the wastewater enhanced water quality, visible in an improved performance of L. variegatus. In general, direct evidence for the formation of toxic TPs due to the advanced wastewater treatments was not found, at least not in concentrations high enough to cause measurable effects in the investigated test systems. Additionally, no evidence for immunotoxic effects of the investigated wastewater effluents were observed. Yet, study-site- and species-specific effects hindered the definite interpretation of results. That underline the importance of a suitable test battery consisting of representatives of different taxonomic groups and trophic levels, to ensure a comprehensive evaluation of the complex matrix of wastewater and to avoid false-negative or false-positive results.
With aim to improve knowledge regarding immunotoxicity in invertebrates, the potential immunotoxic effects of the immunosuppressive pharmaceutical cyclosporine A (CsA) were investigated by applying the host-parasite model system Daphnia magna – Pasteuria ramosa in an adapted host resistance assay. Co-exposure to CsA and Pasteuria synergistically affected long-term survival of D. magna. Additionally, the enhanced virulence of the pathogen upon chemical co-exposure was expressed in synergistically increased infection rates and an increased speed of Pasteuria-induced host sterilization. In conclusion, results provide evidence for a suppressed disease resistance in a chemically stressed invertebrate host, highlighting the importance of investigating the conjunction of environmental pollutants and pathogens in the environmental risk assessment of anthropogenic pollutants.
Einleitung: Die häufigste Komplikation nach einer totalen Thyreoidektomie ist der postoperative sekundäre Hypoparathyreoidismus. Eine Prävention dieser Komplikation wäre erstrebenswert. Nicht nur dass die Patienten unter den Symptomen (wie z.B. Kribbelparästhesien) leiden, auch der Krankenhausaufenthalt wird meist verlängert und es wird ein höherer Aufwand an diagnostischen Maßnahmen und Medikamenten in der Folge notwendig.
Um das Auftreten des sekundären Hypoparathyreoidismus einzuschränken sind schon einige Studien durchgeführt worden, die u.a. ein erhöhtes Risiko für Patienten mit einem präoperativen Vitamin D3-Defizit aufzeigten.
Der Einfluss dieses Vitamin D3-Defizits wird in der vorliegenden prospektiven, multizentrischen, randomisiert kontrollierten Studie näher untersucht. Es sollte geklärt werden, ob eine präoperative Prophylaxe mit Vitamin D3 eine Verminderung der Hypokalzämierate gegenüber einer Kontrollgruppe bewirken kann.
Da sich der sekundäre Hypoparathyreoidismus als multifaktorielles Geschehen darstellt, sind in dieser Studie weitere Risikofaktoren untersucht worden.
Zusätzlich sollten eine Veränderung der Lebensqualität und die Belastung der Patienten durch Hypoparathyreoidismus-Symptome beurteilt werden.
Material und Methoden: Im Zeitraum vom 23.07.2014 bis zum 26.10.2016 wurden 246 Patienten an sechs verschiedenen Kliniken rekrutiert. Das Durchschnittsalter der 61 Männer und 185 Frauen lag bei 49 Jahren (Min.: 22 Jahre, Max.: 81 Jahre). Alle Patienten unterzogen sich einer totalen Thyreoidektomie als Ersteingriff an der Schilddrüse.
Die Patienten wurden in zwei Gruppen randomisiert, wobei die Interventionsgruppe präoperativ über drei Tage eine Vitamin D3–Prophylaxe (0,5µg, jeweils morgens und abends) einnahm. Neben dieser Intervention wurde nicht in die standardmäßige Behandlung der Patienten eingegriffen, um eine möglichst praxisnahe Untersuchung zu gewährleisten.
Bei allen Patienten wurde präoperativ und mindestens am ersten Tag postoperativ der Serumcalcium-Wert bestimmt. Der Beobachtungszeitraum erstreckte sich über ca. 30 Tage postoperativ, in dem auch weitere Parameter untersucht wurden. U.a. wurden die Patienten gebeten den SF-36-Fragebogen nach Bullinger et al (1) und den Hypoparathyreoidismus-Fragebogen nach Bohrer et al (2) auszufüllen. Mit diesen Fragebögen sollten die empfundene Lebensqualität der Patienten und die Belastung durch Hypoparathyreoidismus-Symptome abgefragt werden.
Ergebnisse: Die Untersuchungsgruppen zeigten keinen signifikanten Unterschied in Bezug auf das Auftreten einer postoperativen Hypokalzämie. Insofern eine Hypokalzämie auftrat, konnte die Normokalzämie in der Interventionsgruppe signifikant schneller erreicht werden. Aufgrund dieses Ergebnisses konnte eine NNT für jede Klinik errechnet werden. Diese Werte ließen eine Skalierung zu, durch die jedes Klinikum für sich eine Nützlichkeit der Intervention anhand der Hypokalzämie-Rate errechnen kann.
Herausgefunden werden konnte ebenfalls, dass die Kliniken signifikant unterschiedliche Hypokalzämie-Raten aufwiesen. Je nach Hypokalzämie-Rate der Klinik bewirkte die Intervention abweichende Veränderungen (von einer Verschlechterung um 20% bis zu einer Verbesserung um 24, 6%).
Zu den signifikanten Risikofaktoren für eine postoperative Hypokalzämie zählten in dieser Studie das weibliche Geschlecht, ein relativ junges Alter (44,7 ±10,6 Jahre im Gegensatz zu 50,5 ±12 Jahre) und die intraoperative Identifizierung von mehr als drei Nebenschilddrüsen. Weiterhin zeigte sich, dass sich bei hypokalzämen Patienten der Krankenhausaufenthalt signifikant verlängerte.
Beim SF-36-Fragebogen zeigte sich ein signifikanter Unterschied zwischen den prä- und postoperativen Werten der Frauen. Der Belastungsscore des Hypoparathyreoidismus-Fragebogens hingegen zeigte nur bei den Frauen der Interventionsgruppe eine signifikante Verbesserung zu den präoperativen Werten.
Schlussfolgerung: Die prophylaktische Vitamin D3-Gabe präoperativ konnte zwar keine Verminderung der Hypokalzämie-Rate in der Interventionsgruppe bewirken, aber bei aufgetretener Hypokalzämie eine schnellere Erholung des Calcium-Spiegels bewirken. Die postoperative Belastung durch Hypokalzämiesymptome wurde durch die Vitamin D3-Prophylaxe von Frauen signifikant gemildert empfunden. Eine Vitamin D3-Prophylaxe ist daher empfehlenswert. Der Nutzen der Intervention steigt allerdings mit der jeweiligen institutionellen Hypokalzämie-Rate. Bemerkenswert ist, dass die Kliniken sich in vielen Parametern gleichen, aber letztlich das chirurgische Vorgehen den größten Einfluss auf die Hypokalzämie-Rate zu haben scheint und die Intervention in Form der Gabe einer Vitamin D3-Prophylaxe überlagert hat.
Universities typically offer video-based courses and internships to prepare prospective teachers for classroom management. Empirical studies have shown the effectiveness of analyzing video clips in programs for teacher training. However, no empirical studies have explored the relationship between the teaching experience of prospective teachers and the effectivity of video-based courses on classroom management. The research question was: How can classroom management competency be effectively conveyed in video-based courses regarding the differences in practical experiences of prospective teachers. Theory on cognitive load and situated learning suggests that prospective teachers with teaching experience could benefit more from a situated instructional strategy, whereas prospective teachers without this experience benefit more from a cognitive instructional strategy.
The sample consisted of a total of 87 prospective teachers belonging to a first cohort that had participated in an internship and a second cohort that had not yet participated. Participants of both cohorts were randomly assigned to a course following one of the two instructional strategies. A video test was designed to assess classroom management competence. Additionally, measurements of prospective teachers’ attentiveness and their self-efficacy at the start of the internship were included.
The study showed a significant main effect between pretest and posttest. However, neither a significant difference in the effectiveness between the two instructional strategies nor between the two cohorts was found (first order). Also, the effectiveness of the instructional strategy was not influenced by the availability of teaching experience (second order). Scores on the video test were not significantly related to prospective teachers’ attentiveness. The prospective teachers that participated in the course before participation in the internship rated their own classroom management significantly lower than the prospective teachers that participated in the course after participating in their internship.
These results firstly indicate that there was no significant difference in cognitive load between the groups, implying that both instructional strategies are suitable for the conveying of classroom management competence within universities. Secondly, the current study has found no evidence that the trait of attentiveness influences prospective teachers’ performance within video tests. Thirdly, these results give reason to believe that the valid assessment of self-efficacy on classroom management depends on the degree of familiarity with the topic, for example, through previous dealings within video-based courses. The limited reliability of the new video test should be taken into account when interpreting the results of the current study.
Die Analyse von DNA-Sequenzen steht spätestens seit der Feststellung ihrer tragenden Rolle in der Vererbung organismischer Eigenschaften im Fokus biologischer Fragestellungen. Seit Kurzem wird mit modernsten Methoden die Untersuchung von kompletten Genomen ermöglicht. Dies eröffnet den Zugang zu genomweiten Informationen gegenüber begrenzt aussagekräftigen markerbasierten Analysen. Eine Genomsequenz ist die ultimative Quelle an organismischer Information. Allerdings sind diese Informationen oft aufgrund technischer und biologischer Gründe komplex und werfen meist mehr Fragen auf, als sie beantworten.
Die Rekonstruktion einer bislang unbekannten Genomsequenz aus kurzen Sequenzen stellt eine technische Herausforderung dar, die mit grundlegenden, aber in der Realität nicht zwingend zutreffenden Annahmen verbunden ist. Außerdem können biologische Faktoren, wie Repeatgehalt oder Heterozygotie, die Fehlerrate einer Assemblierung stark beeinflussen. Die Beurteilung der Qualität einer de novo Assemblierung ist herausfordernd, aber zugleich äußerst notwendig. Anschließend ist eine strukturelle und funktionale Annotation von Genen, kodierenden Bereichen und repeats nötig, um umfangreiche biologische Fragestellungen beantworten zu können. Ein qualitativ hochwertiges und annotiertes assembly ermöglicht genomweite Analysen von Individuen und Populationen. Diese Arbeit beinhaltet die Assemblierung und Annotation des Genoms der Süßwasserschnecke Radix auricularia und eine Studie vergleichender Genomik von fünf Individuen aus verschiedenen molekularen Gruppen (MOTUs).
Mollusken beherbergen nach den Insekten die größte Artenvielfalt innerhalb der Tierstämme und besiedeln verschiedenste, teils extreme, Habitate. Trotz der großen Bedeutung für die Biodiversitätsforschung sind verhältnismäßig wenige genomische Daten öffentlich verfügbar. Zudem sind Arten der Gattung Radix auch aufgrund ihrer großen geografischen Verbreitung in diversen biologischen Disziplinen als Modellorganismen etabliert. Eine annotierte Genomsequenz ermöglicht über bereits untersuchte Felder hinaus die Forschung an grundlegenden biologischen Fragestellungen, wie z.B. die Funktionsweise von Hybridisierung und Artbildung. Durch Assemblierung und scaffolding von sechs whole genome shotgun Bibliotheken verschiedener insert sizes und einem transkriptbasiertem scaffolding konnte trotz des hohen Repeatgehalts ein vergleichsweise kontinuierliches assembly erhalten werden. Die erhebliche Differenz zwischen der Gesamtlänge der Assemblierung und der geschätzten Genomgröße konnte zum Großteil auf kollabierte repeats zurückgeführt werden.
Die strukturelle Annotation basierend auf Transkriptomen, Proteinen einer Datenbank und artspezifisch trainierten Genvorhersagemodellen resultierte in 17.338 proteinkodierenden Genen, die etwa 12,5% der geschätzten Genomgröße abdecken. Der Annotation wird u.a. aufgrund beinhaltender Kernrthologen, konservierter Proteindomänenarrangements und der Übereinstimmung mit de novo sequenzierten Peptiden eine hohe Qualität zugesprochen.
Das mapping der Sequenzen von fünf Radix MOTUs gegen die R. auricularia Assemblierung zeigte stark verringerte coverage außerhalb kodierender Bereiche der nicht-Referenz MOTUs aufgrund hoher Nukleotiddiversität. Für 16.039 Gene konnten Topologien berechnet werden und ein Test auf positive Selektion ausgeführt werden. Insgesamt konnte über alle MOTUs hinweg in 678 verschiedenen Genen positive Selektion detektiert werden, wobei jede MOTU ein nahezu einzigartiges Set positiv selektierter Gene beinhaltet. Von allen 16.039 untersuchten Genen konnten 56,4% funktional annotiert werden. Diese niedrige Rate wird vermutlich durch Mangel an genomischer Information in Mollusken verursacht. Anschließende Analysen auf Anreicherungen von Funktionen sind deshalb nur bedingt repräsentativ.
Neben den biologischen Ergebnissen wurden Methoden und Optimierungen genomischer Analysen von Nichtmodellorganismen entwickelt. Dazu zählen eigens angefertigte Skripte, um beispielsweise Transkriptomalignments zu filtern, Trainings eines Genvorhersagemodells automatisiert und parallelisiert auszuführen und Orthogruppen bestimmter Arten aus einer Orthologievorhersage zu extrahieren. Zusätzlich wurden Abläufe entwickelt, um möglichst viele vorhandene Daten in die Assemblierung und Annotation zu integrieren. Etwa wurde ein zusätzliches scaffolding mit eigens assemblierten Transkripten mehrerer MOTUs sequenziell und phylogenetisch begründet ausgeführt.
Insgesamt wird eine umfassende und qualitativ hochwertige Genomsequenz eines Süßwassermollusken präsentiert, welche eine Grundlage für zukünftige Forschungsprojekte z.B. im Bereich der Biodiversität, Populationsgenomik und molekularen Ökologie bietet. Die Ergebnisse dieser Arbeit stellen einen Wissenszuwachs in der Genomik von Mollusken dar, welche bisher trotz ihrer Artenvielfalt deutlich unterrepräsentiert bezüglich assemblierter und annotierter Genome auffallen.
Das Hodgkin Lymphom besteht aus zwei verschiedenen Typen, dem klassischen Hodgkin Lymphom (cHL) mit einem Anteil von 95% und dem nodulären lymphozytenprädominanten Hodgkin Lymphom (NLPHL). Letzteres kann sehr unterschiedliche histopathologische Wachstumsmuster zeigen, die nach Fan et al. grob in ein typisches knotiges (Muster A) und in atypische diffuse Wachstumsmuster (Muster C und E) unterteilt werden können. Patienten mit einem NLPHL, das zum diffus wachsenden Subtyp zählt, präsentieren sich häufiger in klinisch fortgeschrittenen Stadien als jene Patienten mit einem NLPHL, das ein knotiges Wachstumsmuster zeigt. Im Gegensatz dazu präsentiert sich das T-Zell/Histiozytenreiche großzellige B-Zell Lymphom (THRLBCL) in einem fortgeschrittenen Stadium mit einer oftmals schlechten Prognose. NLPHL vom diffusen Typ weisen starke Ähnlichkeiten mit dem THRLBCL sowohl in Bezug auf Histomorphologie als auch klinische Eigenschaften auf und sind dadurch manchmal nur schwer voneinander zu unterscheiden.
Das Wachstumsmuster eines Tumors hängt unter anderem von der Verteilung der Blutgefäße im Tumorgewebe ab. Viele aktuelle Studien weisen darauf hin, dass die Gefäßneubildung (Angiogenese) eine wichtige Rolle in der Entwicklung von hämatologischen Tumoren spielt. Durch diesen Prozess kann der Tumor zu ausreichend Sauerstoff und Nährstoffen gelangen, um invasiv zu wachsen und zu metastasieren. Die Gefäßdichte ist ein anerkannter Marker für die Auswertung von Gefäßneubildung in verschiedenen Tumoren.
Ein Ziel der Arbeit bestand darin, Parameter der Angiogenese, u.a. die Gefäßdichte und den queren Gefäßdurchmesser, in verschiedenen Subtypen des NLPHL und in THRLBCL im Hinblick auf eine mögliche Unterscheidbarkeit des diffusen NLPHL und des THRLBCL zu untersuchen sowie sie mit anderen Typen von malignen Lymphomen und reaktiven Lymphadenitiden (LA) zu vergleichen.
Von T-Lymphozyten ist bekannt, dass sie mit den Tumorzellen in Lymphomen in engem Kontakt stehen und einen nicht unerheblichen Anteil des Tumormikromilieus bilden. Die CD4+ Lymphozyten treten gewöhnlich über Gefäße, den hochendothelialen Venolen (HEVs), in den Lymphknoten ein.
Ein weiteres Ziel der Arbeit war es, eine mögliche Korrelation zwischen dem TLymphozyten-Zustrom und der Tumormorphologie in den betroffenen Lymphknoten zu untersuchen, um herauszufinden, ob dies die unterschiedliche Zusammensetzung im Mikromilieu der Lymphome erklären kann. Als Maß für den Zustrom wurde die Anzahl der intravaskulären T-Lymphozyten herangezogen. Zum Vergleich wurden weitere maligne Lymphome, die ein prominentes Tumormikromilieu besitzen, untersucht.
Im diffusen NLPHL und THRLBCL fanden wir eine niedrigere Gefäßdichte mit einer diffusen Blutgefäßverteilung. Im Gegensatz dazu zeigte das NLPHL mit einem typischen Wachstumsmuster, das cHL vom gemischtzelligen Typ (cHL MC) und das Angioimmunoblastische Lymphom (AITL) in den interfollikulären Arealen eine verstärkte Gefäßbildung. Es zeigte sich in allen Subtypen des NLPHL eine signifikant geringere Gefäßdichte, verglichen mit dem AITL oder den LA Fällen. LA wiesen insgesamt die höchste interfollikuläre Gefäßdichte auf. Das THRLBCL zeigte die niedrigste Gefäßdichte von allen malignen Lymphomen, die untersucht wurden, allerdings war der Vergleich von THRLBCL und den verschiedenen Subtypen des NLPHL nicht signifikant. Wir konnten zeigen, dass die diffusen Subtypen des NLPHL und das THRLBCL ein ähnliches Wachstumsmuster der Blutgefäße mit einer verminderten Gefäßdichte und nicht mehr identifizierbaren follikulären Bereichen vorweisen, im Gegensatz zu den beibehaltenen follikulären Mustern, die wir im typischen NLPHL fanden. Die Anzahl der intravaskulären T-Zellen war am höchsten im cHL MC sowie im typischen NLPHL. Signifikant geringer fielen die intravaskulären TLymphozyten-Werte im THRLBCL im Vergleich mit dem typischen NLPHL Muster A, C und dem cHL MC aus.
Da die LA Fälle eine hohe interfollikuläre Gefäßdichte und kleine Gefäßdurchmesser zeigten, kann man davon ausgehen, dass die Gefäße durch die schnell anschwellenden Keimzentren komprimiert wurden. In den atypischen NLPHL und THRLBCL Fällen lassen die geringe Gefäßdichte und relativ große Gefäßdurchmesser eine langsame Dehnung des Gefäßgerüstes des Lymphknotens annehmen. Die Resultate der T-Zell Quantifizierung legen den Schluss nahe, dass die relativ geringe Anzahl von intravaskulären T-Lymphozyten im THRLBCL zusammen mit einer geringen Gefäßdichte möglicherweise verantwortlich ist für die gewöhnlich relativ geringe Anzahl an T-Lymphozyten pro Fläche und hierdurch die hohe Anzahl an Makrophagen im Mikromilieu im THRLBCL hervorgerufen wird. Dies könnte im Zusammenhang stehen mit einer absolut verminderten T-Lymphozytenzahl im Blut oder einem reduzierten Eintritt der T-Lymphozyten in den Lymphknoten.