Refine
Year of publication
- 2018 (204) (remove)
Document Type
- Doctoral Thesis (204) (remove)
Has Fulltext
- yes (204) (remove)
Is part of the Bibliography
- no (204) (remove)
Keywords
- Lebensqualität (2)
- Spracherwerb (2)
- vascular endothelial cells (2)
- ABCE1 (1)
- ARFI (1)
- Adhärenz (1)
- Afghanistan (1)
- Allosteric inhibition (1)
- Anomalie <Medizin> (1)
- Anwendungsorientierte Forschung (1)
Institute
- Biochemie, Chemie und Pharmazie (44)
- Medizin (39)
- Biowissenschaften (34)
- Physik (21)
- Informatik und Mathematik (17)
- Gesellschaftswissenschaften (8)
- Sprach- und Kulturwissenschaften (8)
- Neuere Philologien (7)
- Biochemie und Chemie (3)
- Kulturwissenschaften (3)
FPP und GGPP sind Intermediate des Mevalonat-Weges und fungieren als post-translationale Modifikation kleiner GTPasen. Die Prenylierung kleiner GTPasen erfolgt katalysiert von spezifischen Prenyltransferasen und ist notwendig um die kleinen GTPasen in Membranen zu verankern, wo ihre Aktivierung stattfindet. Zu den intrazellulären Funktionen der GTPasen gehören unter anderem der Aufbau des Cytoskeletts, das neuronale Zellwachstum, die Leitung und Ausläuferbildung von Axonen, das Dendritenwachstum, die Synapsenformation, die synaptische Plastizität und die Apoptose. Diese Funktionen spielen in der Gehirnalterung sowie in neurodegenerativen Erkrankungen wie der Alzheimer Demenz (AD) und auch bei der Glioblastoma multiforme (GBM) eine wichtige Rolle.
Im Zuge einer in vivo Studie an C57BL/6 Mäusen konnten in der vorliegenden Arbeit altersbedingte Veränderungen der Lokalisation verschiedener Rho- und Rab-GTPasen in Membran- und Cytosol-Präparationen sowie der GGTase-I in Gehirnen gealterter Tiere gezeigt werden. Die zelluläre Lokalisation der Rho GTPasen Rac1, RhoA und Cdc42 verschiebt sich im Alter zu reduzierten Membran-gebundenen und erhöhten cytosolischen Gehalten. Dies ist mit einer Reduktion der Protein- und mRNA- Gehalte des Enzyms GGTase-Iβ assoziiert, der Untereinheit der GGTase-I, die die Bindung des Isoprenoids GGPP an die Rho-GTPasen reguliert. Diese wiederum korrelieren direkt mit der altersbedingten Reduktion der relativen GGTase-Aktivität. Die in vitro Inhibition der GGTase-I mittels GGTI-2133 an SH-SY5Y Zellen erwies sich als Modell, welches die gleichen Effekte wie die gealterten Gehirne in vivo zeigt.
7, 8-Dihydroxyflavon (7, 8-DHF) ist ein natürlich vorkommendes Flavon, welches als hoch affiner selektiver TrkB-Rezeptor-Agonist fungiert und hierdurch wie das Neurotrophin BDNF das Überleben von Neuronen, deren Differenzierung, synaptische Plastizität und Neurogenese vermittelt. In vivo verursacht die orale Gabe von 7, 8-Dihydroxyflavon in Gehirnen alter Tiere eine Abnahme des Isoprenoids GGPP, die Zunahme der prenylierten Membran-gebundenen GTPase Rac1 und eine Reduktion des Gehaltes an Membran-gebundenem Rab3A auf das Niveau der Gehalte in den Gehirnen der jungen Kontroll-Tiere. Das Neurotrophin BDNF interagiert mit dem TrkB-Rezeptor und ist in der Lage direkt an den Rac1-spezifischen GEF Tiam1 zu binden, wodurch dieser aktiviert wird und Veränderungen der zellulären Morphologie der betroffenen Neurone induziert. Während das Alter und die orale Gabe von 7, 8-Dihydroxyflavon in vivo keine Effekte auf die Proteingehalte von BDNF und TrkB in der Tierstudie aufzeigten, konnte eine alterbedingte Reduktion von Tiam1 im Hirngewebe detektiert werden, die wiederum durch 7, 8-Dihydroxyflavon aufgehoben werden konnte.
Die Isoprenoide FPP und GGPP, sowie die Regulation kleiner GTPasen spielen auch eine wichtige Rolle im Zusammenhang mit Veränderungen der APP-Prozessierung in der molekularen Pathogenese der AD. Bei der APP-Prozessierung sind die beiden Sekretasen β- und γ-Sekretase für die Bildung des β-Amyloid-Peptids verantwortlich. In vitro Studien mit dem β-Sekretase-Inhibitor IV und dem γ-Sekretase-Inhibitor DAPT an untransfizierten und APP-transfizierten HEK293 Zellen (HEK293-APP695wt und HEK293-APPsw Zellen) konnten zeigen, dass sowohl die β- als auch die γ-Sekretase an der Regulation der Isoprenoide FPP und GGPP beteiligt sind. FPP und GGPP liegen in APP-transfizierten HEK293 Zellen erhöht vor. Die Inhibition der β-Sekretase führt zur Reduktion von FPP und GGPP. Durch die Inhibition der γ-Sekretase wird ausschließlich FPP reduziert. Weiterhin liegen in APP-transfizierten HEK293 Zellen die Membran-gebundenen prenylierten Rho-GTPasen Rac1, Cdc42 und RhoA erhöht vor. Das Membran-gebundene prenylierte H-Ras kommt jedoch in APP-transfizierten Zellen im Vergleich zu untransfizierten HEK293 Zellen in deutlich niedrigeren Mengen vor. Die Inhibition der β-Sekretase bedingt die Reduktion von Membran-gebundenem prenylierten Rac1 und auch von Membran-gebundenem H-Ras in HEK293-APPsw Zellen.
Veränderungen von Signaltransduktionswegen, die durch kleine GTPasen vermittelt werden, haben sich auch bei der GBM als zentraler Teil der molekularen Pathogenese herausgestellt. Hierbei ist die Prenylierung durch FPP und GGPP die Voraussetzung für die Membran-Insertion und onkogenen Funktion der Ras- und Rho-Proteine über die Stimulierung des Ras-Raf-MEK-ERK Signalweges. In dieser Arbeit konnte gezeigt werden, dass der HMG-CoA-Reduktase Inhibitor Lovastatin die Bildung der beiden Isoprenoide FPP und GGPP in U87 und U343 Glioblastoma Zellen verringert und hierdurch die Isoprenylierung von H-Ras und Rac1 reduziert. Das natürlich vorkommende Monoterpen Perrilylalkohol hingegen inhibiert die Prenyltransferasen FTase und GGTase und verändert dadurch die post-translationale Prenylierung der GTPasen Rac1 und H-Ras in U87 und U343 Zellen ohne die Isoprenoide FPP und GGPP signifikant zu beeinflussen. Jedoch bewirkt Perillylalkohol in U343 Zellen eine Erhöhung des GGPPs. Beide Substanzen bewirkten die Reduktion der ERK-Phosphorylierung und der Migration, Invasion und Proliferation der untersuchten U87 und U343 Glioblastoma Zellen.
Obesity is considered as a type of chronic inflammation. It enhances the risk of developing cardiovascular disease, diabetes, and some cancers. The key players in the induction of inflammation in adipose tissue are macrophages. However the mechanism of macrophage activation in obese fat tissue is still not fully understood. Elevated level of saturated fatty acids in adipose tissue promotes inflammation and insulin resistance. Exposure of macrophages to saturated fatty acids stimulates pro-inflammatory c-Jun N-terminal kinase (JNK), nuclear factor kappa B (NF-kB) signaling, and production of pro-inflammatory cytokines, such as IL-6, IL-8, IL-1β, and TNFα. Palmitate is a major saturated free fatty acid released by adipocytes. It activates inflammatory pathways through Toll-like receptors (TLR) 2 and 4, provokes endoplasmic reticulum (ER) stress and increases levels of diacylglycerols (DAGs) and ceramides. Saturated fatty acids also affect cellular oxidative metabolism. Thus, mitochondrial fatty acid oxidation reduces ER-stress and expression of inflammatory cytokines in palmitate-treated macrophages. On the other hand mitochondrial reactive oxygen species (ROS) promote palmitate-mediated pro-inflammatory cytokine production. Recently, mitochondrial functions were linked to their morphology. Mitochondrial fission has been reported in β-cells and myocytes in response to high levels of glucose and free fatty acids, and was associated with disruption of mitochondrial functions, increased ROS level, and cell death. The aim of this study was to investigate the role of mitochondrial fragmentation in palmitate-induced inflammation in human macrophages. In our settings fatty acids, independently of their saturation, affected mitochondrial morphology. Mixtures of long chain saturated and unsaturated fatty acids as well as triglyceride-rich lipoprotein lipolysis products promoted mitochondrial fission. Mitochondrial fragmentation in palmitate-treated macrophages revealed a time- and concentration-dependent character, and was reversible upon palmitate removal. This observation, together with unaltered levels of mitochondrial protein and DNA content, and intact mitochondrial respiration, suggested that mitochondria were not damaged and were functionally active. Mechanistically, palmitate-induced mitochondrial fragmentation was not regulated by ER stress or loss of mitochondrial membrane potential. However, inhibition of palmitate incorporation into mitochondrial membrane phospholipids decreased mitochondrial fragmentation. Other approach to prevent mitochondrial fission was the inhibition of dynamin-related protein 1 (DRP1) activity, which drives mitochondrial fission by forming ring- like structures around mitochondria and constricting mitochondrial membranes. Palmitate altered mitochondrial membrane lipid composition and promoted DRP1-oligomerization. The inhibition of palmitate-induced mitochondrial fragmentation enhanced mitochondrial ROS production, c-Jun phosphorylation, and upregulated expression of pro-inflammatory cytokines. Taken together, these results suggest that mitochondrial fragmentation is a protective mechanism attenuating palmitate-induced inflammatory responses. Future experiments will be required to investigate the role of mitochondrial fragmentation in obesity-associated diseases in vivo.
Ausgangspunkt der Studie ist die These, dass sprachlich und kulturell heterogene Lerngruppen, an denen Studierende mit und ohne spanischsprachigen Familienhintergrund gemeinsam teilnehmen, als eine günstige Lernsituation betrachtet werden können. Voraussetzung dafür ist, dass die unterschiedlichen sprachlichen und kulturellen Gegebenheiten als Ressourcen für den Unterricht verstanden werden.
Mit dem Fokus auf Sprachveranstaltungen in Spanisch, die von Studierenden an der Johann Wolfgang Goethe-Universität Frankfurt am Main besucht werden, und die im Rahmen ihres Lehramtsstudiums im Fach Spanisch stattfinden, wurden in dieser Studie folgende Forschungsfragen verfolgt:
1. Wie entstehen und entwickeln sich Sprachlernprozesse in sprachlich und kulturell vielfältigen Lernkontexten?
2. Wie zeichnet sich das Lernen in sprachlich und kulturell vielfältigen Lernkontexten aus?
3. Welche sprachlichen und kulturellen Ressourcen können für die sprachliche und kulturelle Förderung genutzt und bewusst eingesetzt werden?
Wichtigste Forschungsergebnisse:
Es wurde festgestellt, dass Sprachlernprozesse bei Studierenden mit und ohne spanischsprachigen Familienhintergrund sowohl im kognitiven als auch im emotionalen Bereich qualitativ unterschiedlich verlaufen und, dass in sprachlich und kulturell vielfältigen Lernkontexten individuelle und überindividuelle Sprachlern-prozesse stattfinden, die einander bedingen.
Was das gemeinsame Lernen angeht, konnte festgestellt werden, dass Studierende ohne spanischsprachigen Familienhintergrund widersprüchliche Erwartungen an die Studierenden mit spanischsprachigem Familienhintergrund haben: Einerseits schätzen sie die Präsenz ihrer Kommilitonen und sehen sie als Mittler zwischen dem Unterricht und der Realität außerhalb des Unterrichts, weil sie die „echte“ Sprache und Kultur in den Klassenraum bringen. Anderseits fühlen sie sich durch ihre Anwesenheit im Unterricht verunsichert, was ihre sprachliche Entwicklung zum Teil hemmt. Bei den Studierenden mit spanischsprachigem Familienhintergrund konnten unterschiedliche Phasen in ihrem Sprachlernprozess beobachtet werden, die ihre Lernattitüde und ihre Haltung zu den Kommilitoninnen und Kommilitonen konditionieren.
Entscheidend für die Konstruktion gemeinsamer Sprachlernprozessen ist, dass die Studierenden ihre Positionierung als peer ihrer Kommilitoninnen und Kommilitonen bewusst wahrnehmen, was nicht immer der Fall ist. Auch die Bewusstwerdung der eigenen Funktion als Mittler zwischen Sprachen und Kulturen insbesondere (aber nicht nur) bei Studierenden mit spanischsprachigem Familienhintergrund soll im Unterricht durch die Reflexion über die eigene sprachliche und kulturelle Identität gefördert werden.
Im Umgang mit solchen Lerngruppen haben Dozentinnen und Dozenten unterschiedliche Erwartungen. In der Regel werden aber Lerninhalte vermittelt, die die sprachliche und kulturelle Vielfalt im Unterricht nicht berücksichtigen. Für die Leistungsbewertung beider Studierendengruppen werden oft unterschiedliche Kriterien angewendet, woraus Konflikte zwischen den Veranstaltungsteilnehmerinnen und -teilnehmern entstehen.
Die Rolle der Dozentinnen und Dozenten selbst ist in der Gestaltung gemeinsamer Lernkontexte, in denen die Interaktion der Studierenden gefördert werden, grundlegend. Damit dies gelingt, sollen sie einerseits für Mehrsprachigkeit als Phänomen der Gesellschaft, das den Sprachunterricht im besonderen Maße betrifft, sensibilisiert sein. Andererseits soll ihnen bewusst werden, dass das Sprachenlernen aus einer kognitiven und einer emotionalen Seite besteht, die in engem Zusammenhang mit mehrsprachigen und mehrkulturellen Identitätskonstruktionen stehen. Beide Seiten sollen im Unterricht gefördert werden.
The Dodd Frank Act of 2010 (DFA) was the legislative response by the US Government to the Global Financial Crisis of 2007. DFA’s rescission of Rule 436 (g) of the Securities Act of 1933 - the exemption from liability clause - was the response to the post-crisis perception that credit rating agencies were insufficiently constrained by reputational risk considerations and consistently failed to provide high quality and accurate credit ratings as a consequence of the immunity they enjoyed and the regulatory reliance placed on ratings, as well as the conflicts of interest that they faced. This paper investigates whether the market failure event that occurred in the Asset Backed Securities market immediately after DFA was signed into law on July 21, 2010 was due to real economic concerns held by rating agencies about operating under a liability regime or whether it was merely an act of brinkmanship on the part of the rating agencies. The paper also predominantly examines US case law to identify the dilution of the freedom of speech defence in state courts, the conflict of interest issues and the legal challenges faced by plaintiffs when bringing a lawsuit against credit rating agencies, and proposes a novel co-pay and capped liability model to address the concerns of both credit rating agencies and investors.
Das Prinzip der endovaskulären Therapie von Aneurysmen mit Platinspiralen hat sich seit seiner Einführung durch Guglielmi 1991 immer mehr als alternatives Verfahren zum neurochirurgischen Clipping etabliert. Insbesondere bei Aneurysmen, die durch den neurochirurgischen Zugang nur schwer zu erreichen sind, hat sich diese Therapieoption bewährt. Neben der Lage spielen auch Größe und Form bei der Entscheidung für das Coiling eine wichtige Rolle. Es ist technisch anspruchsvoll, breitbasige oder besonders kleine Aneurysmen durch dieses Verfahren auszuschalten. Angesichts der aktuellen Datenlage ist es nicht immer möglich, eine zweifelsfreie Entscheidung zu treffen, ob und wie betroffene Patienten bestmöglich behandelt werden sollten. Insbesondere Fragen zur Behandlung und zu Komplikationen bei Aneurysmen ≤ 3 mm sind nicht hinreichend beantwortet, da diese nur in wenigen Studien Gegenstand der Analyse sind. Ziel der vorliegenden Arbeit war es, klinische und bildgebende Ergebnisse von Patienten, die im Institut für Neuroradiologie des Klinikum der Johann Wolfgang Goethe-Universität Frankfurt am Main durch eine endovaskuläre Intervention behandelt wurden, retrospektiv zu analysieren. Insbesondere wurde ein Schwerpunkt auf die Untersuchung der Komplikationsraten und der Aneurysmarupturen gelegt. Dies dient einer erweiterten Einschätzung von Risiko und Nutzen dieser Therapieoption, um eine bestmögliche Beratung und Behandlung der betroffenen Patienten zu gewährleisten.
In der vorliegenden Arbeit wurden 637 endovaskuläre Interventionen betrachtet, die am Institut für Neuroradiologie des Klinikum der Johann Wolfgang Goethe-Universität zwischen Februar 1999 und März 2011 durchgeführt wurden. In diesem Untersuchungszeitraum von 12 Jahren konnten 47 Patienten mit einem Aneurysma ≤ 3 mm in die Studie eingeschlossen werden. Es erfolgte eine retrospektive Datenerhebung mit Hilfe von Krankenakten, radiologischen Befunden und Angiographie-Dokumentationsprotokollen. Die Zusammensetzung des Patientenkollektivs war vergleichbar mit der der bisherigen Literatur. Das Durchschnittsalter des Patientenkollektivs betrug 55 Jahre. 85 % der Patienten waren Frauen. Bei der Häufigkeit des Auftretens an bestimmten Gefäßlokalisationen konnte ein geringer Unterschied festgestellt werden. Während bei ähnlichen Studien der Großteil der Aneurysmen an der ACI gefunden wurde, war in der vorliegenden Arbeit die AcomA am häufigsten betroffen, gefolgt von der ACI. In Bezug auf die Fehlschlagraten sind die Ergebnisse heterogen. In der vorliegenden Studie war es bei 17 % der behandelten Patienten nicht möglich, das Einbringen einer Platinspirale erfolgreich abzuschließen. Ein kompletter Aneurysmaverschluss erfolgte bei 55 % der Patienten. Bei 28 % der Fälle blieb nach der Intervention ein minimaler Halsrest bestehen. Die allgemeine Komplikationsrate betrug 12,8 %. Zu einer durch die Intervention ausgelösten Ruptur kam es in zwei Fällen (4,3 %), wobei dieser Anteil im mittleren Bereich der in der aktuellen Literatur beschriebenen Rupturraten von 0 % bis 11,7 % liegt. Für die Beurteilung des Therapieerfolgs spielt die Verfügbarkeit von Nachkontrollen eine wichtige Rolle. In der vorliegenden Arbeit war es möglich, in 87 % der Fälle Verlaufskontrollen durchzuführen, was Ergebnissen der Literatur entspricht. Die Wiederbehandlungsrate war mit 4,3 % vergleichsweise niedrig. Die Bildung eines Rezidivaneurysmas konnte in einem Fall beobachtet werden. 59 % der Patienten wiesen präoperativ einen Hunt und Hess Grad von 0 bis 2 auf, während es in anderen Arbeiten bis zu 87 % der Patienten waren. Grad 3 lag bei 15 % der Patienten vor, schwer betroffen waren 15 % mit einem Hunt und Hess Grad von 4 und 11 % mit einem von Grad 5. 55,3 % der in der vorliegenden Studie betrachteten Patienten konnten am Ende des Beobachtungszeitraums nach Einschätzung mittels mRS ihren Alltag ohne fremde Hilfe bewältigen (Stadien 0, 1 und 2). 34,0 % der Patienten benötigten fremde Hilfe und 10,9 % verstarben an den Folgen der SAB. Im Gegensatz dazu konnte in anderen Arbeiten ein mRS-Grad von 0-2 in mehr als 75 % gefunden werden. Dies bestärkt die Annahmen, dass ein primär niedriger Hunt und Hess Grad mit einem besseren und ein hoher Hunt und Hess Grad mit einem schlechteren klinischen Verlauf assoziiert sein könnte.
Durch die geringe Größe der Stichprobe und die retrospektive Datenanalyse der vorliegenden Arbeit ist es nicht möglich, zuverlässige allgemein gültige Behandlungsempfehlungen abzuleiten. Hier wurde das eigene Patientenkollektiv detailliert analysiert und die Ergebnisse wurden mit ähnlichen Publikationen verglichen. Weitere prospektiv geplante Studien sind sinnvoll.
Aus der zusammenfassenden Betrachtung der Ergebnisse lässt sich schließen, dass mit den momentan verfügbaren Mitteln bei ausreichender Erfahrung des behandelnden Neuroradiologen eine relativ sichere endovaskuläre Behandlung von sehr kleinen Aneurysmen möglich ist. Neben der Erfahrenheit des interventionellen Neuroradiologen kann die Weiterentwicklung der eingesetzten Materialien wie Coils, Stents, Ballons und Mikrokatheter zur Minimierung des Komplikationsrisikos beitragen.
In dieser Arbeit wurden mittels Fragebogen chronobiologische - hier als Chronobiologika bezeichnet -, biologische und soziale Parameter von Patienten mit einer definierten Malignomerkrankung (Mamma-Karzinom, Kolon-Karzinom, Lymphom) bestimmt und auf Zusammenhänge überprüft. Die Chronobiologika wurden für die Zeit vor der Erkrankung sowie für den Zeitpunkt der Befragung erhoben und die Veränderungen berechnet. Die Parameter vor der Erkrankung wurden bei der Gruppe der Patienten mit Mamma-Karzinom mit einer repräsentativen Referenzgruppe (Gesundheitsmonitor des Jahres 2013 der Bertelsmann Stiftung) auf Unterschiede verglichen. Es wurde insbesondere untersucht, ob Zusammenhänge zwischen den Veränderungen der Chronobiologika und der unter der Chemotherapie empfundenen Belastung (= Distress) bestehen.
Dazu wurden im Rahmen einer multizentrischen Studie bei 378 Personen anhand eines Fragebogens auf Basis des Munich ChronoType Questionnaires (MCTQ) Angaben zu ihrem Schlaf-Wach-Rhythmus, ihrer Malignomerkrankung, deren Therapie, der darunter empfundenen Belastung und dem Lebensstil ausgewertet. Ein besonderes Augenmerk wurde dabei auf den Chronotyp, den Social Jetlag und das Schlafdefizit gelegt.
Es ließen sich nur wenige Unterschiede in den Chronobiologika zum Zeitpunkt vor der Erkrankung und dem aktuellen pathologischen Zustand, zwischen den Malignomgruppen, zwischen den Gruppen mit und ohne Chemotherapie sowie zwischen den Gruppen mit geringem und hohem Distress finden.
Im Rahmen der Malignomerkrankung kam es zu Veränderungen im Schlaf-Wach-Rhythmus der Teilnehmer: So wurden Einschlaf- und Aufwachzeit sowie der Chronotyp früher in den Tagesverlauf verlegt. Der Social Jetlag und das Schlafdefizit verminderten sich. Die Einschlaflatenz wurde länger. Diese Veränderungen fanden sich bevorzugt bei Patienten mit Mamma-Karzinom, Chemotherapie und hohem Distress. Der Distress war bei Frauen und jüngeren Personen stärker ausgeprägt.
Die Studienpopulation zeigte im Vergleich zur vorgenannten Referenzgruppe in allen Altersgruppen einen späteren Chronotyp, einen höheren Social Jetlag und einen höheren Anteil an Berufstätigen.
Die beschriebenen Veränderungen im Schlaf-Wach-Rhythmus ließen sich im Wesentlichen mit der veränderten Berufstätigkeit und dem subjektiven Distress im Rahmen der Erkrankung und ihrer Therapie erklären. So fanden sich die stärksten Veränderungen in den Chronobiologika bei Patienten mit hohem Distress und einer Aufgabe der Berufstätigkeit. Die Unterschiede zwischen der Referenzgruppe und der Gruppe der Patientinnen mit Mamma-Karzinom lassen sich tatsächlich mit einer Krankheitsprädisposition oder durch soziokulturelle Besonderheiten in der Studienpopulation gegenüber der Normalbevölkerung (Referenzgruppe) erklären.
Um molekulare Mechanismen in biologischen Prozessen zu verstehen, ist es unerlässlich biologisch aktive Verbindungen zu kontrollieren. Dabei spielt besonders die Aktivierung bzw. Desaktivierung von Genabschnitten eine zentrale Rolle in der gegenwärtigen chemischen, biologischen und medizinischen Forschung. Nukleinsäuren sind dabei offenkundige Zielmoleküle, da sie die Genexpression auf unterster Ebene regulieren und auf vielfältige Art und Weise an biologischen Prozessen beteiligt sind. Um solch eine genaue Steuerung zu erreichen, werden Nukleinsäuren häufig photolabil modifiziert und unter die Kontrolle von Licht gebracht. Da hochentwickelte Technologien es erlauben Photonen bestimmter Energie unter präziser räumlicher und zeitlicher Auflösung zu dosieren, ist Licht als nicht invasives Triggersignal ein besonders geeignetes Werkzeug um molekulare Prozesse zu kontrollieren.
Die Verwendung photolabiler Schutzgruppen („cage“) ermöglicht es, diese lichtaktivierbaren Nukleinsäuren („caged compound“) herzustellen. Üblicherweise werden Oligonukleotide damit an funktionsbestimmenden Stellen versehen, woraufhin die Funktion der Oligonukleotide unterdrückt wird. Die biologische Aktivität kann durch Bestrahlung mit Licht wieder hergestellt werden, da die photolabile Schutzgruppe durch den Lichtimpuls abgespalten wird. Neben der zeitweiligen Maskierung der Nukleinsäureaktivität existiert auch eine Methode, die als „photoaktivierbarer Strangbruch“ (‘‘caged strand break‘‘) bezeichnet wird. Dabei werden mit Hilfe von photolabilen Linkern (‘‘Verknüpfer‘‘) lichtinduzierte Strangbrüche in Oligonukleotiden ausgelöst, um so beispielsweise die Struktur eines Nukleinsäurestrangs zu zerstören. Die Idee der photoaktivierbaren Strangbrüche ist nicht neu, dennoch werden photolabile Schutzgruppen überwiegend nach der erstgenannten Strategie verwendet. Im Rahmen dieses Promotionsvorhabens wurden neue photosensitive Linkerbausteine für Oligonukleotide entwickelt und hergestellt, welche sich vor allem im Hinblick auf die Anwendbarkeit in lebenden biologischen Systemen von den bisherigen photolabilen Linkern unterscheiden.
Im ersten Projekt wurde ein nicht-nukleosidischer, photolabiler Linker, basierend auf dem Cumaringrundgerüst, entwickelt. Das Ziel war hier, vor allem, einen zweiphotonenaktiven Linker für biologische Anwendungen und Zweiphotonen-Fragestellungen nutzbar zu machen. Bisherige Zweiphotonen-Linker konnten hauptsächlich nur für Proteinverknüpfungen bzw. Neurotransmitter verwendet werden oder mussten chemisch umständlich (z.B. Click-Chemie) und postsynthetisch in Oligonukleotide eingeführt werden. Der neu entwickelte Zweiphotonen-Linker wurde als Phosphoramiditbaustein für die Oligonukelotid-Festphasensynthese synthetisiert, was einen problemlosen und automatisierten Einbau garantiert. Mit einem modifizierten Oligonukleotid konnten die photochemischen Eigenschaften des Linkers bestimmt und mit Hilfe eines fluoreszenzbasierten Verdrängungsassays und Lasertechniken der Zweiphotonen-Effekt visualisiert werden. Dazu wurde ein Hairpin-DNA-Strang hergestellt, welcher eine Linkermodifikation im Bereich der Loopregion enthält. Durch eine Thiolmodifikation am 5‘-Ende des Oligonukleotidstranges war es möglich, diesen in einem Maleimid-funktionalisierten Hydrogel zu fixieren. Ein DNA-Duplex mit einem Fluorophor/Quencherpaar und einer korrespondierenden Sequenz zum modifizierten Hairpin-Strang wurde ebenfalls dem System zugegeben, allerdings wurde dieser nicht fixiert, um Diffusion zu ermöglichen. Durch die räumliche Nähe des Fluorophors zum Quencher konnte im unbelichteten Zustand zunächst keine Fluoreszenz gemessen werden. Mit einem (Femtosekunden-)gepulsten Laser und dem damit verbundenen Bindungsbruch im Hairpin-Strang durch Zweiphotonen-Effekte wurde es dem fluoreszierenden Strang des DNA-Duplex ermöglicht, sich vom Quencher-Strang zu lösen und an den fixierten Strang zu hybridisieren. Das Photolyse-Ereignis konnte so in ein lokales Fluoreszenzsignal übersetzt und detektiert werden.
Der eindeutige Beweis, dass es sich tatsächlich um ein Zweiphotonen-induziertes Ereignis handelt, konnte durch die dreidimensional aufgelöste Photolyse und über die quadratische Anhängigkeit des Fluoreszenzsignals von der eingestrahlten Laserleistung erbracht werden.
Die generelle Kompatibilität des Cumarin-Linkers mit biologischen Systemen konnte in Zellkulturexperimenten gezeigt werden. Dazu wurde eine Transkriptionsfaktor-DNA Decoy-Strategie entwickelt, in der Linker-modifizierte DNA Decoys an regulatorische Transkriptionsfaktoren binden und diese aber auch photochemisch wieder freisetzen können („catch and release-Strategie“). Zellkulturexperimente, um mit dieser Methode das Transkriptionsfaktor-gesteuerte und endogene Gen für Cyclooxygenase-2 (COX2) zu regulieren, lieferten keine aussagekräftigen Ergebnisse. Daher wurden die verwendeten Zellen dahingehend manipuliert, sodass sie das Protein GFP (grün fluoreszierendes Protein) in Abhängigkeit von der Anwesenheit eines Transkriptionsfaktors exprimieren. Das so durch die Zellen verursachte Fluoreszenzsignal steht in direkter Abhängigkeit zur Decoy-Aktivität. Mit Hilfe modifizierter GFP-Decoys konnte hierbei eine Regulation auf Transkriptionsebene in biologischen Organismen erreicht werden. Mit dem Electrophoretic Mobility Shift Assay (EMSA), einer molekularbiologischen in vitro-Analysetechnik, wurden die Interaktionen zwischen modifizierten Decoys und dem Transkriptionsfaktor untersucht.
...
Systemerkrankungen der arteriellen Gefäße stellen eine häufige Todesursache in Deutschland und der westlichen Welt dar. Hierbei sind vor allem die auf Grundlage von Arteriosklerose entstehende Koronare Herzerkrankung sowie der Myokardinfarkt zu nennen. Ursache des Myokardinfarktes ist eine Minderperfusion und damit bedingte Ischämie des Myokardgewebes. Ziel einer jeden Minderperfusion ist die therapeutisch schnellstmögliche Reperfusion. Ischämie- und Hypoxie-bedingt entstehen hierbei durch inflammatorische Prozesse, Ansammlung toxischer Metabolite, veränderter Protein-Expressionsmuster sowie durch das reperfundierende Blut der sogenannte Ischämie-Reperfusionsschaden. Dieser komplexe Effekt lässt sich über dem hinaus auch bei Organtransplantationen beobachten.
Die vorliegende Arbeit beschreibt den Versuch den Ischämie-Reperfusionsschaden durch den Einfluss von mTOR-Inhibition im humanen Gefäßmodel zu quantifizieren. Hierbei wurden die mTOR-Inhibitoren Sirolimus und Everolimus verwendet. Beide Immunsuppressiva finden aktuell unter anderem klinische Anwendung nach Organtransplantationen. Bereits in einigen Studien konnten positive Effekte von Sirolimus als auch Everolimus auf den Ischämie-Reperfusionsschaden nachgewiesen werden. Dieser Versuch sollte nun weitere zielführende Erkenntnisse hinsichtlich mTOR-Inhibition und proinflammatorischer Prozesse sowie der Expression von Zell-Adhäsionsmolekülen im humanen Gefäßmodell liefern. Ebenso sollte die Qualität des Bioreaktors als adäquates Humangefäß-Perfusionsmodell evaluiert werden.
Als Versuchsgrundlage wurde hierbei eine Ischämiezeit der Gefäße von vier bis fünf Stunden festgelegt. Die verwendeten Gefäße wurden in der Folge nach standardisierten Kriterien (Präoxygenierung, Heparinisierung, 37° Grad Celsius Temperatur, Blutgruppe AB Rhesusfaktor negativ, Hämatokritwert 30%) zwei Stunden lang mittels Vollblut im Bioreaktormodel reperfundiert. Unterschieden wurde hierbei eine Gefäßkontrollgruppe (n=7), von einer Sirolimus-Gruppe (n=6, standardisierte Blutkonzentration 10ng/ml) und einer Everolimus-Gruppe (n=7, standardisierte Blutkonzentration 5 ng/ml). Nach standardisierten Zeitpunkten der Reperfusion (0 Minuten, 15 Minuten, 30 Minuten, 60 Minuten und 120 Minuten) wurden jeweils Blutproben dem simulierten Kreislauf entnommen. Mittels Blutgasanalyse wurde über die Bestimmung des Sauerstoffpartialdrucks, des Kohlendioxidpartialdrucks sowie des pH-Wertes eine qualitative Evaluierung des Bioreaktors als humanes Gefäßmodel vorgenommen. Des Weiteren dienten die Blutproben zur Erfassung der proinflammatorischer Marker Interleukin-6, TNF-α, sowie VEGF während der unterschiedlichen Zeitpunkte der Blutentnahme. Nach Beendigung der Reperfusion wurden Gefäßproben mittels immunhistochemischen Verfahren auf die Expression der Zell-Adhäsionsmoleküle CD31 sowie CD11b hin untersucht.
Aufgrund durchgeführter Versuche konnte gezeigt werden, dass in der Kontrollgruppe die Interleukin-6- sowie VEGF-Spiegel signifikant im Zuge der Reperfusion anstiegen. Sirolimus als auch Everolimus konnten demgegenüber einen signifikanten Anstieg dieser proinflammatorischen Signalmoleküle verhindern. Im Vergleich des proinflammatorischen TNF-α konnte allerdings ein signifikanter Einfluss der mTOR-Inhibitoren nicht bestätigt werden. Hinsichtlich des Expressionsmusters konnte Sirolimus als auch Everolimus eine signifikante Reduktion von sowohl CD31-positiven als auch CD11b-positiven Zellen im Vergleich zur Kontrollgruppe aufzeigen.
In der Zusammenschau lässt sich aus den erhobenen Daten schlussfolgern, dass der Bioreaktor als humanes Gefäßmodell ein suffizientes Perfusionssystem darstellt. Sirolimus als auch Everolimus können über ihren Wirkungsmechanismus der mTOR-Inhibition einen Anstieg proinflammatorischen Moleküle zum Teil verhindern. Den größten Einfluss auf den Ischämie-Reperfusionsschaden nehmen Sirolimus als auch Everolimus hierbei mittels der Suppression von Zell-Adhäsionsmolekülen CD31 und CD11b.
Unter Web-based Trainings (WBTs) versteht man multimediale, interaktive und thematisch abgeschlossene Lerneinheiten in einem Browser. Seit der Entstehung des Internets in den 1990er Jahren sind diese ein wichtiger und etablierter Baustein bei der Konzeption und Entwicklung von eLearning-Szenarien. Diese Lerneinheiten werden üblicherweise von Lehrenden mit entsprechenden Autorensystemen erstellt. In selteneren Fällen handelt es sich bei deren Umsetzungen um individuell programmierte Einzellösungen. Betrachtet man WBTs aus der Sicht der Lernenden, dann lässt sich feststellen, dass zunehmend auch nicht explizit als Lerneinheiten erstellte Inhalte genutzt werden, die jedoch genau den Bedürfnissen des jeweiligen Lernenden entsprechen (im Rahmen des informellen und selbstgesteuerten Lernens). Zum einen liegt das an der zunehmenden Verfügbarkeit und Vielfalt von „alternativen Lerninhalten“ im Internet generell (freie Lizenzen und innovative Autorentools). Zum anderen aber auch an der Möglichkeit, diese Inhalte von überall aus und zu jeder Zeit einfach finden zu können (mobiles Internet, Suchmaschinen und Sprachassistenten) bzw. eingeordnet und empfohlen zu bekommen (Empfehlungssysteme und soziale Medien).
Aus dieser Veränderung heraus ergibt sich im Rahmen dieser Dissertation die zentrale Fragestellung, ob das Konzept eines dedizierten WBT-Autorensystems den neuen Anforderungen von frei verfügbaren, interaktiven Lerninhalten (Khan Academy, YouTube und Wikipedia) und einer Vielzahl ständig wachsender und kostenfreier Autorentools für beliebige Web-Inhalte (H5P, PowToon oder Pageflow) überhaupt noch gerecht wird und wo in diesem Fall genau die Alleinstellungsmerkmale eines WBTs liegen?
Zur Beantwortung dieser Frage beschäftigt sich die Arbeit grundlegend mit dem Begriff „Web-based Training“, den über die Zeit geänderten Rahmenbedingungen und den daraus resultierenden Implikationen für die Entwicklung von WBT-Autorensystemen. Mittels des gewählten Design-based Research (DBR)-Ansatzes konnte durch kontinuierliche Zyklen von Gestaltung, Durchführung, Analyse und Re-Design am Beispiel mehrerer eLearning-Projekte der Begriff WBT neudefininiert bzw. reinterpretiert werden, so dass sich der Fokus der Definition auf das konzentriert, was WBTs im Vergleich zu anderen Inhalten und Funktionen im Internet im Kern unterscheidet: dem Lehr-/Lernaspekt (nachfolgend Web-based Training 2.0 (WBT 2.0)).
Basierend auf dieser Neudefinition konnten vier Kernfunktionalitäten ausgearbeitet werden, die die zuvor genannten Herausforderungen adressieren und in Form eines Design Frameworks detailliert beschreiben. Untersucht und entwickelt wurden die unterschiedlichen Aspekte und Funktionen der WBTs 2.0 anhand der iterativen „Meso-Zyklen“ des DBR-Ansatzes, wobei jedes der darin durchgeführten Projekte auch eigene Ergebnisse mit sich bringt, welche jeweils unter didaktischen und vor allem aber technischen Gesichtspunkten erörtert wurden. Die dadurch gewonnenen Erkenntnisse flossen jeweils in den Entwicklungsprozess der LernBar ein („Makro-Zyklus“), ein im Rahmen dieser Arbeit und von studiumdigitale, der zentralen eLearning-Einrichtung der Goethe-Universität, entwickeltes WBT-Autorensystem. Dabei wurden die Entwicklungen kontinuierlich unter Einbezug von Nutzerfeedbacks (jährliche Anwendertreffen, Schulungen, Befragungen, Support) überprüft und weiterentwickelt.
Abschließend endet der letzte Entwicklungszyklus des DBR-Ansatzes mit der Konzeption und Umsetzung von drei WBT 2.0-Systemkomponenten, wodurch sich flexibel beliebige Web-Inhalte mit entsprechenden WBT 2.0-Funktionalitäten erweitern lassen, um auch im Kontext von offenen Lehr-/Lernprozessen durchgeführte Aktivitäten transparent, nachvollziehbar und somit überprüfbar zu machen (Constructive Alignment).
Somit bietet diese Forschungsarbeit einen interdisziplinären, nutzerzentrierten und in der Praxis erprobten Ansatz für die Umsetzung und den Einsatz von WBTs im Kontext offener Lehr-/Lernprozesse. Dabei verschiebt sich der bisherige Fokus von der reinen Medienproduktion hin zu einem ganzheitlichen Ansatz, bei dem der Lehr-/Lernaspekt im Vordergrund steht (Lernbedarf erkennen, decken und überprüfen). Entscheidend ist dabei, dass zum Decken eines Lernbedarfs sämtliche zur Verfügung stehenden Ressourcen des Internets genutzt werden können, wobei WBTs 2.0 dazu lediglich den didaktischen Prozess definieren und diesen für die Lehrenden und Lernende transparent und zugänglich machen.
WBTs 2.0 profitieren dadurch zukünftig von der zunehmenden Vielfalt und Verfügbarkeit von Inhalten und Funktionen im Internet und ermöglichen es, den Entwicklern von WBT 2.0-Autorensystemen sich auf das Wesentliche zu konzentrieren: den Lehr-/Lernprozess.
In den letzten Jahren findet die Wirkung von Polyphenolen auf den Alterungsprozess oder zur Behandlung von Krankheiten immer mehr Beachtung. Das Ziel dieser Arbeit war die Aufklärung der Wirkmechanismen der Polyphenole Gossypol, Curcumin und Quercetin, um Hinweise für neue oder verbesserte Therapieansätze zu erhalten. Die dazu durchgeführten Untersuchungen lieferten folgende Ergebnisse:
1. Der Ascomycet "P. anserina" eignet sich als Modellorganismus zur Untersuchung der Wirkmechanismen verschiedener Polyphenole, da die bereits aus der Literatur bekannten Effekte auf das Überleben höherer Organismen auch in "P. anserina" beobachtet wurden.
2. Die Mitochondrienfunktion spielt auf unterschiedliche Art eine Rolle in der Kompensation von Dysfunktionen oder Stressbedingungen in der Zelle und wirkt somit positiv auf die Regulation der Lebensspanne von "P. anserina". In der "PaSod3"-Deletionsmutante wurde eine Verschiebung der mitochondrialen Atmung von einer Komplex I-abhängigen hin zu einer vermehrt Komplex II-abhängigen Atmung festgestellt. Die damit verbundene Abnahme des mitochondrialen Membranpotentials dient neben der bereits bekannten hohen Superoxid-Menge als Signal zur Mitophagie-Induktion. Auch die Anpassung der Mitochondrienfunktion durch die erhöhte Bildung von mtRSCs, wie im Falle von Gossypol oder Quercetin, kann zur Kompensation von Dysfunktionen beitragen bzw. sie abschwächen.
3. Es gibt keinen grundlegenden gemeinsamen Wirkmechanimus der drei untersuchten Polyphenole. Zwar spielt Wasserstoffperoxid bei verschiedenen Stoffen eine Rolle, aber nicht bei allen. Zusätzlich wurde gezeigt, dass Wasserstoffperoxid abhängig von der vorherrschenden Konzentration wirkt und daher auch keine Allgemeingültigkeit des Effektes vorherzusagen ist. In niedrigen Konzentrationen sorgt Wasserstoffperoxid z. B. für eine Induktion der Autophagie und damit einhergehende eine Lebensverlängerung. Im Gegensatz dazu wirken hohe Wasserstoffperoxid-Konzentrationen lebensverkürzend und lösen verschiedene Formen von Zelltod aus.
4. Die Curcumin-vermittelte Langlebigkeit wurde das erste Mal in Verbindung mit einer funktionellen Autophagie gebracht. Im Detail führt die Behandlung mit Curcumin durch eine PaSOD1-abhängige leichte Erhöhung der Wasserstoffperoxid-Menge zu einer Induktion von nicht-selektiver Autophagie. Die induzierte Autophagie ist Ursache der Lebensverlängerung durch Curcumin.
5. Gossypol wirkt in Abhängigkeit der mitochondrialen Permeabilitäts-Transitionspore bzw. von ihrem Regulator Cyclophilin D. Hierbei verstärkt die deutlich erhöhte Wasserstoffperoxid-Menge wahrscheinlich die Induktion von programmiertem Zelltod. Gleichzeitig wird eine cytoprotektive Form von Autophagie und ein scheinbar ATG-unabhängiger Abbau von Mitochondrien induziert.
6. Quercetin wirkt in "P. anserina" abhängig vom Methylierungs-Status. Untersuchungen mit Mutanten der "O"-Methyltransferase PaMTH1 ergaben die Notwendigkeit der Anwesenheit von PaMTH1 für den lebensverlängernden Effekt von Quercetin. Analysen mit dem methylierten Derivat Isorhamnetin verdeutlichten diese Abhängigkeit und zeigten zudem, dass Quercetin sowohl in der methylierten als auch unmethylierten Form Effekte hervorruft. Jedoch sind nur die Effekte des unmethylierten Quercetin unabhängig von der Lebensverlängerung und eher schädlich für die Zelle.
Im Rahmen dieser Arbeit sollte der tonische BZR-Signalweg im Burkitt Lymphom näher untersucht werden. Ziel war die Identifizierung von Zielstrukturen, die für die Zellen essentiell für die Aufrechterhaltung des tonischen Signalwegs sind und gleichzeitig die Viabilität der Zellen fördern. Durch die Identifizierung noch unbekannter Zielstrukturen wäre man in der Lage, neue Behandlungsstrategien zu entwickeln oder bereits bestehende zu optimieren. Des Weiteren sollte die Signaltransduktion in der B-ALL, die über einen Vorläufer des BZRs, dem prä-BZR vermittelt wird, hinsichtlich eines tonischen Überlebenssignals untersucht werden.
Durch massenspektrometrische Analysen der tonischen BZR-Signaltransduktion im Burkitt Lymphom, die für die Viabilität der Zellen essentiell ist und die Ergebnisse eines Inhibitorscreens konnte HSP90 als potenzielle neue Zielstruktur im Burkitt Lymphom identifiziert werden.
So konnte gezeigt werden, dass Burkitt-Lymphom-Zellen nach Inhibition der Chaperonfunktion von HSP90 durch zwei auf dem Markt bereits verfügbare Inhibitoren einen Zellzyklusarrest erfahren, der letztlich zur Apoptose der Zellen führt. Dieser Effekt wurde auf einen Verlust des (tonischen) BZR-Signals zurückgeführt, der überwiegend durch den aktiven lysosomalen Abbau von SYK nach HSP90-Inhibition zustande kommt. Demnach führte die Überexpression einer HSP90-resistenten Variante von SYK (TEL-SYK) zu einer Aufhebung der apoptotischen Effekte nach HSP90-Inhibition. Zudem wurde SYK als Interaktionspartner von HSP90 (HSP90-Klientprotein) im Burkitt Lymphom und die für die Interaktion essentielle Phosphorylierungsstelle (pY197 in HSP90α bzw. pY192 in HSP90β) identifiziert bzw. validiert.
Das therapeutische Potenzial der HSP90-Inhibitoren im Burkitt Lymphom offenbarte sich ferner durch den Vergleich der Wirkungseffektivität in gesunden B-Zellen mit der in Tumorzellen. So zeigten HSP90-Inhibitoren eine erhöhte Affinität zu Tumorzellen. Bei verwendeten Konzentrationen der Inhibitoren, die bereits eine apoptotische Wirkung in Tumorzellen hervorriefen, waren gesunde B-Zellen resistent.
In der B-ALL konnte durch den Knockdown von CD79a und der Inhibition von SYK eine tonische Antigenrezeptor-Signalleitung identifiziert werden, die wie im Burkitt Lymphom über den PI3K/AKT-Signalweg vermittelt wird. Durch die Kombination der im Rahmen dieser Arbeit gewonnen Erkenntnisse und weiterführende Analysen (wie zum Beispiel durch Inhibitor- oder CRISPR/Cas-Screens) kann so eine Identifizierung von potenziellen Zielstrukturen mit therapeutischem Nutzen in der B-ALL erfolgen.
Die vorliegende Arbeit präsentiert die wissenschaftlichen Erkenntnisse, welche im Rahmen dreier verschiedener Messreihen gewonnen wurden. Kernthema ist in allen Fällen die Ionisation von molekularem Wasserstoff mit Photonen.
Im Rahmen der Messung sollte eine 2014 veröffentlichte Vorhersage der theoretischen Physiker Vladislav V. Serov und Anatoli S. Kheifets im Experiment überprüft werden. Ihren Berechnungen zufolge kann ein sich langsam vom Wasserstoff Molekülion entfernendes Photoelektron durch sein elektrisches Feld das Mutterion polarisieren und dafür sorgen, dass beim anschließenden Aufbruch in ein Proton und ein Wasserstoffatom eine asymmetrische Emissionswinkelverteilung zu beobachten ist [SK14]. Diese Vorhersage konnte mit den Ergebnissen der hier vorgestellten Messung zweifelsfrei untermauert werden. Für drei verschiedene Photonenenergien, welche im relevanten Reaktionskanal Photoelektronenenergien von 1, 2 und 3 eV entsprechen, wurden die prognostizierten Symmetrien in den Messdaten herauspräpariert. Es zeigte sich, dass diese sowohl in qualitativer wie auch in quantitativer Hinsicht gut bis sehr gut mit den Vorhersagen übereinstimmen.
Im zweiten Teil dieser Arbeit wurde erneut die Dissoziationsreaktion, allerdings bei deutlich höheren Photonenenergien, untersucht. Ziel war es, den in Zusammenarbeit mit den Physikern um Fernando Martin gelungenen theoretischen Nachweis der Möglichkeit einer direkten Abbildung von elektronischen Wellenfunktionen auch im Experiment zu vollziehen. Der überwiegende Teil aller Veröffentlichungen im Vorfeld dieser Messung fokussierte sich bei den Untersuchungen der Wellenfunktion entweder auf die rein elektronischen Korrelationen - so zum Beispiel in Experimenten zur Ein-Photon-Doppelionisation, wo Korrelationen zwischen beiden beteiligten Elektronen den Prozess überhaupt erst möglich machen - oder aber auf den Einfluss, welchen das Molekülpotential auf das emittierte Elektron ausübt. Die wenigen Arbeiten, die sich bis heute an einer unmittelbaren Abbildung elektronischer Wellenfunktionen versuchten, gingen meist den im Vergleich zu dieser Arbeit umgekehrten Weg: Man untersuchte hier das Licht höherer Harmonischer, wie sie bei der lasergetriebenen Ionisation und anschließenden Rekombination eines Photoelektrons mit seinem Mutterion entstehen.
In dieser Arbeit wurde ein Ansatz präsentiert, der zwei überaus gängige und verbreitete Messtechniken geschickt kombiniert - Während das Photoelektron direkt nachgewiesen und seine wesentlichen Eigenschaften abgefragt werden, kann der quantenmechanische Zustand des zweiten, gebunden verbleibenden Elektrons über einen koinzident dazu geführten Nachweis des ionischen Reaktionsfragments bestimmt werden. Dieser Vorgang stützt sich wesentlich auf Berechnungen der Gruppe um Fernando Martín, welche eine Quantifizierung der Beiträge einzelner Zustande zum gesamten Wechselwirkungsquerschnitt dieser Reaktion erlauben. Diese unterscheiden sich je nach Energie der Fragmente signifikant, so dass über eine Selektion des untersuchten KER-Intervalls Kenntnis vom elektronischen Zustand des H2 +-Ions nach der Photoemission erlangt werden kann. Die experimentellen Daten unterstützen die Theorie von Martin et al. nicht nur mit verblüffend guter Übereinstimmung, die gemessenen Emissionswinkelverteilungen stehen darüber hinaus auch in sehr gutem Einklang mit ihren theoretisch berechneten Gegenstücken. Die Ergebnisse wurden zwischenzeitlich in der renommierten Fachzeitschrift Nature Communications veröffentlicht [WBM+17].
Die dritte Messreihe innerhalb dieser Arbeit beschäftigt sich mit der Photodoppelionisation von Wasserstoff. Im Rahmen des selben Experiments wie die weiter vorn beschriebene Dissoziationsmessung bei 400 eV Photonenenergie aufgenommen, belegen die Ergebnisse auf wunderbar anschauliche Art und Weise, dass die Natur in unserer Umgebung voller Prozesse ist, die ursprünglich als rein quantenmechanische Laborkonstrukte angesehen wurden. Es konnte zweifelsfrei gezeigt werden, dass die beiden Elektronen, die bei der Photodoppelionisation freigesetzt werden, als ein Quasiteilchen aufgefasst werden können. Sie befinden sich in einem verschränkten Zweiteilchenzustand, und nur eine koinzidente Messung beider Elektronen vermag es, Interferenzeffekte in ihren Impulsverteilungen sichtbar zu machen - betrachtet man beide hingegen individuell, so treten keinerlei derartige Phänomene auf. Es gelang dabei zudem, eine beispielhafte Übereinstimmung zwischen den gemessenen Daten und einer theoretischen Berechnung der Kollegen um Fernando Martín zu erreichen.
Im Kindes- und Jugendalter gehoert das Rhabdomyosarkom zu den haeufigsten Weichteilsarkomen. Bisher belaeuft sich das Therapieverfahren auf chirurgische Entfernung, gefolgt von Chemotherapie, bzw. bei nicht-operablen Faellen auf Radiotherapie und Chemotherapie, jedoch haben sich die Ueberlebenschancen fuer Patienten mit einer Erkrankung in metastasiertem oder rezidiviertem Stadium trotz intensiver Forschung ueber mehrere Jahrzehnte hinweg kaum gebessert und bleiben bei unter 30%. Neue therapeutische Strategien versuchen das Immunsystem des Patienten zu modulieren und dieses gezielter oder aggressiver gegen Tumorzellen zu machen. Nebst direkter Injektion von Zytokinen oder Antikoerpern bietet die adoptive Immunzelltherapie einen vielversprechenden Ansatz. In der vorliegenden Arbeit lag der Fokus auf Natuerlichen Killer- (NK) Zellen, da diese ein hohes zytotoxisches Potential gegenueber Tumorzellen aufweisen. Eine der groessten Herausforderungen der NK-Zellforschung ist die Breitstellung ausreichender Mengen an NK-Zellen mit optimaler antitumoraler Funktion fuer den klinischen Einsatz. Viele aktuell erprobte NK-Zellexpansionsstrategien basieren auf der Verwendung von Hilfs- oder Feeder-Zellen (Versorgerzellen), die jedoch vor der Applikation in Patienten aus dem finalen Produkt entfernt werden muessen. In der vorliegenden Arbeit sollten Feeder-zellfreie NK-Zellexpansionsprotokolle unter Verwendung von Gammakettenzytokinen getestet werden.
Interleukin (IL-) 15 erwies sich dabei vor allem fuer die Vermehrung der NK-Zellen als besonders foerderlich. Im Vergleich dazu fielen die Expansionsraten mit IL-2 oder IL-21 geringer aus. Interessanterweise wurde der expansionsfoerdernde Effekt von IL-15 durch dauerhafte Anwesenheit von IL-21 im Kulturmedium gehemmt. Ein kurzer, dreitaegiger IL-21-Boost am Ende der Expansionsphase wirkte sich wiederum positiv auf die NK-Zellexpansionsraten aus. Zudem zeigte sich durch IL-21 ein vermehrtes Auftreten von NK-Zellen des reiferen CD16posCD56dim Phaenotyps, der die zytotoxische Funktion vermittelt. Bei Degranulationsuntersuchungen wurden eine IL-21-induzierte Exozytoseaktivitaet und die vermehrte Ausschuettung von Perforin und Granzym B, welche Apoptose in den Zielzellen ausloesen, beobachtet. Vor allem der dreitaegige Boost mit IL-21 bewirkte eine gesteigerte Zytotoxizitaet gegenueber Tumorzellen, insbesondere gegenueber Rhabdomyosarkomzellen.
Auf dieser Grundlage bot es sich an fuer die NK-Zellexpansion ein Zwei-Phasen-Protokoll anzuwenden, bestehend aus einer initialen Proliferationsphase mit IL-15 und einem anschliessendem IL-21-Boost, durch den die antitumorale Funktionalitaet der NK-Zellen gesteigert wurde. Dieses IL-15+21boost-Protokoll wurde mit anderen Kombinationen aus den Gammakettenzytokinen IL-2, IL-15 und IL-21 verglichen und stellte sich hinsichtlich der NK-Zellexpansionsraten, der Degranulationskapazitaet und der damit verbundenen Zytotoxizitaet als den anderen Protokollen ueberlegen heraus.
Zytokinexpandierte NK-Zellen zeigten eine hoehere Rezeptorexpression an ihren Oberflaechen als unstimulierte Zellen. Die Expansion mit dem IL-15+21boost-Protokoll bewirkte die hoechste Dichte des Todesrezeptors TRAIL, jedoch auch der inhibitorischen KIR2D-Rezeptorfamilie. Fuer andere Oberflaechenmarker ergab sich jeweils eine mittlere Expressionsdichte verglichen mit dem IL-15- bzw. dem IL-15+21-Expansionsprotokoll. Die Sekretion von proinflammatorischen Zytokinen wie Interferon-gamma (IFN-g) und Tumor-Nekrose-Faktor-alpha (TNF-a) wurde zudem verstaerkt durch IL-21 angeregt, aber ebenso die Sekretion des immunsupprimierenden IL-10.
Weiter wurden die zytoinexpandierten NK-Zellen zur UEberpruefung ihrer in vivo Funktionalitaet anhand eines praeklinischen Xenograftmodells unter Verwendung von NOD SCID IL-2-Rgamma-/- (NSG) Maeusen und der Technologie der in-vivo-Biolumineszenzbildgebung getestet. Dabei konnte beobachtet werden, dass die NK-Zellen das Wachstum luciferaseexprimierender humaner Rhabdomyosarkome verlangsamten. Die Wirksamkeit der IL-15+21boost-expandierten NK-Zellen zeigte sich vor allem in einem kombinierten Ansatz, bei dem die Tumore zunaechst mit ionisierender Strahlung behandelt wurden und residuale Rhabdomyosarkomzellen anschliessend durch den adoptiven Transfer von humanen NK-Zellen in ihrem Wachstum gehemmt waren, solange die NK-Zelltherapie andauerte. Somit stellte sich die Kombination aus Bestrahlung und NK-Zelltransfer als wirksamer im Einsatz gegen Rhabdomyosarkome heraus als die alleinige Behandlung der Tumore durch Radiotherapie.
Zusammengefasst konnte in dieser Arbeit ein NK-Zellexpansionsprotokoll entwickelt werden, dass durch den ausschliesslichen Einsatz von Gammakettenzytokinen zu einem funktionalen NK-Zellprodukt fuehrte, welches auch in vivo lytische Aktivitaet gegenueber Rhabdomyosarkomzellen aufwies.
Atmospheric nanoaerosols have extensive effects on the Earth’s climate and human health. This cumulative work focuses on the development and characterization of instrumentation for measuring various parameters of atmospheric nanoaerosols, and its use to understand new particle formation from organic precursors. The principal research question is, how the chemical composition of nanoaerosol particles can be measured and how atmospheric chemistry influences aerosol processes, especially new particle formation and growth. Therefore, nanoaerosols are investigated under various aspects. More specifically, an instrument is developed to analyze nanoparticles, and field as well as chamber studies are conducted.
The main project is the instrument development of the Thermal Desorption Differential Mobility Analyzer (TD-DMA, project 1, Wagner et al. (2018)). This instrument analyzes the chemical composition of small aerosol particles. By characterization and testing in chamber experiments, it is proven to be suitable for the analysis of freshly nucleated particles.
The second project (Wagner et al. (2017)) applies a broad spectrum of aerosol measurement instruments for the characterization of aerosol particles produced by a skyscraper blasting. A comprehensive picture of the particle population emitted by the demolition is obtained.
Project 3 (K¨urten et al. (2016)) is also an ambient aerosol measurement, focusing of new particle formation in a rural area in central Germany, and the ability of a negative nitrate CI-APi-TOF to detect various substances in atmosphere. Project 4 (Heinritzi et al. (2016)) is a characterization of the negative nitrate CI-APi-TOF used in projects 1, 3, 5, 6, 7 and 8. The following projects focus on understanding new particle formation from atmospherically abundant organic precursors. Key instruments comprise the negative nitrate CI-APiTOF for gas-phase measurements of the nucleating species, and various sizing and counting instruments for quantifying the particle formation and growth. Project 5 (Kirkby et al. (2016)) shows that biogenic organic compounds formed from alpha-pinene can nucleate on their own without the influence of e.g. sulfuric acid. Project 6 (Tr¨ostl et al. (2016)) describe the subsequent growth of these particles. Project 7 (Stolzenburg et al. (2018)) covers the temperature dependence of this growth and in project 8 (Heinritzi et al. (2018)), the suppressing influence of isoprene on the new particle formation is assessed.
Das Standardmodell der Elementarteilchenphysik beschreibt nach aktuellem Kenntnisstand die Entstehung, den Aufbau und das Verhalten der Materie in unserem Universum am erfolgreichsten. Dennoch gibt es einige Phänomene, die sich nicht in dessen Rahmen beschreiben lassen, wie z. B. die Existenz von dunkler Materie und Energie, nicht-verschwindende Neutrinomassen oder die Baryonenasymmetrie. Speziell im Hinblick auf die starke Wechselwirkung, welche im Standardmodell durch die Quantenchromodynamik (QCD) beschrieben wird, gibt es noch immer viele offene Fragen.
Eine Umgebung, in der man die QCD experimentell ergründen kann, bieten vor allem Schwerionenkollisionen, die insbesondere am Large Hadron Collider (LHC) oder am Relativistic Heavy Ion Collider (RHIC) durchgeführt werden.
In dieser Arbeit soll ein Beitrag von theoretischer Seite aus hinsichtlich eines besseren Verständnisses dieser Schwerionenkollisionen und der zugrundeliegenden QCD erbracht werden. Der Fokus liegt dabei auf dem Isotropisierungsprozess unmittelbar nach der Kollision der beiden Kerne.
Neben etlichen effektiven Theorien, die sehr gute Ergebnisse in den entsprechenden Grenzbereichen liefern, ist die Beschreibung der QCD im Rahmen der Gittereichtheorie (Gitter-QCD) die am meisten etablierte. Diese beinhaltet in den meisten Fällen einen Übergang zur euklidischen Raumzeit, da somit ein Auswerten der hochdimensionalen Pfadintegrale mithilfe von Monte-Carlo-Simulation basierend auf dem sogenannten Importance Sampling ermöglicht wird. Aufgrund der Komplexwertigkeit der euklidischen Zeitkomponente ist man jedoch an das Studieren von statischen Observablen gebunden. Da wir aber gerade an einer Zeitentwicklung des Systems interessiert sind, sehen wir von dem Übergang zur euklidischen Raumzeit ab, was den Namen “real-time” im Titel der Arbeit erklärt.
Wir folgen dem sogenannten Hamilton-Ansatz und leiten damit Feldgleichungen in Form von partiellen Differentialgleichungen her, die wir dann mit den Methoden der Gitter-QCD numerisch lösen. Dabei bedienen wir uns der effektive Theorie des Farb-Glas-Kondensats (CGC, aus dem Englischen: “Color Glass Condensate”), um geeignete Anfangsbedingungen zu erhalten. Genauer gesagt basieren unsere Gitter-Anfangsbedingungen auf dem McLerran-Venugopalan-Modell (MV-Modell), das eine klassische Approximation in niedrigster Ordnung darstellt und nur Beiträge rein gluonischer Felder berücksichtigt.
Die klassische Näherung sowie das Vernachlässigen der fermionischen Felder wird insbesondere mit den hohen Besetzungszahlen der Feldmoden begründet. Einerseits dominieren Infrarot-Effekte, welche klassischer Natur sind, und andererseits ist dadurch der Einfluss der Fermionen, die dem Pauli-Prinzip gehorchen, unterdrückt. Gerade bei letzterer Aussage fehlt es jedoch an numerischen Belegen. Wir erweitern daher die klassische MV-Beschreibung durch stochastische Gitter-Fermionen, um diesem Punkt nachzugehen. Da sich Fermionen nicht klassisch beschreiben lassen, spricht man hierbei oft von einem semi-klassischen Ansatz.
Eines der Hauptziele dieser Arbeit liegt darin, den Isotropisierungsprozess, der bislang noch viele Fragen aufwirft, aber unter anderem Voraussetzung für das Anwenden von hydrodynamischen Modellen ist, zu studieren. Wir legen dabei einen besonderen Fokus auf die systematische Untersuchung der verschiedenen Parameter, die durch die CGC-Anfangsbedingungen in unsere Beschreibung einfließen, und deren Auswirkungen auf etwa die Gesamtenergiedichte des Systems oder die zugehörigen Isotropisierungszeiten. Währenddessen überprüfen wir zudem den Einfluss von unphysikalischen Gitter-Artefakten und präsentieren eine eichinvariante Methode zur Analyse der Güte unserer klassischen Näherung. Die Zeitentwicklung des Systems betrachten wir dabei sowohl in einer statischen Box als auch in einem expandierenden Medium, wobei Letzteres durch sogenannte comoving Koordinaten beschrieben wird. Zudem liefern wir einen Vergleich von der realistischen SU(3)-Eichgruppe und der rechentechnisch ökonomischeren SU(2)-Eichgruppe.
Mit unseren numerischen Ergebnissen zeigen wir, dass das System hochempfindlich auf die verschiedenen Modellparameter reagiert, was das Treffen quantitativer Aussagen in dieser Formulierung deutlich erschwert, insbesondere da einige dieser Parameter rein technischer Natur sind und somit keine zugehörigen physikalisch motivierten Größen, die den Definitionsbereich einschränken könnten, vorhanden sind. Es ist jedoch möglich, die Anzahl der freien Parameter zu reduzieren, indem man ihren Einfluss auf die Gesamtenergie des Systems analysiert und sich diesen zunutze macht. Dadurch gelingt es uns mithilfe von Konturdiagrammen einige Abhängigkeiten zu definieren und somit die Unbestimmtheit des Systems einzuschränken. Des Weiteren finden wir dynamisch generierte Filamentierungen in der Ortsdarstellung der Energiedichte, die ein starkes Indiz für die Präsenz von sogenannten chromo-Weibel-Instabilitäten sind. Unsere Studie des fermionischen Einflusses auf den Isotropisierungsprozess des CGC-Systems weist auf, dass dieser bei kleiner Kopplung vernachlässigbar ist. Bei hinreichend großen Werten für die Kopplungskonstante sehen wir allerdings einen starken Effekt hinsichtlich der Isotropisierungszeiten, was ein bemerkenswertes Resultat ist.
Whereas many writers across all times and cultures have written about the potential aesthetic effects of music experiences which could be labeled as absorption, only limited empirical research has been done on the state aspects of this fascinating aspect of human involvement. What is more, there are still few tested models which explain how people can be absorbed by a piece of music as well as continue to be third-person observers monitoring and even reflecting on that same musical experience (cf. Bryant & Veroff, 2007; Dewey, 2005; Wolf, 2013).
Adopting a dual process approach (Dietrich, 2004; Evans & Stanovich, 2013; Lewis, Tamborini & Weber, 2014; Mukhopadhyay, 2014; Schwarz, 2011; Smith & Neumann, 2005) – in which human thinking, emotion, and routes to appraisal are defined in terms of an interplay between two distinct systems of psychological processing – this thesis aimed to examine a) the cognitive mechanisms underlying the essential yet poorly understood paradox of losing oneself in the music on the one hand, and the act of meta-awareness (i.e., rational and controlled sense of self) on the other, b) its corresponding psycho-phenomenological profile(s) when listening intentionally to self-chosen music, and c) the different potential of state and trait aspects of absorption and meta-awareness in predicting three indicators of the aesthetic response to music: enjoyment (a purely pleasurable response), lasting impression (a meaningful response related to mixed emotion), and behavioral intention (future-planned seeking/ avoidance response). Moreover, a dynamically-conceived conceptualization of absorption was proposed in terms of a temporary phase taking place amidst a variety of other cognitive responses to music, including concentration, mind wandering, and mindfulness. Finally, a questionnaire commonly-used for assessing alterations in consciousness (Phenomenology of Consciousness Inventory; Pekala, 1991) was evaluated in the context of music listening, before using it in the development of a self-report questionnaire aimed at measuring absorptive states in or by music. To this end, a quantitative empirical research method (state and trait questionnaires) was employed in a series of online surveys, using self-selected music as well as pre-determined music by the researcher as stimulus, together approaching a naturalistic listening setting.
Situated within an overarching neurocognitive model for music engagement and consistent with several aesthetic theories converging (Benson, 1993; Dewey, 2005; Wolf, 2013), aesthetic absorption was conceptualized as, and later confirmed to be, structured by experiential and meta-consciousness or – in terms of dual process terminology – intuitive type I and reflective type II processing. Two forms of music absorption were empirically identified and labeled as zoning in and tuning in (cf. Schooler, 2007). These experience profiles distinguished themselves significantly in terms of the degree in which a music listener maintained his or her meta-awareness, assessed via volitional control, rationality, self-awareness, and memory of the previous event. The overall pattern of consciousness parameters of both types of absorbed listening are suggestive of a unique interchanging between brain networks for intuitive processing and areas related to self-reference, -awareness and -control. The distinction between zoning in and tuning in was further found to be strongly related to the quality of affective state (i.e., positive vs. mixed emotions). These emotions modulate the experiential intensity of absorption, suggesting this experience to be an affect-biased type of attention. Based on the feelings-as-information theory (Schwarz, 2011), postulating that positive emotions (e.g., happiness) are differently processed than negatively-tinted types of emotions (e.g., nostalgia), it was concluded that music-induced rumination (a negatively-valenced experience related to the self and represented by the feeling of sadness) ‘competes’ with higher-order functions relevant to meta-awareness. From this perspective, the two found absorption types match conceptually with the positively-tinged self-reflection and negatively-tinged self-rumination as two different types of self-focused introspection (Takano & Tanno, 2009; Trapnell & Campbell, 1999). Further examining the construct’s latent structure, it was shown that being absorbed by music is a continuous phenomenon; a matter of ‘more-or-less’ involvement rather than a ‘unique state of mind’. This finding cautions against subtyping absorption experiences as being qualitatively distinct, and assuming it to be guided by ‘special’ mechanisms. Consequently, determining ‘music absorbers’ is a matter of imprecise estimation rather than being marked by a clear observable onset. Finally, as expected, an absorbed state of mind – operationalized here as a multidimensional bifactor model – completely mediated the effect of trait absorption, and was a good predictor for enjoyment, lasting impression, and behavioral intention. Whereas absorption and enjoyment were found to have a mutual positive effect on each other, absorption and meta-awareness were found to be unrelated to each other. Also, meta-awareness contributed little to aesthetic appreciation. The results confirm the need for a dynamic approach to the relationship between state absorption and enjoyment; the one-directional approach common in many research reports does not seem to fully capture the relationship between them. Future research should examine whether the same applies for absorption and meta-awareness, preferably making use of more advanced measures for the latter.
Taken together, this dissertation shows the potential of including the interplay between the trait and state constructs of absorption and meta-awareness in order to better understand the mechanisms underlying aesthetic experiences with music. The present work demonstrated that these two constructs should not be conflated, but, in terms of dual processing, that they represent different levels of consciousness. Moreover, this thesis underlined the power of absorption not only to evoke short-lived pleasurable experiences, but also to stimulate long-lasting impressions. Knowing more about absorbed listening and its potential effects, learning to consciously recognize it as it happens, and perhaps regulate and maintain its positive consequences (i.e., savoring), could further improve the way we engage ourselves with music or other aesthetic objects. Only then could we engage in behavior that we’re sure would make us happy rather than seeking out experiences which we hope would make us happy.
Finally, dual process approach and measures provided by research on altered-states-of-consciousness (ASC) experiences offer new and fruitful perspectives to conceptualize aesthetic absorption and examine its mechanisms. Several major research questions lie ahead in understanding the phenomenological experience and aesthetic role of absorption, including the future comparison between subjective experiences of ASCs across varying music and non-music induction methods (e.g., hypnosis), listening conditions (e.g., live concert experience), and musical ‘cultures’ (human societies, musical styles, classes).
Whereas many writers across all times and cultures have written about the potential aesthetic effects of music experiences which could be labeled as absorption, only limited empirical research has been done on the state aspects of this fascinating aspect of human involvement. What is more, there are still few tested models which explain how people can be absorbed by a piece of music as well as continue to be third-person observers monitoring and even reflecting on that same musical experience.
Adopting a dual process approach – in which human thinking, emotion, and routes to appraisal are defined in terms of an interplay between two distinct systems of psychological processing – this thesis aimed to examine a) the cognitive mechanisms underlying the paradox of losing oneself in the music on the one hand, and meta-awareness on the other, b) its corresponding psychophenomenological profile(s) when listening intentionally to self-chosen music, and c) the different potential of state and trait aspects of absorption and meta-awareness in predicting three indicators of the aesthetic response to music: enjoyment, lasting impression, and behavioral intention.
To this end, a quantitative empirical research method (state and trait questionnaires) was employed in a series of online surveys, using self-selected music as well as pre-determined music by the researcher as stimulus, together approaching a naturalistic listening setting.Aesthetic absorption was confirmed to be structured– in terms of dual process terminology – by intuitive type I and reflective type II processing. Two forms of music absorption were empirically
identified and labeled as zoning in and tuning in. These experience profiles distinguished themselves significantly in terms of the degree in which a music listener maintained his or her meta-awareness, assessed via volitional control, rationality, self-awareness, and memory of the previous event. The overall pattern of consciousness parameters of both types of absorbed listening are suggestive of a unique interchanging between brain networks for intuitive processing and areas related to self-reference, -awareness and -control. The distinction between zoning in and tuning in was further found to be strongly related to the quality of affective state.
These emotions modulate the experiential intensity of absorption, suggesting this experience to be an affect-biased type of attention. Based on the feelings-as-information theory, postulating that positive emotions are differently processed than negatively-tinted types of emotions, it was
concluded that music-induced rumination ‘competes’ with higher-order functions relevant to meta-awareness. From this perspective, the two found absorption types match conceptually with the positively-tinged self-reflection and negatively-tinged self-rumination as two different types of self-focused introspection. It was also shown that being absorbed by music is a continuous phenomenon; a matter of ‘more-or-less’ involvement rather than a ‘unique state of mind’. Consequently, determining ‘music absorbers’ is a matter of imprecise estimation rather than being marked by a clear observable onset. Finally, as expected, an absorbed state of mind - operationalized here as a multidimensional bifactor model – completely mediated the effect of trait absorption, and was a good predictor for enjoyment, lasting impression, and behavioral intention.
Whereas absorption and enjoyment were found to have a mutual positive effect on each other, absorption and meta-awareness were found to be unrelated to each other. Also, meta-awareness contributed little to aesthetic appreciation. The results confirm the need for a dynamic approach to the relationship between state absorption and enjoyment; the one-directional approach common in many research reports does not seem to fully capture the relationship between them. Taken together, this dissertation shows the potential of including the interplay between the trait and state constructs of absorption and meta-awareness in order to better understand the mechanisms underlying aesthetic experiences with music. The present work demonstrated that these two constructs should not be conflated. Moreover, this thesis underlined the power of absorption not only to evoke short-lived pleasurable experiences, but also to stimulate longlasting impressions. Knowing more about absorbed listening and its potential effects, learning to consciously recognize it as it happens, and perhaps regulate and maintain its positive consequences (i.e., savoring), could further improve the way we engage ourselves with music or other aesthetic objects. Only then could we engage in behavior that we’re sure would make us happy rather than seeking out experiences which we hope would make us happy.
With the discovery of light beyond human visibility, scientists strove to extend the range of observation to invisible parts of the light’s spectrum. Realising that light of all frequencies is part the same physical phenomenon, brought a leap in understanding about electromagnetic waves. With the development of more advanced technology, detectors with higher sensitivity for adjacent frequencies to the visible were built. From this, with each new observable wavelength, more insight into otherwise invisible processes and phenomenons were observed. Hand in hand with this went the enhancement of the output power of corresponding sources. This has lead to higher sensitivity setups throughout the spectrum, leading to observations which have given a deeper understanding in various fields of science. Nowadays, detectors and emitters in many different regions of the invisible electro magnetic spectrum have found their way in our every day life. Innovations in technology has lead to practical applications such as X-rays in medicine, motion sensors and remote controls using infrared light, distance sensors and data transmission using radar and radio devices. The frequency regions above infrared are optically generated and below radar can be produced using electric methods. There is no straight line that separates these frequencies. There rather is a whole intermediate region known as the terahertz (THz) regime. Due to the lack of sensitive detectors and efficient sources, the THz frequency region has not been exploited for application use on a widespread basis so far. It combines properties from the surrounding frequency ranges which make it an ideal spectrum for various applications. Consequently, THz radiation and THz imaging are active fields of research.
The work presented in this thesis consists of the development and testing of novel THz imaging concepts, which uses a THz antenna coupled field effect transistor (TeraFET) detector. Two detection principles are applied using two different optical setups. The first uses a pulsed optical parametric oscillator (OPO) THz source where the optical output power is detected. The source relies on a nonlinear effect of a lithium niobate crystal to generate tunable THz pulses from a Q-switched pump laser. The THz signal is detected and amplified by a double stage operational amplifier for monitoring the real time 20 ns pulses on an oscilloscope where a signal to noise ratio (SNR) of ⇠ 25 at a frequency range from 0.75 to 1.1 THz is reached. Imaging of the area of interest with a resolution of 1.2 mm is achieved through raster scanning of the THz pulses. Also spectroscopy with a frequency resolution of ⇠ 50 GHz is demonstrated using a para-aminobenzoic acid sample. The second setup utilises two synchronised electronic multiplier chain sources where their output is mixed on the detector. To form a heterodyne detection setup, the intermediate frequency is fed to a lock-in amplifier which then amplifies the so called beat signal from the TeraFET detector. One source is fixed relative to the detector even through scanning to ensure a stable signal. This detection method allows for amplitude and phase detection for every scanning position, making numerical light field propagation and object reconstruction possible. Numerical focussing is a key feature achieving a lateral resolution of the input transmittance of ⇡ 2 mm.
After the introduction, the second chapter describes the setup, measurement results and challenges which arise using a TeraFET together with the pulsed THz source “Firefly-THz”. In the description of the setup, special attention is given to the shielding of the detector and the electronics. General findings discuss first the overall performance and later spectroscopy and imaging as application examples. Another subsection continues with potential noise sources before the chapter is concluded. Chapter three expands on the topic of Fourier optics from a theoretical point of view. First, parts of the theory of the Fourier Transform (FT) are set out for the reader and how the Fast Fourier Transform (FFT) results from the Discrete Fourier Transform (DFT). This approach is used for theoretical considerations and the implementation of a Fourier optic script that allows for numerical investigations on electro magnetic field propagation through an optical system. The boundary conditions are chosen to be practical relevant to make predictions on measurements presented in chapter four. The following fourth chapter describes the realisation of a heterodyne THz detection setup. Before the measurement results are presented, the setup and its electric configuration are shown. The results come close to the analytical predictions so that the same algorithm which propagates the field from an object to the Fourier plane is used to propagate the measured field back to the object. The influence of phase noise on the measurement results are discussed before simulation and measurement is compared. The last chapter in this thesis concludes on the findings in the pulsed THz detection and the heterodyne THz Fourier imaging and gives an outlook for both configurations.
The present study aimed to assess the tissue response to the SYMBIOS® resorbable collagen membrane SR, which is derived from bovine Achilles tendon, and compare it to the physiological wound healing of a sham operation as a control.
An ex vivo analysis was performed using injectable platelet-rich fibrin (i-PRF), that is gained by the centrifugation of human venous blood and contains fibrin, leukocytes and platelets, to elucidate the membrane permeability and interactions with human cells and plasma proteins. In the in vivo study, a subcutaneous implantation model was established in Wistar rats to evaluate the cellular reactions for up to 30 days after membrane implantation. Histochemical, immunohistochemical and histomorphometric analyses were performed to assess the cellular inflammatory response, vascularization pattern and cell infiltration capacity.
In the ex vivo study, i-PRF components including fibrin, leukocytes and platelets penetrated the membrane after just 15 minutes. Within the observation period, the cellular reaction in the early phase, which included the first 3 days, produced only mononuclear cells. From 10 to 30 days , the formation of multinucleated giant cells (MNGCs) was induced by the collagen membrane. CD-68 positive cells (macrophages) occurred in a high number on day 3, and the number decreased over time up to day 30. Along with the reduction in the number of CD-68 positive cells, the number of MNGCs increased significantly. The presence of MNGCs was accompanied by significantly increased vascularization within the central region of the membrane, and only mononuclear cells (MNCs) did not produce vascularization. In contrast, the accumulated MNGCs were located on the membrane surface. The control group reflected the physiological process of wound healing, as MNGCs did not form over the 30 day period, and a significantly lower level of vascularization was observed compared with the test group.
This finding showed dynamic changes in the cellular reaction, which indicated a relationship between macrophage fusion and MNGC formation, and vascularization of the collagen membrane is circumstantial evidence of a reaction to a foreign body. However, the collagen membrane was able to maintain its structure and integrity over time, showing no signs of premature breakdown and disintegration due to the specific porosity of its membrane structure.
Therefore, we questioned whether the biomaterial-induced formation of MNGCs should be accepted as a biomaterial-induced cellular reaction that is able to restore vascularization or as an adverse reaction. Therefore, extensive preclinical and clinical studies are needed to investigate the type of MNGCs that form in response to the membrane material studied here.
Due to the resurrection of data-hungry models (such as deep convolutional neural nets), there is an increasing demand for large-scale labeled datasets and benchmarks in the computer vision fields (CV). However, collecting real data across diverse scene contexts along with high-quality annotations is often expensive and time-consuming, especially for detailed pixel-level label prediction tasks such as semantic segmentation, etc. To address the scarcity of real-world training sets, recent works have proposed the use of computer graphics (CG) generated data to train and/or characterize performance of modern CV systems. CG based virtual worlds provide easy access to ground truth annotations and control over scene states. Most of these works utilized training data simulated from video games and pre-designed virtual environments and demonstrated promising results. However, little effort has been devoted to the systematic generation of massive quantities of sufficiently complex synthetic scenes for training scene understanding algorithms. In this work, we develop a full pipeline for simulating large-scale datasets along with per-pixel ground truth information. Our simulation pipeline constitutes of mainly two components: (a) a stochastic scene generative model that automatically synthesizes traffic scene layouts by using marked point processes coupled with 3D CAD objects and factor potentials, (b) an annotated-image rendering tool that renders the sampled 3D scene as RGB image with a chosen rendering method along with pixel-level annotations such as semantic labels, depth, surface normals etc. This pipeline is capable of automatically generating and rendering a potentially infinite variety of outdoor traffic scenes that can be used to train convolutional neural nets (CNN).
However, several recent works, including our own initial experiments demonstrated that the CV models that are trained naively on simulated data lack generalization capabilities to real-world scenes. This opens up several fundamental questions about what is it lacking in simulated data compared to real data and how to use it effectively. Furthermore, there has been a long debate since 1980’s on the usefulness of CG generated data for tuning CV systems. Primarily, the impact of modeling errors and computational rendering approximations, due to various choices in the rendering pipeline, on trained CV systems generalization performance is still not clear. In this thesis, we take a case study in the context of traffic scenarios to empirically analyze the performance degradations when CV systems trained with virtual data are transferred to real data. We first explore system performance tradeoffs due to the choice of the rendering engine (e.g., Lambertian shader (LS), ray-tracing (RT), and Monte-Carlo path tracing (MCPT)) and their parameters. A CNN architecture, DeepLab, that performs semantic segmentation, is chosen as the CV system being evaluated. In our case study, involving traffic scenes, a CNN trained with CG data samples generated with photorealistic rendering methods (such as RT or MCPT), shows already a reasonably good performance on real-world testing data from CityScapes benchmark. Use of samples from an elementary rendering method, i.e., LS, degraded the performance of CNN by nearly 20%. This result conveys that training data must be photorealistic enough for better generalizability of the trained CNN models. Furthermore, the use of physics-based MCPT rendering improved the performance by 6% but at the cost of more than three times the rendering time. This MCPT generated dataset when augmented with just 10% of real-world training data from CityScapes dataset, the performance levels achieved are comparable to that of training CNN with the complete CityScapes dataset.
The next aspect we study in the thesis involves the impact of choice of parameter settings of scene generation model on the generalization performance of CNN models trained with the generated data. Towards this end, we first propose an algorithm to estimate our scene generation model parameters given an unlabeled real world dataset from the target domain. This unsupervised tuning approach utilizes the concept of generative adversarial training, which aims at adapting the generative model by measuring the discrepancy between generated and real data in terms of their separability in the space of a deep discriminatively-trained classifier. Our method involves an iterative estimation of the posterior density of prior distributions for the generative graphical model used in the simulation. Initially, we assume uniform distributions as priors over parameters of a scene described by our generative graphical model. As iterations proceed the uniform prior distributions are updated sequentially to distributions for the simulation model parameters that leads to simulated data with statistics that are closer to the distributions of the unlabeled target data.
...
Microsporidia are a group of parasites that infect a wide range of species, many of which play important roles in agriculture and human disease. At least 14 microsporidian species have been confirmed to cause potentially lifethreatening infectious diseases in both immunocompromised and immunocompetent humans. Approximately 1,400 species of microsporidia have been described. Depending on their host and habitat they are classified into three groups, the aquasporidia, the terresporidia and the marinosporidia.
Microsporidia were originally classified as fungi by Naegeli (1857). However, their lack of typical eukaryotic components – such as mitochondria, Golgi bodies or peroxisomes – suggested to place the microsporidia together with other amitochondriate protists within the Archezoa kingdom. This "microsporidia-early" hypothesis was further supported by molecular phylogenies inferred from individual genes. Despite this evidence, the placement of microsporidia as an early branching eukaryote remained a topic for debate. The phylogeny of microsporidia is prone to suffer from biases in their reconstruction. The high evolutionary rate of microsporidian proteins tends to place these proteins together with other fast evolving lineages, a phenomenon known as long-branch attraction. In 1996, the first molecular phylogenetic studies placed the microsporidia inside the fungi.
Subsequently, several further studies located the microsporidia at different positions inside the fungal clade. Since then, microsporidia have been considered as members of the Ascomycota, Zygomycota, Cryptomycota, or as a sister group to the Ascomycota and Basidiomycota, or even as the sister group of all fungi.
The difficulties in determining the evolutionary origin of microsporidia are not only caused by their lack of several cellular components but also by their reduced genomes and metabolism. Being obligate intracellular parasites, microsporidia successfully reduced their genome sizes, down to the range of bacteria. As the smallest eukaryotic genome described so far, the genome of Encephalitozoon intestinalis is just 2.3 Mbp, about half the size of the one of Escherichia coli. Due to their low number of protein coding genes (less than 4,000), microsporidia are thought to retain only genes essential for their survival and development. Furthermore, several key metabolic pathways are missing in the microsporidia, such as the citric acid cycle, oxidative phosphorylation, or the de novo biosynthesis of nucleotides. As a result they are in an obligatory dependence on many primary metabolites from the hosts. However, the presence of hsp70 protein suggests a more complex genome of the microsporidian ancestor. Consequently, the small microsporidian genomes and the reduced metabolism would be consequences of a secondary loss process that molded the contemporary microsporidia from a functionally more complex ancestral species. However, it remains unclear whether the last common ancestor (LCA) of the microsporidia was already reduced, or whether the genome compaction was lineage-specific and started from a more complex LCA.
We investigated the evolutionary history of the contemporary microsporidia through the reconstruction and analysis of their LCA. As a first step in our analysis, we have developed and implemented a software facilitating an intuitive data analysis of the large presence absence-patterns resulting from the tracing of microsporidian proteins in gene sets of many different species. These so called phylogenetic profiles can now be dynamically visualized and explored with PhyloProfile. The software allows the integration of other additional information layers into the phylogenetic profile, such as the similarity of feature architecture (FAS) between the protein under study and its orthologs. The FAS score can be displayed along the presence-absence pattern, which can help to identify orthologs that have likely diverged in function. PhyloProfile closes the methodological gap that existed between tools to generate large phylogenetic profiles to delineate the evolutionary history and the contemporary distribution of large – and ultimately complete – gene sets, and the more function-oriented analysis of individual protein. In the next step we tackled the problem of how to transfer functional annotation from one protein to another. We have developed HamFAS that integrates a targeted ortholog search based on the HaMStR algorithm with a weighted assessment of feature architecture similarities (FAS) between orthologs. In brief, for a seed protein we identify orthologs in reference species in which proteins have been functionally annotated based on manually curated assignments to KEGG Ortholog (KO) groups. The FAS scores between the orthologs and seed proteins are calculated. Subsequently, we compute pairwise FAS scores for all reference proteins within a KO group. A group's mean FAS score serves then as cutoff that must be exceeded to warrant transfer of its KO identifier to the seed. A benchmark using a manually curated yeast protein set showed that HamFAS yields the best precision (98.5%) when compared with two state-of-the-art annotation tools, KAAS and BlastKOALA. Furthermore, HamFAS achieves a higher sensitivity. On average HamFAS annotates almost 50% more proteins than KAAS or BlastKOALA.
With this extended bioinformatics toolbox at hand, we aimed at reconstructing the evolutionary history of the microsporidia. We generated a robust phylogeny of microsporidia using a phylogenomics approach. As a data basis, we identified a set of microsporidian proteins encoded by 80 core genes with one-to-one orthologs. A maximum likelihood analysis of this data
with 48 fungi and additionally in 13 species from more distantly related such as animals and plants combined in a supermatrix strongly supported the hypothesis that microsporidia form the sister group of the fungi. We confirmed that the data explains this microsporidia-fungi relationship significantly better than any other of the previously proposed phylogenetic hypotheses.
On the basis of this phylogeny, and of the phylogenetic profiles of microsporidian proteins, we then focused on reconstructing the dynamics microsporidian genome evolution. Between 2% of the proteins in the compact microsporidia Encephalitozoon intestinalis and up to 49% of the proteins of Edhazardia aedis are private for individual microsporidian species. A comparison of the sequence characteristics of these proteins to that of proteins with orthologs in other microsporidian species revealed individual differences. Yet, without further evidences it remains unclear whether these private genes are indeed lineage-specific innovations contributing to the adaptation of each microsporidium to its host, or whether these are artifacts introduced in the process of gene annotation. A total of 14,410 microsporidian proteins could then be grouped into 1605 orthologous groups that can be traced back to the last common ancestor of the microsporidia (LCA set). We found that 94% of the microsporidian LCA proteins could be tracked back to the last eukaryotic common ancestor. The high evolutionary age of these proteins, together with the resistance against gene loss in the microsporidia suggests that the corresponding functions are essential for eukaryotic life. Further 3% of the LCA proteins could be dated to the common ancestor microsporidia share with the fungi. Only 3% of the LCA proteins appear as microsporidia specific inventions. These proteins are potentially of importance for the evolutionary of the obligate parasitic lifestyle nowadays shared by all microsporidia.
The functional annotation and metabolic pathway analysis of the microsporidian LCA protein set gave us more insight into the adaptation of the microsporidia to their parasitic lifestyle and the origin of the microsporidian genome reduction. The presence of E1 and E3 components of the pyruvate dehydrogenase complex and the mitochondrial hsp70 protein support an ancestral presence of mitochondria in the ancestral microsporidia. In addition, several ancient proteins that complement gapped metabolic pathways were found in the microsporidian LCA. They suggested a more complex genome and metabolism in the LCA. However, our reconstruction of the metabolic network of the microsporidian LCA still lacks many main pathways. For example, the TCA cycle for effective energy production, and key enzymes that are required for in vivo synthesis of critical metabolites like purines and pyrimidines appear absent. We therefore find that the parasitic lifestyle and the genome reduction already occurred in the microsporidian LCA. This ancestral state was followed by further losses and gains during the evolution of each individual microsporidian lineage.
Für den Zugang zu sozialen Netzwerken - sei es ein klassisches soziales Netzwwerk oder eine objektspezifische Community - ist die Existenz eines Avatars obligatorisch. Die virtuelle Repräsentation bindet die User_innen dahinter als gestaltbares Interface-Objekt in das Kommunikationssystem ein. Der systemspezifische Avatar besteht dabei aus feststehenden Modulen, deren Anordnung von den User_innen unveränderbar ist so dass mit dem Zugang zum System die Annahme der medialen Uniformität ebenfalls obligatorisch einhergeht; sie standadisiert alle Avatare des zugehörigen Systems schablonenhaft. Durch das Füllen der Module der medialen Uniformität mit grafischen Informationen kann eine persönliche grafische Uniform generiert werden, die immer in Bezug zur grafischen Uniformität der jeweiligen Community steht...
Most of the elements in the universe are produced via charged-particle fusion reactions during the primordial nucleosynthesis and different stellar burning stages, as well as via neutron-capture reactions. Around 35 heavy, proton-rich isotopes are bypassed by those reaction paths, the p nuclei. A series of photo-disintegration reactions occurring in supernovae, called the γ process, was suggested as a mechanisms to produce the p nuclei. Numerical simulations of the γ process have been unable to reproduce the observed abundances of the light p isotopes. Recent models showed that a series of proton capture reactions could provide the observed abundances. Hence, the cross sections of the crucial capture reactions have to be measured in order to test those assumptions.
Radiative proton captures in addition to the γ-process could reproduce the observed abundance pattern. This thesis presents preparations of a proton capture measurement on the radioactive 91Nb in standard kinematics with a calorimetric 4π setup. The 91Nb(p,γ)92Mo reaction might be the key to explain the production of one of the most abundant p-nuclei, 92Mo. So far, no experimental data for this reaction is available.
We produced a sample of 91Nb, with a half-life of 680 yr, at the Physikalisch Technische Bundesanstalt in Braunschweig, Germany, by irradiating 92Mo with protons in the energy range of 12 – 20MeV. 91Nb was produced via the reaction 92Mo(p,2p)91Nb and via 92Mo(p,pn)91Mo, where 91Mo decays to 91Nb with a half-life of 15.5min. To predict the amount of produced 91Nb the cross section of 92Mo(p, 2p) was measured. It was found to be higher than the value given by theoretical calculations with TALYS. Finally, 91Nb was chemically separated from the molybdenum carried at Paul-Scherrer- Institut, Villigen, Switzerland.
In-beam total absorption cross-section measurement of the reaction 91Nb(p,γ)92Mo with 2 MeV protons at FRANZ is planed with the produced 91Nb. A 4π BaF2 detector consisting of 41 crystals will be used. During this experiment we will measure the sum energy and the multiplicity of each event. The freshly produced 91Nb constitutes only a minor component of the sample material. The sum energy and multiplicity are crucial to distinguish the desired 91Nb(p,γ) from all the other more dominant reactions. The expected multiplicity and the efficiency of the setup were carefully simulated with DICEBOX and GEANT4. It was possible to show that background reactions can be effectively suppressed. The most important background contributions could be identified and result from 92Mo(p,γ), 19F(p,γ), and 19F(p,α).
An die Soziologie werden zunehmend Fragen des ökonomischen Nutzens und der gesellschaftlichen Relevanz herangetragen. Ein Wissen um den gesellschaftlichen Impact soziologischen Wissens und die Artikulation eines Nutzens für die Praxis sind wertvolle Werkzeuge im Kampf um die Alimentation soziologischer Forschung. Aber wie wird soziologisches Wissen überhaupt angewendet? Um diese Frage zu beantworten, wird soziologisches Wissen definiert und dessen Anwendung expliziert. Unter Zuhilfenahme von Wissenschaftstheorie und Wissenssoziologie wird zunächst eine Definition erarbeitet. Anschließend werden Forschungsgebiete, die sich mit der Anwendung von (soziologischen) Wissen beschäftigen, vorgestellt – allen voran die soziologische Verwendungsforschung. Darauf aufbauend wird eine Explikation der Anwendung soziologischen Wissens erarbeitet, vor dessen Hintergrund aktuelle Bemühungen, soziologisches Wissen stärker anzuwenden, betrachtet werden. Die abschließende Diskussion beschäftigt sich mit den Möglichkeiten und Restriktionen der Anwendung soziologischen Wissens und betont die Rolle der Soziologie als kritische gesellschaftliche Aufklärungsinstanz.
Precise timing of spikes between different neurons has been found to convey reliable information beyond the spike count. In contrast, the role of small phase delays with high temporal variability, as reported for example in oscillatory activity in the visual cortex, remains largely unclear. This issue becomes particularly important considering the high speed of neuronal information processing, which is assumed to be based on only a few milliseconds, or oscillation cycles within each processing step.
We investigate the role of small and imprecise phase delays with a stochastic spiking model that is strongly motivated by experimental observations. Within individual oscillation cycles the model contains only two signal parameters describing directly the rate and the phase. We specifically investigate two quantities, the probability of correct stimulus detection and the probability of correct change point detection, as a function of these signal parameters and within short periods of time such as individual oscillation cycles.
Optimal combinations of the signal parameters are derived that maximize these probabilities and enable comparison of pure rate, pure phase and combined codes. In particular, the gain in detection probability when adding imprecise phases to pure rate coding increases with the number of stimuli. More interestingly, imprecise phase delays can considerably improve the process of detecting changes in the stimulus, while also decreasing the probability of false alarms and thus, increasing robustness and speed of change point detection.
The results are applied to parameters extracted from empirical spike train recordings of neurons in the visual cortex in response to a number of visual stimuli. The results suggest that near-optimal combinations of rate and phase parameters can be implemented in the brain, and that phase parameters could particularly increase the quality of change point detection in cases of highly similar stimuli.
Mit S-303 pathogenreduzierten Erythrozytenkonzentraten können sowohl infektiöse also auch nicht-infektiöse Risiken einer Transfusionen möglicherweise weiter reduziert werden. Frühere Studien mussten abgebrochen werden, da Antikörper gegen S-303-behandelte Erythrozyten festgestellt wurden. S-303 reagiert als unerwünschten Nebeneffekt auch mit Oberflächenmolekülen der roten Blutkörperchen. Dabei wird die Acridin-Komponente von S-303 auf der Oberfläche der roten Blutkörperchen gebunden. Gegen diese Acridin-Komponente können nach Transfusion von pathogenreduzierten EK immuninduzierte AK gebildet werden. Es existieren aber auch natürlich präformierte AK gegen S-303-behandelte Erythrozytenkonzentrate. Das Verfahren wurde modifiziert, indem der Anteil von GSH erhöht wurde. Dadurch wird vermehrt S-303 im Extrazellulärraum abgefangen und weniger Acridin auf der Oberfläche der Erythrozyten gebunden.
In dieser Studie wurden 9671 potentiell transfusionsbedürftigen Patienten auf einen natürlich präformierten Antikörper gegen S-303-behandelte Erythrozytenkonzentrate untersucht. Diese Patienten hatten zuvor noch keine S-303-behandelten Erythrozytenkonzentrate erhalten. Es wurden Testzellen von Blutspendern der Blutgruppe 0 hergestellt. Aus jedem EK wurden drei unterschiedliche Testzellen hergestellt (Erstgenerationszellen, Zweitgenerationszellen, Kontrollzellen). Das Screening erfolgte mittels IAT in Gelkartentechnik mit einer Testzelle der ersten und zweiten Generation. Die Antikörper wurden weiter charakterisiert bezüglich Spezifität, Titer, Antikörperklasse und –subklasse, Affinität und Temperaturreaktivität.
Bei zwölf Patienten konnte ein AK gegen S-303 pathogenreduzierte Erythrozy-tenkonzentrate nachgewiesen werden und somit konnte gezeigt werden, dass die Prävalenz eines solchen Antikörpers gering ist. Bei elf Patienten handelt es sich um einen Anti-Acridin-AK. Alle elf Patienten hatten immer einen positiven AKS mit der Erstgenerationszelle, jedoch nicht mit der Zweitgenerationszelle. Die Sensitivität, einen AK gegen Acridin mit der Erstgenerationszelle zu finden, ist höher als mit der Zweitgenerationszelle. Die Erstgenerationszelle hat auf ihrer Oberfläche mehr Acridin gebunden als die Zweitgenerationszelle. Bei einem Patienten konnte ein AK unbekannter Spezifität nachgewiesen werden, welcher jedoch ausschließlich mit der Zweitgenerationszelle reagierte. Vor einer möglichen Transfusion von S-303 pathogenreduzierten Erythrozytenkonzentraten wird empfohlen immer eine Testung auf Antikörper gegen Testzellen der ersten und der zweiten Generation durchzuführen. Eine Transfusion sollte grundsätzlich nur erfolgen, wenn weder ein AK gegen die Erstgenerationszelle noch gegen die Zweitgenerationszelle nachgewiesen wurde. Insgesamt handelt es sich überwiegend um niedrigtitrige IgG-AK der Subklasse 2 oder 4. Es lässt sich daher vermuten, dass natürlich präformierten AK gegen S-303-behandelte Erythrozytenkonzentrate nur eine geringe klinische Relevanz haben.
Eine klinischen Studie mit 51 kardiochirurgischen Patienten zeigte, dass nach Transfusion von pathogenreduzierten Erythrozytenkonzentraten der zweiten Generation keine immuninduzierten Antikörper gebildet wurden. Somit ist davon auszugehen, dass die Zweitgenerationszelle wegen der geringen Expression von Acridin auf der Zelloberfläche weniger immunogen ist als die Erstgenerationszelle. Klinische Studien mit einer größeren Anzahl an Patienten können nun grundsätzlich geplant werden.
Generell sollten Patienten mit natürlich präformierten Antikörpern gegen S-303-behandelte Erythrozytenkonzentrate keine pathogenreduzierten Erythrozytenkonzentrate erhalten. Patienten, welche nach Transfusion von S-303-behandelten Erythrozytenkonzentraten AK gegen die pathogenreduzierten Erythrozyten gebildet haben, sollten regelmäßig nachuntersucht werden, um eine Hämolyse frühzeitig zu entdecken.
The multistep-processes leading to the formation of tumors have been extensively studied in the past decades, leading to the identification of “hallmarks of cancer”. They are characteristic changes in biological processes that discriminate tumor cells from healthy cells. Increasing knowledge on the molecular structures associated with tumorigenesis allowed their specific inhibition in targeted anti-cancer therapy. However, successful targeted anti-cancer therapy is only available for a limited subset of diseases, so the continuous investigation of tumorigenic mechanisms is required to tackle the immense diversity of neoplastic entities.
AVEN and FUSE binding protein 1 (FUBP1) display the ability to regulate apoptosis and cell cycle progression. Thus, the proteins are associated with hallmarks of cancer (resisting cell death and uncontrolled proliferation). Indeed, aberrant expression of AVEN and FUBP1 could be demonstrated in multiple cancers. In contrast, there is only little knowledge on the physiological function of AVEN and FUBP1. The lack of knowledge results in part from the embryonic lethality of the homozygous knockout of Aven and Fubp1 in mouse models, limiting the gain of information by analyzing these animals.
In this study, I generated conditional Aven and Fubp1 knockout mice to investigate their physiological function.
By analyzing reporter mice expressing β-galactosidase under the control of the endogenous Aven promoter, I identified Aven promoter activity to be both tissue- and cell type-specific and dependent on the developmental stage. Detecting apoptotic cell death by immunohistochemistry did not reveal increased apoptosis in Aven knockout mice, suggesting a functional role of AVEN besides apoptosis inhibition during embryogenesis.
Basing on the significant Aven promoter activity detected in the adult brain and in the mammary gland, I generated and characterized conditional Aven knockout mice with Aven deletion restricted to cells within the brain or the mammary gland. AVEN depletion in these tissues was not embryonic lethal and the affected tissues displayed a normal histology.
Since aberrant Aven expression had been associated with hematologic malignancies, I also analyzed mice with an Aven knockout in the hematopoietic system. Depletion of AVEN in the blood cells had no effect on hematopoietic stem and progenitor cell frequencies. Consequently, AVEN seems to be dispensable for the maintenance and differentiation of stem, progenitor and mature blood cells, at least as far as the expression of particular differentiation markers was concerned.
As loss of AVEN in the analyzed tissues did not affect the viability of mice and did not produce any other obvious phenotype, the exact role of AVEN that is essential for embryo survival remains to be identified.
To study the oncogenic potential of AVEN, I investigated the role of AVEN in a mouse model for breast carcinogenesis. While AVEN expression seemed to be increased in breast tumors, tumor onset and progression were not altered in mice with depleted AVEN expression in the mammary gland. Consistently, Aven knockout tumor cells were neither less proliferative nor more prone to undergo apoptosis than Aven wildtype tumor cells. Cell culture experiments demonstrated that AVEN expression is upregulated by estrogen. Knockdown of AVEN in the breast cancer cell line MCF-7 slightly increased UV irradiation-induced apoptosis and accelerated metabolism. So while AVEN does not promote development or progression of breast tumors, enhanced AVEN expression in ER+ breast cancers might contribute to chemotherapy resistance.
To study the physiological role of FUBP1, I generated a conditional Fubp1 knockout mouse model. While the insertion of loxP sites into the Fubp1 locus was occasionally embryonic lethal, some mice with a cell type-specific deletion of Fubp1 in hematopoietic cells or EPO receptor expressing cells were born alive. In these mice, frequencies of hematopoietic stem and progenitor cells as well as erythrocytes were unaltered. These results conflict with previous publications. However, compensating mechanisms might be responsible for the discrepancies between the observed phenotypes and reported FUBP1 function.
In cell culture studies, I could demonstrate that the previously reported upstream regulation of FUBP1 by TAL1 depended on an intact GATA motif in the FUBP1 promoter and that binding of GATA1 to the FUBP1 promoter increased during erythropoiesis.
To identify new FUBP1 target genes with relevance for erythropoiesis, I performed differential gene expression analysis in cells with wildtype and depleted FUBP1 expression. RNA-sequencing and PCR-arrays revealed only moderate differences in the expression of genes that are components of the EPO receptor signaling pathway as well as genes associated with apoptosis and proliferation of hematopoietic cells. By regulating the transcription of these genes, FUBP1 could contribute to efficient erythropoiesis.
Diese Arbeit trägt dazu bei, die Lutherdarstellung in Lehr- und Schulbüchern der ersten Schulbuchgeneration systematisch zu erschließen. Sie stellt sich der Herausforderung den jeweils spezifischen Akzent der Lutherdarstellung und -konzeption, welcher in den Lehrtexten des Lehrbuchs transportiert wird, herauszuarbeiten und weitergehend im Verbund mit den anderen untersuchten Lehrbüchern auf übergreifende, verbindende und trennende Elemente zu untersuchen. Diese Forschungsarbeit leistet einen Beitrag zur Erschließung Luthers sowie ihrer Art und Intensität in dem Medium des Schulbuchs im Kontext der Aufklärung. Insgesamt werden zehn Werke von acht Autoren im Zeitraum von 1780 bis 1817 untersucht, darunter Schulbücher von Johann Matthias Schröckh, Lorenz von Westenrieder und Jakob Brand.
My study examined MMA training, and thereby the ‘back region’ of MMA, where the ‘everyday life’ of MMA takes place. I enquired into how MMA training corresponds with MMA’s self-description, namely the somehow self-contradicting notion that MMA fights would be dangerous combative goings-on of approximately real fighting, but that MMA fighters would be able to approach these incalculable and uncontrolla-ble combative dangers as calculable and controllable risks.235 Conducting an ethnog-raphy in which I focused on the combination of participation and observation, I stud-ied how the specific interaction organisations of the three core training practices of MMA training provide the training students with specific combative experiences and how they thereby construct the social reality that is MMA training....
Particle physics is living it’s golden age: petabytes of high precision data are being recorded at experimental facilities such as the Relativistic Heavy Ion Collider (RHIC) and the Large Hadron Collider (LHC). Despite the significant theoretical progress achieved in the last years the complete understanding of the internal structure of protons, not computable with perturbative QCD, remains as one of the most challenging unsolved problems in the physics of elementary interactions. Besides its fundamental interest, pinning down the relevant degrees of freedom and their properties, such as their spatial distribution, has profound implications in several phenomenological aspects of high-energy collisions. Currently one of the subjects undergoing intense study is the possibility that droplets of quark-gluon plasma (QGP) are being created not only in heavy ion collisions but in more dilute systems such as high-multiplicity proton-proton interactions. This is a data driven debate as it is rooted in the similar patterns observed across the different collision systems at the LHC (p+p,p+Pb and Pb+Pb) in the flow harmonic analyses: one of the golden probes of QGP formation specially sensitive to the initial collision geometry. Another domain in which the proton structure plays a central role is the description of multi-parton interactions, the mechanism that dominates the underlying event at LHC energies, in Monte Carlo event generators. All in all a precise characterization of the hadronic structure is a crucial ingredient of the physics program of the LHC.
A full characterization of a hadron would require momentum, spatial and spin information, the so-called Wigner distribution. So far obtaining this information experimentally has not been achieved. From a theoretical point of view several complications arise such as non-universality and breaking of factorization theorems. Then, in general, the description of the hadron structure relies on phenomenological tools that require theoretical modeling constrained by experimental data. The main goal of this thesis to characterize the transverse structure of the proton. For that purpose, a wide variety of phenomenological problems that are sensitive to the proton structure have been addressed.
First, elastic scattering data on proton-proton interactions constitutes a powerful probe of the geometry of the collision. A dedicated analysis of this observable focusing on the extraction of the inelasticity density from it at √s=62.5 GeV and √s=7 TeV is presented. In the TeV regime, a unexpected phenomenon, dubbed the hollowness effect, arises: the inelasticity density, a measurement of how effective is the collision producing secondary particles, reaches its maximum at non-zero impact parameter. We provide the first dynamical explanation of the hollowness effect by constructing the elastic scattering amplitude in impact parameter representation according to the Glauber model. For that purpose we relied on a composite description of the proton. More concretely, the relevant degrees of freedom that participate in the scattering process were considered to be gluonic hot spots. The probability distribution for the transverse positions of hot spots inside the proton includes repulsive short-range correlations between all pairs of hot spots controlled by an effective repulsive core rc that effectively enlarges the mean transverse separation distance between them. The main results extracted from this work are as follows. To begin with, we found that our model was not able to describe a growing behavior of the inelasticity density at zero impact parameter in the absence of non-trivial spatial correlations. However, even in the presence of correlations, the emergence of the hollowness effect couldn’t be described when the number of hot spots was smaller than 3. Both features set solid constraints in the proton structure within our model. Finally, we pinpoint the transverse diffusion of the hot spots with increasing collision energy to be the dynamical mechanism underlying the onset of the hollowness effect.
A convenient playground to test further implications of this novel geometric description of the proton are the initial state properties of high energy proton-proton interactions in the context of QGP physics. The parametrization of the geometry of the collision is mandatory in any theoretical model attempting to describe the striking experimental results that suggest collective behavior in proton-proton interactions at the LHC, such as the non-zero value of the flow harmonic coefficients (vn). A quantitative way to characterize the initial geometry anisotropy of the overlap region is to compute the spatial eccentricity moments (εn) that fluctuate on an event by event basis. For that purpose we develop a Monte Carlo Glauber event generator. A systematic investigation of the effect of non-trivial spatial correlations in the spatial eccentricity moments from ISR to LHC energies within our Monte Carlo Glauber approach is presented. We found that both the eccentricity (ε2) and the triangularity (ε3) are affected by the inclusion of short-range repulsive correlations. In particular, the correlated scenario yielded larger values of ε2(3) in ultra-central collisions while reducing them in minimum bias.
Moreover, we explore not only the eccentricities mean but their fluctuations in terms of symmetric cumulants. The experimental measurement by the CMS Collaboration at √s=13 TeV indicates a anti-correlation of v2 and v3 around the same number of tracks in the three collision systems available at the LHC. We lay out, for the first time in the literature, a particular mechanism that permits an anti-correlation of ε2 and ε3 in the highest centrality bins as dictated by data. When modeling the proton as composed by 3 gluonic hot spots, the most common assumption in the literature, we find that the inclusion of spatial correlations is indispensable to reproduce the negative sign. Further, we perform a systematic investigation of the parameter space of the model i.e. radius of the hot spot, radius of the proton, repulsive core and number of hot spots in each proton. Our results suggest that the interplay of the different scales is decisive and confirm the discriminating power of this observable on initial state models. Together with their drastic impact on the description of the hollowness effect and the absolute values of the eccentricities, the symmetric cumulant study adds evidence to the fact that the inclusion of spatial correlations between the sub nucleonic degrees of freedom of the proton modifies the initial state properties of p+p interactions at LHC energies.
Krebs ist eine bedeutende Todesursache, und Krebsfrüherkennungsuntersuchungen in Form von Screeningmaßnahmen sind ein möglicher Ansatz, die spezifische Mortalität der jeweiligen Krebsart zu senken. Die Studienlage zeigt allerdings nur für die Koloskopie als Darmkrebsscreeningmaßnahme einen eindeutigen Nutzen. Brust-, Haut-und Gebärmutterhalskrebsfrüherkennung sind im Vergleich dazu wenig untersucht, und die entsprechenden Studien zeigen zum Teil widersprüchliche Ergebnisse. Eine Beschränkung der Maßnahmen auf Risikogruppen könnte die Kosten-Nutzen-Bilanz der Screeningmaßnahmen möglicherweise ins Positive verschieben. Derzeit raten gesetzliche Empfehlungen für die gesamte Bevölkerung ab einem festgelegten Alter zur Teilnahme an Darm-, Brust-, Haut- und Gebärmutterhalskrebsfrüherkennungs-untersuchungen, wobei die Inanspruchnahme je nach Untersuchung und Studie stark variiert. Hausärzte können als Ansprechpartner der Patienten zur Entscheidungsfindung für oder gegen eine Untersuchung beitragen. Um ihre Bedeutung in diesem Zusammenhang zu untersuchen, ist es sinnvoll, die Einstellung von Hausärzten gegenüber Krebsfrüherkennungsuntersuchen, sowie deren Empfehlung und mögliche Gründe für oder gegen eine Empfehlung zu erfassen. Hierzu wurde im Rahmen dieser Dissertation ein Fragebogen erstellt.
Die mittels des Fragebogens durchgeführte Datenerhebung stellt einen Teil des am Institut für Allgemeinmedizin Frankfurt durchgeführten Projektes „Onkologie in der Hausarztpraxis“ dar. Zur Entwicklung des Fragebogens wurde zunächst eine Literaturrecherche durchgeführt. Im weiteren Verlauf wurde ein Itempool erstellt, der thematisch sowohl auf den Ergebnissen der Recherche, als auch auf qualitativen telefonischen Interviews beruhte, die im Rahmen des oben beschriebenen Projektes „Onkologie in der Hausarztpraxis“ durchgeführt wurden. Aus diesem Itempool wurden zur Beantwortung folgender Forschungsfragen 28 Items zur weiteren Ausarbeitung ausgewählt:
1) Welche Einstellung haben Hausärzte gegenüber den gesetzlich empfohlenen, populationsbasierten Krebsfrüherkennungsuntersuchungen?
2) Unterscheidet sich die hausärztliche Einstellung in Abhängigkeit davon, ob die jeweilige Untersuchung populationsbasiert oder auf definierte Risikogruppen angewandt wird?
3) Für welche Risikogruppen halten die Hausärzte die verschiedenen Krebsfrüh-erkennungsuntersuchungen für sinnvoll?
4) Welche Gründe für oder gegen die Empfehlung von Krebsfrüherkennungsuntersu-chungen werden angegeben?
Die Konstruktion der einzelnen Fragen und Antwortskalen, die Formulierung von Handlungsanweisungen und die Gestaltung des Fragebogens mit Anschreiben, Titelseite und Layout erfolgte auf Basis von publizierten Expertenempfehlungen für eine qualitativ hochwertige Fragebogenkonstruktion. Der entstandene Fragebogen wurde anschließend einem Pretest unterzogen, der aus einer Stichprobe und einer kognitiven Testung bestand. Die Stichprobe wurde mit 35 Lehrärzten des Instituts für Allgemeinmedizin Frankfurt durchgeführt. Drei von ihnen sowie ein weiterer, vom Institut unabhängiger Hausarzt wurden im Verlauf für die kognitive Testung befragt. Auf Grundlage dieses Pretests wurde der Fragebogen nochmals angepasst.
Durch diesen Schritt wurden die 28 ausgewählten Items auf 19 Fragen reduziert, die gemeinsam mit neun Fragen zur Erhebung persönlicher Daten den fertigen Fragebogen bilden. Kriterien, die im Rahmen des Pretests zu Veränderungen geführt haben, waren erhöhte Non-Response-Raten, Hinweise auf mangelndes Fragenverständnis sowie geringe Relevanz einzelner Antwortoptionen. Zur Qualitätsprüfung wurde der fertige Fragebogen mittels einer publizierten Fragencheckliste auf mögliche Kritikpunkte hin getestet. Die Vorgehensweise zur Entwicklung des Fragebogens entsprach gängigen Empfehlungen von Experten. Der entwickelte Fragebogen stellt ein geeignetes Instrument zur Beantwortung der in der Einleitung gestellten Forschungsfragen dar, und leistet einen Beitrag zur Analyse der hausärztlichen Einstellung und Empfehlung zu Krebsfrüherkennungsuntersuchungen.
This thesis presents the first measurement of the proton capture reaction on the isotope 124Xe performed in inverse kinematics. The experiment was carried out in June 2016 at the Experimental Storage Ring (ESR) at the GSI Helmholtz Centre for Heavy Ion Research in Darmstadt, Germany.
124Xe is one of about 35 p-nuclei that cannot be produced via neutron-induced nucleo- synthesis as the vast majority of heavy elements. Its production and destruction provide important information about the nucleosynthesis of the p-nuclei. Measuring the 124Xe(p,g)125Cs reaction also gives strong constraints for its reverse 125Cs(g,p)124Xe reaction.
Fully stripped 124Xe ions repeatedly passed a H2 gas jet target at five different energies between 5.5 MeV/u and 8 MeV/u. An electron cooler compensated for the energy loss in the target and reduced the beam momentum spread. The reaction product 125Cs55+ has a smaller magnetic rigidity than 124Xe54+. Therefore 125Cs55+ was deflected towards smaller radii in the first dipole after the target area and thereby separated from 124Xe54+. It was detected with a position-sensitive Double-Sided Silicon Strip Detector (DSSSD). The novelty of this experiment was the installation of the DSSSD inside the ultra-high vacuum of the storage ring using a newly designed manipulator.
Three High-Purity Germanium X-ray detectors were used to measure the X-rays following the Radiative Electron Capture (REC) events into 124Xe53+. The REC cross sections are well-known and were used to determine the luminosity.
The 124Xe(p,g)125Cs cross sections at ion beam energies between 5.5 MeV/u and 8 MeV/u were determined relatively to the K-REC cross sections and finally compared to the theoretically predicted cross sections. While theoretical predictions of the TENDL database are lower than the measured ones by a factor of up to seven, the NON-SMOKER data are higher by a factor of up to two, except of the cross section at 7 MeV/u, where NON-SMOKER data are slightly lower than the experimental value.
For the first time, a proton capture cross section could be measured in inverse kinematics close to the astrophysically relevant Gamow window. This allows the direct determination of the (p,g) cross section of isotopes with half-lives down to several minutes, which is not possible with any other technique.
Das Peptidhormon Orexin (Hypokretin), das insbesondere in Neuronen des lateralen Hypothalamus synthetisiert wird, hat nach neueren Untersuchungen neben dem Einfluss auf das Essverhalten eine entscheidende Funktion im Schlaf-Wach Verhalten. In optogenetischen Untersuchungen, in denen modifizierte Zellen durch Licht aktiviert werden, konnte durch die Hochregulation von Orexin eine deutliche Wachheits- und Aktivitätszunahme der Tiere verzeichnet werden. Bei erhöhter MCH Freisetzung war eine vermehrte Schlafneigung beobachtet worden. Orexin und MCH scheinen demnach gegensinnige Funktionen in der Schlaf-Wach Regulation einzunehmen.
Mit der vorliegenden Arbeit wurden genauere Einblicke in das orexinerge System im Gehirn von zwei unterschiedlichen Mäusestämmen gewonnen. Es ist nach unserem Wissensstand die erste Arbeit, die das Reaktivitätsmuster von Orexin und MCH bei C3H- und C57BL-Mäusen im Hinblick auf Schlaf und Schlafentzug beleuchtet. Der Vergleich zwischen den Mäusestämmen ist im Besonderen interessant, weil die C57BL-Mäuse das pineale Schlafhormon Melatonin nicht bilden.
Beide Mäusestämme wurden nach Adaptation während drei unterschiedlicher Funktionszustände semiquantitativ immunhistochemisch untersucht: im Schlaf, im aktiven Zustand sowie nach 6-stündigem Schlafentzug. Nach Fixierung der Gehirne wurden die angefertigten Hirnschnitte immunhistochemisch gefärbt und mikroskopiert. Die Semi-Quantifizierung der Immunreaktivität erfolgte durch eine etablierte Bildbearbeitungsmethodik.
Das Verteilungsmuster Orexin- und MCH-ir Neurone ist zwischen den jeweiligen Mäusestämmen gleich und zeigt eine gegenseitige Innervation. Dies spricht für eine geregelte Interaktion beider Botenstoffsysteme.
Weiterhin zeigte sich eine deutliche Schlaf-physiologische Korrelation orexinerger Neurone mit der höchsten Immunreaktivität während der Wachheit. Es konnte jedoch kein Unterschied der Immunreaktivität in Bezug auf Lokalisation und Stadien zwischen C3H- und C57BL-Mäusen nachgewiesen werden, sodass davon auszugehen ist, dass die Melatonindefizienz der C57BL keine bedeutende Rolle in der zirkadianen Regulation von Orexin spielt.
Im Gegensatz zu Orexin konnte kein signifikanter Unterschied in der Immunreaktivität MCH-ir Neurone zu den unterschiedlichen Vigilanzstadien festgestellt werden.
Vermutlich spielt die relative Inaktivität von Orexin in Kombination mit aktiver Sekretion von MCH eine wichtige Rolle in der Induktion und Kontrolle von Schlaf.
Es sind noch viele Fragen offen; insbesondere die Interaktion zwischen Wachheit- und Schlaf-induzierenden Neuronen deren Regulation. Auch der Einfluss vom Nucleus suprachiasmaticus auf Oreginerge/MCHerge Neurone, sowie das Verhältnis von Melatonin zu Orexin und MCH bedarf weiterer Forschungen.
Based on an original dataset of 100 important pieces of legislation passed during the three presidencies of William J. Clinton, George W. Bush, and Barack H. Obama (1992-2013), this study explores two sets of questions:
(1) How do presidents influence legislators in Congress in the legislative arena, and what factors have an effect on the legislative strategies presidents choose?
(2) How successful are presidents in getting their policy positions enacted into law, and what configurations of institutional and actor-centered conditions determine presidential legislative success?
The analyses show that in an hyper-polarized environment, presidents usually have to fight an uphill-battle in the legislative arena, getting more involved if they face less favorable contexts and the odds are against them.
Moreover, the analyses suggest that there is no silver-bullet approach for presidents' legislative success. Instead, multiple patterns of success exist as presidents - depending on the institutional and public environment - can resort to different combinations of actions in order to see their preferred policy outcomes enacted.
Das menschliche Leben erscheint heute als in vielfältiger Weise mit seiner Umwelt verbunden. Bio- und neurowissenschaftliche Forschungen über die Interaktionsweisen mit der Umwelt verändern dabei das Bild des Körpers von einem hierarchisch aufgebauten Organismus zu einem organisch-kognitiv-verteilten Netzwerk. Nicht zuletzt Forschungen zur künstlichen Intelligenz haben gezeigt, dass das menschliche Gehirn nicht isoliert betrachtet werden kann, sondern verkörpert, vernetzt und damit in einer wechselwirkenden Abhängigkeit zu Körpern steht (embedded und extended mind). Epigenetische Forschungen haben ebenfalls auf die Umweltabhängigkeit auch genetischer Prozesse verwiesen (Postgenomik) und damit auf komplexe Wechselwirkungen zwischen Biotischem und Abiotischem aufmerksam gemacht. Diese komplexen Wechselwirkungen und Umweltabhängigkeiten zwischen Lebendigem und Nicht-Lebendigem werden inzwischen zusehends zum Gegenstand menschlicher Selbstorganisation. Sie tauchen in veränderter Form in den Plänen zu den sogenannten Industrien 4.0 auf, wenn es darum geht, intelligente Umgebungen mit dem Menschen interaktiv zu vernetzen. Die hierfür notwendigen digitalen Datenmengen stehen aber nur zur Verfügung, wenn Menschen sich aktiv vernetzen. Die Entstehung digitaler Daten- körper wird dadurch zu einem essentiellen Bestandteil sozialer Teilhabe, wodurch Soziales zum entwicklungsoffenen und unbestimmten Prozess wird. Wie sich Menschen wann und wo vernetzen, ist nicht vorherbestimmt. Digitalisierung ist dabei, so die These der Arbeit, sich zur grundlegenden Praxis menschlicher Vernetzung zu entwickeln.
Die Arbeit geht Digitalisierung aus einer Perspektive koevolutionärer Entstehungs- und Entwicklungszusammenhänge nach und zeigt, dass digitale Praxen zu einer neuen Form menschlicher Selbstorganisation weltweit geworden sind. Angesprochen wird damit, dass Digitalisierung nicht als etwas dem Menschen Äußerliches betrachtet werden kann, sondern in einen größeren kulturellen Entstehungszusammenhang eingebettet werden muss, der bis zu den Anfängen der Menschheit zurückreicht. Um dies zu veranschaulichen, werden in der Arbeit drei verschiedene Wissensformationen benannt, die sich jeweils in unterschiedlicher Art und Weise mit den aktuellen Veränderungen digitalisierter Lebenswelten auseinandersetzen.
Die erste Wissensformation (Kapitel 2) benennt den Humanismus, der im Aufkommen neuer Medientechnologien eine Bedrohung für den Menschen sieht. Eine zweite Wissensformation (Kapitel 3) widmet sich dem „Ende des Humanismus“, indem Ansätze der Science and Technology Studies (STS), der Akteur-Network-Theory (ANT) und des Agentiellen Realismus von Karan Barad diskutiert werden. Mit einer „neuen Ökonomie für eine neue Menschheit“ wird eine dritte Wissensformation (Kapitel 4) benannt, die, von postoperaistischen Ansätzen ausgehend, die These eines „dritten“ oder „kognitiven Kapitalismus“ diskutiert. Hier geht es um die These des Zusammenfallens von Ökonomischem und Sozialem, aus dem neue offene Sozialformationen entstehen. Schließlich wird eine vierte Wissensformation (Kapitel 5) formuliert, die, ausgehend vom Ansatz einer Anthropologie des Medialen (AdM) und dem Modell der Erweiterung kultureller Kapazitäten (EECC) versucht, die als digitalen Wandel bezeichneten Veränderungen in einen größeren Zusammenhang zu stellen.
Mit beiden Ansätzen kann schließlich gezeigt werden, dass sich Veränderungen menschlicher Selbstorganisation immer in der biologischen, individuellen, kulturellen und historisch-sozialen Entwicklungsdimension zugleich vollziehen. Dies lässt sich auch für die Prozesse der Digitalisierung zeigen. Nämlich, dass sich der Mensch als Teil der Natur in einem fortwährenden koevolutionären Prozess befindet. Weder Kultur, noch Soziales, noch Technologien sind unnatürlich. Sie können als „indirekte Biologie“, als „Künstliches“ oder als „Kultur der Biologie“ bezeichnet werden, die der Natur aber nie entkommen. Die Erweiterung kultureller Kapazitäten ist deshalb nicht als eine Ausdehnung des Menschen in die Natur hinaus zu verstehen, sondern bezeichnet die im Laufe der Menschheitsgeschichte komplexer werdenden Reichweiten und Zeittiefen menschlicher Selbstorganisation, die immer auf den drei Ebenen von Phylogenese, Ontogenese, Technogenese und der damit verbundenen Soziogenese basieren.
After entorhinal deafferentiation of the hippocampal dentate gyrus a reinnervation of the denervated neurons by axon collaterals can be observed. This process takes place in a matter of weeks. However, the overall functional effect on the hippocampal network is still unclear.
In an effort to investigate this effect of axonal sprouting on the neuronal network of the dentate gyrus we compared the electrophysiological response of the dentate gyrus after electric stimulation in wild-type mice (WT mice) with a normal post-lesion sprouting, with genetically modified mice with an overexpression of the growth-protein CAP23 (cytoskeleton-associated protein 23). CAP23 overexpressing mice (CAP23tg mice) are known to have an enhanced axonal growth and sprouting after lesion.
The mice (both the WT as well as the CAP23tg mice) were deeply anesthetized and a lesion of the perforant path was induced stereotactically with a wire knife. After that the mice were permitted to survive for 4-6 weeks for partial reinnervation of the dentate gyrus before they were again operated and evoked potentials were measured (extracellular recordings of evoked potentials in the dentate gyrus). Non-lesioned litter-mate mice were taken as reference. The sprouting and the correct position of the electrodes was confirmed histologically.
For electrophysiological investigation we assessed laminar profiles and calculated a current-source density (CSD). In lesioned CAP23tg mice compared to lesioned WT mice this CSD-analysis revealed a significant enhancement of the current sink in the area of deafferentiation (outer molecular layer) and a significant excitation in the granule-cell layer.
Our results show that axonal sprouting seems to enhance the excitability of granule-cells. Thus, even if an enhanced axonal sprouting might accelerate the reinnervation of denervated dendrites after lesion, but it also leads to posttraumatic hyperexcitability of the neuronal network. In a therapeutic approach of fascilitating axonal sprouting this hyperexcitability has to be taken into consideration.
Die Wandreliefs aus dem Nordwest-Palast Aššurnasirpals II. (883-859 v. Chr.) in Nimrud zählen zu den forschungsgeschichtlich frühesten und bedeutendsten Funden des Alten Orients. Sie befinden sich heutzutage in zahlreichen Sammlungen weltweit und bieten durch ihre Darstellungen einen tiefgreifenden Einblick in die assyrische Kultur. Insbesondere Kontext und Position der Reliefs bieten Hinweise zur Bedeutung der dort angebrachten Figuren. Zwar ist eine ‚Schutzfunktion‘ vergleichbarer Repräsentationen textlich bezeugt – jedoch bisher nur unter Vorbehalt auf die Reliefdarstellungen zu übertragen. An dieser Stelle kann die Systematisierung ikonographischer Details in Abhängigkeit von ihrem Anbringungsort konzeptionelle Aspekte erkennbar machen.
Durch eine relationale Datenbank und dreidimensionale Visualisierungstechniken wird geprüft, ob die stilistische Variationsbreite ikonographischer Details eine potentielle Systematik aufweist; ebenso, bis zu welchem Grad die jeweilige Form eines bestimmten Zeichnungsdetails einem intentionalen Anbringungskonzept entspricht. Als Teil dieser Vorgehensweise fungiert die in diesem Zusammenhang generierte 3D-Rekonstruktion als methodisch unterstützende Maßnahme. Sie ermöglicht sowohl eine moderne Zusammenführung ehemals benachbarter Reliefplatten unabhängig ihres gegenwärtigen Aufbewahrungsortes als auch die Wiederherstellung heute kaum noch sichtbarer Gewandverzierungen und Pigmentreste.
Anhand der Ergebnisse wird deutlich, dass eine Systematisierung der Reliefdetails mittels 3D-Modell einen erweiterten Erkenntnisfortschritt impliziert und – nicht zuletzt aufgrund der zurückliegenden Zerstörungen der Palastruine und der damit verbundenen unwiederbringlichen Verluste – auch weitere Untersuchungen unterstützen können.
Die digitale Pathologie ist ein neues, aber stetig wachsendes, Feld in der Medizin. Die kontinuierliche Entwicklung von verbesserten digitalen Scannern erlaubt heute das Abscannen von kompletten Gewebeschnitten und Whole Slide Images gewinnen an Bedeutung. Ziel dieser Arbeit ist die Methodenentwicklung zur Analyse von Whole Slide Images des klassischen Hodgkin Lymphoms. Das Hodgkin-Lymphom, oder Morbus Hodgkin, ist eine Tumorerkrankung des Lymphsystems, bei der die monoklonalen Tumorzellen in der Regel von B-Lymphozyten im Vorläuferstadium abstammen.
Etwas mehr als 9.000 Hodgkin-Lymphom-Fälle werden jährlich in den USA diagnostiziert. Zwar ist die 5-Jahre-Überlebensrate für Hodgkin-Lymphome mit 85,3 % vergleichsweise hoch, dennoch werden etwa 1.100 Todesfälle pro Jahr in den USA registriert. Auf mikroskopischer Ebene sind die Hodgkin-Reed-Sternberg Zellen (HRS-Zellen) typisch für das klassische Hodgkin Lymphom. HRS-Zellen haben einen oder mehrere Zellkerne, die stark vergrößert sind und eine grobe Chromatinstruktur aufweisen. Immunhistologisch gibt es für HRS-Zellen charakterisierende Marker, so sind HRS-Zellen positiv für den Aktivierungsmarker CD30.
Neben der konventionellen Mikroskopie, ermöglichen Scanner das Digitalisieren von ganzen Objektträgern (Whole Slide Image). Whole Slide Images werden bisher wenig in der Routinediagnostik eingesetzt. Ein großer Vorteil von digitalisierten Gewebeschnitten bietet sich bei der computergestützten Analyse. Automatisierte Bildanalyseverfahren wie Zellerkennung können Pathologen bei der Diagnose unterstützen, indem sie umfassende Statistiken zur Anzahl und Verteilung von immungefärbten Zellen bereitstellen.
Die untersuchten immunohistologischen Bilder wurden vom Dr. Senckenbergisches Institut für Pathologie des Universitätsklinikums Frankfurt bereit gestellt. Die betrachteten Gewebeschnitte sind gegen CD30 immungefärbt, einem Membranrezeptor, welcher in HRS-Zellen und aktivierten Lymphozyten exprimiert wird. Die Gewebeschnitte wurden mit einem Aperio ScanScope slide scanner digitalisiert und liegen mit einer hohen Auflösung von 0,25 μm pro Pixel vor. Bei den vorliegenden Gewebeschnittgrößen ergeben sich Bilder mit bis zu 90.000 x 90.000 Pixeln.
Der untersuchte Bilddatensatz umfasst 35 Bilder von Lymphknotengewebeschnitten der drei Krankheitsbilder: Gemischtzelliges klassisches Hodgkinlymphom, noduläres klassisches Hodgkinlymphom und Lymphadenitis. Die Bildverarbeitungspipeline wurden teils neu implementiert, teils von etablierten Bilderkennungssoftware und -bibliotheken wie CellProfiler und Java Advanced Imaging verwendet. CD30-positive Zellobjekte werden in den Gewebeschnitten automatisiert erkannt und neben der globalen Position im Whole Slide Image weitere Morphologiedeskriptoren berechnet, wie Fläche, Feret-Durchmesser, Exzentrität und Solidität. Die Zellerkennung zeigt mit 84 % eine hohe Präzision und mit 95 % eine sehr gute Sensitivität.
Es konnte gezeigt werden, dass in Lymphadenitisfällen im Schnitt deutlich weniger CD30- positive Zellen präsent sind als in klassisches Hodgkinlymphom. Während hier im Schnitt nur rund 3.000 Zellen gefunden wurden, lag der Durchschnitt für das Mischtyp klassisches Hodgkinlymphom bei rund 19.000 CD30 positiven Zellen. Während die CD30-positiven Zellen in Lymphadenitisfällen relativ gleichmäßig verteilt sind, bilden diese in klassischen Hodgkinlymphom-Fällen Zellcluster höherer Dichte.
Die berechneten Morphologiedeskriptoren bieten die Möglichkeit die Gewebeschnitte und den Krankheitsverlauf näher zu beschreiben. Zudem sind bisher Größe und Erscheinungsbild der HRS-Zellen hauptsächlich anhand manuell ausgewählter Zellen bestimmt worden. Ein Maß für die Ausdehnung der Zellen ist der maximale Feret-Durchmesser. Bei CD30-Zellen im klassischen Hodgkinlymphom liegt dieser im Durchschnitt bei 20 μm und ist somit deutlich größer als die durchschnittlich gemessenen 15 μm in Lymphadenitis.
Es wurde ein graphentheoretischer Ansatz gewählt, um die CD30 positiven Zellen und ihre räumliche Nachbarschaft zu modellieren. In CD30-Zellgraphen von klassischen Hodgkinlymphom-Gewebeschnitten ist der durchschnittliche Knotengrad gegenüber den von Lymphadenitis-Bildern stark erhöht. Der Vergleich mit Zufallsgraphen zeigt, dass die beobachteten Knotengradverteilungen nicht für eine zufällige Verteilung der Zellen im Gewebeschnitt sprechen. Eigenschaften und Verteilung von Communities in CD30-Zellgraphen können hinzugenommen werden, um klassisches Hodgkinlymphom Gewebeschnitte näher zu charakterisieren.
Diese Arbeit zeigt, dass die Auswertung von Whole Slide Image unterstützend zur Verbesserung der Diagnose möglich ist. Die mehr als 400.000 automatisch erkannten CD30-positiven Zellobjekte wurden morphologisch beschrieben, und zusammen mit ihrer Position im Gewebeschnitt ist die Betrachtung wichtiger Eigenschaften des klassischen Hodgkinlymphoms realisierbar. Zellgraphen können durch weitere Zelltypen erweitert werden und auf andere Krankheitsbilder angewendet werden.
Pretubulysin (PT), a biosynthetic precursor of the myxobacterial compound tubulysin D, was recently identified as a novel microtubule-targeting agent (MTA) causing microtubule destabilization. MTAs are the most frequently used chemotherapeutic drugs. They are well studied regarding their direct cytotoxic effects against various tumors as well as for their anti-angiogenic and vascular-disrupting action addressing endothelial cells of the tumor vasculature. However, the impact of MTAs on endothelial cells of the non-tumor vasculature has been largely neglected, although tumor cell interactions with the healthy endothelium play a crucial role in the process of cancer metastasis. Besides their use as potent anti-cancer drugs, some MTAs such as colchicine are traditionally used or recommended for the therapy of inflammatory diseases. Here, too, the role of endothelial cells has been largely neglected, although the endothelium is crucially involved in regulating the process of inflammation.
In the present study, the impact of PT on tumor-endothelial cell interactions was therefore analyzed in vitro to gain insights into the mechanism underlying its anti-metastatic effect that was recently confirmed in vivo. In the second part of this work, the influence of PT and other MTAs, namely the microtubule-destabilizing compounds vincristine (VIN) and colchicine (COL) and the microtubule-stabilizing drug paclitaxel (PAC), on leukocyte-endothelial cell interactions was investigated in vitro and in vivo (only PT). It is important to mention that in all in vitro experiments solely endothelial cells and not tumor cells or leukocytes were treated with the MTAs to strictly focus on the role of the endothelium in the action of these compounds.
The impact of PT on tumor-endothelial cell interactions was analyzed in vitro by cell adhesion and transendothelial migration assays as well as immunocytochemistry using the breast cancer cell line MDA-MB-231 and primary human umbilical vein endothelial cells (HUVECs). The treatment of HUVECs with PT increased the adhesion of MDA cells onto the endothelial monolayer, whereas their transendothelial migration was reduced by the compound. Thereafter, the influence of PT on the endothelial cell adhesion molecules (CAMs) E-selectin, N-cadherin, ICAM-1, VCAM-1 and galectin-3 and on the CXCL12/CXCR4 chemokine system was examined, since they might be involved in the PT-triggered tumor cell adhesion. Interestingly, although PT induced the upregulation of ICAM-1, VCAM-1, N-cadherin and CXCL12, cell adhesion assays using neutralizing antibodies or the CXCL12 inhibitor AMD3100 revealed that all these molecules were dispensable for the PT-evoked tumor cell adhesion. As PT induces the formation of interendothelial gaps and MDA cells might adhere onto components of the underlying extracellular matrix (ECM), the precise location of MDA cells attached to the PT-treated endothelial monolayer was investigated. Instead of a direct interaction between tumor and endothelial cells, this work showed that MDA cells preferred to adhere to the ECM component collagen that was exposed within PT-triggered endothelial gaps. Both the PT-evoked increase in tumor cell adhesion onto and the decrease in trans-endothelial migration were completely abolished when β1-integrins were blocked on MDA cells. Similar results were obtained when endothelial cells were treated with VIN and COL but not PAC, indicating that the observed effects of PT depend on its microtubule-destabilizing activity.
The impact of PT, VIN, COL and PAC on leukocyte-endothelial cell interactions was analyzed in vivo (only PT) by intravital microscopy of the mouse cremaster muscle and in vitro by cell adhesion assays using the monocyte-like cell line THP-1 and TNFα-activated human dermal microvascular endothelial cells (HMEC-1). While PT did not affect the rolling of leukocytes on the endothelium, their firm adhesion onto and transmigration through the activated endothelium was reduced by PT in vivo. In accordance, the treatment of HMEC-1 with PT, VIN and COL decreased the TNFα-induced adhesion of THP-1 cells onto the endothelial monolayer, whereas PAC had no influence on this process. Thereafter, the influence of PT, VIN, COL and PAC on endothelial ICAM-1 and VCAM-1 was examined, since these molecules are substantially involved in the firm adhesion of leukocytes onto the endothelium. The cell surface protein expression of ICAM-1 and VCAM-1 was reduced by PT, VIN and COL in activated endothelial cells, whereas PAC did only slightly affect the TNFα-induced upregulation of VCAM-1. As the pro-inflammatory transcription factor NFκB plays a crucial role in the TNFα-induced expression of these CAMs, the impact of the MTAs on the NFκB promotor activity was investigated. While PT, VIN and COL decreased the activation of NFκB in activated endothelial cells, PAC did not affect this process. However, in contrast to the strong effects regarding the cell surface protein expression of ICAM-1 and VCAM-1, the effects of PT, VIN and COL on the NFκB activity was rather low. Thus, the used MTAs might also affect other relevant signaling pathways and/or the intracellular transport of CAMs might be influenced by the impact of the MTAs on the microtubule network.
Taken together, the current study provides – at least in part – an explanation for the anti-metastatic potential of PT and gives first insights into the use of PT and VIN as anti-inflammatory drugs. Moreover, this work highlights the endothelium as an attractive target for the development of new anti-cancer and anti-inflammatory drugs.
Die aktuelle Gesetzeslage fordert mit der im Rahmen der Gesundheitsreform 2007 eingeführten Versicherungspflicht und dem 2013 in Kraft getretenen Gesetz zur Beseitigung sozialer Überforderung bei Beitragsschulden in der Krankenversicherung eine Vollversicherung aller in Deutschland lebenden Personen. Die Erfahrungen aus medizinischen Versorgungseinrichtungen zeigen, dass dieses Ziel nicht erreicht wurde. Nach wie vor wird eine bedeutende Anzahl von Patienten ohne Krankenversicherung in Krankenhäusern, Arztpraxen und medizinischen Hilfseinrichtungen versorgt. In der vorliegenden Studie wird in einer praxisnahen Herangehensweise am Beispiel der Stadt Frankfurt am Main untersucht, wo die Ursachen dafür zu finden sind, wenn die Einbindung in das Regelsystem der Krankenversicherung nicht gelingt und wie sich dies auf die medizinische Versorgung der Betroffenen auswirkt.
Basierend auf einem qualitativen Studienkonzept wird das empirische Material mit Leitfadeninterviews erhoben und mit der qualitativen Inhaltsanalyse nach Gläser und Laudel ausgewertet. Die Auswahl der Interviewpartner erfolgt mittels Sampling über die Zusammenarbeit mit zwei medizinischen Hilfseinrichtungen als zentrale Kontakte im Forschungsfeld. Die 25 Patienteninterviews stellen eine exemplarische Auswahl an dort behandelten nichtversicherten Patienten dar. Die 21 Experteninterviews mit Gesprächspartnern aus den Arbeitsbereichen Hilfseinrichtungen, Krankenhäuser und Behörden bilden die unterschiedlichen Akteure und Sichtweisen im Handlungsfeld der Nichtversicherung ab. Mithilfe der qualitativen Inhaltsanalyse werden die erfassten Fälle rekonstruiert und auf ihre Kausalmechanismen hin analysiert.
Als Ergebnis der Untersuchung werden 13 Grundsituationen typischer Fälle von Nichtversicherung dargestellt und mit den strukturellen Rahmenbedingungen in Zusammenhang gebracht. Daraus werden die Entstehungsmechanismen von Nichtversicherung ersichtlich. Diese zeigen, dass das Fehlen der Krankenversicherung das Resultat einer multifaktoriellen Entwicklung ist. So wirken sich einerseits die individuellen Verhaltensweisen der Betroffenen sowie ihre jeweiligen Lebensum-stände, wie die berufliche Situation, die Wohnsituation, Herkunft, Aufenthaltsstatus und die gesundheitliche Situation, auf die Versicherungssituation aus. Andererseits kommt strukturellen Hürden eine wesentliche Bedeutung bei der Entstehung von Nichtversicherung zu. So lässt die Gesetzgebung in der Versicherungspflicht, dem Sozialleistungsbezug und im Aufenthaltsrecht Lücken, die zwar nicht notgedrungen zum Verlust der Krankenversicherung führen, aber in Wechselwirkung mit bestimmten Lebensumständen und Verhaltensweisen der einzelnen Personen die Eingliederung in das reguläre Versicherungssystem verhindern oder erschweren.
Im zweiten Teil der Studienergebnisse wird die Versorgungssituation für Patienten ohne Krankenversicherung beurteilt. Darin wird deutlich, dass Nichtversicherte im Vergleich zu regulär versicherten Personen schlechter medizinisch versorgt sind. Dies ist einem erschwerten Zugang zum Regelsystem der medizinischen Versorgung sowie den eingeschränkten Behandlungsmöglichkeiten im Hilfsnetz geschuldet. Trotz der gut ausgebauten Hilfestrukturen in Frankfurt am Main muss demnach die Versorgungs-situation für Nichtversicherte als unzureichend beurteilt werden.
Neben den Patienten sind auch die anderen Akteure von den Folgen des Nichtversichertseins betroffen. Dabei zeigen sich zwei gegensätzliche Perspektiven auf das Problemfeld. Auf der einen Seite stehen die hilfeleistenden Einrichtungen, die den Patienten eine medizinische Versorgung zukommen lassen, auf der anderen Seite die Kostenträger, die als Institutionen des Regelsystems diese medizinische Behandlung finanzieren. Die versorgenden Einrichtungen geraten in einen Konflikt zwischen ihrem Behandlungsauftrag, der sich aus der gesetzlich verankerten Behandlungspflicht und der ethischen Verantwortung den Patienten gegenüber ergibt, und dem wirtschaftli-chen Druck, der die Behandlungsmöglichkeiten bei unzureichender Finanzierung begrenzt. Die Kostenträger können ihre Zuständigkeit als Leistungsträger im Einzelfall prüfen und diese gegebenenfalls ablehnen. Da Nichtversicherte als unattraktive Kunden gelten, geht die Ablehnung meist mit einer Kostenersparnis einher und bedeutet somit für die Kostenträger keinen Nachteil. Die daraus entstehenden Versorgungsvakanzen werden wiederum vom Hilfsnetz aufgefangen.
Vor dem Hintergrund dieser Ergebnisse muss das Auftreten von Nichtversicherung als Problem gesehen werden, aus dem Handlungsbedarf hervorgeht, auch wenn die Gruppe der Nichtversicherten insgesamt nur einen kleinen Anteil an der Gesamtbevölkerung ausmacht. Die Zielsetzung dieser Studie ist es, eine fundierte Grundlage zu geben, auf der Lösungsansätze für die beschriebenen Konflikte erarbeitet werden können.
Mycophenolate-Mofetil (MMF) clinically used as CellCept is inserted as immunosuppressive xenobiotic drug for preventing transplantate rejection. It is well known that MMF works selectively through inhibiting the IMPDH which is an essential enzyme in the de novo pathway for biosynthesis of guanosine Nukleotides.
In this study, we investigated the effects of MMF on the astrocytes, because astrocytes are important glial cells of the CNS with various functions in the healthy tissue, such as being involved in the neuronal differentiation, axonal growth and regulation of the environmental composition. They also build up the scared tissue during acute CNS lesions by releasing neurotoxic substances such as NO and different inflammatory Zytokines, e.g. IL-1ß and TNF-a, which even influence the microglial cell proliferation, migration and activity. Therefore, astrocytes are impressingly involved in the extent of the neuronal damage.
Our observations revealed an influence of astrocytic proliferation dependent on the concentration of the serum (10%, 5%, 2%, 1% and serum free medium) used for the in vitro cultivation: the more the serum part in the medium the more the extent of the cell proliferation. The proliferation of astrocytes cultured in serum free medium can be increased by Corticotropin Releasing Factor (CRF) 10µM and Guanosine application. Dose-dependent MMF led to a suppression of the astrocytic proliferation which is antagonisable with Guanosine only.
The number of the isolated proliferating astrocytes labeled by BrdU was significantly reduced after simultaneous treatment with serum (10% or 1%) and dose-dependent MMF (10µg/ ml, 1µg/ ml and 0,1µg/ ml) application, whereas LPS showed no effect on the proliferating rate. But, as measured by ELISA, with LPS conditioned medium contained relevant amounts of TNF-a and NO, but surprisingly not of IL-1ß. There were a significant reduction of cytokine and NO amounts determined in the astrocytic conditioned medium treated only with MMF dependent of the concentration (10µg/ml, 1µg/ml and 0,1µg/ml). Even the simultaneous treatment with LPS and MMF revealed compared to the LPS stimulated astrocytic group a measurable significant decrease of TNF-a. The treatment of the astrocytic cultures with guanosine lifted up the effects of MMF on TNF-a secretion. Therefore, we conclude, that the immunosuppressive drug MMF might have a neuroprotective and scar formation modulating effect through the antiproliferative potency on astrocytic cells and modulating character of the microenvironment by influencing the TNF-a secretion. Moreover, these regulatory effect on microglial cells are described as suppression (Hailer NP,Wirjatijana F,Roser N,Hirschebeth GT,Korf HW,Dehghani F,2001).
Entwicklung von Immunisierungsstrategien zur Induktion hoher funktionaler Antikörperantworten
(2018)
Neuartige Viren und Erreger, die sich antigenetisch tiefgreifend von bekannten Varianten unterscheiden, können verheerende Epidemien auslösen, da weder gegen diese Erreger eine Immunität in der Bevölkerung besteht, noch prophylaktische oder therapeutische Maßnahmen verfügbar sind. Eine prophylaktisch vermittelte Immunität durch Impfung stellt die bei Weitem effektivste Methode zur Vorbeugung viraler Infektionen dar, jedoch sind die Entwicklungs- und Herstellungszeiten eines neuen Impfstoffs in der Regel mit der Ausbruchsdynamik nicht kompatibel. Inzwischen steht zwar eine überschaubare Anzahl antiviraler Medikamente zur Verfügung, doch ist die Wahrscheinlichkeit gering, dass diese meist hoch spezifischen Wirkstoffe gegen neu auftretende Viren aktiv sind. Das beispiellose Ausmaß der Ebola-Epidemie 2014 führte zum Einsatz experimenteller antikörperbasierter Therapien, welche das Potential der passiven Vermittlung von temporärem Immunschutz naiver Personen verdeutlicht. Für viele neuartige Viren ist die Entwicklung von Therapieansätzen allerdings noch nicht entsprechend weit fortgeschritten. Zudem bedingt eine Verwendung des eigentlichen Erregers oft hohe Sicherheitsmaßnahmen, was die Arbeit erschwert. Aus diesem Grund werden Notfalltherapien benötigt, die schnell in klinisch relevanter Qualität und Quantität unter niedrigen biologischen Sicherheitsmaßnahmen produziert werden können.
Diese Arbeit basiert auf der zentralen Hypothese, dass die Induktion von hohen Titern funktioneller Antikörperantworten die Basis für einen breiteren Schutz gegen antigenetisch entferntere Virusstämme sowie für die schnelle Produktion von therapeutischen Antiseren darstellt.
Um diese Hypothese zu testen und Einblicke in verschiedene Aspekte dieses Prozesses zu bekommen, wurde zunächst die Nutzung von Adjuvanzien als Zusätze für Impfstoffe am Beispiel des pandemischen A(H1N1)pdm09-Impfstoffs untersucht. Neben den alljährlichen Epidemien, die von saisonalen Influenza-A-Viren der Subtypen H1N1 oder H2N3 verursacht werden, können neuartige Subtypen zu weltweiten Pandemien führen. Während die saisonalen Influenza-Impfstoffe in der Regel keine Adjuvanzien enthalten, wurden einige pandemische H1N1-Impfstoffe aus 2009 mit einem reduzierten Antigengehalt formuliert und mit squalenbasierten Adjuvanzien kombiniert, um eine ausreichende Wirksamkeit bei größerer Verfügbarkeit zu gewährleisten. Zur Charakterisierung des Effekts dieser Adjuvanzien auf die Immunantworten wurden Frettchen mit 2 µg des kommerziellen H1N1pmd09-Impfstoffes alleine sowie in Kombination mit verschiedenen Adjuvanzien immunisiert, die Antikörpertiter gegen homologe und heterologe Influenzastämme untersucht und mit dem Schutz vor einer Infektion korreliert. Dabei zeigte sich, dass die Verwendung squalenbasierter Adjuvanzien die funktionalen Antikörperantworten um das 100-fache erhöhte und zu einer signifikant reduzierten Viruslast nach der Infektion mit dem homologen pandemischen Virus führte. Während in keiner Gruppe Antikörper gegen die heterologen Hämagglutinin-(HA-)Proteine H3, H5, H7 und H9 nachweisbar waren, induzierten mit squalenbasierten Adjuvanzien kombinierte Impfstoffe subtypenspezifische Antikörper gegen das N1 Neuraminidase-(NA-)Protein einschließlich H5N1. Darüber hinaus führte die Immunisierung mit squalenbasierten Adjuvanzien zu einer besseren Kontrolle der Influenzavirus-Replikation in den oberen Atemwegen.
Anschließend wurde im zweiten Teil dieser Arbeit unter Einbeziehung der gewonnenen Erkenntnisse eine Immunisierungsstrategie zur schnellen Produktion therapeutischer Hyper-immunseren entwickelt, wobei unterschiedliche Antigenexpressionssysteme miteinander verglichen wurden. Während in den frühen Stadien eines Ausbruchs Rekonvaleszenzseren nicht ohne weiteres verfügbar sind, können Antiseren tierischen Ursprungs innerhalb eines kurzen Zeitraums hergestellt werden. Die Herausforderung liegt in der schnellen Induktion einer schützenden Immunität, wobei die effiziente Produktion und Reinigung von Hyperimmunserum in klinisch relevanten Mengen ebenso essenziell ist wie die Anpassungsfähigkeit der Immunisierungsstrategie an neue oder hinsichtlich ihrer Antigenizität veränderte Viren. Hierzu wurden verschiedene Immunisierungsstrategien in Mäusen und Kaninchen verglichen, die unterschiedliche Expressionssysteme für das Modellantigen Ebolavirus-Glykoprotein (EBOV-GP) verwenden: (i) Ebolavirus-ähnliche Partikel (VLP), (ii) das rekombinante modifizierte Vacciniavirus Ankara (MVA) sowie (iii) das rekombinante Virus der vesikulären Stomatitis (VSV). Im Ergebnis induzierte eine dreimalige Immunisierung mit VLPs in Kombination mit squalenhaltigem Adjuvans neutralisierende Antikörpertiter, die vergleichbar mit der Immunisierung mit replikationskompetentem VSVΔG/EBOV-GP waren. Dies deutet darauf hin, dass nicht die De-novo-Antigenexpression, sondern vielmehr die mehrfache Präsentation des Antigens in nativer Konformation für die Produktion von neutralisierenden Antikörpern essenziell ist. Darüber hinaus waren die funktionalen Antikörpertiter aller Kaninchenseren in der In-vitro-Analyse gegen das Wildtypvirus 10- bis 100-fach höher als der Durchschnitt, der in mit VSVΔG/EBOV-GP geimpften Probanden beobachtet wurde. Die Etablierung eines optimierten mehrstufigen Reinigungsverfahrens unter Verwendung einer zweistufigen Ammoniumsulfat-Präzipitation, gefolgt von einer Protein-A-Affinitätschromatographie, führte zu aufgereinigten IgG-Präparationen mit nahezu unveränderter neutralisierender Aktivität, die über neun Tage im xenogenen In-vivo-Modell stabil waren. Die signifikante Erhöhung von totalen und funktionalen Antikörpertitern in Kombination mit einer größeren Breite der Antikörperantwort im Kontext von squalenbasierten Adjuvanzien stützt die Hypothese dieser Arbeit. Adjuvantierte Immunisierungsstrategien sind damit ein vielversprechender Ansatz nicht nur zur Wirksamkeitssteigerung von Subunit- und Proteinimpfstoffen, sondern auch zur schnellen Herstellung von therapeutischen Antiseren.
Der ligandaktivierte Transkriptionsfaktor Farnesoid X Rezeptor (FXR) ist neben seiner Funktion als Regulator des Gallensäurehaushaltes auch in vielen anderen metabolischen Prozessen wie Glukose- und Lipidhomöostase involviert und besitzt antiinflammatorische Eigenschaften. Gerade bei hepatischen, gastrointestinalen und systemischen Erkrankungen erscheint FXR daher als interessante Zielstruktur zur Behandlung metabolischer Erkrankungen. Basierend auf den natürlichen Liganden von FXR, den Gallensäuren, wurde Obeticholsäure (OCA) als seminsynthetisches Derivat der endogenen Chenodesoxycholsäure zu einem potenten FXR-Agonisten entwickelt. OCA wurde in mehreren Studien auf seine therapeutische Wirkung bei hepatisch-entzündlichen Krankheitsbildern wie der primären biliären Cholangitis (PBC), der nicht-alkoholischen Fettleber (engl: non-alcoholic fatty liver disease, NAFLD) und der daraus folgenden nicht-alkoholischen Steatohepatitis (NASH) getestet. Mittlerweile ist OCA als Zweitlinientherapie der PBC auf dem Arzneimittelmarkt zuge-lassen. Neben OCA gibt es noch eine große Anzahl an weiteren FXR-Liganden, deren strukturelle Diversität von Steroiden bis nicht-steroidalen kleinen Molekülen (engl: small molecules) reicht. Trotz dieser Erfolge muss das Therapiepotential von FXR noch weiter ausgebaut werden. Die meisten verfügbaren Liganden besitzen in vitro zwar eine hohe Potenz, können in ihrem pharmakokinetischen Profil oder ihrer Selektivität gegenüber anderen nukleären Rezeptoren aber nicht überzeugen.
Die hier vorliegende Arbeit hat sich mit der Entwicklung unterschiedlicher Liganden für FXR beschäftigt und diese in vitro und teilweise auch in vivo charakterisiert, um sie entsprechend ihrer Wirkungsweise einzuordnen und ein besseres Verständnis der regulatorischen Funktion von FXR zu erlangen.
Modulation von FXR bezieht sich nicht nur auf die agonistische Aktivierung, sondern setzt sich auch mit Antagonismus auseinander. Neben einigen Krankheitsbildern, die aus einer Überexpression von FXR resultieren, werden Antagonisten als Werkzeug (engl: tool compound) zur Aufklärung von konformellen Veränderungen von FXR und deren Auswirkung auf bestimmte Signalwege benötigt. Für die Erforschung solcher FXR-Antagonisten sollte das Potential nicht-steroidaler Antirheumatika (engl: non-steroidal anti-rheumatic drugs, NSAIDs) als etwaige Leitstrukturen untersucht werden, da in einer Veröffentlichung von Lu et al. ein FXR-Antagonismus durch NSAIDs postuliert wurde. Beim Versuch der Reproduktion der Ergebnisse von Lu et al. mit den drei NSAIDs Ibuprofen, Indometacin und Diclofenac wurde festgestellt, dass die Effekte auf den ersten Blick antagonistisch erscheinen, aber bei genaueren biochemischen Untersuchungen zweifelsfrei als Zytotoxizität identifiziert wurden.
FXR-Antagonisten wie Guggulsteron oder Gly-MCA sind auf ihre therapeutische Wirksamkeit unter-sucht worden, aber die genaue Wirkweise ist noch nicht aufgeklärt. Aufgrund ihrer steroidalen Grundstruktur ist ihre Selektivität gegenüber anderen nukleären Rezeptoren fraglich. Die überschaubare Anzahl an publizierten nicht-steroidalen FXR-Antagonisten besitzt zwar moderate IC50-Werte, ihre strukturelle Diversität und Selektivität ist aber limitiert. Zur Entwicklung neuer potenter FXR-Antagonisten, die aus kleinen Molekülen (engl: small molecules) aufgebaut sind, wurde eine N-Phenylbenzamid-Leitstruktur ausgewählt. Diese Leitstruktur wurde im Rahmen der SAR-Unter-suchungen zur Entwicklung von Anthranilsäurederivaten als FXR-Partialagonisten innerhalb des Arbeitskreises entdeckt. Ausgehend von dieser Leitstruktur wurde eine mehrstufige, systematische SAR-Untersuchung durchgeführt, wodurch ein sehr potenter FXR-Antagonist entwickelt werden konnte, der anschließend umfangreich biochemisch auf FXR-Modulation, Selektivität, Löslichkeit, Toxizität und metabolische Stabilität charakterisiert wurde.
Neben dem Verständnis eines Modulationsmechanismus ist die konkrete Anwendung eines FXR-Liganden zu therapeutischen Zwecken von großem Interesse. Die Beteiligung von FXR in unterschiedlichen metabolischen Prozessen macht den Rezeptor zu einem begehrten Ansatzpunkt für die Wirkstoffentwicklung. Doch die Behandlung eines multifaktoriellen Krankheitsbildes (z.B. metabolisches Syndrom, NASH) sollte sich nicht nur auf einen der gestörten Signalwege beziehen, da diese Erkrankungen durch mehrere Faktoren ausgelöst oder beeinflusst werden. Der semisynthetische FXR-Agonist OCA zeigte innerhalb der FLINT-Studie sowohl antientzündliche und antifibrotische Effekte, als auch eine Verbesserung der metabolischen Parameter mit Blick auf NAFLD und NASH. Die lösliche Epoxidhydrolase (engl: soluble epoxidhydrolase, sEH) besitzt nachweislich anti-inflammatorische und antisteatotische Effekte in der Leber. Aus diesem Grund wurde eine Leitstruktur entwickelt, die eine duale Modulation aus FXR-Aktivierung und sEH-Inhibition erzeugt. Dafür wurden die Pharmakophore eines im Arbeitskreis entwickelten FXR-Partialagonisten sowie eines potenten sEH-Inhibitors miteinander verknüpft. Zur Weiterentwicklung einer ausgewogenen hohen Potenz beider Modulationsfaktoren wurden mehrere unterschiedliche SAR-Untersuchungen als translationales Projekt in mehreren Arbeiten durchgeführt. In der hier vorliegenden Arbeit konnten dieses SAR-Untersuchungen zusammengeführt und weiterentwickelt werden. Dabei wurde ein ausgewogener und hochpotenter dualer Modulator erhalten, der umfassend in vitro und in vivo charakterisiert wurde. Die gezielte duale Aktivität, die mit dieser Substanz erreicht wurde, führt in einem Krankheitsbild zu synergistischer Ergänzung zweier Therapieoptionen. Jedoch kann eine unerwünschte Promiskuität über verwandten nukleären Faktoren zu Nebenwirkungen führen. Die Ursache dafür kann eine saure Funktion darstellen. Ein sehr potenter nicht-azider FXR-Agonist mit einem subnanomolaren EC50-Wert konnte im Arbeitskreis entwickelt werden. Diese Verbindung ist FXR-selektiv, hat keinen toxischen Effekt auf HepG2-Zellen und eine moderate metabolische Halbwertszeit. Die qRT-PCR-Untersuchung direkter und indirekter FXR-Zielgene zeigte eine verstärkte Expression nach der Inkubation mit der nicht-aziden Substanz. Dadurch lässt sich das Prinzip der Nebenwirkungsminderung durch nicht-azide Verbindungen beweisen.
Insgesamt konnte in dieser Arbeit gezeigt werden, wie vielfältig und vielversprechend eine FXR-Modulation aufgebaut sein kann. Zum einen konnte über eine ausgeprägte biochemische Evaluation eine Differenzierung zwischen FXR-Antagonismus und Zelltoxizität bewiesen werden, worauf sich aufbauend eine genaue in vitro-Charakterisierung von neuen N-phenylbenzamidbasierten FXR-Antagonisten durchführen ließ, die ausgehend von einer moderat potenten Leitstruktur zu einer sehr potenten optimierten Substanz entwickelt wurden. FXR-Antagonismus und die dazu passenden tool compounds sind nicht nur von Bedeutung zum besseren Verständnis der unterschiedlichen Bindungsmodi des FXR, sondern auch potentielle Therapieansätze zur Behandlung von Krankheiten, in denen eine FXR-Überexpression stattfindet. Die agonistische Modulation von FXR wurde genauer betrachtet in der in vitro-Untersuchung nicht-azider FXR-Agonisten, die durch das Fehlen einer sauren Funktion ein hohes Maß an Selektivität und dabei eine geringe Toxizität aufwiesen. Synergistische Effekte zur Behandlung eines multifaktoriellen Krankheitsbildes durch die Kombination von FXR-Partialagonismus und sEH-Inhibition konnte durch die Entwicklung der potenten und balancierten Substanz sowohl in vitro als auch in vivo bewiesen werden, wodurch diese Verbindung ein vielversprechender Kandidat für weitere klinische Entwicklung ist.
To date, chemicals are used ubiquitous in everyday life and an increasing consumption of pharmaceuticals and personal care products and industrial chemicals results in an increased water pollution. Conventional wastewater treatment plants are not able to completely remove the variety of (polar) organic compounds from today’s wastewater and thus serve as constant key point sources for the unintentional release of (micro-)pollutants into the aquatic environment. Anthropogenic micropollutants are detectable in very low concentrations in almost every aquatic compartment and may cause adverse effects on aquatic organisms. Considering the current situation of water pollution and to enhance water quality with regard to environmental and human health, the implementation of advanced wastewater treatment technologies, such as ozonation and activated carbon filtration was extensively discussed and investigated in recent years. Yet, besides their advantages regarding the efficient removal of a variety of recalcitrant, organic compounds as well as pathogens from the wastewater, it is known that especially the treatment with ozone may lead to the formation of largely unknown ozonation by-products with often unknown toxicity and unknown threats to human and the environment. To address these topics the joint research project TransRisk aimed at the “characterization, communication and minimization of risks originating from emerging contaminants and pathogens in the water cycle”. Within this research project the present thesis focuses on the ecotoxicological investigation of emerging waterborne contaminants, including their potential transformation products (TPs). Additionally, focus was laid on the investigation of combined effects of anthropogenic contaminants and pathogens with effects especially on aquatic invertebrate organisms.
The potential ecotoxicological effects of the antiviral drug acyclovir and two of its structurally identified TPs, were investigated on three aquatic organisms (Raphidocelis subcapitata, Daphnia magna and embryos of Danio rerio). While the parent compound acyclovir caused no acute toxicity up to a tested concentration of 100 mg/l on any of the investigated organisms, both TPs were shown to exhibit an increased aquatic toxicity. Carboxy-acyclovir, the biodegradation product of acyclovir, significantly reduced reproduction of D. magna by 40% at 102 mg/l, and the ozonation product COFA significantly inhibited growth of green algae R. subcapitata (EC10 = 14.1 mg/l). In the present case, advanced wastewater treatment was shown to lead to the formation of TPs, that reveal a higher toxicity towards investigated organisms, than the parent compound. Results highlight the necessity of further research related to the topic of identification and characterization of TPs, formed during advanced wastewater treatment processes.
To investigate the potential reduction or enhancement of toxic effects of nine differently treated wastewater effluents, selected bioassays with Daphnia magna, Lumbriculus variegatus and Lemna minor were conducted in flow-through test systems on a pilot treatment plant. The different treatment processes included ozonation of conventional biological treatment, with subsequent filtration processes as well as membrane bioreactor treatment in combination with ozonation. While exposure to the conventionally treated wastewater did not result in significant impairing effects on D. magna and L. minor, a reduced abundance of L. variegatus (by up to 46%) was observed compared to the medium control. Subsequent ozonation and additional filtration of the wastewater enhanced water quality, visible in an improved performance of L. variegatus. In general, direct evidence for the formation of toxic TPs due to the advanced wastewater treatments was not found, at least not in concentrations high enough to cause measurable effects in the investigated test systems. Additionally, no evidence for immunotoxic effects of the investigated wastewater effluents were observed. Yet, study-site- and species-specific effects hindered the definite interpretation of results. That underline the importance of a suitable test battery consisting of representatives of different taxonomic groups and trophic levels, to ensure a comprehensive evaluation of the complex matrix of wastewater and to avoid false-negative or false-positive results.
With aim to improve knowledge regarding immunotoxicity in invertebrates, the potential immunotoxic effects of the immunosuppressive pharmaceutical cyclosporine A (CsA) were investigated by applying the host-parasite model system Daphnia magna – Pasteuria ramosa in an adapted host resistance assay. Co-exposure to CsA and Pasteuria synergistically affected long-term survival of D. magna. Additionally, the enhanced virulence of the pathogen upon chemical co-exposure was expressed in synergistically increased infection rates and an increased speed of Pasteuria-induced host sterilization. In conclusion, results provide evidence for a suppressed disease resistance in a chemically stressed invertebrate host, highlighting the importance of investigating the conjunction of environmental pollutants and pathogens in the environmental risk assessment of anthropogenic pollutants.
Einleitung: Die häufigste Komplikation nach einer totalen Thyreoidektomie ist der postoperative sekundäre Hypoparathyreoidismus. Eine Prävention dieser Komplikation wäre erstrebenswert. Nicht nur dass die Patienten unter den Symptomen (wie z.B. Kribbelparästhesien) leiden, auch der Krankenhausaufenthalt wird meist verlängert und es wird ein höherer Aufwand an diagnostischen Maßnahmen und Medikamenten in der Folge notwendig.
Um das Auftreten des sekundären Hypoparathyreoidismus einzuschränken sind schon einige Studien durchgeführt worden, die u.a. ein erhöhtes Risiko für Patienten mit einem präoperativen Vitamin D3-Defizit aufzeigten.
Der Einfluss dieses Vitamin D3-Defizits wird in der vorliegenden prospektiven, multizentrischen, randomisiert kontrollierten Studie näher untersucht. Es sollte geklärt werden, ob eine präoperative Prophylaxe mit Vitamin D3 eine Verminderung der Hypokalzämierate gegenüber einer Kontrollgruppe bewirken kann.
Da sich der sekundäre Hypoparathyreoidismus als multifaktorielles Geschehen darstellt, sind in dieser Studie weitere Risikofaktoren untersucht worden.
Zusätzlich sollten eine Veränderung der Lebensqualität und die Belastung der Patienten durch Hypoparathyreoidismus-Symptome beurteilt werden.
Material und Methoden: Im Zeitraum vom 23.07.2014 bis zum 26.10.2016 wurden 246 Patienten an sechs verschiedenen Kliniken rekrutiert. Das Durchschnittsalter der 61 Männer und 185 Frauen lag bei 49 Jahren (Min.: 22 Jahre, Max.: 81 Jahre). Alle Patienten unterzogen sich einer totalen Thyreoidektomie als Ersteingriff an der Schilddrüse.
Die Patienten wurden in zwei Gruppen randomisiert, wobei die Interventionsgruppe präoperativ über drei Tage eine Vitamin D3–Prophylaxe (0,5µg, jeweils morgens und abends) einnahm. Neben dieser Intervention wurde nicht in die standardmäßige Behandlung der Patienten eingegriffen, um eine möglichst praxisnahe Untersuchung zu gewährleisten.
Bei allen Patienten wurde präoperativ und mindestens am ersten Tag postoperativ der Serumcalcium-Wert bestimmt. Der Beobachtungszeitraum erstreckte sich über ca. 30 Tage postoperativ, in dem auch weitere Parameter untersucht wurden. U.a. wurden die Patienten gebeten den SF-36-Fragebogen nach Bullinger et al (1) und den Hypoparathyreoidismus-Fragebogen nach Bohrer et al (2) auszufüllen. Mit diesen Fragebögen sollten die empfundene Lebensqualität der Patienten und die Belastung durch Hypoparathyreoidismus-Symptome abgefragt werden.
Ergebnisse: Die Untersuchungsgruppen zeigten keinen signifikanten Unterschied in Bezug auf das Auftreten einer postoperativen Hypokalzämie. Insofern eine Hypokalzämie auftrat, konnte die Normokalzämie in der Interventionsgruppe signifikant schneller erreicht werden. Aufgrund dieses Ergebnisses konnte eine NNT für jede Klinik errechnet werden. Diese Werte ließen eine Skalierung zu, durch die jedes Klinikum für sich eine Nützlichkeit der Intervention anhand der Hypokalzämie-Rate errechnen kann.
Herausgefunden werden konnte ebenfalls, dass die Kliniken signifikant unterschiedliche Hypokalzämie-Raten aufwiesen. Je nach Hypokalzämie-Rate der Klinik bewirkte die Intervention abweichende Veränderungen (von einer Verschlechterung um 20% bis zu einer Verbesserung um 24, 6%).
Zu den signifikanten Risikofaktoren für eine postoperative Hypokalzämie zählten in dieser Studie das weibliche Geschlecht, ein relativ junges Alter (44,7 ±10,6 Jahre im Gegensatz zu 50,5 ±12 Jahre) und die intraoperative Identifizierung von mehr als drei Nebenschilddrüsen. Weiterhin zeigte sich, dass sich bei hypokalzämen Patienten der Krankenhausaufenthalt signifikant verlängerte.
Beim SF-36-Fragebogen zeigte sich ein signifikanter Unterschied zwischen den prä- und postoperativen Werten der Frauen. Der Belastungsscore des Hypoparathyreoidismus-Fragebogens hingegen zeigte nur bei den Frauen der Interventionsgruppe eine signifikante Verbesserung zu den präoperativen Werten.
Schlussfolgerung: Die prophylaktische Vitamin D3-Gabe präoperativ konnte zwar keine Verminderung der Hypokalzämie-Rate in der Interventionsgruppe bewirken, aber bei aufgetretener Hypokalzämie eine schnellere Erholung des Calcium-Spiegels bewirken. Die postoperative Belastung durch Hypokalzämiesymptome wurde durch die Vitamin D3-Prophylaxe von Frauen signifikant gemildert empfunden. Eine Vitamin D3-Prophylaxe ist daher empfehlenswert. Der Nutzen der Intervention steigt allerdings mit der jeweiligen institutionellen Hypokalzämie-Rate. Bemerkenswert ist, dass die Kliniken sich in vielen Parametern gleichen, aber letztlich das chirurgische Vorgehen den größten Einfluss auf die Hypokalzämie-Rate zu haben scheint und die Intervention in Form der Gabe einer Vitamin D3-Prophylaxe überlagert hat.
Universities typically offer video-based courses and internships to prepare prospective teachers for classroom management. Empirical studies have shown the effectiveness of analyzing video clips in programs for teacher training. However, no empirical studies have explored the relationship between the teaching experience of prospective teachers and the effectivity of video-based courses on classroom management. The research question was: How can classroom management competency be effectively conveyed in video-based courses regarding the differences in practical experiences of prospective teachers. Theory on cognitive load and situated learning suggests that prospective teachers with teaching experience could benefit more from a situated instructional strategy, whereas prospective teachers without this experience benefit more from a cognitive instructional strategy.
The sample consisted of a total of 87 prospective teachers belonging to a first cohort that had participated in an internship and a second cohort that had not yet participated. Participants of both cohorts were randomly assigned to a course following one of the two instructional strategies. A video test was designed to assess classroom management competence. Additionally, measurements of prospective teachers’ attentiveness and their self-efficacy at the start of the internship were included.
The study showed a significant main effect between pretest and posttest. However, neither a significant difference in the effectiveness between the two instructional strategies nor between the two cohorts was found (first order). Also, the effectiveness of the instructional strategy was not influenced by the availability of teaching experience (second order). Scores on the video test were not significantly related to prospective teachers’ attentiveness. The prospective teachers that participated in the course before participation in the internship rated their own classroom management significantly lower than the prospective teachers that participated in the course after participating in their internship.
These results firstly indicate that there was no significant difference in cognitive load between the groups, implying that both instructional strategies are suitable for the conveying of classroom management competence within universities. Secondly, the current study has found no evidence that the trait of attentiveness influences prospective teachers’ performance within video tests. Thirdly, these results give reason to believe that the valid assessment of self-efficacy on classroom management depends on the degree of familiarity with the topic, for example, through previous dealings within video-based courses. The limited reliability of the new video test should be taken into account when interpreting the results of the current study.
Die Analyse von DNA-Sequenzen steht spätestens seit der Feststellung ihrer tragenden Rolle in der Vererbung organismischer Eigenschaften im Fokus biologischer Fragestellungen. Seit Kurzem wird mit modernsten Methoden die Untersuchung von kompletten Genomen ermöglicht. Dies eröffnet den Zugang zu genomweiten Informationen gegenüber begrenzt aussagekräftigen markerbasierten Analysen. Eine Genomsequenz ist die ultimative Quelle an organismischer Information. Allerdings sind diese Informationen oft aufgrund technischer und biologischer Gründe komplex und werfen meist mehr Fragen auf, als sie beantworten.
Die Rekonstruktion einer bislang unbekannten Genomsequenz aus kurzen Sequenzen stellt eine technische Herausforderung dar, die mit grundlegenden, aber in der Realität nicht zwingend zutreffenden Annahmen verbunden ist. Außerdem können biologische Faktoren, wie Repeatgehalt oder Heterozygotie, die Fehlerrate einer Assemblierung stark beeinflussen. Die Beurteilung der Qualität einer de novo Assemblierung ist herausfordernd, aber zugleich äußerst notwendig. Anschließend ist eine strukturelle und funktionale Annotation von Genen, kodierenden Bereichen und repeats nötig, um umfangreiche biologische Fragestellungen beantworten zu können. Ein qualitativ hochwertiges und annotiertes assembly ermöglicht genomweite Analysen von Individuen und Populationen. Diese Arbeit beinhaltet die Assemblierung und Annotation des Genoms der Süßwasserschnecke Radix auricularia und eine Studie vergleichender Genomik von fünf Individuen aus verschiedenen molekularen Gruppen (MOTUs).
Mollusken beherbergen nach den Insekten die größte Artenvielfalt innerhalb der Tierstämme und besiedeln verschiedenste, teils extreme, Habitate. Trotz der großen Bedeutung für die Biodiversitätsforschung sind verhältnismäßig wenige genomische Daten öffentlich verfügbar. Zudem sind Arten der Gattung Radix auch aufgrund ihrer großen geografischen Verbreitung in diversen biologischen Disziplinen als Modellorganismen etabliert. Eine annotierte Genomsequenz ermöglicht über bereits untersuchte Felder hinaus die Forschung an grundlegenden biologischen Fragestellungen, wie z.B. die Funktionsweise von Hybridisierung und Artbildung. Durch Assemblierung und scaffolding von sechs whole genome shotgun Bibliotheken verschiedener insert sizes und einem transkriptbasiertem scaffolding konnte trotz des hohen Repeatgehalts ein vergleichsweise kontinuierliches assembly erhalten werden. Die erhebliche Differenz zwischen der Gesamtlänge der Assemblierung und der geschätzten Genomgröße konnte zum Großteil auf kollabierte repeats zurückgeführt werden.
Die strukturelle Annotation basierend auf Transkriptomen, Proteinen einer Datenbank und artspezifisch trainierten Genvorhersagemodellen resultierte in 17.338 proteinkodierenden Genen, die etwa 12,5% der geschätzten Genomgröße abdecken. Der Annotation wird u.a. aufgrund beinhaltender Kernrthologen, konservierter Proteindomänenarrangements und der Übereinstimmung mit de novo sequenzierten Peptiden eine hohe Qualität zugesprochen.
Das mapping der Sequenzen von fünf Radix MOTUs gegen die R. auricularia Assemblierung zeigte stark verringerte coverage außerhalb kodierender Bereiche der nicht-Referenz MOTUs aufgrund hoher Nukleotiddiversität. Für 16.039 Gene konnten Topologien berechnet werden und ein Test auf positive Selektion ausgeführt werden. Insgesamt konnte über alle MOTUs hinweg in 678 verschiedenen Genen positive Selektion detektiert werden, wobei jede MOTU ein nahezu einzigartiges Set positiv selektierter Gene beinhaltet. Von allen 16.039 untersuchten Genen konnten 56,4% funktional annotiert werden. Diese niedrige Rate wird vermutlich durch Mangel an genomischer Information in Mollusken verursacht. Anschließende Analysen auf Anreicherungen von Funktionen sind deshalb nur bedingt repräsentativ.
Neben den biologischen Ergebnissen wurden Methoden und Optimierungen genomischer Analysen von Nichtmodellorganismen entwickelt. Dazu zählen eigens angefertigte Skripte, um beispielsweise Transkriptomalignments zu filtern, Trainings eines Genvorhersagemodells automatisiert und parallelisiert auszuführen und Orthogruppen bestimmter Arten aus einer Orthologievorhersage zu extrahieren. Zusätzlich wurden Abläufe entwickelt, um möglichst viele vorhandene Daten in die Assemblierung und Annotation zu integrieren. Etwa wurde ein zusätzliches scaffolding mit eigens assemblierten Transkripten mehrerer MOTUs sequenziell und phylogenetisch begründet ausgeführt.
Insgesamt wird eine umfassende und qualitativ hochwertige Genomsequenz eines Süßwassermollusken präsentiert, welche eine Grundlage für zukünftige Forschungsprojekte z.B. im Bereich der Biodiversität, Populationsgenomik und molekularen Ökologie bietet. Die Ergebnisse dieser Arbeit stellen einen Wissenszuwachs in der Genomik von Mollusken dar, welche bisher trotz ihrer Artenvielfalt deutlich unterrepräsentiert bezüglich assemblierter und annotierter Genome auffallen.
Das Hodgkin Lymphom besteht aus zwei verschiedenen Typen, dem klassischen Hodgkin Lymphom (cHL) mit einem Anteil von 95% und dem nodulären lymphozytenprädominanten Hodgkin Lymphom (NLPHL). Letzteres kann sehr unterschiedliche histopathologische Wachstumsmuster zeigen, die nach Fan et al. grob in ein typisches knotiges (Muster A) und in atypische diffuse Wachstumsmuster (Muster C und E) unterteilt werden können. Patienten mit einem NLPHL, das zum diffus wachsenden Subtyp zählt, präsentieren sich häufiger in klinisch fortgeschrittenen Stadien als jene Patienten mit einem NLPHL, das ein knotiges Wachstumsmuster zeigt. Im Gegensatz dazu präsentiert sich das T-Zell/Histiozytenreiche großzellige B-Zell Lymphom (THRLBCL) in einem fortgeschrittenen Stadium mit einer oftmals schlechten Prognose. NLPHL vom diffusen Typ weisen starke Ähnlichkeiten mit dem THRLBCL sowohl in Bezug auf Histomorphologie als auch klinische Eigenschaften auf und sind dadurch manchmal nur schwer voneinander zu unterscheiden.
Das Wachstumsmuster eines Tumors hängt unter anderem von der Verteilung der Blutgefäße im Tumorgewebe ab. Viele aktuelle Studien weisen darauf hin, dass die Gefäßneubildung (Angiogenese) eine wichtige Rolle in der Entwicklung von hämatologischen Tumoren spielt. Durch diesen Prozess kann der Tumor zu ausreichend Sauerstoff und Nährstoffen gelangen, um invasiv zu wachsen und zu metastasieren. Die Gefäßdichte ist ein anerkannter Marker für die Auswertung von Gefäßneubildung in verschiedenen Tumoren.
Ein Ziel der Arbeit bestand darin, Parameter der Angiogenese, u.a. die Gefäßdichte und den queren Gefäßdurchmesser, in verschiedenen Subtypen des NLPHL und in THRLBCL im Hinblick auf eine mögliche Unterscheidbarkeit des diffusen NLPHL und des THRLBCL zu untersuchen sowie sie mit anderen Typen von malignen Lymphomen und reaktiven Lymphadenitiden (LA) zu vergleichen.
Von T-Lymphozyten ist bekannt, dass sie mit den Tumorzellen in Lymphomen in engem Kontakt stehen und einen nicht unerheblichen Anteil des Tumormikromilieus bilden. Die CD4+ Lymphozyten treten gewöhnlich über Gefäße, den hochendothelialen Venolen (HEVs), in den Lymphknoten ein.
Ein weiteres Ziel der Arbeit war es, eine mögliche Korrelation zwischen dem TLymphozyten-Zustrom und der Tumormorphologie in den betroffenen Lymphknoten zu untersuchen, um herauszufinden, ob dies die unterschiedliche Zusammensetzung im Mikromilieu der Lymphome erklären kann. Als Maß für den Zustrom wurde die Anzahl der intravaskulären T-Lymphozyten herangezogen. Zum Vergleich wurden weitere maligne Lymphome, die ein prominentes Tumormikromilieu besitzen, untersucht.
Im diffusen NLPHL und THRLBCL fanden wir eine niedrigere Gefäßdichte mit einer diffusen Blutgefäßverteilung. Im Gegensatz dazu zeigte das NLPHL mit einem typischen Wachstumsmuster, das cHL vom gemischtzelligen Typ (cHL MC) und das Angioimmunoblastische Lymphom (AITL) in den interfollikulären Arealen eine verstärkte Gefäßbildung. Es zeigte sich in allen Subtypen des NLPHL eine signifikant geringere Gefäßdichte, verglichen mit dem AITL oder den LA Fällen. LA wiesen insgesamt die höchste interfollikuläre Gefäßdichte auf. Das THRLBCL zeigte die niedrigste Gefäßdichte von allen malignen Lymphomen, die untersucht wurden, allerdings war der Vergleich von THRLBCL und den verschiedenen Subtypen des NLPHL nicht signifikant. Wir konnten zeigen, dass die diffusen Subtypen des NLPHL und das THRLBCL ein ähnliches Wachstumsmuster der Blutgefäße mit einer verminderten Gefäßdichte und nicht mehr identifizierbaren follikulären Bereichen vorweisen, im Gegensatz zu den beibehaltenen follikulären Mustern, die wir im typischen NLPHL fanden. Die Anzahl der intravaskulären T-Zellen war am höchsten im cHL MC sowie im typischen NLPHL. Signifikant geringer fielen die intravaskulären TLymphozyten-Werte im THRLBCL im Vergleich mit dem typischen NLPHL Muster A, C und dem cHL MC aus.
Da die LA Fälle eine hohe interfollikuläre Gefäßdichte und kleine Gefäßdurchmesser zeigten, kann man davon ausgehen, dass die Gefäße durch die schnell anschwellenden Keimzentren komprimiert wurden. In den atypischen NLPHL und THRLBCL Fällen lassen die geringe Gefäßdichte und relativ große Gefäßdurchmesser eine langsame Dehnung des Gefäßgerüstes des Lymphknotens annehmen. Die Resultate der T-Zell Quantifizierung legen den Schluss nahe, dass die relativ geringe Anzahl von intravaskulären T-Lymphozyten im THRLBCL zusammen mit einer geringen Gefäßdichte möglicherweise verantwortlich ist für die gewöhnlich relativ geringe Anzahl an T-Lymphozyten pro Fläche und hierdurch die hohe Anzahl an Makrophagen im Mikromilieu im THRLBCL hervorgerufen wird. Dies könnte im Zusammenhang stehen mit einer absolut verminderten T-Lymphozytenzahl im Blut oder einem reduzierten Eintritt der T-Lymphozyten in den Lymphknoten.
The liver as the biggest endocrine gland of the human body plays a central role in many metabolic pathways such as detoxification, storage of carbohydrates and distribution of lipids. As the liver receives blood supply from the gut by the portal vein, liver cells are often challenged with high concentrations of nutrients and components of our commensal microbiota. Therefore, the immune system of the liver induces a tolerant state, meaning no or low inflammatory reactions to those constant stimuli. Yet, as various pathogens target the liver, the hepatic immune system also needs the capability to induce strong immune responses quickly. Chronical damage to the liver, which can be caused by alcohol, pathogens or toxins, might lead to liver cirrhosis, where the amount of functional liver tissue is decreased dramatically. This pathology can worsen and lead to acute-on-chronic liver failure, whose high mortality is due to high inflammation and multi-organ failure. Interleukin-7 is a cytokine known for its pro-survival functions especially in lymphopoiesis. However, it is also very important for maintenance of mature immune cells in the liver. As mouse experiments have demonstrated an induction of Interleukin-7 in the liver as a response to bacterial lipopolysaccharide, we aimed to characterize the role of Interleukin-7 in hepatic immunoregulation in both health and disease.
The experiments were mostly based on in vitro approaches. Induction of Interleukin-7 in liver cells was analyzed using ELISA, quantitative PCR, and Immunoblotting. Knockdown of signal transduction components was performed by siRNA transfection. Primary immune cells isolated from healthy donor buffy coat were studied for their ability to respond to Interleukin-7. Activation of downstream signal transduction was assessed by Immunoblotting. Functional consequences of Interleukin-7 signaling, such as alterations in cellular metabolism, cellular survival and endotoxin tolerance, were studied in monocyte-derived macrophages. Finally, serum concentrations of Interleukin-7 and frequencies of Interleukin-7 receptor positive immune cells were quantified in patients with compensated or decompensated liver cirrhosis or acute-on-chronic liver failure.
Interleukin-7 expression could be observed in human hepatic cell lines and primary hepatic sinusoidal endothelial cells when stimulated with IFNα or IFNγ, but not IFNλ. IRF-1 was identified as a key regulator of Interleukin-7 expression, as its transcription, translation and nuclear translocation were induced and enhanced upon IFNα or IFNγ, but not IFNλ treatment. We identified LPS-primed macrophages as innate immune target cells of Interleukin-7, which responded by an inhibitory phosphorylation of GSK3. This signal transduction led to enhanced production of pro-inflammatory cytokines and abolished endotoxin tolerance. In parallel, cellular fitness was reduced as demonstrated by reduced intracellular ATP concentration and intracellular WST-1 staining. Finally, we could identify components of the in vitro signal transduction also in liver cirrhosis patients. However, Interleukin-7 serum concentrations were significantly in liver cirrhosis patients compared to healthy controls. In addition, the frequencies of Interleukin-7 receptor positive immune cell populations differed in patients and controls.
We identify Interleukin-7 as a pro-inflammatory cytokine in hepatic immunoregulation. It is part of a cascade where its induction is regulated by type I and type II Interferons and mainly restricted by the presence of IRF1. We demonstrate the importance of Interleukin-7 also for innate immune cells, where the abolishment of endotoxin tolerance may provide an interesting strategy of liver cirrhosis patients. In addition, reduced viability of macrophages in response to Interleukin-7 is a striking contrast to the well-described survival functions in lymphocytes. The decrease of serum Interleukin-7 levels and alterations of Interleukin-7 receptor positive immune cell populations suggest an important role for Interleukin-7 also in the diseased liver. Due to the identified mechanisms of action, Interleukin-7 may be an interesting candidate for immunotherapeutic approaches of liver cirrhosis and acute-on-chronic liver failure.
G-protein coupled receptors (GPCRs) are a predominant class of cell-surface receptors in eukaryotic life. They are responsible for the perception of a broad range of ligands and involved in a multitude of physiological functions. GPCRs are therefore of crucial interest for biological and pharmaceutical research. Molecular analysis and functional characterisation of GPCRs is frequently hampered by challenges in efficient large-scale production, non-destructive purification and long-term stability. Cell-free protein synthesis (CFPS) provides new production platforms for GPCRs by extracting the protein synthesis machinery of the cell in an open system that allows target-oriented modulations of the synthesis process and direct access to the nascent polypeptide chain. CFPS is fast, reliable and highly adaptable. Unfortunately, highly productive cell-free synthesis of GPCRs is often opposed by low product quality. This thesis was aimed to adapt and improve some of the new possibilities for the cell-free production of GPCRs in high yield and quality for structural and pharmaceutical analysis. An E. coli based CFPS system was applied to synthesise various turkey and human Beta-adrenergic receptor (Beta1AR) derivatives as well as human Endothelin receptors type A and B (ETA and ETB) constructs. Both receptor families are important drug targets and pharmacologically addressed in the treatment of several cardiovascular diseases. CF-synthesis was mainly performed in presence of nanodiscs (ND), which are reconstituted high density lipoprotein particles forming discoidal bilayer patches with a diameter varyring from 6 to approx. 15 nm. The supplementation of ND in the CF-synthesis reaction caused the co-translational solubilisation of the freshly synthesised GPCRs. The fraction of the solubilised GPCR that was correctly folded was analysed by the competence to bind its ligand alprenolol or Endothelin-1, respectively. Both the solubilisation efficiency and the ability to fold in a ligand binding competent state was strongly affected by the lipid composition of the supplied ND. Best results were generally achieved with lipids having phosphoglycerol headgroups and unsaturated fatty acid chains with 18 carbon atoms. Furthermore, thermostabilisation by introduction of point mutations had a large positive impact on the folding efficiency of both Beta1AR and ETB receptor. Formation of a conserved disulphide bridge in the extracellular region was additionally found to be crucial for the function of the ETB receptor. Disulphide bridge formation could be enhanced by applying a glutathione-based redox system in the CFPS. Further improvements in the quality of ETB receptor could be made by the enrichment of heat-shock chaperones in the CF-reaction. Depending on the receptor type and DNA-template, roughly 10 – 30 nmol (350 – 1500 µg) of protein could be synthesised in 1 ml of CF-reaction mixture. After the applied optimisation steps, the fractions of correctly folded receptor could be improved by several orders of magnitude and were finally in between 35% for the thermostabilised turkey Beta1AR, 9% for the thermostabilised ETB receptor, 6.5% for the non-stabilised ETB receptor, 1 - 5% for non-stabilised turkey Beta1AR and for human Beta1AR isoforms and 0.1% for ETA receptor. Therefore, between 2 and 120 µg of GPCR could be synthesised in a ligand binding competent form, depending on the receptor and its modifications. Correctly folded turkey Beta1AR and ETB receptors were thermostable at 30°C and could be stored at 4°C for several weeks after purification. Yields of the thermostabilised turkey Beta1AR were sufficient to purify the receptor in a two-step process by ligand-binding chromatography to obtain pure and correctly folded receptor in the lipid bilayer of a ND. Furthermore, a lipid dependent ligand screen could be demonstrated with the turkey Beta1AR and significant alterations in binding affinities to currently in-use pharmaceuticals were found. The established protocols are therefore suitable and highly competetive for a variety of applications such as screening of GPCR ligands, analysis of lipid effects on GPCR function or for the systematical biochemical characterisation of GPCRs. Most promising for future approaches appears to address the suspected bottlenecks of intial insertion of the GPCR-polypeptide chain in the ND bilayer and the thermal stability of the receptors. Nevertheless, the estabilised protocols for the analysed targets in this thesis are already highly competitive to previously published production protocols either in cell-based or cell-free systems with regard to yield of functional protein, speediness and costs. Moreover, the direct accessibility and other general characteristics of cell-free synthesis open a large variety of possible applications and this work can therefore contribute to the molecular characterisation of this important receptor type and to the development of new pharmaceuticals.
Kurzwirksame Effekte von Akupunktur und Stretching bei Myofaszialen Triggerpunktschmerzen im Nackenbereich: eine verblindete, placebo-kontrollierte RCT
Ziel: Untersuchung der kurzwirksamen Effekte von Akupunktur in Kombination mit Stretching hinsichtlich der Reduktion von Schmerzen und der Verbesserung des Bewegungsumfanges. Die Untersuchung wurde an Patienten mit Myofaszialen Schmerzen in der Schulter-Nackenregion durchgeführt.
Studiendesign: Randomisierte, verblindete, placebo-kontrollierte Cross-over-Studie.
Durchführung: Neunzehn Patienten (11 Frauen, 8 Männer, 33 ± 14 Jahre) mit myofaszial-bedingten Nackenschmerzen erhielten in randomisierter Reihenfolge und einer Auswaschphase von jeweils einer Woche, folgende Behandlungen: Akupunktur, Akupunktur plus Stretching und Scheinlaserakupunktur.
Methoden: Die Mechanische Druckschmerzschwelle (PPT, gemessen mit einem Druckalgometer) stellte den Hauptmesswert dar, während der bewegungsbezogene Schmerz (VAS, mittels visueller Analogskala) und der zervikale Bewegungsumfang als zusätzliche Messwerte erhoben wurden (ROM, range of motion, mit einem Ultraschall 3D-Messgerät registriert und analysiert). Die Messwerte wurden direkt vor der Behandlung, sowie 5, 15 und 30 Minuten danach erhoben. Friedman-Tests mit post-hoc Bonferroni-Holm-Korrektur wurden angewandt, um die Unterschiede zwischen den Behandlungen aufzuzeigen.
Ergebnisse: Akupunktur, sowie Akupunktur in Kombination mit Stretching erhöhten die mechanische Druckschmerzschwelle (PPT) bei 5 Personen bzw. 11% nach der Behandlung. Jedoch war nur Akupunktur in Kombination mit Stretching der Scheinlaserakupunktur signifikant überlegen (p < 0,05). 15 und 30 Minuten nach der Behandlung waren keine signifikanten Unterschiede mehr festzustellen. Bezüglich des bewegungsbezogenen Schmerzes 45 sind zwischen den Behandlungen keine Unterschiede zu erkennen. 5 Minuten nach der Behandlung mit Akupunktur und Stretching, war der Bewegungsumfang (ROM) in der Frontal- und Transversalebene signifikant höher gegenüber dem Bewegungsumfang nach Scheinlaserakupunktur (p < 0,05).
Natural products are valuable sources for biologically active compounds, which can be utilized as pharmaceuticals. Thereby, the synthesis is based purely on biosynthetic grounds often conducted by so-called megaenzymes. One major biosynthetic pathway is the acetate pathway including polyketide and fatty acid synthesis, which encompass one of the largest classes of chemically diverse natural products. These have medicinal relevance due to their antibacterial, antifungal, anthelmintic, immunosuppressive and antitumor properties.
Due to the high structural and functional similarity between polyketide synthases and type I animal fatty acid synthases (FASs), FAS can serve as a paradigm for the whole class of multifunctional enzymes. To fully exploit the biosynthetic potential of FASs, a good access to the enzyme is of essential importance. In this regard, Escherichia coli remains an unchallenged heterologous host due to low culturing costs, particularly fast mutagenesis cycles and relatively easy handling. Surprisingly, no sufficient expression strategy for an animal FAS in E. coli has yet been reported, as it turned out that the only approach was not reproducible.
We commenced our analysis with searching for an appropriate FAS homolog that fulfills our requirements of high protein quality, sufficient yield and ensured functionality. After extensive screening of different variants, culturing conditions and co-expression strategies, we identified the murine FAS (mFAS) as our protein of choice. The established purification strategy using tags at both termini led to a reproducible and sufficient access to the protein in excellent quality. The enzyme was further biochemically characterized including an enzyme kinetic investigation of fatty acid synthesis and an examination whether different acyl-CoA substrates can serve as priming units. This adds mFAS to our repertoire of manageable megaenzymes paving the way to exploit the catalytic efficiency in regards of microbial custom-compound synthesis.
With a strong focus on deepening our understanding of the working mode of such megaenzymes, rather than analyzing respective biosynthetic products, we have addressed the question whether mFAS itself can be engineered towards PKSs or whether properties of mFAS can be exploited to engineer PKSs. This approach was conducted on three levels of complexity from function of individual domains via organization of domains to form modules to the interplay of two modules in bimodular constructs.
Fatty acid synthesis begins with the loading of acyl moieties onto the FAS, which is conducted by a domain called malonyl-/acetyltransferase (MAT). This domain was in-depth characterized due to its important role of choosing the substrates that are built in the final compound. Our analysis comprised structural and functional aspects providing crystal structures of two different acyl-bound states and kinetic parameters for the hydrolysis and transacylation reaction using twelve exemplary CoA-esters. For this purpose, we have successfully established a continuous fluorometric assay using the α-ketoglutarate dehydrogenase as a coupled enzyme, which converts the liberated coenzyme A into Nicotinamide adenine dinucleotide. These data revealed an extensive substrate ambiguity of the MAT domain, which had not been reported to that extent before. Further, we could demonstrate that the fold fulfills both criteria for the evolvability of an enzyme by expressing MAT in different structural arrangements (robustness) and by altering the substrate ambiguity within a mutagenesis study (plasticity). Taken these aspects together, we are persuaded that the MAT domain can serve as a versatile tool for PKSs engineering in potential FAS/PKS hybrid systems.
On the higher level of complexity, we investigated the architectural variability of the mFAS fold, which constitutes a fundamental basis for a broader biosynthetic application. We could rebuild all four module types occurring in typical modular PKSs confirming a high degree of modularity within the fold. Not only structural, but also functional integrity of these modules was validated by using triacetic acid lactone formation and ketoreductase activity. Especially the latter analysis, made it possible to quantify effects of the engineering within the processing part by respective enzyme kinetic parameters. Expanding our focus beyond a singular module, we have utilized the mFAS fold for designing up to 380 kDa large bimodular constructs. In this approach, a loading didomain was attached N-terminally containing an additional MAT and acyl carrier protein (ACP) domain. Two constructs could be expressed and purified in excellent quality to investigate the influence of an altered overall architecture on fatty acid synthesis. By comparison with appropriate controls, a functional effect of the additional loading module could indeed be proven in the bimodular systems. Those constructs allow a comprehensive analysis of the underlying molecular mechanism in the future and serve as a potential model system to study the transition from iterative to vectorial polyketide synthesis in vitro.
Funktionelle und strukturelle Charakterisierung von SLC-Transportern in eukaryotischen Systemen
(2018)
Die evolutionäre Voraussetzung für die Entwicklung komplexer, differenzierter Organismen bildet die Separierung der Zelle in Reaktionsräume, die so genannte Kompartimentierung. Das Prinzip der Kompartimentierung ermöglicht zahlreiche lebensnotwendige, biochemische Prozesse, wie die Konservierung von Energie durch Protonengradienten in der Atmungskette oder parallele, gegenläufige Stoffwechselwege. Zelluläre Kompartimente werden häufig durch Biomembranen gebildet, welche aus einer zweilagigen Lipidschicht bestehen. Lipidmoleküle in einer Zelle sind meistens amphipathisch, das bedeutet, sie bestehen aus einer polaren, hydrophilen Kopfgruppe und einem unpolaren, hydrophopen Ende (Abbildung 1). Die Lipidzusammensetzung in einer Biomembran ist sehr divers und unterscheidet sich in verschiedenen Organismen und Organellen. Phosphoglyceride bilden den Hauptbestandteil der Lipidschicht. Phosphoglyceride besteht aus einem Glycerin Rückgrat, welches an dem C1- und C2-Atom mit zwei Fettsäuren verestert und an dem C3-Atom mit einem Phosphorsäurediester verbunden ist. ...
Nachdem die Sicherheit der Blutprodukte in den letzten Jahrzehnten vor allem bei transfusionsmedizinisch relevanten Viren wie HIV-1, HCV und HBV wesentlich durch die Einführung von molekularen Nachweismethoden auf Restrisiken unter 1 zu 1 Million reduziert werden konnte, liegt der aktuelle Fokus der Transfusionsmedizin auf der Vermeidung von bakteriellen Übertragungen. Dabei stehen vor allem die Thrombozytenkonzentrate im Vordergrund, da diese bei Raumtemperatur gelagert werden und somit für viele Bakterien ideale Wachstumsbedingungen darstellen. Die vorliegende Arbeit hat dabei in vier aufeinander aufbauenden Phasen systematisch die klinische Effizienz eines photochemischen Pathogeninaktivierungsverfahrens untersucht.
Phase 1: Darstellung des Wachstumsverhaltens von 8 transfusionsmedizinisch relevanten Keimen mittels der Spiking-Versuche in Thrombozytenkonzentraten. Für die nachfolgenden Phasen sind nur die Bakterienstämme ausgewählt worden, die nachweislich zu einer Vermehrung in Thrombozytenkonzentraten geeignet sind.
Phase 2: In den Experimenten mit Vollblutkonzentraten zeigt sich bei der Spikingkonzentration von 100 CFU/Beutel für alle ausgewählten Keime eine 100%ige Inaktivierungseffizienz. Bei der Anfangskonzentration von 1000 CFU/Beutel ergibt sich für den Keim Klebsiella pneumoniae (PEI-B-08-09) eine Inaktivierungseffizienz von 75% und für den Keim Bacillus cereus eine Inaktivierungseffizienz von 50%. Alle anderen Keime haben in den Experimenten mit der höheren Spikingkonzentration eine Inaktivierungseffizienz von 100%.
Phase 3: Für den Keim Klebsiella pneumoniae (PEI-B-08-09) zeigt sich in den Experimenten mit Pool-TKs schon bei der niedrigen Anfangskonzentration eine Inaktivierungseffizienz von 75%. Bei der Spikingkonzentration von 1000 CFU/Beutel ergibt sich erneut für die Keime Klebsiella pneumoniae und Bacillus cereus eine Inaktivierungseffizienz von 50%. Alle anderen Keime weisen sowohl bei der niedrigen als auch bei der hohen Bakterienkonzentration eine 100%ige Pathogeninaktivierungseffizienz auf.
Phase 4: In den Experimenten mit Apherese-TKs zeigt sich für alle untersuchten Keime sowohl bei der niedrigen als auch bei der hohen Spikingkonzentration eine 100%ige Inaktivierungseffizienz.
Aus diesen Experimenten geht hervor, dass man mittels photochemischen Pathogeninaktivierungsverfahrens keine 100%ige Inaktivierungseffizienz erreichen kann. Vielmehr ist die Inaktivierungseffizienz zum einen von der bakteriellen Ausgangskonzentration, zum anderen aber auch vom Zeitpunkt der Anwendung des Verfahrens abhängig. Somit sollte der Begriff „ Pathogeninaktivierungsverfahren“ besser durch den Begriff des Pathogenreduktionsverfahrens ersetzt werden. Ferner wird anhand der Ergebnisse deutlich, dass die Anwendung von Pathogenreduktionsverfahren möglichst schnell nach der Spende erfolgen sollte. In diesem Zusammenhang haben Apherese-Thrombozytenkonzentrate gegenüber Pool-Thrombozytenkonzentraten einen Sicherheitsvorteil.
Photolabile protecting groups (PPGs, cages, photocages) are molecules which can block the activity of a functional group and be removed by irradiation of light of an appropriate wavelength. One of the goals of this work was to design new photolabile protecting groups, based on a literature known one. The far-UV absorbing diethylamino benzyl (DEAMb) photocage, developed by Wang et al., was selected as structural basis for this work. In order to trigger the uncaging reaction with longer wavelengths (≥365 nm), thus allowing also biological applications, its structure was optimized. This was done by elongating the π-orbital conjugation using biphenyl derivatives instead of a single aromatic moiety. The photocage was loaded with glutamic acid as the leaving group.
The highest bathochromic shift was shown by compounds, which had the smallest sterical hindrance imposed on the second aromatic ring. The absorption spectrum was more redshifted if the second aromatic ring contained an electron withdrawing group. However, the stronger the substituents electron withdrawing strength was, the lower the uncaging quantum yield was. It was rationalized, that this is due to a decreased excited state electron density at the benzylic carbon of the DEAMb core which is necessary to trigger bond dissociation. This has been confirmed using TDDFT (time-dependent density functional theory) computations done by Jan von Cosel, Konstantin Falahati and Carsten Hamerla (from the group of Irene Burghardt). The best uncaging quantum yield was 42% for m-phenyl substituted DEAMb, while if a strong electron withdrawing group was present (nitro group), there was no photoactivity at all.
In order to achieve a better π-orbital conjugation of the non-coplanar biphenyl derivatives, a C-C bond was introduced between the benzylic carbon and the second aromatic ring. The resulting planar compounds belong to the fluorene class. The computational data predicted the photochemical meta effect to some extent to be preserved in these molecules. A set of fluorene derivatives was synthesized and photochemically characterized. The molar absorption coefficients of all prepared fluorene derivatives were higher than for any of the biphenyl derivatives. Quantum yields of the acetate release ranged between 3-42%, thus being as good as the best glutamic acid releasing biphenyl compounds. The highest uncaging cross section of the acetate release from the prepared fluorene derivatives was above 5000 M^-1 cm^-1. This value proves the high potential of the new fluorene based photocages developed in this work. Furthermore, release of hydroxide ion from fluorenol could be shown along with generation of, presumably, fluorenyl cation. These intriguing results paves a way for further exploration of fluorene based photocages for the release of bad leaving groups.
The second part of this work describes the custom synthesis of 13C labeled compounds for the VIPER (VIbrationally Promoted Electronic Resonance) project. In the VIPER pulse sequence, a molecule is vibrationally excited by a narrow band IR-pump pulse. The following Vis-pump pulse will promote the vibrationally pre-excited molecules to an electronically excited state. This Vis-pump pulse is offresonant for the not vibrationally pre-selected species and only resonant with the molecules, which are already pre-excited by the IR-pump pulse. Since the IR absorption bands usually are well resolved, a selective excitation of one molecule in an ensemble of similar ones is possible in the IR frequency range. Isotopologues and isotopomers are an extreme case of molecules which are near identical and differ only by isotopic composition or position. As a result in solution and at room temperature they have an identical UV-Vis absorption spectrum but different IR spectrum. This allows vibrational excitation of only one isotopologue (or isotopomer).
Isotopic labels were introduced in known photocages: 7-diethylamino coumarin (DEACM) and para-hydroxy phenacyl (pHP). The position for isotopic label incorporation in these molecules was guided by computations done by Jan von Cosel and Carsten Neumann. To allow control of the photoreactions in an ultrafast timescale, an IR active leaving group was used. The uncaging behavior of the prepared molecules in steady state was tested using chromatography (HPLC) and spectroscopy (1H NMR, FTIR and UV-Vis). The VIPER experiments were performed by Daniela Kern-Michler, Carsten Neumann, Nicole Mielke and Luuk van Wilderen (from the group of Jens Bredenbeck). A selective uncaging of only the vibrationally pre-excited molecules could be achieved.
Metabolic engineering can serve to convert microorganisms to
microbial cell factories with the goal of producing various chemicals. Commonly used strategies to modify metabolic pathways include deletions and overexpression of genes, as well as the introduction of heterologous genes or genes which have been optimized for the host organism or for a reaction of interest. Aside from these classic metabolic engineering strategies, researchers have also implemented pathway compartmentalization strategies, which mimic nature’s strategies of colocalizing enzymes for pathway optimization.
In this thesis, classic metabolic engineering strategies were combined with pathway compartmentalization strategies. For pathway compartmentalization, mitochondria and peroxisomes were harnessed, and additionally a new strategy to create artificial subcellular organelles was evaluated. In the latter approach, the so-called Zera peptide was fused to the enzymes of interest. Zera consists of the first 113 amino acids of the plant storage protein γ-Zein (Zea mays). Natively, plant storage proteins accumulate in endoplasmic reticulum (ER)-derived vesicles in plant seeds and serve as an amino acid source for the germinating plant. In this thesis, it was shown that Zera also induces the formation of artificial, ER-derived vesicles in Saccharomyces cerevisiae. Furthermore, it was shown that Zera fusion enzymes remained active, albeit with sometimes reduced activity.
In line with the goal of compartmentalizing pathways in these artificial, Zera-induced vesicles, a new tool was developed to determine the pH in the ER of S. cerevisiae and in the ER-derived vesicles. pHluorin, a pH-sensitive green fluorescent protein (GFP) variant, is commonly used to analyze the cytosolic pH or the pH of subcellular organelles. In this thesis, it was shown that pHluorin has very low fluorescence intensity and pH sensitivity in the ER and in Zera-induced ER-derived vesicles. Therefore, a superfolder variant of pHluorin was developed which allows reliable pH measurements in these compartments and can be used to analyze whether the organellar or vesicular pH suits a pathway of interest....
Das Ziel dieser Dissertation war es, die biologische Relevanz der F1Fo-ATP-Synthase für den Alterungsprozess des Ascomyceten P. anserina aufzuklären sowie die Funktion der Dimerisierungsuntereinheiten PaATPE und PaATPG genauer zu untersuchen. Folgende Ergebnisse wurden dabei erzielt:
1. Der Verlust einer Dimerisierungsuntereinheit führt in P. anserina zum Verlust der Dimerisierungsfähigkeit der F1Fo-ATP-Synthase. Dieses Ereignis resultiert in einer vorzeitigen Anhäufung von Seneszenzmerkmalen, einer starken Verkürzung der Lebensspanne und einem beschleunigten Alterungsprozess. Der Phänotyp der Stämme ∆PaAtpe und ∆PaAtpg lässt sich erfolgreich revertieren. Dadurch konnte bestätigt werden, dass der beobachtete Phänotyp der Deletionsstämme auf den Verlust der Dimerisierungsgene zurückzuführen ist.
2. Die konstitutive Überexpression des PaAtpe-Gens führt zu einer Verlängerung der Lebensspanne, die allerdings nicht abhängig von einer Erhöhung der Dimer-Menge, sondern auf eine Verlängerung der Mitochondriennetzwerke und eine erhöhte Atmung zurückzuführen ist.
3. Obwohl die Lebensspannen der untersuchten PaAtpg_OEx-Stämme voneinander abweichen, ist der auf den Organismus ausgeübte Effekt der PaAtpg-Überexpression positiv. Dabei lässt sich eine Erhöhung der Dimer-Menge auch in diesen Stämmen nicht nachweisen und eine Veränderung der Mitochondrienmorphologie tritt nur in einem der fünf untersuchten Stämme auf, was hier allerdings mit dem größten Effekt auf die Lebensspanne korreliert.
4. Die gleichzeitige Überexpression der Gene PaAtpe und PaAtpg führt interessanterweise zu einer Aufhebung der durch die PaAtpe-Überexpression hervorgerufenen positiven Effekte. Die generierte Doppelmutante weist somit wildtypische Eigenschaften auf. Eine Erhöhung der Dimer-Menge kann trotz Überexpression beider Gene nicht festgestellt werden.
5. Trotz gleicher Funktion in der Dimerbildung der F1Fo-ATP-Synthase ist das Expressionsniveau der Dimerisierungsgene in P. anserina unterschiedlich. Bereits im Wildtyp wird das PaAtpe-Gen weniger transkribiert als das PaAtpg-Gen. Letzteres wird durch die PaAtpe-Überexpression sowohl in den PaAtpe_OEx-Mutanten als auch in der Doppelmutante herunterreguliert. Auch im Wildtyp kommt es zu einer altersabhängigen Herunterregulierung des PaAtpg-Gens.
6. Im Wildtyp nimmt die Dimer-Menge im Alter ab und es kommt zu einer altersbedingten Änderung der Superkomplexe von S1 zu S0. Dies sind Hinweise auf eine altersabhängige Remodellierung der Cristae-Membran, die möglicherweise zum Seneszenzphänotyp von P. anserina beiträgt. Somit ist die Aufrechterhaltung des Dimers von großer Bedeutung für die Gewährleistung mitochondrialer Funktionen des Organismus.
Die F1Fo-ATP-Synthase spielt in ihrer dimeren Form eine bedeutende Rolle in der Aufrechterhaltung der Mitochondrienfunktion und gewährleistet den Ablauf von lebenswichtigen mitochondrialen Prozessen, die für die Erhaltung der zellulären Homöostase von essentieller Bedeutung sind.
In conclusion, I described for the first time the in vivo functions of PAK2 during cardiac development and its requirement for heart contractility
AIM1 – Characterization of Pak2a and Pak2b functions during cardiovascular system development: description of the phenotype triggered by the loss of expression of pak2b in the pak2a mutant Firstly, in addition to the confirmation of the published data regarding the pak2a mutant and morphant phenotype, I showed that pak2bbns159 mutant does not exhibit morphological defects, neither in the ISV formation nor in the brain vascular patterning. More importantly, I analyzed in more details the phenotypic consequences of pak2a and pak2b loss of expression in the trunk and brain vasculatures. Indeed, the lack of blood flow in the embryos, was associated with central arteries migration defects and reduced lumen in these central arteries and the ISVs. Moreover, pak2a and pak2b loss of expression resulted in cardiac failure.
AIM2 – Role of Pak2 on cardiac contractility From 40 -46 hpf, I found a weaker heart contractility in the pak2ami149/mi149;pak2bbns159/bns159. Although, the PAK proteins have been shown to impact the actin cytoskeleton organization, the heart morphological defects associated with the altered contractility, were not associated with acto-myosin filament reorganization. However, by analyzing in more details the structure of the sarcomeres, I was able to demonstrate that the proteins constituting the sarcomeres were strongly affected and showed an altered spatial organization. Then, I also described the effects of the loss of expression of both paralogs on the junctional protein localization. I demonstrated the loss of Pak2 function resulted in junction protein rearrangement in the cardiomyocytes in the pak2ami149/mi149;pak2bbns159/bns159 mutants at 40 and 46 hpf.
Thus, I was able for the first time to demonstrate in vivo PAK2 functions during cardiac development and its requirement for proper cardiac contractility activity.
AIM3 – Decipher mechanism of Pak2 signaling cascade involved during cardiac development Both pak2a and pak2b WT mRNAs were able to rescue the pak2ami149/mi149;pak2bbns159/bns159 mutant heart defects and the results indicated that these paralogs share overlapping function during cardiac development. Moreover, although I was not able to examine the control transgenic lines, myocardial and endothelial specific pak2a overexpression did not ameliorate the mutant cardiac deficiency. Thus,the absence of rescue by reactivating pak2a in cardiomyocytes indicates a non-cell autonomous function of Pak2a on cardiomyocytes.
For the first time, this study allowed to follow PAK2 in vivo functions during cardiovascular development. More importantly, its role on heart contractility regulation would enable further investigations to generate new tools for the treatment of cardiomyopathies.
Structured illumination microscopy (SIM) is part of the super-resolution methods developed at the beginning of this century. To produce a super-resolution image SIM requires three things: 1) illumination of the sample with a periodic pattern, 2) acquisition of multiple images per plane under different pattern’s phases and orientations and 3) the processing of these images has to be carried with a reconstruction algorithm. The result of the reconstruction is an image with a resolution gain that is proportional to the frequency of the pattern (po). The typical SIM set-up uses an epi-fluorescence configuration, thus the interference angle of the beams that create the pattern is restricted by the angular aperture of the objective. Under this restriction the maximum value of po is given by the cut-off frequency of the objective lens and sets at 2 the maximum resolution gain of SIM under linear illumination.
In the first part of this thesis we present the implementation and characterization of the 2D-SIM set-up designed by Dr. Bo-Jui Chang (B-J. Chang et al., PNAS 2017), this design exploits the concept introduced by light-sheet microscopy, i.e. separation of illumination and detection paths to obtain resolution gains larger than the usual two-fold (Chapter 3). The set-up is named coherent structured illumination light-sheet based fluorescence microscopy (csiLSFM) and it consists of a triangular array of three objectives, such that two are used for illumination and one for detection. With the independent illumination arms is possible to interfere two coherent light-sheets at angles beyond the angular aperture of the detection lens, attaining the maximum interference angle of 180° when the light-sheets counter-propagate. This condition delivers a pattern with a po 1.4 times larger than the cut-off frequency (ωo), hence our set-up provides generic resolution gains of 2.4.
The extraction of the high spatial frequencies that produce the resolution gain in the csiLSFM is a challenge due to a low pattern modulation. The low modulation inherently arises because the frequency associated to the pattern period lies beyond the cut-off frequency of the detection lens. To overcome this challenge we developed a filtering strategy that facilitates the withdrawal of information from a SIM data set, simultaneously the proposed filtering process optimizes the reconstruction algorithm by reducing the periodic artifacts that are recurrent in SIM images. In this same chapter we also performed an spectral analysis of the artifacts and determined that they originate from irregularities in the power spectrum that occur due to the partial or total lack of certain spatial frequencies (fig.4.2 and 4.3), our reconstruction reduces this information drops and diminishes the artifact occurrence. The relevance of our reconstruction pipeline is that it delivers a standardized process to enhance the SIM image in a current context in which the commonly used reconstruction algorithms employ empirical tuning to improve it (fig.4.13). Moreover, the pipeline is applicable to the csiLSFM data and also to images acquired with any other 2D-/3D-SIM set-up (fig.4.10 and 4.11).
The processing of various image data sets acquired with the csiLSFM exposed us to the question of how low the modulation of the illumination pattern can be before no super-resolution frequencies can be extracted. Answering this question is important to guarantee that the SIM data contains enough spatial frequencies to provide significant resolution gains. Thus in chapter 5 we developed a quantitative metric to indirectly determine the pattern modulation from the SIM data and find its critical value to use it as evaluation criterion. We called this metric the quality factor (Q-factor) and it represents the normalized strength (amplitude) of the extracted frequencies respect to the Gaussian noise contained in the images. Through simulations we estimated that Q=0.11 is a critical value and a SIM data set requires this as minimum value is to deliver a significant resolution gain. Q works then as an assessment tool for classifying SIM data as optimal or sub-optimal, i.e. Q≥0.11 or Q<0.11. We demonstrated such application with data acquired in various SIM commercial set-ups to prove its feasibility in the field (fig.5.6-5.11)
As mentioned at the beginning of this abstract SIM requires a specialized set-up and a processing algorithm to produce super-resolution images. This thesis contributes to these two areas in the following aspects: first, in its linear version a structured illumination microscope is highly associated to a 2-fold resolution gain. Here we demonstrated the possibility of extending this gain to 2.4 using our custom set-up the csiLSFM. Second, a reconstructed SIM image is prone to artifacts due to the mathematical process it undergoes, here we analyzed the artifact sources and identified them with drops of spatial information in the reconstructed spectrum, based on these conclusions we designed a processing pipeline to facilitate the extraction of spatial frequencies and directly reduce artifacts. A third and final outcome of this thesis is the development and practical implementation of a quantitative index to evaluate the quality of SIM data in terms of its relevant information content (Q-factor). Accordingly, the overall contributions of this work were done in the areas of SIM set-up, SIM reconstruction procedure and SIM data evaluation.
The production cross section and the transverse momentum distribution of charged particles is measured in pp collisions at √s = 2.76 TeV, 5.02 TeV, 7 TeV and 13 TeV, as well as for Pb-Pb collision at √s_NN = 5.02 TeV and Xe-Xe at √s_NN = 5.44 TeV in ALICE at the LHC. The measurement is performed in the transverse momentum region of 0.15 < p_T < 50 GeV/c and in the pseudorapidity range of |η| < 0.8. The precision of the measurement has been substantially enhanced as a result of the improved corrections, by taking into account a more realistic particle composition in the MC simulations. As a result, the systematic uncertainties have been reduced by more than a factor two in all systems and energies.
The average transverse momentum <p_T> results show a faster-than-linear increase with the center-of-mass energy and follow a similar trend with respect to previous measurements. The analysis of the p_T spectra in multiplicity intervals show a weak center-of-mass energy dependence when they are compared to their respective inelastic (INEL) pp measurement. The average multiplicity as a function of the collision energy shows a quadratic trend, and the comparison with other ALICE multiplicity measurements exhibits a remarkable agreement, within uncertainties.
The transverse momentum spectra in pp collisions are compared to state-of-the-art MC simulations, EPOS LHC and PYTHIA 8 event generators; none of them is able to reproduce the distributions over the full p_T range.
The differential cross section in pp collisions is an essential observable for the study of the Quark Gluon Plasma (QGP) created in ultra-relativistic heavy-ion collisions. The absence of a medium formation in pp collisions serves as an essential baseline for studies of particle production and suppression due to parton energy-loss in the QGP. Since pp collisions at √s = 5.44 TeV were not measured by ALICE, the pp reference at this energy was constructed by using a power law interpolation between the s = 5.02 TeV and 7 TeV data. The pp results are compared to the particle production in Pb-Pb collisions at √s_NN = 5.02 TeV and Xe-Xe collisions at √s_NN = 5.44 TeV.
The nuclear modification factor R_AA for Pb-Pb and Xe-Xe collisions was calculated and a strong suppression of high-p_T particles is observed in central collisions. The R AA in different systems allows for a differential study of the parton energy loss in the QGP. The comparison of the R AA in multiplicity intervals between the two systems provide insights into the path length dependence of a parton that propagates in the medium.
Quantenchemische Untersuchungen zu Reaktionsmechanismen reaktiver Carben- und Silylenverbindungen
(2018)
In dieser Arbeit werden Reaktionsmechanismen verschiedener Carben- und Silylenverbindungen mit quantenchemischen Methoden untersucht: Die Zerfallsreaktion acylischer Diaminocarbene, die Reaktion verschiedener Diaminocarbene mit CO, die C-C Kupplung von Benzophenon mit SiCl2, die Reaktion von NHC mit Si2Br6 und die Reaktion von Dimethyltitanocen mit neo-Si5H12
Powerful environment perception systems are a fundamental prerequisite for the successful deployment of intelligent vehicles, from advanced driver assistance systems to self-driving cars. Arguably the most essential task of such systems is the reliable detection and localization of obstacles in order to avoid collisions. Two particularly challenging scenarios in this context are represented by small, unexpected obstacles on the road ahead, and by potentially dynamic objects observed from a large distance. Both scenarios become exceedingly critical when the ego-vehicle is traveling at high speed. As a consequence, two major requirements placed on environment perception systems are the capability of (a) high-sensitivity generic object detection and (b) high-accuracy obstacle distance estimation. The present thesis addresses both requirements by proposing novel approaches based on stereo vision for spatial perception.
First, this work presents a novel method for the detection of small, generic obstacles and objects at long range directly from stereo imagery. The detection is based on sound statistical tests using local geometric criteria which are applicable to both static and moving objects. The approach is not limited to predefined sets of semantic object classes and does not rely on restrictive assumptions on the environment, such as oversimplified global ground surface models. Free-space and obstacle hypotheses are evaluated based on a statistical model of the input image data in order to avoid a loss of sensitivity through intermediate processing steps. In addition to the detection result, the algorithm simultaneously yields refined estimates of object distances, originating from an implicit optimization of the geometric obstacle hypothesis models. The proposed detection system provides multiple flexible output representations, ranging from 3D obstacle point clouds to compact mid-level obstacle segments to bounding box representations of object instances suitable for model-based tracking. The core algorithm concept lends itself to massive parallelization and can be implemented efficiently on dedicated hardware. Real-time execution is demonstrated on a test vehicle in real-world traffic. For a thorough quantitative evaluation of the detection performance, two dedicated datasets are employed, covering small and hard-to-detect obstacles in urban environments as well as distant dynamic objects in highway driving scenarios. The proposed system is shown to significantly outperform current general purpose obstacle detection approaches in both setups, providing a considerable increase in detection range while reducing the false positive rate at the same time.
Second, this work considers the high-accuracy estimation of object distances from stereo vision, particularly at long range. Several new methods for optimizing the stereo-based distance estimates of detected objects are proposed and compared to state-of-the-art concepts. A comprehensive statistical evaluation is performed on an extensive dedicated dataset, establishing reference values for the accuracy limits actually achievable in practice. Notably, the refined distance estimates implicitly provided by the proposed obstacle detection system are shown to yield highly accurate results, on par with the top-performing dedicated stereo matching algorithms considered in the analysis.
EBV Infektionen nach allogener hämatopoetischer Stammzelltransplantation sind neben dem Rezidiv eine häufige Komplikation und verbleiben ein häufiger Grund der Morbidität. Langanhaltende Immunsuppression oder die verspätete T-Zell Recovery können EBV Infektionen nach Transplantation begünstigen, welche unter diesen Umständen zu lebensbedrohlichen lymphoproliferativen Erkrankungen (PTLD) führen können. Für die optimale Behandlung der PTLD gibt es keinen Konsens. Adoptive Immuntherapien mit sowohl anti-Tumor Kapazität als auch wiederhergestellter virus-spezifischer zellulärer Immunität könnten, vor allem im Bezug einer PTLD, eine optimale Behandlungs-Option darstellen.
Zytokin-induzierte Killer (CIK)-Zellen repräsentieren einen neuen immuntherapeutischen Ansatz, da sie trotz hoher Mengen an T-Zellen nur ein geringes alloreaktives Potential besitzen und selbst im haploidenten Setting nur ein geringes Risiko zur Induktion einer GvHD besitzen. Der Graft versus Leukämie/Tumor-Effekt nach allogener SZT wird durch die Zellen verstärkt. Durch das dual spezifische zytotoxische Potential der CIK-Zellen über den nicht-MHC restringierten NKG2D Killing-Mechanismus und den MHC restringierten Mechanismus über den T-Zell Rezeptor können sowohl virusinfizierte als auch transformierte Zellen bekämpft werden. In der Literatur gibt es bisher nur eine Arbeit (aus unserer Arbeitsgruppe), in der CIK-Zellen mit spezifischen viralen Antigenen für eine antileukämische und potentielle anti-virale Aktivität stimuliert werden.
Im Rahmen dieser Arbeit wurde sowohl in prä-klinischen als auch in einem klinischen Ansatz die Durchführbarkeit, Anwendbarkeit, Effektivität und Sicherheit von EBV-spezifischen CIK-Zellen untersucht. Dazu wurde in einem ersten Schritt untersucht, ob sich durch die Modifizierung des konventionellen Herstellungsprotokolls EBV-spezifische CIK-Zellen generieren lassen.
Im präklinischen in vitro Setting wurde eine Modifizierung im CIK Herstellungsprotokoll vorgenommen um EBV-spezifische CIK-Zellen zu generieren, die sowohl ein anti-leukämisches als auch ein spezifisches anti-virales (EBV) Potential besitzen. Die Generierung erfolgte aus peripheren, mononukleären Zellen EBV-seropositiver Spender. Zusätzlich zu den CIK-Stimulanzien wurden die Zellen zweimal mit dem EBV Consensus Peptid Pool stimuliert, der Peptidsequenzen von verschiedenen latenten und lytischen EBV-Proteinen enthält. Durch die Modifikation konnte eine Ko-Expansion an EBV-spezifischen Zellen innerhalb des CD3+CD8+ Kompartiments der CIK-Zellen von bis zu 8% erreicht werden. In Zytotoxizitätsanalysen wurde das effektorische Potential der generierten Zellen überprüft. Gegenüber EBV peptidbeladenen Zielzellen zeigten die zusätzlich mit EBV-Peptid stimulierten CIK-Zellen in allen E:T Ratios (40:1, 20:1 und 5:1) eine signifikant höhere lytische Aktivität im Vergleich zur Aktivität konventioneller CIK-Zellen. Durch Blocking des NKG2D Rezeptors wurde die TCR-vermittelte lytische Aktivität in Bezug auf ein virales Ziel weiter gezeigt. Das anti-leukämische Killing Potential über den nicht-MHC restringierten NKG2D Rezeptor blieb zeitgleich erhalten, was sich in spezifischen Lysen gegenüber K562 und THP-1 Zellen von bis zu knapp 60% wiederspiegelt. Die durchflusszytometrische immunphänotypische Charakterisierung der EBV-stimulierten CIK-Zellen mittels 10-Farb Panel ergab keine signifikanten Unterschiede in Bezug auf Phänotyp und Rezeptor-Repertoire im Vergleich zu den konventionellen CIK-Zellen. Die Zytokin- und Chemokin Analysen der EBV-spezifischen CIK-Zellen spiegelten ein CD8+ TH1 Profil wieder und reflektierten den zytotoxischen Charakter der Zellen. Mit dem modifizierten Protokoll war es möglich für eine Patientin GMP-konforme CIK-Zellen mit EBV-Spezifität zu generieren, die 9,6 x 103 EBV-spezifische T-Zellen/kg Körpergewicht enthielten. Die Infusion der EBV-spezifischen CIK-Zellen resultierte in einer rapiden Beseitigung der Plasma EBV DNA und langanhaltendem Verschwinden des großen (27 cm3) PTLD-malignen Lymphoms. Während des anschließenden Immun-Monitorings der Patientin konnten CD4+ und CD8+ EBV-spezifische CIK-Zellen mittels der Dextramer Technologie in vivo im Blut der Patientin über einen Zeitraum von 32 Tagen nachgewiesen werden. Weitere FACS Analysen ergaben, dass sich im CD8+ Kompartiment der Patientin neben den CD8bright T-Zellen eine wachsende Population an CD8dim Zellen nachweisen ließ. Diese bestand zu einem bemerkenswerten Prozentsatz von bis zu 95% aus TEMRA Zellen, die auf virusspezifische T-Zellen hinweisen. Die Infusion der Zellen induzierte weder ein CRS noch andere Toxizitäten. Zytokin-Analysen aus dem Serum der Patientin reflektierten ein zytotoxisches und anti-virales Potential der infundierten Zellen. In vitro zeigten die unter GMP generierten Zellen im E:T Verhältnis von 40:1 und 20:1 ein 2-fach höheres zytotoxisches Potential gegenüber peptidbeladenen T2 Zellen im Vergleich gegenüber WT T2 Zellen. Der anti-leukämische Effekt gegen K562 Zellen blieb auch hier erhalten. 2 Jahre nach Behandlung ist die Patientin immer noch in Remission.
Die in dieser Arbeit erzielten prä-klinischen und klinischen Ergebnisse zeigen, dass virusspezifische CIK-Zellen eine neue, potentielle Immuntherapie darstellen, da die Zellen eine wirksame anti-leukämische Immunität mit antiviraler Immunrekonstitution vereinen. EBV-spezifische CIK-Zellen erwiesen sich als ein vielversprechender Ansatz für die Prävention von malignen Erkrankungen sowie in der Behandlung von EBV-Komplikationen nach allogener SZT.
Viele Studien konnten in den letzten Jahren aufzeigen, dass Stickstoffmonoxid (NO)/cGMP-Signaling eine wichtige Rolle in der Verarbeitung chronischer Schmerzprozesse einnimmt. Bei Verletzung peripherer Nerven oder Entzündung im Gewebe wird NO gebildet, das durch Stimulation der NO-sensitiven Guanylatzyklase (NO-GC) die cGMP-Bildung katalysiert. Seit einigen Jahren ist bekannt, dass zwei Isoformen dieses Enzyms existieren, NO-GC1 und NO-GC2. Das Expressionsmuster der beiden Isoformen im nozizeptiven System und der jeweilige Einfluss auf die Schmerzverarbeitung ist jedoch bisher völlig unbekannt. In dieser Arbeit wurde die Expression der NO-GC1 und NO-GC2 in den Spinalganglien (DRGs) und im Rückenmark von Mäusen charakterisiert und das Verhalten von NO-GC1 und NO-GC2 Knockout (KO)-Mäusen in verschiedenen Schmerzmodellen untersucht. Mit Immunfluoreszenzfärbungen und In-situ-Hybridisierungen wurde in dieser Arbeit dargestellt, dass die zwei Isoformen in Interneuronen des Rückenmarks lokalisiert sind, wobei die NO-GC1 vorwiegend in inhibitorischen Interneuronen exprimiert wird. In den DRGs konnte die Expression in nicht-neuronalen Zellen nachgewiesen werden, wobei nur die NO-GC2 in Satellitenzellen detektiert werden konnte. Die NO-GC1 KO-Mäuse zeigten eine verringerte mechanische Hypersensitivität in neuropathischen Schmerzmodellen, aber ein normales Verhalten in Modellen inflammatorischer Schmerzen. Im Gegensatz zu diesen Ergebnissen zeigten die NO-GC2 KO-Mäuse ein erhöhtes Schmerzverhalten in Entzündungsmodellen, aber kein verändertes Verhalten in Modellen neuropathischer Schmerzen. Die gezielte Deletion der NO-GC1 und NO-GC2 in Interneuronen des Rückenmarks führte in den entsprechenden Tieren zu Verhaltensänderungen in der Schmerzwahrnehmung, die den Phänotypen der globalen NO-GC KO-Tieren in Schmerzmodellen ähnelte. Zusammengefasst zeigen die Daten dieser Arbeit, dass die NO-GC1- oder NO-GC2-vermittelte cGMP-Produktion in Interneuronen des Rückenmarks sehr wichtige, und teilweise gegensätzliche Funktionen bei der Verarbeitung chronischer Schmerzsignale einnimmt.
Hintergrund:
Zur Klärung der klinischen Relevanz einer Milbensensibilisierung bei Kindern und Jugendlichen mit Asthma bronchiale ist die spezifische bronchiale Allergenprovokation (BAP) der Goldstandard. Aufgrund der technischen und personellen Voraussetzungen, sowie der potentiellen Gefahr einer schweren asthmatischen Spätreaktion ist die BAP nur eingeschränkt in spezialisierten Zentren verfügbar. Im Gegensatz dazu zeichnet sich nasale Allergenprovokation (NPT) durch ein hohes Maß an Patientensicherheit aus und kann ambulant durchgeführt werden. In dieser Studie sollte daher ein Vergleich zwischen der BAP vs. NPT erfolgen und klären inwiefern die NPT eine vorteilhafte Alternative im Diagnostikalgorithmus darstellen kann.
Methodik:
Von 157 untersuchten Patienten mit asthmatischen Beschwerden und positivem Pricktest (Dermatophagoides pteronyssinus; Dermatophagoides farinae) erfüllten 74 die Ein- / Ausschlusskriterien in vollem Umfang (Alter MW: 9,1 + 3,1 Jahre). Nach der BAP und der Messung des eNO, erfolgte eine Blutentnahme zur Bestimmung von Blutbild und spezifischem IgE, ggf. konnte Nasensekret gewonnen werden. Im Anschluss wurde innerhalb von 12 Wochen eine NPT mit Milbenallergen in aufsteigender Verdünnung durchgeführt. Hierbei wurde das Ergebnis zum einen mittels Symptomscore nach Lebel evaluiert, sowie die nasale Obstruktion mittels Peak Nasal Inspiratory Flow Meter (PNIF) bestimmt. Zum Abschluss beantworteten die Patienten einen standardisierten Fragebogen zur Lebensqualität mit Rhinokonjunktivitis (RQLQ).
Ergebnisse:
In der BAP konnten 57 Patienten mit einer bronchialen Frühreaktion (FEV1 - Abfall Mean bei 29,2% ± 7,4) identifiziert werden, von diesen wurden 41 mittels Lebelsymptomscore und 19 mittels PNIF erkannt. Während der Symptomscore nach Lebel damit eine ausreichende Sensitivität von 71,9 % und einen positiv prädiktiven Wert (PPV) von 89,1 % erreichte, war die Sensitivität für den PNIF mit 33,3 % ungenügend bei einem PPV von 82,6 %. Die negativ prädiktiven Werte lagen bei 42,8 %, respektive 25,4 %. Sowohl das eNO größer oder gleich 10 ppb (AUC 0,78) als auch das kumulative spez. IgE größer oder gleich 25,5 kU/l (AUC 0,72) erwiesen sich als gute Prädiktoren einer bronchialen Frühreaktion (EAR), eine Korrelation mit dem Symptomscore nach Lebel konnte jedoch nicht festgestellt werden.
Schlussfolgerung:
Unsere Ergebnisse zeigen für den Symptomscore nach Lebel eine hohe Vorhersagekraft zur Detektion einer EAR in der bronchialen Milbenprovokation. Ein negativer Score konnte eine asthmatische Reaktion jedoch nicht ausreichend ausschließen. Für den PNIF fanden wir keine ausreichende Testvalidität. Besonders bei pädiatrischen Patienten ist zu berücksichtigen, dass diese Messung stark von der individuellen Leistungsfähigkeit beeinflusst wird. Zudem weisen die nasale und bronchiale Mukosa lokale Unterschiede auf, sodass eine nasale Reaktion nicht identisch mit einer EAR ist. Bei Kindern und Jugendlichen mit Asthma bronchiale ist die BAP daher nicht vollständig durch die NPT ersetzbar. Besonders im ambulanten Bereich findet die NPT jedoch ihre Berechtigung, durch die deutlich geringeren Testanforderungen bei einem hohen Maß an Patientensicherheit. Darüber hinaus gehen rhinitische Beschwerden häufig einem Asthma bronchiale voraus, sodass auch falsch positive Testergebnisse im Lebel - Score berücksichtigt werden sollten. Neben dem Symptomscore identifizierten wir sowohl das spezifische IgE als auch das eNO als valide Prädiktoren einer EAR, eine direkte Korrelation zum NPT konnte jedoch nicht gefunden werden.
The subject of this dissertation is the aesthetic and political significance of photography for Bertolt Brecht's theatrical work and writing. Since the investigation of the gestus concept from the perspective of the politics of images—which draws attention to the fact that every image has a memory, mostly a political one—photography stands out and reveals the precise moment of the interruption of the dramatic action and, thereby, holds a significant gestus. The dissertation highlights the importance of photography’s examination for Brecht, besides featuring the extent to which his theatre responded to and dealt with the technical condition of its own time. If a gestus is recognisable as an interruption, through the observation of the detail, two different gestus appear: the gestus of the scene and the gestus of the photograph. In other words, the actor and photographer produce a double gestus with different levels of interpretation. The comparison between such a static photo and the notion of interruption in Bertolt Brecht’s works opens new grounds in Brechtian studies, and even in more general theatre studies.
Protein biosynthesis is a conserved process, essential for life. Proteins are assembled from single amino acids according to their genetic blueprint in the form of a messenger ribonucleic acid (mRNA). Peptide bond formation is catalyzed by ancient ribonucleic acid (RNA) residues within the supramolecular ribosomal complex, which is organized in two dynamic subunits (Ramakrishnan, 2014). Each subunit comprises large ribosomal RNA (rRNA) molecules and several dozens of peripheral proteins. mRNA translation has been divided into three phases, namely translation initiation, elongation and termination in biochemistry textbooks. During initiation, the ribosomal subunits assemble into a functional ribosome on an activated mRNA and acquire the first transfer RNA (tRNA), an adapter between the start codon on the mRNA and the N-terminal methionine of the protein (Hinnebusch and Lorsch, 2012). During elongation, the ribosome translocates along the mRNA exposing one codon after the other, and amino acids are delivered to the ribosome by the respective tRNAs, and attached to the nascent polypeptide chain. During termination, the polypeptide is released and the ribosome remains loaded with mRNA and tRNA at the end of the open reading frame for the translated gene (Hellen, 2018). Bacterial ribosomes are subsequently recycled by a specific ribosome recycling factor and the small ribosomal subunit is simultaneously consigned to initiation factors for a next round of translation – rendering bacterial translation as a cyclic process with an additional ribosome recycling phase. However, the process of ribosome recycling remained enigmatic in Eukarya and Archaea until the simultaneous discovery of the twin-ATPase ABCE1 as the major ribosome recycling factor. Strikingly, ABCE1 has initially been shown to participate in translation initiation (Nürenberg and Tampé, 2013). Thus, closing the translation cycle by revealing the detailed molecular mechanism of ABCE1 and its role for translation initiation are the two goals of this research.
Beyond the plenitude of well-studied translational GTPases, ABCE1 is the only essential factor energized by ATP, delivering the energy for ribosome splitting via two nucleotide-binding sites. Here, I define how allosterically coupled ATP binding and hydrolysis events in ABCE1 empower ribosome recycling. ATP occlusion in the low-turnover control site II promotes formation of the pre-splitting complex and facilitates ATP engagement in the high-turnover site I, which in turn drives the structural re- organization required for ribosome splitting. ATP hydrolysis and ensuing release of ABCE1 from the small subunit terminate the post-splitting complex. Thus, ABCE1 runs through an allosterically coupled cycle of closure and opening at both sites consistent with a processive clamp model. This study delineates the inner mechanics of ABCE1 and reveals why various ABCE1 mutants lead to defects in cell homeostasis, growth, and differentiation (Nürenberg-Goloub et al., 2018).
Additionally, a high-resolution cryo-electron microscopy (EM) structure of the archaeal post-splitting complex was obtained, revealing a central macromolecular assembly at the crossover of ribosome recycling and translation initiation. Conserved interactions between ABCE1 and the small ribosomal subunit resemble the eukaryotic complex (Heuer et al., 2017). The conformational state of ABCE1 at the post-splitting complex confirms the molecular mechanism of ribosome recycling uncovered in this study. Moving further along the reaction coordinate of cellular translation, I reconstitute the complete archaeal translation initiation pathway and show that essential archaeal initiation factors are recruited to the post-splitting complex by biochemical methods and cryo-EM structures at intermediate resolution. Thus, the archaeal translation cycle is closed, following its bacterial model and paving the way for a deeper understanding of protein biosynthesis.
Die vorliegende Arbeit befasst sich mit der Medikamentenadhärenz an die Therapie mit oralen Antikoagulanzien (OAT) in der Schlaganfall-Sekundärprophylaxe und leitet auf Basis einer prospektiven Untersuchung Rückschlüsse über das Einnahmeverhalten unter verschiedenen Behandlungsformen ab.
Orale Antikoagulanzien werden erfolgreich zur Schlaganfallprävention bei Patienten mit Vorhofflimmern eingesetzt. Über Jahrzehnte waren Vitamin K-Antagonisten (VKA) die einzige Therapieoption, in der Praxis jedoch mit Schwierigkeiten verbunden, wie etwa Medikamenten- und Nahrungsmittelinteraktionen sowie häufige Gerinnungskontrollen. Als ab dem Jahr 2011 die ersten nicht-Vitamin K oralen Antikoagulanzien (NOAK) zugelassen wurden (zunächst Rivaroxaban und Dabigatran), lag ein besonderes Augenmerk auf der Frage, ob die fehlenden Gerinnungskontrollen und dadurch selteneren Arztkontakte unter Einnahme von NOAK einen negativen Einfluss auf die Adhärenz ausüben könnte.
In der vorliegenden Studie wurden prospektiv Daten zur Adhärenz und Persistenz in Bezug auf die Therapie mit OAT zu Zwecken der Schlaganfall-Sekundärprophylaxe gesammelt. Hierbei stand die Selbsteinschätzung der Patienten anhand der 8-Punkte-Morisky Medication Adherence Scale (MMAS-8) im Vordergrund. Die Daten der Untersuchung wurden an drei großen akademischen Schlaganfallzentren der Universitätskliniken Frankfurt, Würzburg und Marburg (Klinikum Fulda) erhoben. Während des Zeitraums Oktober 2011 bis September 2012 wurden alle 596 Patienten mit der Entlassungsdiagnose eines ischämischen Schlaganfalls oder einer transient ischämischen Attacke in Kombination mit Vorhofflimmern in die Studie aufgenommen. Dabei bildeten diejenigen 324 Patienten, die nach Entlassung eine orale Antikoagulation (VKA, Dabigatran oder Rivaroxaban) erhielten, die Untersuchungskohorte dieser Arbeit. Ein Jahr nach Entlassung wurden in einem Follow-up (1) die Adhärenz bzw. Persistenz in Bezug auf die verschriebene Medikation, (2) etwaige Therapiewechsel und deren Gründe, sowie (3) patientenseitige Einflussfaktoren erfragt.
Insgesamt konnte eine sterblichkeitskorrigierte Antwortrate von 73,3% (209 Patienten) erzielt werden. Von diesen Patienten erhielten 92,8% weiterhin eine Art der oralen Antikoagulation. Auch innerhalb der spezifischen ursprünglich verschriebenen OAT konnte eine gute Persistenz festgestellt werden (VKA 80,9%; NOAK 74,8%; P=0,243), wobei Dabigatran tendenziell, aber nicht-signifikant, am schwächsten abschnitt. Sofern Wechsel zwischen verschiedenen Formen der OAT erfolgten, wurden diese zumeist mit Nachteilen der jeweiligen Wirkstoffeigenschaften, wie z.B. gastrointestinale Nebenwirkungen, eine Verschlechterung der Nierenfunktion, sowie die vereinfachte Einnahme anderer Antikoagulanzien mit nur einer täglichen Dosis, begründet.
Zusätzlich stellte sich im Rahmen einer multivariaten Analyse insbesondere der Grad der Behinderung (Modifizierte Rankin Skala, mRS) zum Zeitpunkt des Follow-ups als signifikanter Einflussfaktor auf die Adhärenz heraus. Die Wahl der OAT hatte hingegen keinen relevanten Einfluss.
Zusammenfassend wurde in der Studie eine sehr gute Einnahmetreue von über 90% beobachtet, sofern man konventionelle und neue Antikoagulanzien in Summe zählt. Zudem wurde gezeigt, dass die Wahl der spezifischen OAT keinen signifikant positiven oder negativen Einfluss auf die Adhärenz nach sich zieht. Dieses Ergebnis widerspricht der Befürchtung einer generell niedrigeren Adhärenz an NOAK. Vielmehr könnte eine Erweiterung der Therapieoptionen durch die neuen oralen Antikoagulanzien es erlauben, besser auf spezielle Patientenbedürfnisse wie beispielsweise Medikamentenverträglichkeit oder Komorbiditäten einzugehen, und in Folge die Einnahmetreue zu Zwecken der Schlaganfall-Sekundärprophylaxe zu verbessern.
Die vorliegende Dissertation befasst sich mit der Entwicklung und Erforschung eines konzeptionell neuartigen Injektionssystems zum Transport von Ionenstrahlen in toroidale Magnetfeldstrukturen. Die Forschungsarbeit ist dabei Teil des Figure-8 Speicherringprojekts (F8SR) des IAP, bei welchem es um die Erforschung der Physik und die Entwicklung eines niederenergetischen, supraleitenden, magnetostatischen Figure-8 Hochstromspeicherrings geht. Dieser neuartige Speicherring ermöglicht aufgrund des Einsatzes von fokussierenden solenoidalen und toroidalen Magnetfeldern das Speichern von Strahlströmen von bis zu einigen Ampere. Diese Arbeit baut auf früheren Forschungsarbeiten zu diesem Themenfeld auf, in welchen die Grundlagen und Ausgangsparameter für die experimentelle Untersuchung der Injektion gelegt und mit dem Aufbau des Injektionsexperiments begonnen wurde.
In dieser Dissertation wird den Fragen nachgegangen, ob ein magnetisches Konzept des Injektionssystems mittels eines „Scaled-Down“-Experiments experimentell umsetzbar ist und ob mit diesem die Injektion von Ionenstrahlen in toroidale Magnetfeldstrukturen realisiert werden kann. Ziel ist es dabei, ein Injektionssystem aufzubauen, durch welches sowohl ein seitlich injizierter Injektionsstrahl, welcher den in den Speicherring zu injizierenden Strahl darstellt, als auch ein gleichzeitig durch die toroidalen Magnetfelder driftender Ringstrahl, welcher den im Speicherring zirkulierenden Strahl darstellt, ohne Verluste transportiert werden können. Das Injektionssystem besteht dabei aus drei normalleitenden Magneten, wobei es sich um zwei baugleiche 30 Grad Toroide sowie einen Solenoid handelt. Die Toroide bilden den Transportkanal für den Ringstrahl, während der Injektionssolenoid senkrecht zwischen den beiden Toroiden endet und den Injektionskanal für den Injektionsstrahl darstellt.
Zunächst wurde das Injektionssystem mittels Strahltransportsimulationen untersucht und aufbauend auf den Ergebnissen die benötigen Vakuumkomponenten sowie der Injektionsmagnet ausgelegt, entwickelt und umgesetzt. Anschließend wurde mit dem fertigstellten Injektionsexperiment der Transport von zwei Ionenstrahlen durch das Injektionssystem experimentell erforscht. Dabei wurden die Strahlpfade mit einem in Entwicklung befindlichen Kameradetektorsystem aus verschiedenen Perspektiven aufgenommen und das Strahlverhalten in Abhängigkeit von unterschiedlichen Parametern phänomenologisch analysiert und diskutiert, mit den Ergebnissen der Simulationen verglichen sowie theoretisch bzgl. der RxB Drift und eines Gedankenmodells eingeordnet. Die technische Umsetzung, Inbetriebnahme und Durchführung verschiedener Vorabexperimente bzgl. weiterer Komponenten des Injektionsexperiments (bspw. Ionenquellen und Filterkanäle) ist ebenfalls Bestandteil dieser Arbeit.
Bei den experimentellen Untersuchungen mit Wasserstoff- und Heliumionenstrahlen konnte beobachtet werden, wie der Injektionsstrahl in den zweiten Toroid driftet und somit erfolgreich injiziert wird. Des Weiteren wurde eine Heliummessung durchgeführt, bei der sowohl der Injektionsstrahl als auch der Ringstrahl erfolgreich durch das Injektionssystem transportiert werden konnten. Auch die Auswirkungen des Injektionsmagneten auf den Ringstrahl konnten experimentell untersucht werden. Die verschiedenen Messungen wurden mittels des Gedankenmodells diskutiert und mit den Ergebnissen der Simulationen sowie untereinander verglichen.
Das abschließende Ergebnis dieser Arbeit ist, dass durch den Einsatz von solenoidalen und toroidalen Magnetfeldern der Injektionsstrahl vom Injektionsmagneten in den zweiten Toroid transportiert und dieser somit in die gekoppelte magnetische Konfiguration der Toroide eingelenkt werden kann. Der gleichzeitige verlustfreie Transport eines Ringstahls durch das Injektionssystem konnte dabei ebenfalls realisiert werden. Des Weiteren stimmen die Ergebnisse der Simulationen und Experimente sowie die theoretischen Überlegungen überein.
Das neuartige Injektionskonzept, welches als Schlüsselkomponente für die Umsetzung des Figure-8 Hochstromspeicherrings benötigt wird, wurde somit mittels Theorie, Simulation und Experiment überprüft und die Funktionalität bestätigt.
Zukünftige Forschungsfragen für welche der Figure-8 Hochstromspeicherring verwendet werden könnte, bspw. aus den Bereichen der experimentellen Astrophysik oder Fusionsforschung, wurden abschließend diskutiert.
Acute myeloid leukemia (AML) is a clonal malignancy of hematopoietic stem cells (HSCs) characterized by expansion of myeloid blasts in the bone marrow. It has been shown that autophagy is a degradative process, which delivers cytoplasmic components to lysosomes to prevent malignant transformation by maintaining HSC integrity. Besides its function as a bulk degradation machinery to recycle cytoplasmic components during limited energy supply, autophagy also serves as an intracellular quality control mechanism. Selective autophagy requires autophagy receptors such as p62 to specifically bridge the targeted cargos into autophagosomes. p62 is known as a central signaling hub involved in pro-oncogenic signaling pathways and autophagic degradation pathways. However, little is known about the role of p62 as a selective autophagy receptor in AML. This study aims to elucidate the precise function of p62 as an autophagy receptor in leukemia development and maintenance.
In silico analysis revealed that high p62 expression was significantly associated with poor overall survival of adult patients with de novo AML, suggesting that p62 may promote leukemia maintenance. To address the functional role of p62 in leukemia, genome editing by CRISPR/Cas9 was used to knockout p62 in four human AML cell lines. Importantly, p62 loss reduced cell proliferation in all four cell lines. This observation could be transferred to a murine leukemia cell model in which leukemic transformation of lineage-depleted bone marrow (ldMBM) cells was induced by overexpression of the human transcriptional coactivator MN1. Knockdown of p62 by shRNA in MN1-driven leukemia cells impaired proliferation and decreased colony forming ability without altering apoptosis. This indicates that p62 is crucial for leukemia proliferation in vitro. To further characterize the role of p62 in leukemia development and maintenance a murine AML transplantation model was established. Therefore, ldMBM cells isolated from WT and p62-/- mice were transduced with MN1 and transplanted into lethally irradiated mice. As expected, all mice developed fatal myeloid proliferation. Notably, p62 loss in MN1-driven leukemia significantly prolonged survival in mice and caused a more immature phenotype. Consistent with the in vitro results, ex vivo analysis of p62-/- leukemic cells displayed decreased colony-forming ability, although p62 loss did not affect composition and function of HSCs. Moreover, re-transplantation of primary MN1-driven leukemia cells attenuated leukemia progression upon p62 loss. These findings support a decisive role of p62 in leukemia development and maintenance.
To gain molecular insight into the function of p62 during myeloid transformation an interactome analysis of murine MN1-driven leukemia cells was performed. This revealed first that p62 predominantly interacts with mitochondrial proteins and second that inhibition of autophagic degradation causes accumulation of p62-bound mitochondria. This leads to the first assumption that loss of p62 may provoke mitochondrial accumulation with increasing mitochondrial damage and second that p62 may mediate degradation of mitochondria by mitophagy. Indeed, in the absence of p62, accumulation of dysfunctional mitochondria was detected by morphological changes of the mitochondria, increased mitochondrial ROS and impaired mitochondrial respiration capacity. Furthermore, induction of PINK1/Parkin-independent mitophagy revealed that loss of p62 caused impaired degradation of mitochondrial proteins and reduced translocation of damaged mitochondria into autophagosomes. Taken together, p62 is required for effective degradation of dysfunctional mitochondria by mitophagy in AML.
Due to the fact that p62 is a multifunctional protein, rescue experiments with different mutants of p62 were performed to clarify if p62-mediated mitophagy contributes to leukemia proliferation. Notably, the autophagy-deficient mutant (disabled to bind autophagosomes) reduced cell growth and colony-forming ability to the same extent as knockdown of p62, as the clustering-deficient mutant (disabled to form aggregates) displayed an intermediate phenotype. Strikingly, only the autophagy-deficient mutant failed to rescue mitophagy.
In conclusion, this study demonstrates the prominent role of p62 as a selective autophagy receptor for mitochondrial quality control which contributes to leukemia development and maintenance. Therefore, targeting selective autophagy opens new venues in the treatment of AML.
We live in age of data ubiquity. Even the most conservative estimates predict exponential growth in produced, transmitted and stored data. Big data is used to power business analytics as well as to foster scientific discoveries. In many cases, explosion of produced data exceeds capabilities of digital storage systems. Scientific high-performance computing environments cope with this problem by utilizing large, distributed, storage systems. These complex systems can only provide a high degree of reliability and durability by means of data redundancy. The most straight-forward way of doing that is by replicating the data over different physical devices. However, more elaborate approaches, such as erasure coding, can provide similar data protection while utilizing less storage. Recently, software-defined reliability methods began to replace traditional, hardware- based, solutions. Complicated failure modes of storage system components also warrant checksums to guaranty long-term data integrity. To cope with ever increasing data volumes, flexible and efficient software implementation of error correction codes is of great importance. This thesis introduces a method for realizing a flexible Reed-Solomon erasure code using the “Just-In-Time” compilation technique. By exploiting intrinsic arithmetic redundancy in the algorithm, and by relying on modern optimizing compilers, we obtain a throughput-efficient erasure code implementation. Additionally, exploitation of data parallelism is achieved effortlessly by instructing the compiler to produce SIMD code for desired execution platform. We show results of codes implemented using SSE and AVX2 SIMD instruction sets for x86, and NEON instruction set for ARM platforms. Next, we introduce a framework for efficient vectorized RAID-Z redundancy operations of ZFS file system. Traditional, table-based Galois field multiplication algorithms are replaced with custom SSE and AVX2 parallel methods, providing significantly faster and more efficient parity operations. The implementation of this framework was made publicly available as a part of ZFS on Linux project, since version 0.7. Finally, we propose a new erasure scheme for use with existing, high performance, parallel filesystems. Described reliability middleware (ECCFS) allows definition of flexible, file-based, reliability policies, adapting to customized user needs. By utilizing the block erasure code, the ECCFS achieves optimal storage, computation, and network resource utilization, while providing a high level of reliability. The distributed nature of the middleware allows greater scalability and more efficient utilization of storage and network resources, in order to improve availability of the system.
Identification and characterization of hypoxia-regulated long non-coding RNAs in endothelial cells
(2018)
RNA deep sequencing of the human transcriptome revealed that almost ~84 % of the genome are transcribed, however, only 2 % of all transcripts encode for proteins. All remaining transcripts are referred to as non-coding RNAs and can be divided into small non-coding RNAs (<200 nt) and long non-coding RNAs (lncRNAs; >200 nt). Studies throughout the last decade suggest a broad functional spectrum for lncRNAs. Regarding the cardiovascular field, several studies could show that lncRNAs are implicated in various aspects of endothelial cell biology. The response to hypoxia and the regulation of angiogenesis are key events in the context of several diseases. Therefore, the aim of this study was to determine the influence of hypoxia on lncRNA expression in human umbilical vein endothelial cells and furthermore, to characterize the lncRNA function on a molecular level. ...
A sound and well-functioning legal system will encourage growth in investment and create opportunities for investors. Trademarks as part of intellectual property play an important role in the future development of a country. A mark or symbol is needed in order to give products and services identity and to distinguish them and their qualities from identical or similar products and services of a competitor.
This research studies, examines and analyses the degree, nature and function of trademark protection within the legal system of Afghanistan and compare them with the Paris, Madrid and TRIPs agreements. It has been divided into four chapters: Chapter one provides general information and an overview of the current legal system of Afghanistan. Chapter two studies and analyses international agreements pertaining to the legal protection of trademark. It also critically assesses the ATML compatibility with these agreements: and answers the research question of to what extent the ATML provisions are compatible with them. Chapter three provides information on the different purposes of trademarks from a development perspective and compares the purposes provided by the ATML. Finally, chapter four assesses and examines the acquisition, assignment and termination of trademarks. The conclusions and findings of the thesis are the final section of this research.
Afghanistan, as a transitioning economy, has not developed a solid legal and practical foundation for providing comprehensive protection mechanisms for trademarks as have been articulated in developed countries and international agreements. Accordingly, the Afghan government has not entirely integrated these needs into its legal system and there are some inconsistencies of the ATML with these agreements.
One more challenge is the lack of appropriate legal institutions for issuing, managing, administering and protecting of trademarks. The establishment of a well-functioning administrative institution will serve to fulfil the objectives of the laws. Therefore, the CBR office holds the administrative responsibility for processing the registration of trademarks.
However, the methods and facilities of the CBR office remain outdated, and the office does not have the capacity to provide applicants with up-to-date administrative and technical facilities.
Therefore, legal protection of trademark in Afghanistan is linked not only to the existence of a well functioning of laws, regulations, clear procedures, mechanism and guidelines but also to an efficient and well-functioning administrative office.
A lot of software systems today need to make real-time decisions to optimize an objective of interest. This could be maximizing the click-through rate of an ad displayed on a web page or profit for an online trading software. The performance of these systems is crucial for the parties involved. Although great progress has been made over the years in understanding such online systems and devising efficient algorithms, a fine-grained analysis and problem specific solutions are often missing. This dissertation focuses on two such specific problems: bandit learning and pricing in gross-substitutes markets.
Bandit learning problems are a prominent class of sequential learning problems with several real-world applications. The classical algorithms proposed for these problems, although optimal in a theoretical sense often tend to overlook model-specific proper- ties. With this as our motivation, we explore several sequential learning models and give efficient algorithms for them. Our approaches, inspired by several classical works, incorporate the model-specific properties to derive better performance bounds.
The second part of the thesis investigates an important class of price update strategies in static markets. Specifically, we investigate the effectiveness of these strategies in terms of the total revenue generated by the sellers and the convergence of the resulting dynamics to market equilibrium. We further extend this study to a class of dynamic markets. Interestingly, in contrast to most prior works on this topic, we demonstrate that these price update dynamics may be interpreted as resulting from revenue optimizing actions of the sellers. No such interpretation was known previously. As a part of this investigation, we also study some specialized forms of no-regret dynamics and prediction techniques for supply estimation. These approaches based on learning algorithms are shown to be particularly effective in dynamic markets.
Einleitung: Feedback ist ein elementarer Bestandteil effektiven Lernens, auch im Medizinstudium, insbesondere beim Erlernen praktischer Fertigkeiten. Feedback kann in verschieden Formen gegeben werden, die Einfluss auf das Erlernen und Behalten der Fertigkeit haben.
Videofeedback, auf der Grundlage von Videoaufzeichnungen einer Tätigkeit, erscheint hierbei eine effektive Methode zum Verstärken des Lerneffektes bei komplexen praktischen Fertigkeiten darzustellen.
Das Ziel der vorliegenden Arbeit war die vergleichende Effektivitätsanalyse von Videofeedback im Vergleich zu mündlichem Feedback auf das Erlernen des sterilen Arbeitens bei der Wundversorgung als Beispiel für eine komplexe praktische Fertigkeit.
Methode: Medizinstudierende an der Goethe-Universität Frankfurt am Main absolvieren im Rahmen ihrer curricularen Ausbildung im 2. bzw. 3. klinischen Semester das dreiwöchige Blockpraktikum Chirurgie. Hierbei durchlaufen sie das einwöchige „Training praktischer Fertigkeiten“ im Skillslab. Im Rahmen dieses aus 12 Modulen bestehenden Trainings absolvieren die Studierenden unter anderem das Modul „Wundversorgung“. In dieser 210-minütigen Trainingseinheit erlernen und üben sie die Versorgung einer einfacher Schnittwunden (von der Anamnese über das sterile Abdecken bis zum Anlegen des Verbandes) unter Anleitung und Supervision eines Peer-Tutors.
Im Rahmen der vorliegenden Arbeit wurden die Studierenden in eine Interventions- und eine Kontrollgruppe randomisiert. Die Interventionsgruppe wurde beim Üben auf Video aufgezeichnet. Im Anschluss erhielten die Studierenden anhand der Videoaufzeichnung Feedback durch einen Peer-Tutor. Die Kontrollgruppe erhielt nach dem Üben Feedback durch den Peer-Tutor ohne Videoaufzeichnung.
Direkt im Anschluss an das Modul absolvierten die Studierenden zwei strukturierte checklistenbasierte formative Prüfungsstationen im Sinne von zwei Objective Structured Clinical Examination-Stationen (OSCE); 2 bis 3 Monate nach dem Training erfolgte die zweite Datenerhebung im Rahmen des summativen curricularen OSCE als Abschlussprüfung des Blockpraktikums Chirurgie.
Ergebnisse: Insgesamt nahmen 107 Studenten an der vorliegenden Studie teil. Am Messzeitpunkt 1 zeigte sich kein signifikanter Unterschied zwischen Interventions- und Kontrollgruppe. Am Messzeitpunkt 2 mussten an der Prüfungsstation „Wundversorgung“ 39 Studierende durch veränderte und damit nicht mehr vergleichbare Prüfungsbedingungen ausgeschlossen werden. An der zweiten Prüfungsstation konnten alle Studierenden in die Auswertung inkludiert werden. Auch am Messzeitpunkt 2 zeigte sich kein signifikanter Unterschied zwischen Interventions- und Kontrollgruppe.
Schlussfolgerung: Im Kontext des curricularen chirurgischen Training praktischer Fertigkeiten konnte für das Erlernen des sterilen Arbeitens kein Unterschied zwischen reinem mündlichen Feedback und Videofeedback nachgewiesen werden.
The focus of this thesis is the integral membrane protein Escherichia coli diacylglycerol kinase (DGK). It is located within the inner membrane, where it catalyzes the ATP-dependent phosphorylation of diacylglycerol (DAG) to phosphatic acid (PA). DGK is a unique enzyme, which does not share any sequence homology with typical kinases. In spite of its small size, it exhibits a notable complexity in structure and function. The aim of this thesis is the investigation of DGK’s structure and function at an atomic level directly within the native-like lipid bilayer using MAS NMR. This way, a deeper understanding of DGK’s catalytic mechanism should be obtained.
First, the preparation of DGK was optimized, leading to a sample, which provides well-resolved MAS NMR spectra. The high quality MAS NMR spectra formed the foundation for the second step, the resonance assignment of DGK’s backbone and side chains. The assignment was performed at high magnetic field (1H frequency 850 MHz). The sequential assignment of immobile domains was carried out using dipolar coupling based 3D experiments, NCACX, NCOCX and CONCA. The measurement time could be reduced by paramagnetic doping with Gd3+-DOTA in combination with an E-free probehead. The sequential assignment was mainly performed using a uniformly labelled sample (U-13C,15N-DGK). Residual ambiguities could be resolved by reverse labelling (U-13C,15N-DGK-I,L,V). Resonances could be assigned for 82% of the residues, from which 74% were completely assigned. For validation, ssFLYA was applied, which is a generally applicable algorithm for the automatic assignment of protein solid state NMR spectra. Its principal applicability for demanding systems as membrane proteins could be proven for the first time. Overall, ~90% of the manually obtained assignments could be confirmed by ssFLYA. For the completion of DGK’s assignment, J-coupling based 2D experiments, 1H-13C/15N HETCOR and 13C-13C TOBSY, were carried out to detect highly mobile residues. This way, residues of the two termini and the cytosolic loop, which were not detectable by dipolar coupling based experiments, could be assigned tentatively. Whereupon, peaks for arginine and lysine were assigned unambiguously to Arg9 and Lys12. Overall, ~84% of the residues could be assigned by the applied NMR strategy. Furthermore, a secondary structure analysis was carried out. It showed substantial similarities between wild-type DGK, its thermostable mutant determined both by MAS NMR and the crystal structure of wtDGK. However, there are few differences around the flexible regions most likely caused by the high mobility of these regions. During the assignment procedure, no systematic peak doublets or triplets were detected, indicating that the DGK trimer adopts a symmetric conformation. This is in contrast to the X-ray structure, which shows asymmetries between the three subunits. Especially, crystal packing may be a potential source for these structural asymmetries.
On the basis of the nearly complete assignment of DGK, the apo state was compared with the substrate bound states. Perturbations in peak position and intensity of the substrate bound states were analysed for all assigned residues in 3D and 2D spectra. The nucleotide-bound state was emulated by adenylylmethylenediphosphonate (AMP-PCP), a non-hydrolysable ATP analogue, whereas the DAG-bound state was mimicked by 1,2-dioctanoyl-sn-glycerol (DOG, chain length n = 8). Upon nucleotide binding, extensive chemical shift perturbations could be observed. These data provide evidence for a symmetric DGK trimer with all of its three active sites concurrently occupied. Additionally, it could be demonstrated that the nucleotide substrate induces a substantial conformational change. This most likely supports the enzyme in binding of the lipid substrate, indicating positive heteroallostery. In contrast, the overall alterations caused by DOG are very minor. They involve mainly changes in peak intensities. For DGK bound with either AMP-PCP+DOG or only AMP-PCP, a similar spectral fingerprint was observed. This implies that binding of the nucleotide seems to set the enzyme into a catalytic active state, triggering the actual phosphoryl transfer reaction.
The investigation of DGK’s remarkable stability and the cross-talk between its subunits forms the last part of this thesis. This demands for the identification of key intra- and interprotomer contacts, which are of structural or functional importance. For this purpose, 13C-13C DARR and 2D NCOCX spectra with long mixing times were recorded using high field MAS NMR. Additionally, DNP-enhanced 13C−15N TEDOR experiments were conducted on mixed labelled DGK trimers to enable the visualization of interprotomer contacts. With the applied NMR strategy, intra- (Arg32 - Trp25/ Glu28/ Ala29 and Trp112 - Ser61) and interprotomer (ArgNn,e - AspCg/ GluCd/ AsnCg) long-range interactions could be identified.
Stereotaktische Biospien gehören seit vielen Jahren zu den Standardoperationen zahlreicher neurochirurgischer Kliniken. Hierbei werden Proben von Hirnläsionen entnommen, um diese histopathologisch zu untersuchen.
Die histopathologische Diagnose unklarer Hirnläsionen ist zwingend erforderlich, um eine adäquate Therapie durchzuführen. Eine weitere Therapie kann aus Bestrahlung, Chemotherapie, Kombination beider oder Resektion bestehen. In wenigen Fällen wird eine zweite oder dritte Biopsie benötigt, um eine endgültige Diagnose zu erhalten. Das Ziel dieser Studie war es, jene Patienten genauer zu untersuchen, bei denen die erste Biopsie kein definitives Ergebnis erbracht hatte. Die meisten dieser Patienten mussten sich einer zweiten Biopsie unterziehen. Wir haben eine umfassende Recherche der letzten 10 Jahre durchgeführt und eine Datenbank mit den Patienten erstellt, bei denen die erste Biopsie kein Ergebnis erbracht hatte.
Hierbei wurden klinische Parameter, welche einen Einfluss auf die nicht zielführenden Biopsie haben können, erhoben, beschrieben und diskutiert. Die Parameter umfassten die entnommene Probenanzahl, Kontrastmittelaufnahme der Läsion, Lokalisation der Läsion, Erfahrung des Operateurs, neuroradiologische Verdachtsdiagnose und Vorbehandlung.
Wir haben in dieser retrospektiven Arbeit unser Augenmerk auf die klinischen Aspekte der einzelnen Patienten, bei denen die erste Biopsie kein definitives Ergebnis erbrachte, gelegt.
Hier zeigten sich keinerlei Auffälligkeiten, welche positiv mit einer nichtzielführenden Biopsie einhergehen könnten.
Wir folgern, dass in den meisten Fällen eine definitive Diagnose zu erwarten ist. Unklar bleibt, bei welchen Patienten keine zielführende Biopsie erfolgen wird, so dass sie einer erneuten Biopsie unterzogen werden müssen.
Die Herzinsuffizienz im hohen Lebensalter spielt wegen der demografischen Entwicklung in Deutschland eine zunehmende Rolle im perioperativen Setting der Herzchirurgie. Auch nehmen strukturelle Schäden und Dysfunktionen am Herzen aufgrund von chronischen kardiovaskulären Erkrankungen zu. Diese bedürfen oftmals einer operativen Intervention als Therapie. Zum perioperativen Monitoring werden verschiedene Laborwerte herangezogen, um mögliche Komplikationen frühzeitig zu erkennen. In der vorliegenden Studie wurde das Augenmerk auf Hochrisikopatienten mit Herzinsuffizienz gelegt. Die Fragestellung behandelt, ob sich gewisse Entzündungsmarker bei Hochrisikopatienten, vor allem im hohen Lebensalter, bei verschiedenen Risikogruppen unterscheiden. Es handelt sich um eine prospektive Beobachtungsstudie, in der 94 Patienten perioperativ untersucht wurden. Diese wurden in zwei Gruppen mit jeweils 47 Patienten unterteilt. Die eine enthielt Patienten unter 75 Jahren mit einer linksventrikulären Ejektionsfraktion <35%, einer operationsbedürftigen Mehrklappen-Erkrankung oder einer Herzklappendysfunktion, kombiniert mit einer operationswürdigen koronaren Herzkrankheit. In der zweiten Gruppe wählte man Patienten in einem Alter ab 75 Jahren mit einer operationsbedürftigen Herzkrankheit. Bestimmt wurden die Entzündungsparameter CRP, Procalcitonin, Interleukin 6 und Interleukin 8. Zusätzlich wurde NT-pro-BNP als Marker für Herzinsuffizienz bestimmt. Die Blutentnahmen erfolgten präoperativ, unmittelbar postoperativ, am 1.,2. und 5. Tag postoperativ. Die präoperativen Werte wurden mit dem Risikoprofil der Patienten in Korrelation gesetzt. Dabei stach heraus, dass bei Patienten mit stattgehabter kardialer Dekompensation die Werte von CRP, NT-proBNP, IL6 und IL8 signifikant erhöht waren. Postoperativ erlitten diese Patienten häufiger eine Rethorakotomie. Außerdem ergab sich ein signifikanter Zusammenhang zwischen der Höhe der postoperativen Entzündungsparameter und dem Auftreten einer postoperativen Sepsis oder Infektion. Hier zeigte sich, dass CRP erst ab dem 5. Tag postoperativ als Indikator für eine solche gewertet werden kann, während Procalcitonin, IL6 und IL8 schon unmittelbar postoperativ als Parameter für das Auftreten einer Sepsis oder Infektion herangezogen werden können. In der vorliegenden Studie wurden jedoch nicht die Zeitpunkte der postoperativen Komplikationen bestimmt, was eine Prüfung auf Unterschied mit den postoperativen Etnzündungswerten erschwert. Zwischen den perioperativen Verläufen der bestimmten Parameter gab es zwischen den beiden Gruppen keinen signifikanten Unterschied. Dies impliziert, dass eine Ejektionsfraktion <35%/eine Mehrklappen-Erkrankung und ein Alter über 75 Jahren bei gröstenteils normwertiger EF als ebenbürtige Risikofaktoren angesehen werden können.
Die moderne Hauptgruppenchemie ermöglicht es Siliciumverbindungen in unterschiedlichen Oxidationsstufen und mit ungewöhnlichen Koordinations- umgebungen zu realisieren: Silane, Silylene, Disilene, Disiline und molekularer Sand (SiO2) können soweit stabilisiert werden, dass eine Charakterisierung gelingt. Ein Verständnis für die Eigenschaften und Reaktivitäten dieser Verbindungen eröffnet Perspektiven zur gezielten Synthese verschiedener Siliciumverbindungen. Industriell sind im wesentlichen zwei Substanzklassen interessant: Perchlorierte Silane, die als Vorstufen für die Abscheidung elementaren Siliciums als Halbleitermaterial Verwendung finden und Organo(Chlor)silane, die wichtige Bausteine für den Aufbau von Silikonen und für Hydrosilylierungsreaktionen darstellen. Im Rahmen dieser Dissertationsschrift wurden mittels quantenchemischer Rechnungen Schlüssel-intermediate für den Aufbau solcher Verbindungen identifiziert und durch Einblicke in den Reaktionsmechanismus das Fundament für ein tiefergehendes Verständnis der dynamischen kovalenten Chemie der Oligosilane gelegt. Dies geschah in enger Zusammenarbeit mit den experimentellen Arbeitsgruppen von Prof. Wagner und Prof. Auner.
Im ersten Teil dieser Arbeit wurde die Hochtemperatur-Komproportionierungsreaktion von gasförmigem Siliciumtetrachlorid und elementarem Silicium untersucht (Chem. Eur. J. 2017, 23, 12399). In einer Gasphasenreaktion entsteht dabei ein perchloriertes Polysilan (PCS) unbekannter Zusammensetzung. Im Ergebnis konnten wir zeigen, dass PCS eine komplexe Mischung verschiedener molekularer perchlorierter Silane darstellt, von denen lediglich cyc-Si5Cl10 experimentell eindeutig charakterisiert werden kann. Ausgehend von Dichlorsilylen als reaktive Spezies in der Gasphase zeigten DFT-Berechnungen, dass durch Silylendimerisierung, Silyleninsertion und eine Reihe von Isomerisierungsreaktionen der Aufbau cyclischer Perchlorsilane mit unterschiedlichem Silylierungsgrad gegenüber dem entsprechenden Aufbau acyclischer Perchlorsilane aus nicht umgesetzten Siliciumtetrachlorid bevorzugt stattfindet. PCS liefert ein 29Si-NMR- Spektrum mit einer verwirrenden Vielzahl verschiedener Signale, die auch anhand quantenchemisch berechneter 29Si-NMR-chemischer Verschiebungen nicht eindeutig zugeordnet werden konnten. Dennoch war eine Einteilung der berechneten Verschiebungen in Bereiche möglich, in denen Verschiebungen für Siliciumatome cyclischer und acyclischer Perchlorsilane mit einer bestimmten formalen Oxidationsstufe zu erwarten sind.
Weiterhin wurde der Chlorid-induzierte Aufbau perchlorierter Silane aus Si2Cl6 untersucht: Der Bildungsmechanismus für die durch Tillmann röntgen- kristallographisch charakterisierten perchlorierten Silikate und dianionischen (silylsubstituierten) Cyclohexasilane wurde in einer DFT-Studie untersucht und Schlüsselintermediate sowie stabile Zwischenstufen identifiziert (Chem. Eur. J. 2014, 20, 9234). Wir konnten zeigen, dass SiCl3– als reaktives Intermediat für die Si–Si Bindungsknüpfung verantwortlich ist. Die experimentell nachgewiesenen Silikate sind, mit einer Ausnahme für die ein anderes Konformer gefunden wurde, identisch mit den theoretisch vorhergesagten lokalen Minima. Sie entstehen durch eine Reihe von reversiblen Additions- und Isomerisierungsreaktionen. Dabei sind die acyclischen Silikate über Gleichgewichtsreaktionen miteinander verknüpft, wobei die berechneten Aktivierungsbarrieren für die Rückreaktion immer etwas höher sind als die Barrieren für den nächsten Aufbauschritt. Im Rahmen dieser Gleichgewichtsreaktionen entsteht nicht nur SiCl3–, sondern es können auch höhere Silanide eliminiert werden, die ab einer Größe von drei Siliciumatomen zu Cyclohexasilanen dimerisieren. Mit der head- to-tail Dimerisierung des bevorzugt gebildeten Silanids erklärt sich zwanglos das Substitutionsmuster aller röntgenkristallographisch charakterisierten zweifach silylsubstituierten Cyclohexasilane. Weiterhin ist es gelungen, den Reaktions- mechanismus für den Chlorid-induzierten Aufbau des dianionischen inversen Sandwichkomplexes [Si6Cl12*2Cl]2– aus HSiCl3 aufzuklären, in dem ebenfalls SiCl3– das Schlüsselintermediat darstellt. Letzteres entsteht durch die Eliminierung von HCl aus dem Chloridaddukt von HSiCl3. Der Reaktionsmechanismus beinhaltet Chlorid- abstraktionen, Hydridabstraktionen, Deprotonierungen, Silanid-Additionen, sowie Silanid-Eliminierungen, die nahezu gleichberechtigt nebeneinander vorkommen. Alle identifizierten Reaktionsschritte münden immer wieder in die Pfade, die bereits für den Aufbau aus Si2Cl6 gefunden wurden.
...
Die Forschungsarbeit leistet einen kriminologischen Beitrag zur Systematisierung des Phänomens der sekundären Viktimisierung bei Opfern sexualisierter Gewalt und zeigt gleichzeitig Präventionsansätze auf, die sekundäre Viktimisierung verhindern sollen.
„Sekundäre Viktimisierung“ als die sogenannte „zweite Opferwerdung“ durch soziale Fehlreaktionen einzelner Personen oder gesellschaftlicher Gruppen sowie die Prävention dieses Phänomens ist im Detail noch wenig erforscht. Der Fokus des Forschungs- und Erkenntnisinteresses richtet sich auf die Zielgruppe der Opfer sexualisierter Gewalt, die in ihrer Kindheit sexuell missbraucht und als Erwachsene sekundär viktimisiert wurden. Es wird angenommen, dass Sexualstraftaten, die von den Opfern im Kindesalter erlitten werden, in besonderem Maße die persönliche Unversehrtheit verletzen und dass somit eine zusätzliche sekundäre Viktimisierung als besonders belastend empfunden wird.
Zunächst wird im theoretischen Teil auf wesentliche Begriffe wie sexualisierte Gewalt in Verbindung mit primärer und sekundärer Viktimisierung eingegangen und nimmt deren kriminologische Einordnung vor, stellt das Ausmaß sowie die Spezifika des Phänomens in den Fokus. Dabei wird zunächst der Opferbegriff ausführlich diskutiert, wobei der Opferperspektive viel Raum gegeben wird. Ein weiterer Schwerpunkt liegt auf der Darstellung des aktuellen Forschungsstandes zur sekundären Viktimisierung, insbesondere mit Bezug zu sexualisierter Gewalt.
Im Zentrum des qualitativen Forschungsansatzes stehen folgende Fragen: „Welche Strukturen prägen die Situationen sekundärer Viktimisierung?“ und „Wie ist Prävention von sekundärer Viktimisierung möglich?“. Auf der Grundlage der Forschungsergebnisse wurde ein Präventionskonzept mit praxisorientierten Empfehlungen entwickelt. Zunächst sind typische Strukturen sekundärer Viktimisierung analysiert und in einem Modell verdeutlicht worden. Es ist zu unterscheiden zwischen Strukturen, die sekundäre Viktimisierung begünstigen (Risikofaktoren) sowie Strukturen, die sekundärer Viktimisierung vorbeugen (Schutzfaktoren). Anhand der identifizierten Schutzfaktoren entstand das Modell zur Prävention sekundärer Viktimisierung, aus denen konkrete Präventionsansätze abzuleiten sind.
Hervorgehoben wird die kriminologische Orientierung der Arbeit; wenngleich die Kriminologie interdisziplinär einzuordnen ist, dominiert bei der Analyse die kriminalsoziologische Verortung und speziell die viktimologische Ausrichtung.
Heat stress transcription factors (Hsfs) are required for transcriptional changes during heat stress (HS) thereby playing a crucial role in the heat stress response (HSR). The target genes of Hsfs include heat shock proteins (Hsps), other Hsfs and genes involved in protection of the cell from irreversible damages due to exposure to elevated temperatures. Among 27 Hsfs in Solanum lycopersicum, HsfA1a, HsfA2 and HsfB1 constitute a functional triad which regulates important aspects of the HSR. HsfA1a is constitutively expressed and described as the master regulator of stress response and thermotolerance. Activation of HsfA1a under elevated temperatures leads to the induction of HsfA2 and HsfB1 which further stimulate the transcription of HS-responsive genes by forming highly active complexes with HsfA1a. Despite the well-established role of these three Hsfs in tomato HSR, information about functional relevance of other Hsfs is currently missing.
The heat stress inducible HsfA7 belongs alongside with HsfA2 to a phylogenetically distinct clade. Thereby the two proteins share high homology and a functional redundancy has been assumed. However, HsfA7 function and contribution to stress responses have not been investigated into detail in any plant species.
Tomato HsfA7 protein accumulates already at moderately elevated temperatures (~35°C) while HsfA2 becomes dominant at higher temperatures (>40°C). HsfA7 pre-mRNA undergoes complex and temperature-dependent alternative splicing resulting in several transcripts that encode for three protein isoforms. HsfA7-I contains a functional nuclear export signal (NES) and shows nucleocytoplasmic shuttling while HsfA7-II and HsfA7-III have a truncated NES which leads to the strong nuclear retention of the protein. Differences in the nucleocytoplasmic equilibrium have a major impact on the stability of protein isoforms, as nuclear retention is associated with increased protein turnover. Consequently, HsfA7-I shows a higher stability and can be detected even after 24 hours of stress attenuation, while HsfA7-II is rapidly degraded. The degradation of these factors is mediated by the ubiquitin-proteasome pathway.
HsfA7 can physically interact with HsfA1a and HsfA3 and form co-activator (“superactivator”) complexes with a very high transcriptional activity as shown on different HS-inducible promoters. In order for the complex to be successfully transferred to the nucleus and confer its activity it needs a functional nuclear localization signal (NLS) of HsfA7. In contrast, the activator (AHA) motif of HsfA7 is not essential for its co-activator function. Interestingly, while interaction of HsfA7 with either HsfA3 or HsfA1a stabilizes HsfA7 isoforms, concomitantly this leads to an increased turnover of HsfA1a and HsfA3. In contrast, HsfA2 has a stabilizing effect on the master regulator HsfA1a.
Thus, HsfA7 knockout mutants generated by CRISPR/Cas9 gene editing, show increased HsfA1a levels and a stronger induction of HS-related genes at 35°C compared to wild-type plants and HsfA2 knockout mutants. Consequently, HsfA7 knockout seedlings exhibit increased thermotolerance as shown by the enhanced hypocotyl elongation under a prolonged mild stress treatment at 35°C. In summary, these results highlight the importance of HsfA7 in regulation of cellular responses at elevated temperatures. Under moderately elevated temperatures, the accumulation of HsfA7 and its subsequent interaction with HsfA1a, leads to increased turnover of the latter, thereby ensuring a milder transcriptional activation of temperature-responsive genes like Hsps. In turn, in response to further elevated temperatures, HsfA2 becomes the dominant stress-induced Hsf. HsfA2 forms co-activator complexes with HsfA1a which in contrast to HsfA7, allows the stabilization of the master regulator, leading to the stronger expression of HS-responsive genes required for survival. Thereby, this study uncovers a new regulatory mechanism, where the temperature-dependent competitive interaction of HsfA2 and HsfA7 with HsfA1a control the fate of the master regulator and consequently the activity of temperature-responsive networks.
Cells within a tissue form highly complex, cellular interactions. This architecture is lost in twodimensional cell cultures. To close the gap between two-dimensional cell cultures and in vivo tissues, three-dimensional cell cultures were developed. Three-dimensional cellular aggregates such as spheroids, organoids, or embryoid bodies have been established as an essential tool in many different aspects of life science, including tumour biology, drug screening and embryonic development. To fully take advantage of the third dimension, imaging techniques are essential. The emerging field of “imagebased systems biology” exploits the information in images and builds a connection between experimental and theoretical investigation of biological processes at a spatio-temporal level. Such interdisciplinary approaches strongly depend on the development of protocols to establish threedimensional cell cultures, innovations in sample preparation, well-suited imaging techniques and quantitative segmentation methods.
Although three-dimensional cell cultures and image-based systems biology provide a great potential, two-dimensional methods are still not completely replaced by three-dimensional methods. The knowledge about many biological processes relies on two-dimensional experiments. This is mainly due to methodical and technical hurdles. Therefore, this thesis provides a significant contribution to overcome these hurdles and to further develop three-dimensional cell cultures. I established computational as well as experimental methods related to three-dimensional cellular aggregates and investigated fundamental, cellular processes such as adhesion, growth and differentiation.
Cells within a tissue form highly complex, cellular interactions. This architecture is lost in two-dimensional (2D) cell cultures. To close the gap between 2D cell cultures and in vivo tissues, three-dimensional (3D) cell cultures such as spheroids or embryoid bodies were developed. To fully take advantage of the third dimension, imaging techniques are essential. The emerging field of "image-based systems biology" exploits the information in images and builds a connection between experimental and theoretical investigation of biological processes. Such interdisciplinary approaches strongly depend on the development of protocols to establish 3D cell cultures, innovations in sample preparation, well-suited imaging techniques and quantitative segmentation methods.
Although 3D cell cultures and image-based systems biology provide a great potential, 2D methods are still not completely replaced by 3D methods. This is mainly due to methodical and technical hurdles. Therefore, this thesis provides a significant contribution to overcome these hurdles and to further develop 3D cell cultures. I established computational and experimental methods related to 3D aggregates and investigated fundamental, cellular processes such as adhesion, growth and differentiation.
The automatic segmentation method "PAS" and "LoS" were developed in the context of this thesis. They extract essential biological properties such as the projected area or features of cell nuclei from 2D or 3D images of 3D aggregates. Both algorithms show their accuracy robustly over image data from different samples and different microscopes. In addition, the superior performance of PAS and LoS was proven in a comparison with state-of-the-art methods.
The PAS approach served as an essential basis for investigating cellular processes such as adhesion and growth which are tightly regulated to contribute to tissue integrity. These processes are involved in the formation of spheroids. The temporally resolved data of spheroid formation of three mammary epithelial cell lines revealed differences in their formation dynamics as well as in the onset of spheroid formation phases (aggregation, compaction and growth). Despite these differences, adhesion- and growth-associated proteins such as E-cadherin, actin, microtubules, and the focal adhesion kinase show similar importance in a particular phase. Notably, certain proteins (e.g. E-Cadherin) contribute differently to spheroid formation of cells from different cell types in terms of cell adhesion and growth. Overall, analyses of the individual phases of spheroid formation revealed the temporal coordination of fundamental tissue-specific processes. The results contribute to a better understanding of the maintenance and disruption of tissue integrity.
An important but yet unknown process is how cells accomplish to arrange themselves against the gravitational force to form a spheroid. Live imaging with light sheet-based microscopy provides the best solution for a temporally and in particular spatially resolved investigation of spheroid formation. Although the imaging possibilities increase with this particular microscopy technique, available sample preparation methods are rare. Therefore, I have significantly optimized "agarose beaker" as preparation method for 3D long-term imaging of spheroid formation. The data show that upward movement of the cells takes place early. This movement is initiated in the centre of the initially flat cell layer. Subsequently, the cells move from the periphery of the cell layer toward the centre. Cells rearrange within the spheroid which is followed by growth. It is very likely that 3D aggregates form by adopting an energetically favoured, spherical shape by increasing cell-cell or cell-matrix contacts.
Besides the knowledge gained from the examination of the self-assembly process in different contexts, fully formed cellular aggregates can serve as basis to investigate differentiation processes. Differentiation guide cell fate specification during early embryonic development (i.e. preimplantation) and is not fully understood yet. Due to the lack of an in vitro system for preimplantation, I have developed "blastoids". These are 3D multicellular aggregates of mouse embryonic stem cells which represent important phases of preimplantation and beyond. In qualitative and quantitative analyses, a strong similarity was proven between blastoids and the inner cell mass of in vivo mouse embryos. Further results strongly suggest that both, the cell number and the trophectoderm play a subordinate role for cell fate decision during preimplantation. Furthermore, 3D neighbourhood analyses have shown that both, blastoids and mouse embryos, do not show a random "salt-and-pepper" pattern during differentiation. Instead, they show a yet unknown local clustering of cells with identical fates, suggesting local cell interactions that influence cell fate decision. Furthermore, the data indicate that the maturation of the epiblast in the later stages of preimplantation is initiated by an interaction between cells of the epiblast and the primitive endoderm.
Using image-based systems biology, I have investigated fundamental cellular processes such as adhesion, growth and differentiation in the context of tissue integrity and early embryonic development using 3D cellular aggregates. This highly interdisciplinary work is a major contribution to 3D cell biology and demonstrates how cells bind and interact within a complex system. The main methods developed in this thesis as well as the biological findings can be used not only in further biological but also in medical and pharmacological studies. They have the potential to advance our understanding of complex biological systems and to provide new opportunities for practical applications.
Role of npas4l and Hif pathway in endothelial cell specification and specialization in vertebrates
(2018)
Cardiovascular development requires two main steps, vasculogenesis and angiogenesis. During vasculogenesis, angioblasts, the precursors of endothelial cells (ECs), specify from the mesoderm and coalesce to form the axial vessels of the vertebrate embryo. Many questions regarding the transcriptional waves initiating and sustaining angioblast specification are still unanswered. The identity of cloche, a gene essential for EC differentiation in zebrafish, was only recently discovered by our group, and very little is known about its upstream regulators or its molecular mechanism of action. I described the molecular players involved in orchestrating npas4l expression, upstream of angioblast specification. By using genetic models and chemical treatments, I identified FGF-Erk axis and BMP signaling to be involved in npas4l regulation. I also showed that eomesa is a potent inducer of npas4l expression. In addition, in vitro experiments indicated that murine Eomes promotes EC specification, acting upstream of Etv2 and Tal1. Using a combination of gain-of-function and loss-of-function models for npas4l, I identified primary and secondary downstream effectors of npas4l. I showed that Npas4l binding sites are present in the promoter of genes involved in hematoendothelial specification, such as tal1, lmo2 and etv2. Importantly, I reported that npas4l is sufficient and necessary to promote the EC specification program. By performing a combined analysis of the developed datasets, I recovered putative genes with a potential role in EC specification. One of the most promising candidates was tspan18b. I generated a mutant allele for tspan18b and observed angiogenic defects in tspan18b-/- embryos, confirming a role for this gene in zebrafish cardiovascular development. I showed that Npas4l binds etv2 promoter in zebrafish. In mammalian embryonic stem cells, however, Etv2 promoter is bound by HIF-1α, a transcription factor homolog to Npas4l. Interestingly, Eomes knockdown in vitro lead to a significant reduction of Hif-1α expression. To test the function of Hif-1α in vivo, I took advantage of a murine loss-of-function model.
Hif-1α mouse mutant embryos exhibit a significant decrease in Etv2 expression, when compared with WT siblings. These data suggest a model where mammals lost npas4l during evolution and HIF-1α acquired a new function, replacing npas4l role in EC specification. I compared the phenotype of Hif-1α mouse mutant with zebrafish hif-1α loss-of- function models. Importantly, zebrafish hif-1α mutant did not show defects in vasculogenesis or EC specification, but in EC specialization, during HSC development. I showed that hypoxia is a potent inducer of HSC formation, and hif-1α as well as hif-2α act upstream of notch1, vegfaa and evi1 in hemogenic endothelial specification.
Conclusions
In this work, I explored the molecular mechanisms underlying EC specification in vertebrates, analyzing the role of bHLH-PAS transcription factors in this biological process. I identified the upstream regulators and the downstream effectors of npas4l, describing a novel role for tspan18b in zebrafish cardiovascular development. Npas4l is a transcription factor necessary and sufficient for angioblast differentiation in zebrafish, but the gene was lost in the mammalian lineage. hif-1α and hif-2α, paralogous genes of npas4l, are involved in the establishment of EC heterogeneity and specifically in the specification of hemogenic endothelium in zebrafish. Murine Hif-1α, however, is responsible for Etv2 regulation, indicating a role for hypoxia inducible factor in initiating the EC specification program in mouse, similarly to npas4l function in zebrafish.
The mission of the Compressed Baryonic Matter (CBM) experiment is to investigate the phase diagram of strongly interacting matter in the region of high net-baryon densities and moderate temperatures. According to various transport models, matter densities of more than 5 times saturation density can be reached in collisions between gold nuclei at beam energies between 5 and 11 GeV per nucleon, which will be available at FAIR. The core detector of the CBM experiment is the Silicon Tracking System (STS), which is used to measure the tracks of up to 700 particles per collision with high efficiency (>95%) and good momentum resolution (<1.5%). The technological and experimental challenge is to realize a detector system with very low material budget, in order to reduce multiple scattering of the particles, and a free-streaming data readout chain, in order to achieve reaction rates up to 10 MHz together with an online event reconstruction and selection.
The STS comprises 8 tracking stations positioned between 30 cm and 100 cm downstream the target inside a magnetic field, covering polar emission angles up to 25 degrees. A station consists of vertical structures with increasing number (between 8 and 16, depending on station number), each structure carrying between 2 and 10 double-sided microstrip silicon sensors, which are connected through low-mass microcables to the readout electronics placed at the detector periphery outside the active detector area.
The work presented in this thesis focuses on the detector performance simulation and local hit pattern reconstruction in the STS. For efficient detector design and reconstruction performance, a reliable detector response model is of utmost importance. Within this work, a realistic detector response model was designed and implemented in the CBM software framework. The model includes non-uniform energy loss of an incident particle within a sensor, electric field of a planar p-n junction, Lorentz shift of the charge carriers, their diffusion, and the influence of parasitic capacitances. The developed model has been verified with experimental data from detector tests in a relativistic proton beam. Cluster size distributions at different beam incident angles are sensitive to charge sharing effects and were chosen as an observable for the verification. Taking into account parasitic capacitances further improves the agreement with measured data.
Using the developed detector response model, the cluster position finding algorithm was improved. For two-strip clusters, a new, unbiased algorithm has been developed, which gives smaller residuals than the Centre-Of-Gravity algorithm. For larger clusters, the head-tail algorithm is used as the default one. For an estimate of the track parameters, the Kalman Filter based track fit requires not only hit positions but their uncertainties as an input. A new analytic method to estimate the hit position errors has been designed in this work. It requires as input neither measured spatial resolution nor information about an incident particle track. The method includes all the sources of uncertainties independently, namely: the cluster position finding algorithm itself, the non-uniform energy loss of incident particles, the electronics noise, and the discretisation of charge in the readout chip.
The verification with simulations shows improvements in hit and track pull distributions as well as x²-distributions in comparison to the previous simple approach. The analytic method improves the track parameters reconstruction by 5-10%.
Several STS module prototypes have been tested in a relativistic proton beam. A signal to-noise ratio was obtained at the level of 10-15 for modules made of 30 cm long microcable and of either one or two 6.2 x 6.2 cm² CiS sensors.
First simulations have shown that this signal-to-noise ratio is sufficient to reach the required efficiency and momentum resolution. The high-radiation environment of CBM operation will deteriorate the sensor performance. Radiation hardness of sensors has been studied in the beam with sensors irradiated to 2 x 10[hoch 14] 1MeV [neq/cm²], twice the lifetime dose expected for CBM operation. Charge collection efficiency drops by 17-25%, and simultaneously noise levels increase 1.5-1.75 times. The simulations show that if all sensors in the STS setup are exposed to such a fluence uniformly, the track reconstruction efficiency drops from 95.5% to 93.2% and the momentum resolution degrades from 1.6% to 1.7%.
The membrane protein Green Proteorhodopsin (GPR), found in an uncultured marine γ-proteobacterium, is a retinal binding protein and contains a conserved structure of seven transmembrane helices (A-G). The retinal is bound to a conserved lysine residue (K231) in helix G via Schiff base linkage. It belongs to the widespread family of microbial rhodopsins and functions as a light dependent outward proton pump that bacteria may utilize for establishing a proton gradient across the cellular membrane. Proton pumping takes place after photon absorption, where GPR goes through a series of conformational changes, termed photocycle, causing the proton to be transported across the cellular membrane from the intra-cellular to the extracellular space. It is further mediated by the highly conserved functional residues D97 and E108, which function as the primary proton acceptor and primary proton donor for the protonated Schiff base, respectively. Another functionally important residue is the highly conserved H75 in helix B. It forms an intra-molecular cluster with D97 and is responsible for the high pKa value of the primary proton acceptor, stabilized by a direct interaction between D97 and H75.
Different Proteorhodopsin variants are globally distributed and colour tuned to their environment, depending on the water depth in which they occur. A single residue in the retinal binding pocket at position 105 is responsible for determining the absorption wavelength of the protein. GPR (from eBAC31A08) contains a leucine at position 105, while BPR (blue proteorhodopsin, from Hot75m4) in deeper waters possesses a glutamine. Although GPR shows 79% sequence identity with BPR, a single amino acid substitution (L105Q) in GPR is able to switch the absorption maximum to the one of BPR.
Protein oligomerisation describes the association of subunits (protomers) through non-covalent interactions, forming macromolecular complexes. It is an important structural characteristic of microbial rhodopsins, contributing to structural stability and promoting tight packing of the protomers in the bacterial membrane. GPR was shown to assemble into radially arranged oligomers, mainly pentamers and hexamers. No high resolution crystal structure of the whole GPR complex is available, but the structurally related BPR (Hot75m4) was successfully crystallized, showing pentameric oligomers.
The BPR crystal structure model reveals detailed information about complex assembly of the whole proteorhodopsin family. It reveals the oligomeric structures and shows residues that are part of the protomer interfaces, forming cross-protomer contacts, which is valuable information for the elaborate analysis of cross-protomer interactions of GPR oligomers.
Based on the knowledge of GPR and BPR oligomeric complexes, the aim of this study is to analyse specific cross-protomer contacts and to characterize the functional role of GPR oligomerisation. This includes the identification of residues, which are part of charged cross-protomer contacts and play an important role for the formation of the GPR oligomeric complex. Furthermore, this study deals with a detailed characterization of a potentially functional cross-protomer triad between the residues D97-H75-W34, which was detected in the BPR structural model. Hereby, the focus lies especially on the functional role H75, which is highly conserved and is positioned in between the primary proton acceptor D97 and W34 across the protomer interface. In summary, this study addresses GPR oligomerisation via specific cross-protomer contacts and its potential role for the functional mechanism of the protein.
The fundamental technique used in this study is solid-state NMR. Furthermore, an elaborate characterization of GPR oligomerisation was executed using a variety of biochemical methods and mutational approaches. Solid-state NMR is a powerful biophysical method to analyse membrane proteins in their native lipid environment and can be used to obtain diverse information about structure, molecular dynamics and orientation of the protein in the lipid bilayer.
Solid-state NMR naturally has a low sensitivity. In order to detect the low number of spins, DNP signal enhancement is of particular importance in this study. It is exhibited under cryogenic conditions and allows to drastically enhance the solid-state NMR signal by transferring magnetization from highly polarized electrons to the nuclear spins.
By applying these methods and techniques on GPR oligomers, this study reveals new insights in specific cross-protomer interactions in the complex. First the oligomeric states of GPR were determined for the specific experimental conditions used in this study. LILBID-MS, BN-PAGE and SEC analysis identified the pentameric state to be dominant for GPR. Furthermore, specific interactions across the protomer interface, which drive GPR oligomerisation, were identified. This was conducted by creating mixed 13C-15N labelled complexes. These mixed complexes show a unique isotope labelling pattern across their protomer interfaces. Solid-state NMR 13C-15N-correlation spectroscopy (TEDOR) was used to identify through-space dipole-dipole couplings, which indicate specific cross-protomer contacts. The results indicated that the residues R51, D52, E50 and T60 are important for GPR oligomerisation, and further analysis via single mutations of these residues showed a severe impact of the GPR oligomerisation behaviour.
The functional importance of GPR oligomerisation was analysed by DNP-enhanced solid-state NMR on the cross-protomer D97-H75-W34 triad. The DNP cryogenic conditions allowed to trap GPR in distinct stages of the photocycle. It could be shown that trapping GPR in a specific intermediate leads to a drastic conformational effect for the highly conserved H75 residue. Furthermore, DNP-enhanced solid-state NMR was used to characterize the cross-protomer contact between H75 and W34. Mutations of W34 could show that the cross-protomer interaction is highly important for the functionality of the protein, as negative mutants such as W34E showed a reverse proton transport across the bacterial membrane.
In summary this study represents a detailed analysis of GPR cross-protomer interactions and sheds light into the cause and functional importance of oligomeric complex formation in the microbial rhodopsin.
Hintergrund und Fragestellung: Nomogramme können durch individuelle Prognoseberechnungen Patienten helfen, Therapieentscheidungen zu treffen sowie ihre Gesundheitskompetenz durch ein besseres Krankheitsverständnis zu fördern. Nomogramme sind graphische Darstellungen von Regressionsgleichungen, mit denen sich verschiedene Endpunkte berechnen lassen. In der vorliegenden Arbeit sollen neben Hintergrundwissen zu Nomogrammen auch Gütekriterien für eine kritische Nutzung von Nomogrammen im klinischen Alltag sowie eine Übersicht empfehlenswerter Nomogramme vorgestellt werden.
Methode: Es fand eine systematische Literaturrecherche in der Datenbank Medline im Zeitraum von September 2014 bis Mai 2016 statt. Gesucht wurde auf englischer Sprache nach Nomogrammen in der Urologie anhand des Suchterms „Nomogram AND urology“. Einschlusskriterien für die Betrachtung waren vorhandener Abstract sowie englische oder deutsche Sprache. Die Bewertung der Nomogramme fand unter folgenden Gesichtspunkten statt: Fallzahl, Aktualität, Validierung, Gütekriterien sowie klinische Anwendung.
Ergebnis: Insgesamt hat die Literaturrecherche 311 Nomogramme in der Urologie zu verschiedenen Erkrankungen und Organsystemen identifizieren können. Für die Bereiche Urodynamik, Nebenniere, entzündliche Erkrankungen der Harnwege, Penis, Urolithiasis, Urothelkarzinome, Nierenkarzinome und Prostatakarzinome sind 122 extern validierte Nomogramme gefunden worden. Dabei wurde die fehlerhafte Nutzung des Nomogrammbegriffs deutlich, zumal Tabellen, Perzentilenkurven und Diagramme als solche beschrieben wurden. Hinsichtlich der Qualität der publizierten Modelle gibt es noch Verbesserungsbedarf. So sind viele publizierte Modelle nicht extern validiert oder nur einem Datensplitting unterzogen worden, was die Übertragbarkeit in fremde Populationen behindert. Weiterhin bestehen Mängel bei der Konzeption der Studien zur Nomogramm-Entwicklung, bei der Rekrutierung der Patienten und bei der Datenqualität.
Fazit: Die vorliegende Arbeit identifiziert die klinisch sinnvollsten und erprobten Nomogramme für den Einsatz in der Praxis (siehe Tabellen 1-9). Durch Fortschritte in Medizin und Technik können Nomogramme mit Hilfe von hochqualitativen Daten sowie einheitlicher Qualitätsstandards zur Entwicklung und Etablierung dieser in Zukunft einen wertvollen, klinisch sinnvollen Einsatz zur Verbesserung der Therapieentscheidung bei Patienten erfahren. Neue Biomarker, insbesondere auf Grundlage von Genomanalysen, sowie optimierte bildgebende Verfahren könnten zukünftig Bestandteil von Nomogrammen werden. Weiterhin sollte die Evaluation des klinischen Nutzens der Nomogramme sowie ein Vergleich der Modelle unter gleichen Bedingungen in Zukunft erfolgen, bevor diese im klinischen Alltag Anwendung finden.
Polyploidie in Prokaryoten
(2018)
Diese Arbeit teilt sich in drei Teile auf, die sich mit der Regulation der Polyploidie sowie mit der Genkonversion als evolutionären Vorteil von Polyploidie in Haloferax volcanii beschäftigen.
Im ersten Teil dieser Arbeit, wurde der Einfluss der DNA-Replikationsinitiatorproteine Orc1/Cdc6 auf das Ploidielevel untersucht. Hierbei konnte anhand von Deletionsmutanten zunächst gezeigt werden, dass lediglich drei der 16 Orc1/Cdc6-Proteine in H. volcanii essentiell sind. Bestimmung des Ploidielevels mittels qPCR-Analyse ergab, dass jedes der 12 untersuchten Orc1/Cdc6-Proteine das Ploidielevel mindestens eines Replikons beeinflusst und dementsprechend sowohl die mit einem Replikationsursprung assoziierten als auch die „verwaisten“ Orc1/Cdc6-Proteine eine Funktion haben. Die mit einem Replikationsursprung assoziierten Orc1/Cdc6-Proteine hatten hierbei keinen größeren Einfluss auf das Ploidielevel als die „verwaisten“. Zusätzlich konnte durch Wachstumsanalysen in Mikrotiterplatten gezeigt werden, dass die meisten Deletionsmutanten unter allen getesteten Bedingungen ein mit dem Wildtyp vergleichbares oder besseres Wachstum zeigen. Eine Deletionsmutante eines Orc1/Cdc6-Proteins hingegen zeigte nur verbessertes Wachstum bei Glukose als Kohlenstoffquelle, was ein Hinweis auf die Verwendung verschiedener Orc1/Cdc6-Proteine unter verschiedenen Bedingungen sein könnte. Zusätzlich wurden zwei mit dem Replikationsursprung assoziierte Orc1/Cdc6-Proteine überexprimiert und via ihres N-terminalen His-Tag im Western-Blot nachgewiesen, sodass diese nun für Co-Affinitätsaufreinigungen zur weiteren Charakterisierung des komplexen Zusammenspiels der Orc1/Cdc6-Proteine zur Verfügung stehen.
Im Rahme des zweiten Teils der Arbeit wurde der Einfluss der in der 5‘-Region der der Replikationsursprünge ori1 und ori2 kodierten Proteine auf Wachstum und die Kopienzahl des Hauptchromosoms bestimmt. Zunächst wurde die Expression der drei in Haloarchaea hoch-konservierten oap-Gene upstream von ori1 mittels Nothern-Blot untersucht und es konnte gezeigt werden, dass das oap-Operon tatsächlich als Operon abgelesen wird. Um alle Gene in den 5‘-Regionen von ori1 und ori2 genauer zu charakterisieren, wurden induzierbare Überexpressionsmutanten im Wildtyp-Hintergrund angefertigt. Es konnte mittels Wachstumsversuchen in Mikrotiterplatten gezeigt werden, dass bei Induktion von Beginn an die Überexpression der Hef-Helikase und des oapB-Proteins zu einem starken Wachstumsdefekt führen, die von oapC und HVO_1724 zu einem moderaten Wachstumsdefekt, wohingegen für die Überexpressionsmutante von oapA vergleichbares Wachstum zum Wildtyp und für die Überexpression der Rad25d-Helikase verbessertes Wachstum beobachtet werden konnte. Es konnte darüber hinaus gezeigt werden, dass sowohl die Deletion als auch die Überexpression der Helikasen keinen Einfluss auf das Ploidielevel hat; die Deletion von oapC führt jedoch zu einer Reduktion der Genomkopienzahl in exponentieller und stationärer Phase, was ein erster Hinweis darauf ist, dass das oap-Operon eine Rolle bei der Regulation des Ploidielevels spielen könnte.
Im dritten Teil der Arbeit wurde eine Methode entwickelt, um Genkonversion farblich sichtbar zu machen. Hierbei wurde sich H. volcaniis Carotinoidbiosynthese zu Nutze gemacht. Es wurden zwei verschiedene, auxotrophe Elternstämme mittels Protoplastenfusion verschmolzen, um eine heterozygote Tochterzelle zu erzeugen. Ein Genkonversionsereignis wurde durch einen roten Keil angezeigt, der aus einer weißen Kolonie wuchs und durch die erfolgreiche Reparatur des Carotinoidbiosynthesegens entstand. Es wurden insgesamt 8525 Klone ausgestrichen und 0,14 % der Kolonien zeigten eine entsprechende rote Färbung. Das Proof-of-Principle dieser Methode ist in damit in dieser Arbeit gelungen. Um die Genkonversion in den weißen Kolonien auf genetischer Ebene genauer zu untersuchen, wurde PCR verwendet. Es konnte gezeigt werden, dass in den Zellen aller 135 untersuchten Kolonien Genkonversion stattgefunden hatte und zwar so effizient, dass nur in seltenen Fällen Heterozygotie vorlag. Unter Selektionsdruck stehende Loci hatten in beiden untersuchten Fällen eine starke Präferenz in Richtung Homozygotie und Erhalt der Prototrophie. Für nicht unter Selektionsdruck stehende Loci konnte gezeigt werden, dass die Hälfte der untersuchten Kolonien dem Elternstamm 1 glich, während die andere Hälfte dem Elternstamm 2 glich. Auch hier waren die Zellen nur in seltenen Fällen homozygot.
This thesis is concerned with systematic investigations of electronic noise in novel condensed matter systems. Although fluctuations are frequently considered a nuisance, that is, a disturbance limiting the accuracy of scientific measurements, in many cases they can reveal fundamental information about the inherent system dynamics. During the past decades, the study of electronic fluctuations has evolved into an indispensable tool in condensed matter physics.
The focus of the present work lies both in a further development of the fluctuation spectroscopy technique and in the study of materials of current interest. In particular, a comprehensive study of the charge carrier dynamics in the archetypal diluted magnetic semiconductors (Ga,Mn)As and (Ga,Mn)P was performed. In spite of extensive research work carried out during the last years, there still exists no theoretical consensus on the precise mechanism of ferromagnetic order and the electronic structure in these materials. Moreover, disorder and correlation effects complicate the understanding of these compounds.
Fluctuation spectroscopy experiments presented in this work provide strong evidence that a percolation transition is observed in samples with localized charge carriers, since the normalized resistance noise magnitude displays a significant enhancement around the Curie temperature. In addition, this quantity exhibits a power law scaling behavior as a function of the resistance, which is in good agreement with theoretical models of percolating systems.
By contrast, it was found that the resistance noise in metallic samples is mainly dominated by the physics of defects such as manganese interstitials and arsenic antisites. Furthermore, first noise studies were carried out on hafnia- and yttria-based resistive random access memories. In these memristor devices, the rupture and re-formation of oxygen deficient conducting filaments caused by the electric field and Joule heating driven motion of mobile anions lead to an unusual resistance switching behavior. For the first time, comparative noise measurements on oxygen deficient and stoichiometric hafnium oxide devices, as well as on novel yttrium oxide based devices were performed in this work. Finally, new strategies for noise measurements of highly insulating and extremely low-resistive samples were developed and realized. In detail, an experimental setup for the measurements of dielectric polarization fluctuations in insulating systems was designed and successfully tested. Here, the polarization noise of a sample is measured as current or voltage fluctuations produced within a capacitance cell. The study of dielectric polarization noise allows for conclusions to be drawn regarding equilibrium structural dynamics in insulators such as relaxor ferroelectrics. On the other hand, as successfully demonstrated for a heavy-fermion compound, focused ion beam etching enables to introduce a meander-shaped geometry in single crystal platelets, in order to strongly enhance the sample resistance and thus make resistance noise measurements possible. First results indicate a connection of the noise properties with the Kondo effect in the investigated material.
NADH:ubiquinone oxidoreductase (Complex Ⅰ) is the first and largest enzyme in the respiratory chain. It catalyzes the transfer of two electrons from NADH to ubiquinone via a series of enzyme-bound redox centers - Flavin mononucleotide (FMN) and iron-sulfur (Fe-S) clusters – and couples the exergonic reaction with the endergonic translocation of four protons across the membranes. Bacteria contain the minimal form of complex I, which is composed of 14 conserved core subunits with a molecular mass of around 550 kDa. Complex Ⅰ has an L-shaped structure which can be subdivided into two major parts (arms). The hydrophilic arm protruding into the bacterial cytosol (or mitochondrial matrix) harbors the binding site for the substrate NADH, the two- to one-electron switch FMN and all one-electron transferring Fe-S clusters and therefore considered as the catalytic unit. The membrane arm consists of the membranespanning subunits and conducts the proton pumping process. The Quinone binding site is located at the interface of both arms. ...
Die Analyse früher Entwicklungsstadien von Säugetierembryonen und daraus gewonnener Stammzelllinien kann entscheidende Erkenntnisse im Bereich der Reproduktionsbiologie und der regenerativen Medizin hervorbringen. Dabei spielt die Maus, als geeignetes Modellsystem für die Übertragbarkeit auf den Menschen eine wichtige Rolle, in erster Linie weil die Blastozysten der Maus verglichen mit menschliche Blastozysten eine morphologische Ähnlichkeit aufweisen. Humane embryonale Stammzelllinien haben großes Potential für die Anwendung in der regenerativen Medizin und vergleichend dazu wurde Gen-Targeting in embryonalen Stammzellen verwendet, um tausende neuer Mausstämme zu generieren. Die Gewinnung embryonaler Stammzellen erfolgt im Blastozystenstadium, diese können dann nach Injektion in eine andere Blastozyste zur Entwicklung aller Gewebearten, einschließlich der Keimbahngewebe, beitragen (Martin, 1981; Evans and Kaufman 1981).
Ursache einer Fehlgeburt können vor allem Defekte in der Entwicklung des Trophoblasten und des primitive Entoderms (PrE) sein, dabei sind ca. 5 % der Paare betroffen die versuchen ein Kind zu bekommen (Stephenson and Kutteh, 2007). Eine Untersuchung dieser Zelllinien im Mausmodell könnte weitere Erkenntnisse für die Gründe einer Fehlentwicklung liefern. Trophoblasten Stammzelllinien können aus den Blastozysten der Maus und dem extraembryonalen Ektoderm von bereits implantieren Embryonen gewonnen werden (Tanaka et al., 1998). Diese Zelllinien geben Aufschluss über die Entwicklung des Trophoblasten, fördern die Entwicklung der Plazenta und sind gleichzeitig ein gutes Modellsystem um die Implantation des Embryos im Uterus näher zu untersuchen. Zellen des primitive Entoderms (PrE) beeinflussen das im Dottersack vorhandene extraembryonale Entoderm, welches dort als “frühe Plazenta” fungiert und für die Versorgung des Embryos mit Nährstoffen zuständig ist (Cross et al., 1994). Des Weiteren besitzt das Entoderm einen induktiven Einfluss auf die Bildung von anterioren Strukturen und die Bildung von Endothelzellen sowie Blutinseln (Byrd et al., 2002).
Extraembryonale Endodermstammzellen (XEN Zellen) können aus Blastozysten gewonnen und in embryonale Stammzellen (ES-Zellen) umgewandelt werden (Fujikura et al., 2002; Kunath et al., 2005). Es war jedoch nicht bekannt, ob XEN-Zellen auch aus Postimplantations-Embryonen gewonnen werden können. XEN-Zellen tragen in vivo zur Entwicklung des Darmendoderms bei (Kwon et al., 2008; Viotti et al., 2014) und könnten als alternative, selbsterneuernde Quelle für extraembryonale Endoderm-abgeleitete Zellen dienen, die zur Herstellung von Geweben für die regenerative Medizin verwendet werden könnten (Niakan et al., 2013).
In der Embryogenese der Maus zeigt sich an Tag E3.0 eine kompakte Morula die sich allmählich in das Trophektoderm (TE) differenziert, welches wiederum den Embryonalknoten (“innere Zellmasse”) umschließt (Johnson and Ziomek, 1981). Ein wichtiger Schritt im Rahmen der Entwicklung findet an Tag E3.5 statt, in diesem Zeitraum gehen aus dem Embryonalknoten der pluripotente Epiblast und das primitive Entoderm hervor. Im späten Blastozystenstadium an Tag E4.5 liegt das PrE als Zellschicht entlang der Oberfläche der Blastocoel-Höhle. Aus dem Epiblast entwickeln sich im weiteren Verlauf der Embryo, das Amnion und das extraembryonale Mesoderm des Dottersacks. Die Zellen des Trophektoderm führen zur Entwicklung der Plazenta. Das PrE differenziert sich im Zuge der Weiterentwicklung in das viszerale Entoderm (VE) und das parietale Entoderm (PE) des Dottersacks (Chazaud et al., 2006; Gardner and Rossant, 1979; Plusa et al., 2008). VE umgibt den Epiblast und extraembryonisches Ektoderm (ExE). PE-Zellen wandern entlang der inneren Oberfläche von TE und sezernieren zusammen mit Trophoblasten-Riesenzellen Basalmembranproteine, um die Reichert-Membran zu bilden (Hogan et al., 1980). Die Reichert-Membran besteht aus Basalmembranproteinen, einschließlich Kollagenen und Lamininen, die zwischen den parietalen Endoderm- und Trophoblastzellen liegen. Diese Membran wirkt als ein Filter, der dem Embryo den Zugang zu Nährstoffen ermöglicht, während er eine Barriere zu den Zellen der Mutter bildet (Gardner, 1983).
...
Ziel der Arbeit ist es, den frühen Zweitspracherwerb bei Kinder mit einer Spezifischen Sprachentwicklungsstörung (specific language impairment, SLI) zu charakterisieren. Im Vergleich zwischen sprachunauffälligen Kindern mit Deutsch als Zweitsprache (DaZ-TD) und und sprachauffälligen Kindern (DaZ-SLI) wird für die morpho-syntaktischen Bereiche Finitheit und Verbstellung sowie Kasus untersucht, anhand welcher Entwicklungsmuster sich zwischen einem unauffälligen und einem auffälligen DaZ-Erwerb unterscheiden lässt. Dabei werden die folgenden übergeordneten Fragen (F) beantwortet. (F1) Gibt es Unterschiede in Bezug auf Fehlerarten und -häufigkeiten zwischen DaZ-TD und DaZ-SLI Kindern? (F2) Gibt es persistierende Defizite bei DaZ-SLI Kindern verglichen mit DaZ-TD Kindern?
Untersucht wurden über einen Zeitraum von zwei Jahren 33 DaZ-Kinder, elf davon mit einer SLI. Zu Beginn der Erhebungen waren die DaZ-TD Kinder im Durchschnitt 3;8 Jahre alt und hatten 11 KM zum Deutschen. Die DaZ-SLI waren zu MZP 1 durchschnittlich 7;1 Jahre alt (45 KM). Zu insgesamt vier MZP wurden elizitierte Produktionsdaten mittels des standardisierten Verfahrens LiSe-DaZ (Schulz & Tracy 2011) erhoben. Sowohl die Methode der elizitierten Produktion als auch die längsschnittlichen Analysen einer großen Gruppe von Kindern mit DaZ erlaubten es, Aussagen über das Erwerbsalter bzw. persistierende Defizite und Entwicklungsmuster, insbesondere bei SLI, zu treffen. Entwicklungsverzögerungen (delay) und ggf. vom DaZ-TD Erwerb abweichende Entwicklungsmuster (deviance) wurden abgebildet.
Mit der Beantwortung der Fragen leistet die Arbeit in zweierlei Hinsicht einen Beitrag. Erstens wird mit Blick auf die Spracherwerbsforschung gezeigt, dass DaZ-SLI Kinder entwicklungsverzögert sind und sowohl ø-Stämme in V2 als auch Schwierigkeiten im Erwerb von Dativ in Präpositionalphrasen auf eine SLI bei Kindern mit DaZ hinweisen. Zweitens wird aus Sicht der Linguistik dafür argumentiert, dass zum einen ø-Stämme in V2 kovert finit sind und zum anderen in Modellen der Kasuszuweisung von einer dreigliedrigen Struktur, also einer Unterscheidung zwischen strukturellem, lexikalischem und inhärentem Kasus, ausgegangen werden muss.
Die Arbeit knüpft an damit an verschiedene Erwerbsstudien an. Hinsichtlich des Erwerbs von Finitheit und Verbstellung war bisher ungeklärt, ob auch die DaZ-SLI Kinder zwischen en-Infinitiven und ø-Stämmen hinsichtlich der jeweiligen Position im Satz unterscheiden, wie bereits für den DaZ-TD Erwerb nachgewiesen. Die vorliegende Studie wies dieses Erwerbsmuster auch für den DaZ-SLI Erwerb nach und schließt sich damit bisherigen Studien hinsichtlich kovert finiter ø-Stämme in V2 an. Studien zum Kasuserwerb bei DaZ, die auf den linguistisch relevanten Unterschied in der Kasuszuweisung, d.h. strukturell vs. nicht-strukturell (inhärent und lexikalisch), eingehen, gab es nur wenige. Die Frage, ob in der Kasustheorie von einem zwei- oder dreigliedrigen Modell ausgegangen werden muss, war neben der Frage nach möglicherweise abweichenden Erwerbsmustern und persistierenden Erwerbsschwierigkeiten bei DaZ-SLI bislang ungeklärt. In der vorliegenden Studie wurde gezeigt, dass DaZ-SLI Kinder verglichen mit DaZ-TD Kindern ähnliche Fehlermuster zeigen, aber insbesondere der Dativ in PPs stark verzögert erworben wird. Die Studie schließt den Ergebnissen zum simultan bilingualen Erwerb an und postuliert ein dreigliedriges Kasussystem.
Insgesamt zeigt die vorliegende Studie erstmals anhand elizitierter Längsschnittdaten, dass DaZ-SLI Kinder bis ins Schulalter persistierende Probleme im Erwerb von Finitheit und Verbstellung sowie Kasus haben. Verglichen mit DaZ-TD Kindern erwerben sie diese Bereiche - wenn überhaupt - deutlich verzögert (delay). In den Fehlertypen unterscheiden sich die beiden Erwerbstypen hingegen nicht (deviance).
In this research project we aimed to generate genetically modified megakaryocytes and platelets, by targeting protein expression to their secretory alpha-granules to delivery ectopic or therapeutic proteins, to be stored and kept there until an external stimulus triggers platelet activation and platelet secretion takes place. During platelet activation, the therapeutic proteins would then be released to the extracellular space, either as a soluble protein or exposed as a transmembrane protein on the cell surface of platelets. For long-term approaches, genetic modifications must be introduced at the hematopoietic stem cell level.
AIMS: As first approach, we aimed to characterize the lineage-specificity of expression of six different promoter fragments in lentiviral vectors: the murine platelet factor 4 (mPf4) 1222 bp (-1074 to +148), human glycoprotein Ib alpha (hGP1BA) 595 bp (-265 to +330), a short and a longer fragment of the human glycoprotein 6 (hGP6 / hGP6s) 351 bp (-322 to +29) / 726 bp (-697 to +29), as well the human glycoprotein 9 (GP9) promoter 794 bp (-782 to -12). These promoter fragments were included as internal cellular promoters in self-inactivating lentiviral vectors (SIN), using an enhanced green fluorescent protein (eGFP) as gene reporter. GFP detection was evaluated in vitro (in transduced non-megakaryocitc blood cell progenitors and in-vitro differentiated megakaryocytes) and in vivo (Bone marrow cells, blood cells and spleen cells). For targeting of proteins to the secretory alpha granules of megakaryocytes and platelets, we followed two strategies: A) The sorting signal of the cytokine RANTES was fused N-terminally to the destabilized GFP, d2eGFP (RANTES. d2eGFP), to deliver the protein into the granules as soluble cargo. B) The transmembrane granular targeting sequence of P-selectin (the transmembrane domain and cytoplasmic tail (referred as TDCT) was fused to d2eGFP or the B domain deleted codon optimized human coagulation Factor VIII cDNA (referred as BDcohFVIII_TDCT or FVIII_TDCT), to deliver the protein into the membrane of alpha granules. These two strategies were tested in-vitro, from transduced differentiated megakaryocytes in liquid cultures, and in-vivo, by analysis of genetically modified platelets by means of Laser Scanning Confocal Microscopy (LSM) in colocalization analysis (performed at the single cell level) and fluorescence intensity analysis.
RESULTS: GFP expression in blood cells from transplanted mice was significantly higher in platelets, with a smaller background promoter activity in leukocytes and erythrocytes. The highest expression was observed from the mPf4-vector, followed by hGP1BA, hGP6 and hGP6s vectors, identifying the hGP6 vectors as the most restricted to the megakaryocyte and platelet lineage. Analysis in bone marrow cells showed that hGP6-vectors have the lowest activity in the hematopoietic stem and progenitor cells (HSPC) with less than 10% of GFP positive stem cells. Surprisingly, the mPf4 and hGP1BA vectors were both highly active in the HSPC, in a range of 20 to 70% of GFP-positive cells. Polyploidization in later stages of MK-maturation of in-vitro Mks differentiated from Mpl-/- lineage marker negative cells were recovered after gene transfer of the thrombopoietin receptor Mpl, under the control of MK-specific vectors in differentiated into MKs. These results were corroborated in in-vivo analysis, where Mpl-/- mice transplanted with lin-BM cells transduced with the mPf4.Mpl and hGP6.Mpl vectors, showed significantly elevated platelet counts compared to control mice transplanted with a GFP-encoding control vector (PGK-GFP). In the Fluorescent intensity and colocalization analysis of transduced megakaryocytes with the targeting vectors, we observed a significant difference in the GFP targeting compared with those MK transduced with the non-targeting vectors. The median of the WCC values observed from the RANTES.d2eGFP targeting vector was 0.8 (80 % of colocalization) with P-selectin stained granules, and 0.7 (70%) with von Willebrand Factor stained granules. In the case of the non-targeting vector SFFV.d2eGFP the median of the WCC observed were <0.3 (30%) both in P-selectin and von Willebrand Factor stained granules. We observed as well that the GFP signal of MK transduced with the P-selectin.d2eGFP fusion overlapped the signals emitted by P-selectin and von Willebrand factor stained granules, not just in LSM-digitalized images but in the fluorescens intensity analysis as well, indicating a clear signal of GFP colocalization. Likewise, an evident signal overlap between the targeted FVIII (FVIII_TDCT) with the P-selectin / von Willebrand marker was observed. Colocalization and fluorescens intensity analysis performed on activated platelets from transplanted mice with the targeting vectors, corroborated what was previously observed in in-vitro megakaryocytes. The genetic modification of megakaryocyte and platelets will allow in the furture, not just the development of new generation of cells with advanced functions, but it will help us to elucidate new mechanisms and pathways of important cellular processes, by modifying cell function and cell interactions.
The overarching goal of the thesis was to create a holistic predictive framework, a vegetation model, by improving the representations of and interactions between the biosphere, hydrosphere, atmosphere and pedosphere. Vegetation models rep- resent a crucial component of Earth system model since the properties of the land surface, via interactions with the atmosphere, can have extremely large climatic effect. Yet, there remains great uncertainty associated with the dynamics of the vegetated land surface. Various vegetation models have been critiqued for numerous reasons including overly simplistic representations of vegetation, prescribed vegetation, poor representations of diversity, inaccurate representations of competition, non-transparent model calibration, and poor responses to drought. The purpose of the creation of this "next generation" model was to address deficiencies common to current vegetation modelling paradigms.
The representation of the biosphere within this framework was improved via two separate development axes. First, ecological realism was improved by integrating concepts from community assembly theory, co-existence theory, and evolutionary theory. Explicitly, rather than defining teleonomic rules to define plant behaviour the process of natural selection is modelled. By modelling the pro- cess of natural selection and its affect on relative fitness, myriad "rules" which continually adapt to biotic and abiotic conditions "come out" as a consequence of the modelled dynamics rather than being "put in". In aDGVM2 (adaptive Dynamic Global Vegetation model 2) communities of plants and their trait values evolve through time, this evolution is constrained by trade-offs between traits. Poorly performing individuals are more likely to die and produce fewer copies of themselves, this results in a filtering of trait values. Further, the community and species’ trait values can evolve through successive generations via reproduction, mutation and crossover which we approximate by using a genetic optimisation algorithm. Thus, a plant community consisting of individuals and species with potentially novel and diverse trait values is assembled iteratively through time.
We tested the assertion that improved integration of concepts from community assembly, evolutionary, and co-existence theory could address limitations of DGVMs in Chapter 2. We demonstrated that such an approach does indeed allow diverse communities of plants to emerge from the modelling framework. We showed that the position of the emergent communities in trait space differed along abiotic gradients and that, in simulations where reproductive isolation was simulated, communities emerged which were composed of multiple co-existing clusters in trait-space. Simulated trait values of co-existing strategies emerging from aDGVM2 were often multimodal, indicative of the emergence of multiple life- history strategies.
Second, to successfully model how natural selection forms a community requires accurate representation of how resource availability affects fitness. In the majority of dynamic global vegetation models (DGVMs) there is no real representation of plant hydraulics with plant water availability being calculated as a simple function of relative soil moisture content and root fractions across a number of soil layers. Worryingly, a number vegetation models appear to under represent the magnitude of these observed responses to drought. This was deficiency was ad- dressed in Chapter 3 by designing a simplified version of the cohesion tension theory of sapwood ascent where elements determining plant conductances are considered in series and implementing a set of trait trade-offs which influence a plant’s hydraulic strategy whereby hydraulic safety trades-off against xylem and leaf conductivity.
Interactions between the biosphere, pedosphere, and hydrosphere can also potentially mediate water resource availability and thus fitness. In the majority of DGVMs the volume of soil explored and explorable by plant roots in fixed glob- ally and usually constrained to a depth not greater than 3m. However, we know that soils can have a strong effect on vegetation distributions, that soil depth is not constant globally, and that plants root to variable depths.
In Chapter 4 I explored interactions between soil depth, plant rooting and the emergent properties of communities and highlighted the importance of considering interactions between the biosphere, hydrosphere, pedosphere, and fire. Here I demonstrated that, in addition to fire and precipitation, edaphic constraints on the volume of soil explorable by plant roots (e.g. by shallow soils, lateritic layers, anoxic conditions due to water logging, toxicity resulting from heavy metal concentrations) can affect the process of plant community assembly, alter the mean values of multiple traits in communities, and the trait diversity of communities.
...
The individual parameter
(2018)
The present thesis tackles the unification of two-dimensional semantic systems, which are designed to deal with context-dependency of a certain kind i.e. indexicality, with dynamic theories of meaning, designed to capture facts about anaphoricity and the distribution of definite and indefinite articles. The need for a more principled look at this unification is twofold. Firstly, there is an overlap of these two families of theories in terms of empirical data, namely third person personal pronouns, as well as definite descriptions. Both kinds of expressions have anaphoric as well as non-anaphoric usages, whereas some of the latter ones can be captured in terms of indexicality. But, on the other hand, no language, especially not German and English, the main sources of data in this thesis, seems to distinguish these two usages formally, i.e. by employing different expressions. Hence the need for a unified framework in which this sort of ambiguity can be treated. Secondly, the theoretical state is dissatisfactory in the sense that the families of theories take very disparate forms that are not easy to relate conceptually.
The overlap in empirical area of application strongly suggests that this dichotomy is an artifact of the way these theories traditionally are developed and justified. This thesis seeks to overcome this state of the field. It proceeds as follows.
The first chapter discusses the way in which theories indexicality are designed. After taking a closer look some hallmarks of these theories such as the notions of index- and context-dependency themselves, double indexing, etc., it develops a notion of index dependency that makes use of a more complex individual parameter than the one that is usually assumed in the literature. Apart from agents and addressees, the two standard components of indices that represent contexts, additional objects are assumed. This leads to a variant of the semantics of deictically used third person expression that is called ‘indexical theory of demonstratives’, which is then investigated further.
The second chapter discusses the classics of dynamic semantics: DRT, DPL, and FCS. It arrives at the common core of all of these theories that consists in the assumption of a novel sort of variable namely active variables as opposed to free and bound ones that are intended to model the behavior of (in)definite descriptions and pronouns. The projection behavior of these variables or discourse referents is described either in (discourse-)syntactic or semantic terms. The chapter also arrives at a new formulation of the uniqueness condition that is thought to be part of the semantics of definite descriptions and sketches an account of transparent negation.
The third chapter then combines the insights of the previous ones by developing the notion of representation that connects the entities of evaluation of the first chapter i.e. indices with those of the second namely sets of assignments, a.k.a. files. The formal language that emerged in the second chapter is endowed with two kinds of variables for situations to allow for double indexing within a dynamic setting. A novel interpretation mechanism for the so designed language is proposed, which is shown to capture not only those aspects that are known to exist in two-dimensional frameworks, but also certain other index-index interactions that are described in yet another body of literature.
The final chapter discusses potential flaws of the theory and sketches an account of allegedly bound indexicals that is compatible with Kaplan’s infamous ban on monsters.
How much we trust our own decisions, knowledge or perceptions influences our behavior in many everyday situations. Normally the confidence we have in our decisions is rather accurate, but under certain circumstances the subjective evaluation of a decision and its objective quality can differ heavily. Subjectively over- or underestimating the quality of decisions can lead to disadvantageous behavior. Little is known about how this feeling of confidence about a decision is generated. Is it computed automatically with the decision or does it arise in a different process?
This thesis is based on a publication that contributed to the investigation of this question by comparing the influence of two different forms of spatial attention on decision confidence. Visual spatial attention is a cognitive mechanism that serves to select parts of the visual field, leading to more accurate decisions about the attended items. It can be either voluntarily controlled (endogenous) or reflexively driven by external events (exogenous). In an orientation-matching task participants performed better in both attentional conditions than in a control condition without directed attention. Additionally, we found that only endogenous, but not exogenous attention led the subjects to overestimate the quality of their performance. The possible implications of this “relative overconfidence” were discussed with respect to the theoretical framework of spatial attention and decision confidence. The present findings support the idea that decision confidence is generated in a distinct metacognitive process. Possible ideas for further neurophysiological research are proposed. The thesis concludes with an attempt to integrate the discussion into a broader context of medical research on certain neuropsychiatric symptoms and conditions.