Refine
Year of publication
- 2018 (204) (remove)
Document Type
- Doctoral Thesis (204) (remove)
Has Fulltext
- yes (204) (remove)
Is part of the Bibliography
- no (204)
Keywords
- Lebensqualität (2)
- Spracherwerb (2)
- vascular endothelial cells (2)
- ABCE1 (1)
- ARFI (1)
- Adhärenz (1)
- Afghanistan (1)
- Allosteric inhibition (1)
- Anomalie <Medizin> (1)
- Anwendungsorientierte Forschung (1)
Institute
- Biochemie, Chemie und Pharmazie (44)
- Medizin (39)
- Biowissenschaften (34)
- Physik (21)
- Informatik und Mathematik (17)
- Gesellschaftswissenschaften (8)
- Sprach- und Kulturwissenschaften (8)
- Neuere Philologien (7)
- Biochemie und Chemie (3)
- Kulturwissenschaften (3)
Pretubulysin (PT), a biosynthetic precursor of the myxobacterial compound tubulysin D, was recently identified as a novel microtubule-targeting agent (MTA) causing microtubule destabilization. MTAs are the most frequently used chemotherapeutic drugs. They are well studied regarding their direct cytotoxic effects against various tumors as well as for their anti-angiogenic and vascular-disrupting action addressing endothelial cells of the tumor vasculature. However, the impact of MTAs on endothelial cells of the non-tumor vasculature has been largely neglected, although tumor cell interactions with the healthy endothelium play a crucial role in the process of cancer metastasis. Besides their use as potent anti-cancer drugs, some MTAs such as colchicine are traditionally used or recommended for the therapy of inflammatory diseases. Here, too, the role of endothelial cells has been largely neglected, although the endothelium is crucially involved in regulating the process of inflammation.
In the present study, the impact of PT on tumor-endothelial cell interactions was therefore analyzed in vitro to gain insights into the mechanism underlying its anti-metastatic effect that was recently confirmed in vivo. In the second part of this work, the influence of PT and other MTAs, namely the microtubule-destabilizing compounds vincristine (VIN) and colchicine (COL) and the microtubule-stabilizing drug paclitaxel (PAC), on leukocyte-endothelial cell interactions was investigated in vitro and in vivo (only PT). It is important to mention that in all in vitro experiments solely endothelial cells and not tumor cells or leukocytes were treated with the MTAs to strictly focus on the role of the endothelium in the action of these compounds.
The impact of PT on tumor-endothelial cell interactions was analyzed in vitro by cell adhesion and transendothelial migration assays as well as immunocytochemistry using the breast cancer cell line MDA-MB-231 and primary human umbilical vein endothelial cells (HUVECs). The treatment of HUVECs with PT increased the adhesion of MDA cells onto the endothelial monolayer, whereas their transendothelial migration was reduced by the compound. Thereafter, the influence of PT on the endothelial cell adhesion molecules (CAMs) E-selectin, N-cadherin, ICAM-1, VCAM-1 and galectin-3 and on the CXCL12/CXCR4 chemokine system was examined, since they might be involved in the PT-triggered tumor cell adhesion. Interestingly, although PT induced the upregulation of ICAM-1, VCAM-1, N-cadherin and CXCL12, cell adhesion assays using neutralizing antibodies or the CXCL12 inhibitor AMD3100 revealed that all these molecules were dispensable for the PT-evoked tumor cell adhesion. As PT induces the formation of interendothelial gaps and MDA cells might adhere onto components of the underlying extracellular matrix (ECM), the precise location of MDA cells attached to the PT-treated endothelial monolayer was investigated. Instead of a direct interaction between tumor and endothelial cells, this work showed that MDA cells preferred to adhere to the ECM component collagen that was exposed within PT-triggered endothelial gaps. Both the PT-evoked increase in tumor cell adhesion onto and the decrease in trans-endothelial migration were completely abolished when β1-integrins were blocked on MDA cells. Similar results were obtained when endothelial cells were treated with VIN and COL but not PAC, indicating that the observed effects of PT depend on its microtubule-destabilizing activity.
The impact of PT, VIN, COL and PAC on leukocyte-endothelial cell interactions was analyzed in vivo (only PT) by intravital microscopy of the mouse cremaster muscle and in vitro by cell adhesion assays using the monocyte-like cell line THP-1 and TNFα-activated human dermal microvascular endothelial cells (HMEC-1). While PT did not affect the rolling of leukocytes on the endothelium, their firm adhesion onto and transmigration through the activated endothelium was reduced by PT in vivo. In accordance, the treatment of HMEC-1 with PT, VIN and COL decreased the TNFα-induced adhesion of THP-1 cells onto the endothelial monolayer, whereas PAC had no influence on this process. Thereafter, the influence of PT, VIN, COL and PAC on endothelial ICAM-1 and VCAM-1 was examined, since these molecules are substantially involved in the firm adhesion of leukocytes onto the endothelium. The cell surface protein expression of ICAM-1 and VCAM-1 was reduced by PT, VIN and COL in activated endothelial cells, whereas PAC did only slightly affect the TNFα-induced upregulation of VCAM-1. As the pro-inflammatory transcription factor NFκB plays a crucial role in the TNFα-induced expression of these CAMs, the impact of the MTAs on the NFκB promotor activity was investigated. While PT, VIN and COL decreased the activation of NFκB in activated endothelial cells, PAC did not affect this process. However, in contrast to the strong effects regarding the cell surface protein expression of ICAM-1 and VCAM-1, the effects of PT, VIN and COL on the NFκB activity was rather low. Thus, the used MTAs might also affect other relevant signaling pathways and/or the intracellular transport of CAMs might be influenced by the impact of the MTAs on the microtubule network.
Taken together, the current study provides – at least in part – an explanation for the anti-metastatic potential of PT and gives first insights into the use of PT and VIN as anti-inflammatory drugs. Moreover, this work highlights the endothelium as an attractive target for the development of new anti-cancer and anti-inflammatory drugs.
Photolabile protecting groups (PPGs, cages, photocages) are molecules which can block the activity of a functional group and be removed by irradiation of light of an appropriate wavelength. One of the goals of this work was to design new photolabile protecting groups, based on a literature known one. The far-UV absorbing diethylamino benzyl (DEAMb) photocage, developed by Wang et al., was selected as structural basis for this work. In order to trigger the uncaging reaction with longer wavelengths (≥365 nm), thus allowing also biological applications, its structure was optimized. This was done by elongating the π-orbital conjugation using biphenyl derivatives instead of a single aromatic moiety. The photocage was loaded with glutamic acid as the leaving group.
The highest bathochromic shift was shown by compounds, which had the smallest sterical hindrance imposed on the second aromatic ring. The absorption spectrum was more redshifted if the second aromatic ring contained an electron withdrawing group. However, the stronger the substituents electron withdrawing strength was, the lower the uncaging quantum yield was. It was rationalized, that this is due to a decreased excited state electron density at the benzylic carbon of the DEAMb core which is necessary to trigger bond dissociation. This has been confirmed using TDDFT (time-dependent density functional theory) computations done by Jan von Cosel, Konstantin Falahati and Carsten Hamerla (from the group of Irene Burghardt). The best uncaging quantum yield was 42% for m-phenyl substituted DEAMb, while if a strong electron withdrawing group was present (nitro group), there was no photoactivity at all.
In order to achieve a better π-orbital conjugation of the non-coplanar biphenyl derivatives, a C-C bond was introduced between the benzylic carbon and the second aromatic ring. The resulting planar compounds belong to the fluorene class. The computational data predicted the photochemical meta effect to some extent to be preserved in these molecules. A set of fluorene derivatives was synthesized and photochemically characterized. The molar absorption coefficients of all prepared fluorene derivatives were higher than for any of the biphenyl derivatives. Quantum yields of the acetate release ranged between 3-42%, thus being as good as the best glutamic acid releasing biphenyl compounds. The highest uncaging cross section of the acetate release from the prepared fluorene derivatives was above 5000 M^-1 cm^-1. This value proves the high potential of the new fluorene based photocages developed in this work. Furthermore, release of hydroxide ion from fluorenol could be shown along with generation of, presumably, fluorenyl cation. These intriguing results paves a way for further exploration of fluorene based photocages for the release of bad leaving groups.
The second part of this work describes the custom synthesis of 13C labeled compounds for the VIPER (VIbrationally Promoted Electronic Resonance) project. In the VIPER pulse sequence, a molecule is vibrationally excited by a narrow band IR-pump pulse. The following Vis-pump pulse will promote the vibrationally pre-excited molecules to an electronically excited state. This Vis-pump pulse is offresonant for the not vibrationally pre-selected species and only resonant with the molecules, which are already pre-excited by the IR-pump pulse. Since the IR absorption bands usually are well resolved, a selective excitation of one molecule in an ensemble of similar ones is possible in the IR frequency range. Isotopologues and isotopomers are an extreme case of molecules which are near identical and differ only by isotopic composition or position. As a result in solution and at room temperature they have an identical UV-Vis absorption spectrum but different IR spectrum. This allows vibrational excitation of only one isotopologue (or isotopomer).
Isotopic labels were introduced in known photocages: 7-diethylamino coumarin (DEACM) and para-hydroxy phenacyl (pHP). The position for isotopic label incorporation in these molecules was guided by computations done by Jan von Cosel and Carsten Neumann. To allow control of the photoreactions in an ultrafast timescale, an IR active leaving group was used. The uncaging behavior of the prepared molecules in steady state was tested using chromatography (HPLC) and spectroscopy (1H NMR, FTIR and UV-Vis). The VIPER experiments were performed by Daniela Kern-Michler, Carsten Neumann, Nicole Mielke and Luuk van Wilderen (from the group of Jens Bredenbeck). A selective uncaging of only the vibrationally pre-excited molecules could be achieved.
This dissertation aimed to shed light on changes of the epigenetic landscape in heart and skeletal muscle tissue of the turquoise Killifish N. furzeri, a novel, short-lived animal model for aging research. The following results could be obtained:
1. A global trend towards closed chromatin conformation could be observed; histone markers for H3K27me3, H3K9me3 and H4K20me3 accumulated in skeletal muscle tissue from old N. furzeri. Markers for open chromatin conformation such as H3K4me3, H3K9ac and H4K16ac decreased in old skeletal muscle tissue. In old hearts from N. furzeri an accumulation of H3K27me3 could be detected while H3K9ac was found to increase with age as well. mRNA expression levels of methylating enzymes were higher in skeletal muscle tissue from old N. furzeri when compared to expression levels in skeletal muscle tissue from young N. furzeri.
2. The shift of epigenetic pattern was accompanied by a change of gene expression. Via mRNA sequencing in collaboration with the MPI, Bad Nauheim it could be shown that genes associated with cell cycle and DNA repair were lower expressed in skeletal muscle tissue from old N. furzeri than in tissue from young N. furzeri. Genes, associated with inflammatory signaling and glycolysis, displayed increased mRNA levels in skeletal muscle tissue from old N. furzeri. These results could be confirmed by Western blot and qRT-PCR analyses.
3. Markers for DNA damage and senescence increased in skeletal muscle tissue from old N. furzeri.
4. Cells derived from young and old N. furzeri skeletal muscle could be isolated and cultured for many passages. These cells were a mix of different cell types with properties and features of the native tissue. They could be used for treatment with drugs and/small compounds modulating the epigenetic landscape via specific interference with methylating enzymes.
5. DNA methylation and hydroxy-methylation were found to go in different directions in skeletal muscle and heart tissue from N. furzeri: while increasing in skeletal muscle tissue, a both DNA modifications declined in heart tissue with age.
6. In the heart of N. furzeri microRNA expression changes with age were assed with sequencing in collaboration with the FLI, Jena. It could be demonstrated that miRNA expression is age-dependent. Particular focus was on miR-29 and its target genes: miR-29 was highly upregulated in heart and skeletal muscle tissue, while target genes such as collagens and dnmts were reduced with age in the heart of N. furzeri.
7. Cardiac function remained stable with age and no accumulation of collagens could be found when comparing hearts of young and old N. furzeri despite the increase of markers for oxidative stress.
8. Cell culture experiments with human cardiac fibroblasts revealed that miR-29 is upregulated with increasing age of the donor. In addition to that, it could be shown that miR-29 is positively regulated by oxidative stress.
9. A zebrafish mutant with modified expression of miR-29 that was created in collaboration with the SNS, Pisa, presented a severe hypoxic phenotype and an altered mRNA expression profile compared to wild type control zebrafish. Cardiac dysfunction and hypertrophy were observed as well as an increase in DNA methylation and collagens.
Taken together, it could be shown that the aging process in skeletal muscle and heart tissue from N. furzeri leads to a series of changes on epigenetic levels. It remains to be elucidated whether these changes are result or cause for further changes of mRNA expression, protein levels and pathophysiology, yet the N. furzeri represents a promising research model for further aging studies.
Lizards of Paraguay: an integrative approach to solve taxonomic problems in central South America
(2018)
Paraguay is located in the center of South America with drier and warmer climatic conditions in the western part of the country, and more temperate and humid in the eastern region. Biogeographically, Paraguay is a key spot in South America, where several ecoregions converge. In my study, I sampled most of the ecoregions of Paraguay. The main objective of my work is to solve taxonomic problems, identified through genetic barcoding analyses, in the central region of South America. To achieve this objective, I used selected taxa of the Paraguayan Squamata as models taking into consideration the crucial geographic position of the country, plus the scarce available genetic data of Paraguayan reptiles.
The collecting activities were performed in the framework of a barcoding inventory project of the Paraguayan herpetofauna and carried out mostly in rural areas searching for animals in different types of habitats using active search as the sampling technique.
For genetics, the extraction of DNA was performed with DNeasy® Blood & Tissue Kit of Qiagen® for sets of few samples, and the fiber glass plate protocol for sets of 96 samples. I assessed the quality of sequences after amplification in agarose gel electrophoresis. The first marker sequenced was 16S mtDNA, used for barcoding analysis. A DNA barcode is a genetic identifier for a species. Once a taxonomic problem was detected, I generate more gene sequences to target the issue.
All the analyses to test phylogenetic hypotheses (based on single genes or concatenated datasets) were performed under Maximum Likelihood and Bayesian approaches. To root the phylogenetic trees, I chose the available taxon (or taxa) most closely related to the respective studied group as outgroups. For the general tree of Paraguayan Squamata, based on barcodes of 16S, I chose Sphenodon punctatus.
I generated a total of 142 sequences of 64 species of Squamata from Paraguay (Appendix I). The final alignment of 615 bp comprised 249 samples. The best substitution model for the Barcoding dataset based on the gene 16S was GTR+G, according to the BIC.
To complement molecular evidence generated with the ML grouping of 16S barcodes, I took a morphological approach based on voucher specimens collected during fieldwork (usually the same specimens that I used for genetic analysis), supplemented by the revision of museum collections.
Summarizing my results, samples of Colobosaura exhibit large genetic distances, and accordingly I revalidated Colobosaura kraepelini (Appendix II). Tropidurus of the spinulosus group show two clades and among them there is little genetic and morphological variation, I synonymized T. tarara and T. teyumirim with T. lagunablanca, and T. guarani with T. spinulosus (Appendix III). I detected the presence of candidate species of Homonota, and I restricted the name H. horrida for Argentina, and described two new species of Homonota (Appendices IV and V), and a new species of Phyllopezus also in the Family Phyllodactylidae (Appendix VI).
In this work I present the most comprehensive analysis of genetic samples of Squamata from Paraguay. The results obtained here will be useful to help to clarify further taxonomic issues regarding the squamate fauna from the central region of South America. Moreover, the data generated for this study will have a positive impact in a larger geographic context, beyond Paraguayan borders.
Regarding the conservation of the Paraguayan reptiles, and considering the taxonomic changes accomplished here, it is important to note that many species lack legal protection. In Paraguay, the major problem for conservation is habitat loss due to extensive crop farming. Thus, currently, the protected areas are the best strategy for conservation of biodiversity in the country. However, many such areas face legal problems (e.g., lack of official measurements, management plans, forest guards, infrastructure, etc.) so that the maintenance of their biodiversity over time is not guaranteed.
In conclusion, in this study I present contributions on the taxonomy of mostly lizards from Paraguay. Due to lack of samples, I was not able to deal with a deep taxonomic revision of the country's snakes. Based on my results, I can argue that analyses of Xenodontini and Pseudoboini are currently a pressing research issue. This barcoding project may continue since some colleagues in Paraguay are interested in collaboration. Given that the sequenced specimens are yet a small portion of the actual diversity of Paraguay, it will be of utmost importance to continue and expand these studies that will further improve our taxonomic knowledge. Furthermore, it is desirable to have Paraguayan scientists not only involved, but to see them taking the lead of high quality taxonomic research.
Das Standardmodell der Elementarteilchenphysik beschreibt nach aktuellem Kenntnisstand die Entstehung, den Aufbau und das Verhalten der Materie in unserem Universum am erfolgreichsten. Dennoch gibt es einige Phänomene, die sich nicht in dessen Rahmen beschreiben lassen, wie z. B. die Existenz von dunkler Materie und Energie, nicht-verschwindende Neutrinomassen oder die Baryonenasymmetrie. Speziell im Hinblick auf die starke Wechselwirkung, welche im Standardmodell durch die Quantenchromodynamik (QCD) beschrieben wird, gibt es noch immer viele offene Fragen.
Eine Umgebung, in der man die QCD experimentell ergründen kann, bieten vor allem Schwerionenkollisionen, die insbesondere am Large Hadron Collider (LHC) oder am Relativistic Heavy Ion Collider (RHIC) durchgeführt werden.
In dieser Arbeit soll ein Beitrag von theoretischer Seite aus hinsichtlich eines besseren Verständnisses dieser Schwerionenkollisionen und der zugrundeliegenden QCD erbracht werden. Der Fokus liegt dabei auf dem Isotropisierungsprozess unmittelbar nach der Kollision der beiden Kerne.
Neben etlichen effektiven Theorien, die sehr gute Ergebnisse in den entsprechenden Grenzbereichen liefern, ist die Beschreibung der QCD im Rahmen der Gittereichtheorie (Gitter-QCD) die am meisten etablierte. Diese beinhaltet in den meisten Fällen einen Übergang zur euklidischen Raumzeit, da somit ein Auswerten der hochdimensionalen Pfadintegrale mithilfe von Monte-Carlo-Simulation basierend auf dem sogenannten Importance Sampling ermöglicht wird. Aufgrund der Komplexwertigkeit der euklidischen Zeitkomponente ist man jedoch an das Studieren von statischen Observablen gebunden. Da wir aber gerade an einer Zeitentwicklung des Systems interessiert sind, sehen wir von dem Übergang zur euklidischen Raumzeit ab, was den Namen “real-time” im Titel der Arbeit erklärt.
Wir folgen dem sogenannten Hamilton-Ansatz und leiten damit Feldgleichungen in Form von partiellen Differentialgleichungen her, die wir dann mit den Methoden der Gitter-QCD numerisch lösen. Dabei bedienen wir uns der effektive Theorie des Farb-Glas-Kondensats (CGC, aus dem Englischen: “Color Glass Condensate”), um geeignete Anfangsbedingungen zu erhalten. Genauer gesagt basieren unsere Gitter-Anfangsbedingungen auf dem McLerran-Venugopalan-Modell (MV-Modell), das eine klassische Approximation in niedrigster Ordnung darstellt und nur Beiträge rein gluonischer Felder berücksichtigt.
Die klassische Näherung sowie das Vernachlässigen der fermionischen Felder wird insbesondere mit den hohen Besetzungszahlen der Feldmoden begründet. Einerseits dominieren Infrarot-Effekte, welche klassischer Natur sind, und andererseits ist dadurch der Einfluss der Fermionen, die dem Pauli-Prinzip gehorchen, unterdrückt. Gerade bei letzterer Aussage fehlt es jedoch an numerischen Belegen. Wir erweitern daher die klassische MV-Beschreibung durch stochastische Gitter-Fermionen, um diesem Punkt nachzugehen. Da sich Fermionen nicht klassisch beschreiben lassen, spricht man hierbei oft von einem semi-klassischen Ansatz.
Eines der Hauptziele dieser Arbeit liegt darin, den Isotropisierungsprozess, der bislang noch viele Fragen aufwirft, aber unter anderem Voraussetzung für das Anwenden von hydrodynamischen Modellen ist, zu studieren. Wir legen dabei einen besonderen Fokus auf die systematische Untersuchung der verschiedenen Parameter, die durch die CGC-Anfangsbedingungen in unsere Beschreibung einfließen, und deren Auswirkungen auf etwa die Gesamtenergiedichte des Systems oder die zugehörigen Isotropisierungszeiten. Währenddessen überprüfen wir zudem den Einfluss von unphysikalischen Gitter-Artefakten und präsentieren eine eichinvariante Methode zur Analyse der Güte unserer klassischen Näherung. Die Zeitentwicklung des Systems betrachten wir dabei sowohl in einer statischen Box als auch in einem expandierenden Medium, wobei Letzteres durch sogenannte comoving Koordinaten beschrieben wird. Zudem liefern wir einen Vergleich von der realistischen SU(3)-Eichgruppe und der rechentechnisch ökonomischeren SU(2)-Eichgruppe.
Mit unseren numerischen Ergebnissen zeigen wir, dass das System hochempfindlich auf die verschiedenen Modellparameter reagiert, was das Treffen quantitativer Aussagen in dieser Formulierung deutlich erschwert, insbesondere da einige dieser Parameter rein technischer Natur sind und somit keine zugehörigen physikalisch motivierten Größen, die den Definitionsbereich einschränken könnten, vorhanden sind. Es ist jedoch möglich, die Anzahl der freien Parameter zu reduzieren, indem man ihren Einfluss auf die Gesamtenergie des Systems analysiert und sich diesen zunutze macht. Dadurch gelingt es uns mithilfe von Konturdiagrammen einige Abhängigkeiten zu definieren und somit die Unbestimmtheit des Systems einzuschränken. Des Weiteren finden wir dynamisch generierte Filamentierungen in der Ortsdarstellung der Energiedichte, die ein starkes Indiz für die Präsenz von sogenannten chromo-Weibel-Instabilitäten sind. Unsere Studie des fermionischen Einflusses auf den Isotropisierungsprozess des CGC-Systems weist auf, dass dieser bei kleiner Kopplung vernachlässigbar ist. Bei hinreichend großen Werten für die Kopplungskonstante sehen wir allerdings einen starken Effekt hinsichtlich der Isotropisierungszeiten, was ein bemerkenswertes Resultat ist.
EBV Infektionen nach allogener hämatopoetischer Stammzelltransplantation sind neben dem Rezidiv eine häufige Komplikation und verbleiben ein häufiger Grund der Morbidität. Langanhaltende Immunsuppression oder die verspätete T-Zell Recovery können EBV Infektionen nach Transplantation begünstigen, welche unter diesen Umständen zu lebensbedrohlichen lymphoproliferativen Erkrankungen (PTLD) führen können. Für die optimale Behandlung der PTLD gibt es keinen Konsens. Adoptive Immuntherapien mit sowohl anti-Tumor Kapazität als auch wiederhergestellter virus-spezifischer zellulärer Immunität könnten, vor allem im Bezug einer PTLD, eine optimale Behandlungs-Option darstellen.
Zytokin-induzierte Killer (CIK)-Zellen repräsentieren einen neuen immuntherapeutischen Ansatz, da sie trotz hoher Mengen an T-Zellen nur ein geringes alloreaktives Potential besitzen und selbst im haploidenten Setting nur ein geringes Risiko zur Induktion einer GvHD besitzen. Der Graft versus Leukämie/Tumor-Effekt nach allogener SZT wird durch die Zellen verstärkt. Durch das dual spezifische zytotoxische Potential der CIK-Zellen über den nicht-MHC restringierten NKG2D Killing-Mechanismus und den MHC restringierten Mechanismus über den T-Zell Rezeptor können sowohl virusinfizierte als auch transformierte Zellen bekämpft werden. In der Literatur gibt es bisher nur eine Arbeit (aus unserer Arbeitsgruppe), in der CIK-Zellen mit spezifischen viralen Antigenen für eine antileukämische und potentielle anti-virale Aktivität stimuliert werden.
Im Rahmen dieser Arbeit wurde sowohl in prä-klinischen als auch in einem klinischen Ansatz die Durchführbarkeit, Anwendbarkeit, Effektivität und Sicherheit von EBV-spezifischen CIK-Zellen untersucht. Dazu wurde in einem ersten Schritt untersucht, ob sich durch die Modifizierung des konventionellen Herstellungsprotokolls EBV-spezifische CIK-Zellen generieren lassen.
Im präklinischen in vitro Setting wurde eine Modifizierung im CIK Herstellungsprotokoll vorgenommen um EBV-spezifische CIK-Zellen zu generieren, die sowohl ein anti-leukämisches als auch ein spezifisches anti-virales (EBV) Potential besitzen. Die Generierung erfolgte aus peripheren, mononukleären Zellen EBV-seropositiver Spender. Zusätzlich zu den CIK-Stimulanzien wurden die Zellen zweimal mit dem EBV Consensus Peptid Pool stimuliert, der Peptidsequenzen von verschiedenen latenten und lytischen EBV-Proteinen enthält. Durch die Modifikation konnte eine Ko-Expansion an EBV-spezifischen Zellen innerhalb des CD3+CD8+ Kompartiments der CIK-Zellen von bis zu 8% erreicht werden. In Zytotoxizitätsanalysen wurde das effektorische Potential der generierten Zellen überprüft. Gegenüber EBV peptidbeladenen Zielzellen zeigten die zusätzlich mit EBV-Peptid stimulierten CIK-Zellen in allen E:T Ratios (40:1, 20:1 und 5:1) eine signifikant höhere lytische Aktivität im Vergleich zur Aktivität konventioneller CIK-Zellen. Durch Blocking des NKG2D Rezeptors wurde die TCR-vermittelte lytische Aktivität in Bezug auf ein virales Ziel weiter gezeigt. Das anti-leukämische Killing Potential über den nicht-MHC restringierten NKG2D Rezeptor blieb zeitgleich erhalten, was sich in spezifischen Lysen gegenüber K562 und THP-1 Zellen von bis zu knapp 60% wiederspiegelt. Die durchflusszytometrische immunphänotypische Charakterisierung der EBV-stimulierten CIK-Zellen mittels 10-Farb Panel ergab keine signifikanten Unterschiede in Bezug auf Phänotyp und Rezeptor-Repertoire im Vergleich zu den konventionellen CIK-Zellen. Die Zytokin- und Chemokin Analysen der EBV-spezifischen CIK-Zellen spiegelten ein CD8+ TH1 Profil wieder und reflektierten den zytotoxischen Charakter der Zellen. Mit dem modifizierten Protokoll war es möglich für eine Patientin GMP-konforme CIK-Zellen mit EBV-Spezifität zu generieren, die 9,6 x 103 EBV-spezifische T-Zellen/kg Körpergewicht enthielten. Die Infusion der EBV-spezifischen CIK-Zellen resultierte in einer rapiden Beseitigung der Plasma EBV DNA und langanhaltendem Verschwinden des großen (27 cm3) PTLD-malignen Lymphoms. Während des anschließenden Immun-Monitorings der Patientin konnten CD4+ und CD8+ EBV-spezifische CIK-Zellen mittels der Dextramer Technologie in vivo im Blut der Patientin über einen Zeitraum von 32 Tagen nachgewiesen werden. Weitere FACS Analysen ergaben, dass sich im CD8+ Kompartiment der Patientin neben den CD8bright T-Zellen eine wachsende Population an CD8dim Zellen nachweisen ließ. Diese bestand zu einem bemerkenswerten Prozentsatz von bis zu 95% aus TEMRA Zellen, die auf virusspezifische T-Zellen hinweisen. Die Infusion der Zellen induzierte weder ein CRS noch andere Toxizitäten. Zytokin-Analysen aus dem Serum der Patientin reflektierten ein zytotoxisches und anti-virales Potential der infundierten Zellen. In vitro zeigten die unter GMP generierten Zellen im E:T Verhältnis von 40:1 und 20:1 ein 2-fach höheres zytotoxisches Potential gegenüber peptidbeladenen T2 Zellen im Vergleich gegenüber WT T2 Zellen. Der anti-leukämische Effekt gegen K562 Zellen blieb auch hier erhalten. 2 Jahre nach Behandlung ist die Patientin immer noch in Remission.
Die in dieser Arbeit erzielten prä-klinischen und klinischen Ergebnisse zeigen, dass virusspezifische CIK-Zellen eine neue, potentielle Immuntherapie darstellen, da die Zellen eine wirksame anti-leukämische Immunität mit antiviraler Immunrekonstitution vereinen. EBV-spezifische CIK-Zellen erwiesen sich als ein vielversprechender Ansatz für die Prävention von malignen Erkrankungen sowie in der Behandlung von EBV-Komplikationen nach allogener SZT.
Unter Web-based Trainings (WBTs) versteht man multimediale, interaktive und thematisch abgeschlossene Lerneinheiten in einem Browser. Seit der Entstehung des Internets in den 1990er Jahren sind diese ein wichtiger und etablierter Baustein bei der Konzeption und Entwicklung von eLearning-Szenarien. Diese Lerneinheiten werden üblicherweise von Lehrenden mit entsprechenden Autorensystemen erstellt. In selteneren Fällen handelt es sich bei deren Umsetzungen um individuell programmierte Einzellösungen. Betrachtet man WBTs aus der Sicht der Lernenden, dann lässt sich feststellen, dass zunehmend auch nicht explizit als Lerneinheiten erstellte Inhalte genutzt werden, die jedoch genau den Bedürfnissen des jeweiligen Lernenden entsprechen (im Rahmen des informellen und selbstgesteuerten Lernens). Zum einen liegt das an der zunehmenden Verfügbarkeit und Vielfalt von „alternativen Lerninhalten“ im Internet generell (freie Lizenzen und innovative Autorentools). Zum anderen aber auch an der Möglichkeit, diese Inhalte von überall aus und zu jeder Zeit einfach finden zu können (mobiles Internet, Suchmaschinen und Sprachassistenten) bzw. eingeordnet und empfohlen zu bekommen (Empfehlungssysteme und soziale Medien).
Aus dieser Veränderung heraus ergibt sich im Rahmen dieser Dissertation die zentrale Fragestellung, ob das Konzept eines dedizierten WBT-Autorensystems den neuen Anforderungen von frei verfügbaren, interaktiven Lerninhalten (Khan Academy, YouTube und Wikipedia) und einer Vielzahl ständig wachsender und kostenfreier Autorentools für beliebige Web-Inhalte (H5P, PowToon oder Pageflow) überhaupt noch gerecht wird und wo in diesem Fall genau die Alleinstellungsmerkmale eines WBTs liegen?
Zur Beantwortung dieser Frage beschäftigt sich die Arbeit grundlegend mit dem Begriff „Web-based Training“, den über die Zeit geänderten Rahmenbedingungen und den daraus resultierenden Implikationen für die Entwicklung von WBT-Autorensystemen. Mittels des gewählten Design-based Research (DBR)-Ansatzes konnte durch kontinuierliche Zyklen von Gestaltung, Durchführung, Analyse und Re-Design am Beispiel mehrerer eLearning-Projekte der Begriff WBT neudefininiert bzw. reinterpretiert werden, so dass sich der Fokus der Definition auf das konzentriert, was WBTs im Vergleich zu anderen Inhalten und Funktionen im Internet im Kern unterscheidet: dem Lehr-/Lernaspekt (nachfolgend Web-based Training 2.0 (WBT 2.0)).
Basierend auf dieser Neudefinition konnten vier Kernfunktionalitäten ausgearbeitet werden, die die zuvor genannten Herausforderungen adressieren und in Form eines Design Frameworks detailliert beschreiben. Untersucht und entwickelt wurden die unterschiedlichen Aspekte und Funktionen der WBTs 2.0 anhand der iterativen „Meso-Zyklen“ des DBR-Ansatzes, wobei jedes der darin durchgeführten Projekte auch eigene Ergebnisse mit sich bringt, welche jeweils unter didaktischen und vor allem aber technischen Gesichtspunkten erörtert wurden. Die dadurch gewonnenen Erkenntnisse flossen jeweils in den Entwicklungsprozess der LernBar ein („Makro-Zyklus“), ein im Rahmen dieser Arbeit und von studiumdigitale, der zentralen eLearning-Einrichtung der Goethe-Universität, entwickeltes WBT-Autorensystem. Dabei wurden die Entwicklungen kontinuierlich unter Einbezug von Nutzerfeedbacks (jährliche Anwendertreffen, Schulungen, Befragungen, Support) überprüft und weiterentwickelt.
Abschließend endet der letzte Entwicklungszyklus des DBR-Ansatzes mit der Konzeption und Umsetzung von drei WBT 2.0-Systemkomponenten, wodurch sich flexibel beliebige Web-Inhalte mit entsprechenden WBT 2.0-Funktionalitäten erweitern lassen, um auch im Kontext von offenen Lehr-/Lernprozessen durchgeführte Aktivitäten transparent, nachvollziehbar und somit überprüfbar zu machen (Constructive Alignment).
Somit bietet diese Forschungsarbeit einen interdisziplinären, nutzerzentrierten und in der Praxis erprobten Ansatz für die Umsetzung und den Einsatz von WBTs im Kontext offener Lehr-/Lernprozesse. Dabei verschiebt sich der bisherige Fokus von der reinen Medienproduktion hin zu einem ganzheitlichen Ansatz, bei dem der Lehr-/Lernaspekt im Vordergrund steht (Lernbedarf erkennen, decken und überprüfen). Entscheidend ist dabei, dass zum Decken eines Lernbedarfs sämtliche zur Verfügung stehenden Ressourcen des Internets genutzt werden können, wobei WBTs 2.0 dazu lediglich den didaktischen Prozess definieren und diesen für die Lehrenden und Lernende transparent und zugänglich machen.
WBTs 2.0 profitieren dadurch zukünftig von der zunehmenden Vielfalt und Verfügbarkeit von Inhalten und Funktionen im Internet und ermöglichen es, den Entwicklern von WBT 2.0-Autorensystemen sich auf das Wesentliche zu konzentrieren: den Lehr-/Lernprozess.
Landwirtschaft ist der Hauptmotor der westafrikanischen Wirtschaft und Kleinbauern liefern fast 70 % des Nahrungsmittelbedarfs. Traditionell wird hauptsächlich Regenfeldbau betrieben, der durch geringen Agrarinput und die Nutzung von einfachen Werkzeugen wie Hacke und Buschmesser gekennzeichnet ist. Die Ernteerträge sind gering und die Bodenfruchtbarkeit sinkt schnell nach einigen Anbaujahren. Infolgedessen werden Wald- und Weidefläche gerodet und die Landdegradation wird beschleunigt. Dies hat direkte Auswirkungen auf die landwirtschaftliche Produktivität und die Ernährungssicherheit der Kleinbauern.
Die vorliegende Arbeit hat sich das Ziel gesetzt, sozio-ökonomische und geo-ökologische Faktoren, die den Landnutzungswandel in zwei Agrarökosystemen der Atakora Gebirgskette steuern, aufzudecken. Schließlich sollen ortsangepasste Maßnahmen vorgeschlagen werden, um die Agrarökosysteme wiederherzustellen und ihre Dienstleistungen für Kleinbauern zu erhalten.
Haushaltsbefragungen und Gruppendiskussionen wurden während Geländeaufenthalten in den Jahren 2014 und 2015 in den Dörfern der beiden Ethnien durchgeführt. Die Landnutzung und ihr Wandel werden über knapp 30 Jahre anhand von Bildern des Satellitensystems LANDSAT aus den Jahren 1987, 2001 und 2015 ausgewertet. Eine überwachte Klassifikation nach dem „Maximum Likelihood“-Klassifkationsalgorithmus und Veränderungs-analysen wurden durchgeführt. Zum Erfassen der Variabilität der Agrarparameter der Böden wurden Bodenprofile nach dem Catena-Prinzip gegraben. Bodenproben wurden aus jedem Horizont genommen. Anschließend wurden einige physische Parameter und die Nährstoffgehalte vom Fachpersonal des bodenkundlichen Labors des Instituts für Physische Geographie (Geowissenschaften) bestimmt.
Innerhalb der knapp letzten dreißig Jahre (1987-2015) ist die natürliche Vegetation bei den beiden Ethnien zugunsten der Landwirtschaft und der bebauten bzw. vegetationsfreien Flächen zurückgegangen. Über die analysierten Zeiträume liegen mehr Flächen bei den Ditamari (47,24%) unter einer negativen Dynamik als bei den Éwé (36,41%). Die Untersuchung der Steuerungsfaktoren des Landnutzungswandels bringt heraus, dass der höhere Anteil an positiv veränderten Flächen bei den Éwé ist nicht durch bessere Landnutzungsstrategien begründet. Vielmehr stellt das Relief der begrenzende Faktor für die Ausdehnung der Ackerflächen und damit die bessere Erhaltung der natürlichen Vegetation bei den Éwé dar.
Die erste Annahme, dass Veränderungen in der Landnutzung die Landdegradation zur Folge haben, wird in den beiden Untersuchungsgebieten bestätigt. Die abnehmende Dichte der Vegetationsdecke begünstigt Prozesse der Flächen-, Rillen- und Rinnenspülung. Zudem werden die ökologischen Bodenfunktionen vermindert. Erscheinungen der Landdegradation bei den Ditamari sind die Ausdehnung von oberflächlich verkrusteten Arealen und die Verbreitung des Unkrautes Striga hermontica. Bei den Éwés tritt eine starke Profilverkürzung der Böden ein und das anstehende Gestein wird an mehreren Stellen freigelegt.
Die zweite Hypothese wird in Hinsicht auf die räumliche und ethnische Differenzierung der Folgen der Landdegradation bestätigt. Allerdings sind nicht, wie vermutet, die Ditamari verletzbarer als die Éwés. Die beiden Ethnien betreiben eine intensive Subsistenzwirtschaft und die Éwé entwickeln weniger Anpassungsstrategien als die Ditamari. Im Hinblick auf die globale Erwärmung könnte die Landdegradation in den beiden Gebieten fortschreiten und die Folgen auf der Landschaft und den Kleinbauern verschärfen. Die Éwé wären, anders als vermutet, verletzbarer als die Ditamari. Eine Fortschreitung der Landdegradation könnte bei den Kleinbauern Éwés langfristig den Zusammenbruch des Agrarökosystemen hervorrufen. Sie könnten langfristig die Grundlage ihrer Existenzsicherung verlieren.
Die Studie zeigt auf, dass traditionell, zurückgezogen lebende Völker wie die Ditamari das Agrarökosystem nachhaltiger bewirtschaften und angesichts der Landdegradation anpassungsfähiger sind als tief umgewandelte Gesellschaften wie die Éwés. Sie bringt heraus, dass Kleinbauern Westafrikas keinesfalls als eine Einheit betrachtet werden sollten. Jede Ethnie ist durch Merkmale gekennzeichnet, die ihre Gestaltung der Landschaft beeinflussen. Diese Vielfältigkeit und Besonderheiten der kleinbäuerlichen Gesellschaften müssen in der Entwicklungszusammenarbeit stärker berücksichtigt werden.
Hämophilie A ist eine X-chromosomal rezessiv vererbte Krankheit, die aufgrund von Mutationen innerhalb des Gens von Gerinnungsfaktor VIII (FVIII) zum funktionellen Defekt oder zum Fehlen des körpereigenen FVIII führt. FVIII zirkuliert als Heterodimer und besteht aus einer schweren Kette mit der Domänenstruktur A1-A2-B und einer leichten Kette mit der Domänenstruktur A3-C1-C2. Bei Patienten unter Prophylaxe wird durch regelmäßige Substitution mit rekombinanten oder aus Plasma gewonnenen FVIII-Präparaten die Hämostase wiederhergestellt. Allerdings entwickeln hierbei etwa 30% der Patienten mit einer schweren Hämophilie eine FVIII-spezifische Immunantwort in Form von neutralisierenden Antikörpern (Inhibitoren). Die sogenannte Immuntoleranz-Therapie (engl. immune tolerance induction therapy, ITI) ist bisher die einzige etablierte Therapie, die zu einer dauerhaften Eradikation der FVIII-Inhibitoren und Induktion von Toleranz gegenüber FVIII führen kann. Die Therapie beruht auf einer meist täglichen Gabe hoher FVIII-Dosen, welche sich, je nach Behandlungsdauer, über Wochen bis hin zu Jahren erstrecken kann. Bei etwa 30% der Patienten ist diese Therapie nicht erfolgreich. Für solche Patienten besteht die Gefahr lebensbedrohlicher, unkontrollierbarer Blutungen und erheblicher Gelenkschäden.
Die spezifische Ansteuerung des Membran-gebundenen Immunglobulin G (mIg) des B-Zellrezeptors (BZR) mithilfe von Immuntoxinen ist eine mögliche Option zur selektiven Eliminierung FVIII-spezifischer B-Zellen und somit zur Eradikation von FVIII-Inhibitoren. Solche Immuntoxine bestehen aus einer zellbindenden und einer zytotoxischen Domäne, welche nach Internalisierung zur Apoptose der Zielzelle führen soll. Da FVIII aufgrund der Größe als zellbindende Domäne ungeeignet ist, beschäftigt sich die vorliegende Arbeit mit der Entwicklung und Evaluierung alternativer Immuntoxine zur selektiven Eliminierung FVIII-spezifischer B-Zellen. Die FVIII-spezifische Immunantwort ist zwar polyklonal, jedoch vor allem gegen A2- und die C2-Domäne gerichtet. Aus diesem Grund wurden die humane A2- und C2-Domäne (hA2, hC2) als zellbindende Domäne verwendet und jeweils genetisch an eine verkürzte Version des Exotoxin A (ETA) aus Pseudomonas aeruginosa fusioniert, bei welcher die natürliche zellbindende Domäne entfernt wurde. Die rekombinanten Proteine wurden bakteriell produziert und im Anschluss an die Aufreinigung biochemisch charakterisiert. Während das bakterielle Expressionssystem für hA2-ETA nicht geeignet war, konnte hC2-ETA neben weiteren Kontrollproteinen mit korrekter Konformation der hC2-Domäne hergestellt und aufgereinigt werden.
Die Fähigkeit zur selektiven Eliminierung hC2-spezifischer B-Zellen wurde im weiteren Verlauf sowohl in vitro mithilfe einer hC2-spezifischen Hybridomazelllinie als auch ex vivo und in vivo mithilfe von Splenozyten aus FVIII-immunisierten FVIII-knockout Mäusen untersucht.
Durch Inkubation der hC2-spezifischen Hybridomazelllinie mit hC2-ETA konnten ca. 38 % der Zellen eliminiert werden. Weitere Untersuchungen der Zelllinie ergaben, dass diese keinen vollständigen funktionalen B-Zellrezeptor auf der Oberfläche exprimierte, welcher für die Bindung und die korrekte Internalisierung des Immuntoxins notwendig ist. Aufgrund dessen eignet sich diese Zelllinie nicht als Modell für eine genauere Analyse der in vitro Eliminierungseffizienz von hC2-ETA.
Weitere Analysen mithilfe von Splenozyten aus FVIII-immunisierten FVIII-knockout Mäusen haben jedoch gezeigt, dass durch ex vivo Inkubation der Splenozyten mit hC2-ETA, alle hC2-spezifischen B-Zellen vollständig, selektiv und konzentrations-abhängig eliminiert werden konnten. Auch die mehrfache Applikation von hC2-ETA in FVIII-immunisierten FVIII-knockout Mäusen führte bei der Hälfte der Tiere zur vollständigen Eliminierung aller hC2-spezifischen B-Zellen. Eine Reduktion des hC2-spezifischen Antikörpersignals konnte nach Gabe von hC2-ETA in allen behandelten Tieren beobachtet werden. Die unvollständige Eliminierung in der Hälfte der Tiere ist vermutlich auf die Präsenz hC2-spezifischer Antikörper zurückzuführen, die einen Teil des applizierten Immuntoxins neutralisiert haben, sodass nicht alle hC2-spezifischen Gedächtnis-B-Zellen erreicht und eliminiert werden konnten. Um die Eliminierungseffizienz von hC2-ETA weiter zu erhöhen, müsste das Behandlungsprotokoll geändert werden. Sowohl eine Verlängerung des Behandlungszeitraums als auch eine kombinierte Therapie aus FVIII und hC2-ETA sollte zu einer erhöhten Bioverfügbarkeit des Toxins und dadurch zu einer gesteigerten Eliminierungseffizienz führen.
Die Ausweitung des hier vorgestellten Ansatzes auf weitere FVIII-Domänen ist generell möglich, jedoch muss hierzu ein alternatives Expressionssystem aufgrund des eukaryotischen Ursprungs von FVIII in Betracht gezogen werden. Die hier vorgestellten Ergebnisse zeigen dennoch, dass FVIII-Domänen-Immuntoxine ein wirkungsvolles Mittel sind, um FVIII-spezifische B-Zellen selektiv zu eliminieren. Die Anpassung der Gabe von FVIII-Domänen-Immuntoxinen an die individuelle Immunantwort des Patienten könnte das Auftreten von Nebenwirkungen minimieren. Außerdem könnte eine kombinierte Therapie aus ITI und FVIII-Domänen-Immuntoxinen die Zeit bis zur Induktion von Toleranz verkürzen und die Chancen für den generellen Therapieerfolg erhöhen.
Die aktuelle Gesetzeslage fordert mit der im Rahmen der Gesundheitsreform 2007 eingeführten Versicherungspflicht und dem 2013 in Kraft getretenen Gesetz zur Beseitigung sozialer Überforderung bei Beitragsschulden in der Krankenversicherung eine Vollversicherung aller in Deutschland lebenden Personen. Die Erfahrungen aus medizinischen Versorgungseinrichtungen zeigen, dass dieses Ziel nicht erreicht wurde. Nach wie vor wird eine bedeutende Anzahl von Patienten ohne Krankenversicherung in Krankenhäusern, Arztpraxen und medizinischen Hilfseinrichtungen versorgt. In der vorliegenden Studie wird in einer praxisnahen Herangehensweise am Beispiel der Stadt Frankfurt am Main untersucht, wo die Ursachen dafür zu finden sind, wenn die Einbindung in das Regelsystem der Krankenversicherung nicht gelingt und wie sich dies auf die medizinische Versorgung der Betroffenen auswirkt.
Basierend auf einem qualitativen Studienkonzept wird das empirische Material mit Leitfadeninterviews erhoben und mit der qualitativen Inhaltsanalyse nach Gläser und Laudel ausgewertet. Die Auswahl der Interviewpartner erfolgt mittels Sampling über die Zusammenarbeit mit zwei medizinischen Hilfseinrichtungen als zentrale Kontakte im Forschungsfeld. Die 25 Patienteninterviews stellen eine exemplarische Auswahl an dort behandelten nichtversicherten Patienten dar. Die 21 Experteninterviews mit Gesprächspartnern aus den Arbeitsbereichen Hilfseinrichtungen, Krankenhäuser und Behörden bilden die unterschiedlichen Akteure und Sichtweisen im Handlungsfeld der Nichtversicherung ab. Mithilfe der qualitativen Inhaltsanalyse werden die erfassten Fälle rekonstruiert und auf ihre Kausalmechanismen hin analysiert.
Als Ergebnis der Untersuchung werden 13 Grundsituationen typischer Fälle von Nichtversicherung dargestellt und mit den strukturellen Rahmenbedingungen in Zusammenhang gebracht. Daraus werden die Entstehungsmechanismen von Nichtversicherung ersichtlich. Diese zeigen, dass das Fehlen der Krankenversicherung das Resultat einer multifaktoriellen Entwicklung ist. So wirken sich einerseits die individuellen Verhaltensweisen der Betroffenen sowie ihre jeweiligen Lebensum-stände, wie die berufliche Situation, die Wohnsituation, Herkunft, Aufenthaltsstatus und die gesundheitliche Situation, auf die Versicherungssituation aus. Andererseits kommt strukturellen Hürden eine wesentliche Bedeutung bei der Entstehung von Nichtversicherung zu. So lässt die Gesetzgebung in der Versicherungspflicht, dem Sozialleistungsbezug und im Aufenthaltsrecht Lücken, die zwar nicht notgedrungen zum Verlust der Krankenversicherung führen, aber in Wechselwirkung mit bestimmten Lebensumständen und Verhaltensweisen der einzelnen Personen die Eingliederung in das reguläre Versicherungssystem verhindern oder erschweren.
Im zweiten Teil der Studienergebnisse wird die Versorgungssituation für Patienten ohne Krankenversicherung beurteilt. Darin wird deutlich, dass Nichtversicherte im Vergleich zu regulär versicherten Personen schlechter medizinisch versorgt sind. Dies ist einem erschwerten Zugang zum Regelsystem der medizinischen Versorgung sowie den eingeschränkten Behandlungsmöglichkeiten im Hilfsnetz geschuldet. Trotz der gut ausgebauten Hilfestrukturen in Frankfurt am Main muss demnach die Versorgungs-situation für Nichtversicherte als unzureichend beurteilt werden.
Neben den Patienten sind auch die anderen Akteure von den Folgen des Nichtversichertseins betroffen. Dabei zeigen sich zwei gegensätzliche Perspektiven auf das Problemfeld. Auf der einen Seite stehen die hilfeleistenden Einrichtungen, die den Patienten eine medizinische Versorgung zukommen lassen, auf der anderen Seite die Kostenträger, die als Institutionen des Regelsystems diese medizinische Behandlung finanzieren. Die versorgenden Einrichtungen geraten in einen Konflikt zwischen ihrem Behandlungsauftrag, der sich aus der gesetzlich verankerten Behandlungspflicht und der ethischen Verantwortung den Patienten gegenüber ergibt, und dem wirtschaftli-chen Druck, der die Behandlungsmöglichkeiten bei unzureichender Finanzierung begrenzt. Die Kostenträger können ihre Zuständigkeit als Leistungsträger im Einzelfall prüfen und diese gegebenenfalls ablehnen. Da Nichtversicherte als unattraktive Kunden gelten, geht die Ablehnung meist mit einer Kostenersparnis einher und bedeutet somit für die Kostenträger keinen Nachteil. Die daraus entstehenden Versorgungsvakanzen werden wiederum vom Hilfsnetz aufgefangen.
Vor dem Hintergrund dieser Ergebnisse muss das Auftreten von Nichtversicherung als Problem gesehen werden, aus dem Handlungsbedarf hervorgeht, auch wenn die Gruppe der Nichtversicherten insgesamt nur einen kleinen Anteil an der Gesamtbevölkerung ausmacht. Die Zielsetzung dieser Studie ist es, eine fundierte Grundlage zu geben, auf der Lösungsansätze für die beschriebenen Konflikte erarbeitet werden können.
Für den Zugang zu sozialen Netzwerken - sei es ein klassisches soziales Netzwwerk oder eine objektspezifische Community - ist die Existenz eines Avatars obligatorisch. Die virtuelle Repräsentation bindet die User_innen dahinter als gestaltbares Interface-Objekt in das Kommunikationssystem ein. Der systemspezifische Avatar besteht dabei aus feststehenden Modulen, deren Anordnung von den User_innen unveränderbar ist so dass mit dem Zugang zum System die Annahme der medialen Uniformität ebenfalls obligatorisch einhergeht; sie standadisiert alle Avatare des zugehörigen Systems schablonenhaft. Durch das Füllen der Module der medialen Uniformität mit grafischen Informationen kann eine persönliche grafische Uniform generiert werden, die immer in Bezug zur grafischen Uniformität der jeweiligen Community steht...
Cells within a tissue form highly complex, cellular interactions. This architecture is lost in twodimensional cell cultures. To close the gap between two-dimensional cell cultures and in vivo tissues, three-dimensional cell cultures were developed. Three-dimensional cellular aggregates such as spheroids, organoids, or embryoid bodies have been established as an essential tool in many different aspects of life science, including tumour biology, drug screening and embryonic development. To fully take advantage of the third dimension, imaging techniques are essential. The emerging field of “imagebased systems biology” exploits the information in images and builds a connection between experimental and theoretical investigation of biological processes at a spatio-temporal level. Such interdisciplinary approaches strongly depend on the development of protocols to establish threedimensional cell cultures, innovations in sample preparation, well-suited imaging techniques and quantitative segmentation methods.
Although three-dimensional cell cultures and image-based systems biology provide a great potential, two-dimensional methods are still not completely replaced by three-dimensional methods. The knowledge about many biological processes relies on two-dimensional experiments. This is mainly due to methodical and technical hurdles. Therefore, this thesis provides a significant contribution to overcome these hurdles and to further develop three-dimensional cell cultures. I established computational as well as experimental methods related to three-dimensional cellular aggregates and investigated fundamental, cellular processes such as adhesion, growth and differentiation.
In the first part of the thesis we investigate Lyapunov exponents for general flat vector bundles over Riemann surfaces and we describe properties of Lyapunov exponents on special loci of the moduli space of flat vector bundles. In the second part of the thesis we show how the knowledge of Lyapunov exponent over a sporadic Teichmüller curve can be used to compute the algebraic equation of the associated universal family of curves.
The role of the homeobox transcription factor Meis2b in zebrafish heart development and asymmetry
(2018)
Zebrafish heart development: The heart of the zebrafish is the first organ to form and function during embryonic development, and is composed by one atrium and one ventricle. Between 5-17 somites stage, the cardiomyocyte precursors form the bilateral cardiac fields in the anterior lateral plate mesoderm (ALMP); where the endocardial precursors are located anterior to the cardiac fields (Zeng, Wilm et al. 2007). Then, the pools of endocardial andmyocardial precursors fuse at the midline and form the heart disc; where atrial cardiomyocytes are located around, the ventricular cardiomyocytes are located in the centerof the heart disc, and the future endocardium is located in a ventral position relative to the cardiomyocytes (Bakkers 2011). After the heart disc is formed, the cardiomyocyte progenitors start to migrate and rotate asymmetrically to form the heart tube (de Campos-Baptista, Holtzman et al. 2008, Rohr, Otten et al. 2008, Smith, Chocron et al. 2008). This process is followed by a rightward bending of the heart tube, and the arterial and venous poles rotate at different speed and directions (a process known as heart looping) (Smith, Chocron et al. 2008). The heart looping process results in a ventricle located on the right side and a more posterior atrium located on the left side with respect to the midline; at this point the atrium and ventricle are separated by a fine segment called the atrioventricular canal, where the valves will be formed (Staudt and Stainier 2012). The second heart field (SHF) is a pool of cardiac progenitors that are specified later during the formation of the heart disc and until the heart looping stages. The SHF contributes withcells to the distal side of the ventricle, the outflow and inflow tracts, and is important for the specification of the cardiac conduction system (de Pater, Clijsters et al. 2009, Hami, Grimes et al. 2011, Zhou, Cashman et al. 2011, Witzel, Jungblut et al. 2012, Guner-Ataman, Paffett-Lugassy et al. 2013)....
Whereas many writers across all times and cultures have written about the potential aesthetic effects of music experiences which could be labeled as absorption, only limited empirical research has been done on the state aspects of this fascinating aspect of human involvement. What is more, there are still few tested models which explain how people can be absorbed by a piece of music as well as continue to be third-person observers monitoring and even reflecting on that same musical experience (cf. Bryant & Veroff, 2007; Dewey, 2005; Wolf, 2013).
Adopting a dual process approach (Dietrich, 2004; Evans & Stanovich, 2013; Lewis, Tamborini & Weber, 2014; Mukhopadhyay, 2014; Schwarz, 2011; Smith & Neumann, 2005) – in which human thinking, emotion, and routes to appraisal are defined in terms of an interplay between two distinct systems of psychological processing – this thesis aimed to examine a) the cognitive mechanisms underlying the essential yet poorly understood paradox of losing oneself in the music on the one hand, and the act of meta-awareness (i.e., rational and controlled sense of self) on the other, b) its corresponding psycho-phenomenological profile(s) when listening intentionally to self-chosen music, and c) the different potential of state and trait aspects of absorption and meta-awareness in predicting three indicators of the aesthetic response to music: enjoyment (a purely pleasurable response), lasting impression (a meaningful response related to mixed emotion), and behavioral intention (future-planned seeking/ avoidance response). Moreover, a dynamically-conceived conceptualization of absorption was proposed in terms of a temporary phase taking place amidst a variety of other cognitive responses to music, including concentration, mind wandering, and mindfulness. Finally, a questionnaire commonly-used for assessing alterations in consciousness (Phenomenology of Consciousness Inventory; Pekala, 1991) was evaluated in the context of music listening, before using it in the development of a self-report questionnaire aimed at measuring absorptive states in or by music. To this end, a quantitative empirical research method (state and trait questionnaires) was employed in a series of online surveys, using self-selected music as well as pre-determined music by the researcher as stimulus, together approaching a naturalistic listening setting.
Situated within an overarching neurocognitive model for music engagement and consistent with several aesthetic theories converging (Benson, 1993; Dewey, 2005; Wolf, 2013), aesthetic absorption was conceptualized as, and later confirmed to be, structured by experiential and meta-consciousness or – in terms of dual process terminology – intuitive type I and reflective type II processing. Two forms of music absorption were empirically identified and labeled as zoning in and tuning in (cf. Schooler, 2007). These experience profiles distinguished themselves significantly in terms of the degree in which a music listener maintained his or her meta-awareness, assessed via volitional control, rationality, self-awareness, and memory of the previous event. The overall pattern of consciousness parameters of both types of absorbed listening are suggestive of a unique interchanging between brain networks for intuitive processing and areas related to self-reference, -awareness and -control. The distinction between zoning in and tuning in was further found to be strongly related to the quality of affective state (i.e., positive vs. mixed emotions). These emotions modulate the experiential intensity of absorption, suggesting this experience to be an affect-biased type of attention. Based on the feelings-as-information theory (Schwarz, 2011), postulating that positive emotions (e.g., happiness) are differently processed than negatively-tinted types of emotions (e.g., nostalgia), it was concluded that music-induced rumination (a negatively-valenced experience related to the self and represented by the feeling of sadness) ‘competes’ with higher-order functions relevant to meta-awareness. From this perspective, the two found absorption types match conceptually with the positively-tinged self-reflection and negatively-tinged self-rumination as two different types of self-focused introspection (Takano & Tanno, 2009; Trapnell & Campbell, 1999). Further examining the construct’s latent structure, it was shown that being absorbed by music is a continuous phenomenon; a matter of ‘more-or-less’ involvement rather than a ‘unique state of mind’. This finding cautions against subtyping absorption experiences as being qualitatively distinct, and assuming it to be guided by ‘special’ mechanisms. Consequently, determining ‘music absorbers’ is a matter of imprecise estimation rather than being marked by a clear observable onset. Finally, as expected, an absorbed state of mind – operationalized here as a multidimensional bifactor model – completely mediated the effect of trait absorption, and was a good predictor for enjoyment, lasting impression, and behavioral intention. Whereas absorption and enjoyment were found to have a mutual positive effect on each other, absorption and meta-awareness were found to be unrelated to each other. Also, meta-awareness contributed little to aesthetic appreciation. The results confirm the need for a dynamic approach to the relationship between state absorption and enjoyment; the one-directional approach common in many research reports does not seem to fully capture the relationship between them. Future research should examine whether the same applies for absorption and meta-awareness, preferably making use of more advanced measures for the latter.
Taken together, this dissertation shows the potential of including the interplay between the trait and state constructs of absorption and meta-awareness in order to better understand the mechanisms underlying aesthetic experiences with music. The present work demonstrated that these two constructs should not be conflated, but, in terms of dual processing, that they represent different levels of consciousness. Moreover, this thesis underlined the power of absorption not only to evoke short-lived pleasurable experiences, but also to stimulate long-lasting impressions. Knowing more about absorbed listening and its potential effects, learning to consciously recognize it as it happens, and perhaps regulate and maintain its positive consequences (i.e., savoring), could further improve the way we engage ourselves with music or other aesthetic objects. Only then could we engage in behavior that we’re sure would make us happy rather than seeking out experiences which we hope would make us happy.
Finally, dual process approach and measures provided by research on altered-states-of-consciousness (ASC) experiences offer new and fruitful perspectives to conceptualize aesthetic absorption and examine its mechanisms. Several major research questions lie ahead in understanding the phenomenological experience and aesthetic role of absorption, including the future comparison between subjective experiences of ASCs across varying music and non-music induction methods (e.g., hypnosis), listening conditions (e.g., live concert experience), and musical ‘cultures’ (human societies, musical styles, classes).
Das Ziel der vorliegenden Arbeit war es, MALDI-Massenspektrometrie als robuste Analysenmethode für die quantitative Analyse niedermolekularer Verbindungen aus komplexen biologischen Matrizes zu etablieren. Zu Beginn der Arbeit wurden drei typische Fragestellungen im Bereich der Lebensmittelanalytik, der medizinischen Forschung und der klinischen Chemie ausgewählt, um die Methodik anhand dieser Modellsysteme zielgerichtet zu entwickeln und zu bewerten. Für jede dieser Fragestellungen wird routinemäßig ein hoher Probendurchsatz verlangt und damit werden hohe Anforderungen an die Probenvorbereitung gestellt, da diese einfach, schnell, reproduzierbar, Matrix-tolerant und automatisierbar sein muss um die Weiterentwicklung zur Hochdurchsatzanalytik zu erlauben.
Der quantitative Nachweis von Melamin und seinen Derivaten wurde aufgrund des Aufkommens von Milchprodukten, die mit diesen Verbindungen kontaminiert waren, ein wichtiger Bestandteil der Analytik dieser Lebensmittel. Insbesondere an diesem Beispiel zeigte sich der Vorteil des Einsatzes von MALDI-Massenspektrometrie zur Analyse kleiner Moleküle. Aufgrund der höheren Toleranz gegenüber Puffern und Salzen konnte die Probenvorbereitungszeit der für die FDA entwickelten Methode zur Quantifizierung von Melamin in Milchpulver mittels LC-ESI von ca. 140 min auf 90 min reduziert werden, da auf die zeitaufwendige Flüssigchromatographie verzichtet werden konnte. So wurde Melamin mit einem LLOQ von 0,5 ppm quantifiziert, was unterhalb der Vorgaben der WHO (2,5 ppm in Milichpulver und 1 ppm in Babynahrung) lag. Cyanursäure, ein Derivat von Melamin welches für die Bildung schwerlöslicher Komplexe in der Niere mitverantwortlich gemacht wird, konnte ebenfalls mit der entwickelten MALDI-MS Methode quantifiziert werden. Allerdings war die ermittelte Bestimmungsgrenze mit 15 ppm um den Faktor 30 schlechter als bei Melamin. Die Nachweisgrenze bei MALDI-MS ist stark von der MALDI-Matrix abhängig und die Verwendung von Sinapinsäure war eine gute Kompromisslösung, um die Analyten in einem Spot im positiven und negativen Reflektormodus zu analysieren. Allerdings wurde diese Matrix zur Analyse von Analyten im positiven Reflektormodus entwickelt. Bislang wurden nur wenige Matrizes für MALDI-MS im negativen Reflektormodus beschrieben, um z.B. Säuren besser nachweisen zu können. Forschung in diesem Bereich wird neue Möglichkeiten zur Detektion negativ geladener kleiner Moleküle ergeben.
Des Weiteren wurden im Rahmen dieser Arbeit auch Lösungen für klinische Fragestellungen wie etwa den Nachweis von Methylphenidat im Plasma und Gehirn von Ratten oder der Dried Blood Spot Analytik entwickelt. Bei beiden Methoden wurde jeweils nur eine einfache Flüssig-Flüssig-Extraktion zur Probenvorbereitung angewendet und sie ließen sich sehr gut auf Realproben übertragen.
Methylphenidat konnte im Plasma im Konzentrationsbereich von 0,1-40 ng/mL und im Hirnhomogenat im Konzentrationsbereich von 0,4-40 ng/mL quantifiziert werden, was gut im Konzentrationsbereich der Realproben von mit Methylphenidat gefütterten Ratten lag. Dazu standen das Plasma und die Gehirne von fünf Ratten zur Verfügung. Es wurde eine lineare Korrelation zwischen der MPH-Konzentration im Gehirnhomogenat und im Plasma gefunden, was basierend auf den bis dato bekannten Literaturergebnissen ein zu erwartendes Ergebnis war, aber zukünftig mit einer größeren Anzahl von Versuchstieren verifiziert werden sollte. Während der Methodenentwicklung war auch bei diesem Projekt die Auswahl der MALDI-Matrix ausschlaggebend für den Erfolg der Messungen. Im MALDI-Massenspektrum interferierte das Signal des Natriumaddukts von CHCA mit dem Signal von MPH. Für dieses Problem kamen zwei mögliche Lösungen in Betracht. Erstens die Quantifizierung mit ClCCA als MALDI-Matrix, da hier keine Interferenzen auftraten. In ersten Vorversuchen konnte MPH so in einem Konzentrationsbereich von 1-48 ng/mL mit einer exzellenten Linearität von R2=0,9992 quantifiziert werden. Eine zweite mögliche Problemlösung war die Verwendung von Tandem-Massenspektrometrie. Hierzu wurden Fragmentionen-Massenspektren der überlagerten Signale aufgenommen. MPH und der verwendete interne Standard MPH-d9 zeigten dabei spezifische Fragmentionensignale, über die quantifiziert wurde. Da die Sensitivität um den Faktor 100 im Vergleich zu MS-Spektren von CHCA und ClCCA gesteigert werden konnte, wurde die weitere Methodenentwicklung basierend auf der Tandem-Massenspektrometrie mit der MALDI-Matrix CHCA durchgeführt. Überdies sind MS/MS-Versuche unter Verwendung von ClCCA als MALDI-Matrix für kleine Moleküle sehr erfolgsversprechend und sollten in weiteren Forschungsarbeiten durchgeführt werden.
Die Dried Blood Spot Technik als alternative Probenvorbereitung bietet eine Reihe von Vorteilen, wie etwa den einer einfacheren Lagerung und eines einfacheren Transports einer großen Menge von Proben. Darüber hinaus werden nur wenige Mikroliter Blut verwendet, was vorteilhaft ist bei z B. klinischen Studien oder dem Therapeutic Drug Monitoring. Diese Art der Probennahme ist somit eine perfekte Ergänzung für weitere quantitative Analysen von Methylphenidat in Rattenblut. Den Ratten würden nur wenige Mikroliter Blut entnommen werden, was ihr Überleben sichert und der Transport der Proben auf dem Postweg wäre wesentlich einfacher. Um eine allgemein verwendbare DBS-MALDI-MS-Methode zu entwickeln, wurden neben Methylphenidat auch bekannte Analyten aus dem Bereich des Dopings sowie Lamotrigin, Coffein und Theophyllin als Beispiele für das Therapeutic Drug Monitoring verwendet. Es wurden verschiedene Lösungsmittel zur Extraktion eingesetzt, wobei sich eine Kombination aus Methyl-tert-Butylether und Ethanol, sowie Aceton als am besten geeignet erwies. Einige Analyten wie Coffein, Theophyllin und Lamotrigin wurden bis zu einer Konzentration von 0,5 μg/mL quantifiziert. Diese Bestimmungsgrenze ist bei Analyten aus dem Bereich des Dopings wie z.B. Salbutamol, Methylphenidat oder Clenbuterol, deren therapeutisch wirksame Plasmakonzentration im Bereich von wenigen Nanogramm pro Milliliter Blut liegt, um den Faktor 15-500 zu hoch. Diese Analyten waren bis zu einer Konzentration von 5 μg/mL im Blut mittels MALDI-MS problemlos nachweisbar. Um die Sensitivität zu erhöhen, ist es allerdings sinnvoll, die Extraktion zukünftig für die einzelnen Analyten zu optimieren, sie mittels Festphasenextraktion oder LC anzureichern und MS/MS-Spektren aufzunehmen. Für die Analyten Coffein, Theophyllin und Lamotrigin, deren therapeutisch wirksame Plasmakonzentration im ein- bis zweistelligen Mikrogramm-pro-Milliliter Bereich liegt, eignete sich die entwickelte Methode sehr gut. Es wurde eine Methodenvalidierung durchgeführt, wobei die validierten Parameter den Vorgaben der FDA entsprachen.
Da die Auswahl der MALDI-Matrix bei den verschiedenen Methodenentwicklungen jeweils ein kritischer Faktor war, wurden abschließend eine Auswahl von Analyten mit einer Molekülmasse bis ca. 600 Da mit verschiedenen MALDI-Matrizes präpariert. Ein Großteil der Analyten wurde am sensitivsten mit ClCCA nachgewiesen. Im Rahmen dieser Versuche wurde auch erstmals ein Strukturanalogon von ClCCA, und zwar ClCCA-Tetrazol, als alternative MALDI-Matrix eingesetzt, bei welchem die Carboxylgruppe durch einen Tetrazolring ausgetauscht wurde. Diese zeigte eine sehr homogene Kristallisation und für einige Analyten eine bis zu Faktor 3 höhere Signalintensität im Vergleich zu ClCCA. Außerdem war auffällig, dass einige Analyten unter bestimmten Präparationsbedingungen wie z B. der Graphite Supported Preparation sensitiver mittels MALDI-MS nachweisbar waren. Bei anderen Analyten verschlechterten sich die Analysenergebnisse. Graphit verändert stark die Kristallisation der MALDI-Matrix und es wird vermutet, dass sich dies auf den Einbau der Analyten in die Matrixkristalle auswirkt. Es konnte bislang aber noch nicht abschließend geklärt werden, wie genau die Präparation der Proben Einfluss auf den Einbau der Analyten in die Matrix nimmt. Eine Untersuchung dieser Phänomene sollte daher Gegenstand weiterer Forschungsprojekte sein.
Zusammenfassend stellt die MALDI-Massenspektrometrie eine schnelle und robuste Methode zur Quantifizierung einer Vielzahl kleiner Moleküle in komplexen biologischen Matrizes dar.
In den letzten Jahren findet die Wirkung von Polyphenolen auf den Alterungsprozess oder zur Behandlung von Krankheiten immer mehr Beachtung. Das Ziel dieser Arbeit war die Aufklärung der Wirkmechanismen der Polyphenole Gossypol, Curcumin und Quercetin, um Hinweise für neue oder verbesserte Therapieansätze zu erhalten. Die dazu durchgeführten Untersuchungen lieferten folgende Ergebnisse:
1. Der Ascomycet "P. anserina" eignet sich als Modellorganismus zur Untersuchung der Wirkmechanismen verschiedener Polyphenole, da die bereits aus der Literatur bekannten Effekte auf das Überleben höherer Organismen auch in "P. anserina" beobachtet wurden.
2. Die Mitochondrienfunktion spielt auf unterschiedliche Art eine Rolle in der Kompensation von Dysfunktionen oder Stressbedingungen in der Zelle und wirkt somit positiv auf die Regulation der Lebensspanne von "P. anserina". In der "PaSod3"-Deletionsmutante wurde eine Verschiebung der mitochondrialen Atmung von einer Komplex I-abhängigen hin zu einer vermehrt Komplex II-abhängigen Atmung festgestellt. Die damit verbundene Abnahme des mitochondrialen Membranpotentials dient neben der bereits bekannten hohen Superoxid-Menge als Signal zur Mitophagie-Induktion. Auch die Anpassung der Mitochondrienfunktion durch die erhöhte Bildung von mtRSCs, wie im Falle von Gossypol oder Quercetin, kann zur Kompensation von Dysfunktionen beitragen bzw. sie abschwächen.
3. Es gibt keinen grundlegenden gemeinsamen Wirkmechanimus der drei untersuchten Polyphenole. Zwar spielt Wasserstoffperoxid bei verschiedenen Stoffen eine Rolle, aber nicht bei allen. Zusätzlich wurde gezeigt, dass Wasserstoffperoxid abhängig von der vorherrschenden Konzentration wirkt und daher auch keine Allgemeingültigkeit des Effektes vorherzusagen ist. In niedrigen Konzentrationen sorgt Wasserstoffperoxid z. B. für eine Induktion der Autophagie und damit einhergehende eine Lebensverlängerung. Im Gegensatz dazu wirken hohe Wasserstoffperoxid-Konzentrationen lebensverkürzend und lösen verschiedene Formen von Zelltod aus.
4. Die Curcumin-vermittelte Langlebigkeit wurde das erste Mal in Verbindung mit einer funktionellen Autophagie gebracht. Im Detail führt die Behandlung mit Curcumin durch eine PaSOD1-abhängige leichte Erhöhung der Wasserstoffperoxid-Menge zu einer Induktion von nicht-selektiver Autophagie. Die induzierte Autophagie ist Ursache der Lebensverlängerung durch Curcumin.
5. Gossypol wirkt in Abhängigkeit der mitochondrialen Permeabilitäts-Transitionspore bzw. von ihrem Regulator Cyclophilin D. Hierbei verstärkt die deutlich erhöhte Wasserstoffperoxid-Menge wahrscheinlich die Induktion von programmiertem Zelltod. Gleichzeitig wird eine cytoprotektive Form von Autophagie und ein scheinbar ATG-unabhängiger Abbau von Mitochondrien induziert.
6. Quercetin wirkt in "P. anserina" abhängig vom Methylierungs-Status. Untersuchungen mit Mutanten der "O"-Methyltransferase PaMTH1 ergaben die Notwendigkeit der Anwesenheit von PaMTH1 für den lebensverlängernden Effekt von Quercetin. Analysen mit dem methylierten Derivat Isorhamnetin verdeutlichten diese Abhängigkeit und zeigten zudem, dass Quercetin sowohl in der methylierten als auch unmethylierten Form Effekte hervorruft. Jedoch sind nur die Effekte des unmethylierten Quercetin unabhängig von der Lebensverlängerung und eher schädlich für die Zelle.
A lot of software systems today need to make real-time decisions to optimize an objective of interest. This could be maximizing the click-through rate of an ad displayed on a web page or profit for an online trading software. The performance of these systems is crucial for the parties involved. Although great progress has been made over the years in understanding such online systems and devising efficient algorithms, a fine-grained analysis and problem specific solutions are often missing. This dissertation focuses on two such specific problems: bandit learning and pricing in gross-substitutes markets.
Bandit learning problems are a prominent class of sequential learning problems with several real-world applications. The classical algorithms proposed for these problems, although optimal in a theoretical sense often tend to overlook model-specific proper- ties. With this as our motivation, we explore several sequential learning models and give efficient algorithms for them. Our approaches, inspired by several classical works, incorporate the model-specific properties to derive better performance bounds.
The second part of the thesis investigates an important class of price update strategies in static markets. Specifically, we investigate the effectiveness of these strategies in terms of the total revenue generated by the sellers and the convergence of the resulting dynamics to market equilibrium. We further extend this study to a class of dynamic markets. Interestingly, in contrast to most prior works on this topic, we demonstrate that these price update dynamics may be interpreted as resulting from revenue optimizing actions of the sellers. No such interpretation was known previously. As a part of this investigation, we also study some specialized forms of no-regret dynamics and prediction techniques for supply estimation. These approaches based on learning algorithms are shown to be particularly effective in dynamic markets.
Das Hodgkin Lymphom besteht aus zwei verschiedenen Typen, dem klassischen Hodgkin Lymphom (cHL) mit einem Anteil von 95% und dem nodulären lymphozytenprädominanten Hodgkin Lymphom (NLPHL). Letzteres kann sehr unterschiedliche histopathologische Wachstumsmuster zeigen, die nach Fan et al. grob in ein typisches knotiges (Muster A) und in atypische diffuse Wachstumsmuster (Muster C und E) unterteilt werden können. Patienten mit einem NLPHL, das zum diffus wachsenden Subtyp zählt, präsentieren sich häufiger in klinisch fortgeschrittenen Stadien als jene Patienten mit einem NLPHL, das ein knotiges Wachstumsmuster zeigt. Im Gegensatz dazu präsentiert sich das T-Zell/Histiozytenreiche großzellige B-Zell Lymphom (THRLBCL) in einem fortgeschrittenen Stadium mit einer oftmals schlechten Prognose. NLPHL vom diffusen Typ weisen starke Ähnlichkeiten mit dem THRLBCL sowohl in Bezug auf Histomorphologie als auch klinische Eigenschaften auf und sind dadurch manchmal nur schwer voneinander zu unterscheiden.
Das Wachstumsmuster eines Tumors hängt unter anderem von der Verteilung der Blutgefäße im Tumorgewebe ab. Viele aktuelle Studien weisen darauf hin, dass die Gefäßneubildung (Angiogenese) eine wichtige Rolle in der Entwicklung von hämatologischen Tumoren spielt. Durch diesen Prozess kann der Tumor zu ausreichend Sauerstoff und Nährstoffen gelangen, um invasiv zu wachsen und zu metastasieren. Die Gefäßdichte ist ein anerkannter Marker für die Auswertung von Gefäßneubildung in verschiedenen Tumoren.
Ein Ziel der Arbeit bestand darin, Parameter der Angiogenese, u.a. die Gefäßdichte und den queren Gefäßdurchmesser, in verschiedenen Subtypen des NLPHL und in THRLBCL im Hinblick auf eine mögliche Unterscheidbarkeit des diffusen NLPHL und des THRLBCL zu untersuchen sowie sie mit anderen Typen von malignen Lymphomen und reaktiven Lymphadenitiden (LA) zu vergleichen.
Von T-Lymphozyten ist bekannt, dass sie mit den Tumorzellen in Lymphomen in engem Kontakt stehen und einen nicht unerheblichen Anteil des Tumormikromilieus bilden. Die CD4+ Lymphozyten treten gewöhnlich über Gefäße, den hochendothelialen Venolen (HEVs), in den Lymphknoten ein.
Ein weiteres Ziel der Arbeit war es, eine mögliche Korrelation zwischen dem TLymphozyten-Zustrom und der Tumormorphologie in den betroffenen Lymphknoten zu untersuchen, um herauszufinden, ob dies die unterschiedliche Zusammensetzung im Mikromilieu der Lymphome erklären kann. Als Maß für den Zustrom wurde die Anzahl der intravaskulären T-Lymphozyten herangezogen. Zum Vergleich wurden weitere maligne Lymphome, die ein prominentes Tumormikromilieu besitzen, untersucht.
Im diffusen NLPHL und THRLBCL fanden wir eine niedrigere Gefäßdichte mit einer diffusen Blutgefäßverteilung. Im Gegensatz dazu zeigte das NLPHL mit einem typischen Wachstumsmuster, das cHL vom gemischtzelligen Typ (cHL MC) und das Angioimmunoblastische Lymphom (AITL) in den interfollikulären Arealen eine verstärkte Gefäßbildung. Es zeigte sich in allen Subtypen des NLPHL eine signifikant geringere Gefäßdichte, verglichen mit dem AITL oder den LA Fällen. LA wiesen insgesamt die höchste interfollikuläre Gefäßdichte auf. Das THRLBCL zeigte die niedrigste Gefäßdichte von allen malignen Lymphomen, die untersucht wurden, allerdings war der Vergleich von THRLBCL und den verschiedenen Subtypen des NLPHL nicht signifikant. Wir konnten zeigen, dass die diffusen Subtypen des NLPHL und das THRLBCL ein ähnliches Wachstumsmuster der Blutgefäße mit einer verminderten Gefäßdichte und nicht mehr identifizierbaren follikulären Bereichen vorweisen, im Gegensatz zu den beibehaltenen follikulären Mustern, die wir im typischen NLPHL fanden. Die Anzahl der intravaskulären T-Zellen war am höchsten im cHL MC sowie im typischen NLPHL. Signifikant geringer fielen die intravaskulären TLymphozyten-Werte im THRLBCL im Vergleich mit dem typischen NLPHL Muster A, C und dem cHL MC aus.
Da die LA Fälle eine hohe interfollikuläre Gefäßdichte und kleine Gefäßdurchmesser zeigten, kann man davon ausgehen, dass die Gefäße durch die schnell anschwellenden Keimzentren komprimiert wurden. In den atypischen NLPHL und THRLBCL Fällen lassen die geringe Gefäßdichte und relativ große Gefäßdurchmesser eine langsame Dehnung des Gefäßgerüstes des Lymphknotens annehmen. Die Resultate der T-Zell Quantifizierung legen den Schluss nahe, dass die relativ geringe Anzahl von intravaskulären T-Lymphozyten im THRLBCL zusammen mit einer geringen Gefäßdichte möglicherweise verantwortlich ist für die gewöhnlich relativ geringe Anzahl an T-Lymphozyten pro Fläche und hierdurch die hohe Anzahl an Makrophagen im Mikromilieu im THRLBCL hervorgerufen wird. Dies könnte im Zusammenhang stehen mit einer absolut verminderten T-Lymphozytenzahl im Blut oder einem reduzierten Eintritt der T-Lymphozyten in den Lymphknoten.
Particle physics is living it’s golden age: petabytes of high precision data are being recorded at experimental facilities such as the Relativistic Heavy Ion Collider (RHIC) and the Large Hadron Collider (LHC). Despite the significant theoretical progress achieved in the last years the complete understanding of the internal structure of protons, not computable with perturbative QCD, remains as one of the most challenging unsolved problems in the physics of elementary interactions. Besides its fundamental interest, pinning down the relevant degrees of freedom and their properties, such as their spatial distribution, has profound implications in several phenomenological aspects of high-energy collisions. Currently one of the subjects undergoing intense study is the possibility that droplets of quark-gluon plasma (QGP) are being created not only in heavy ion collisions but in more dilute systems such as high-multiplicity proton-proton interactions. This is a data driven debate as it is rooted in the similar patterns observed across the different collision systems at the LHC (p+p,p+Pb and Pb+Pb) in the flow harmonic analyses: one of the golden probes of QGP formation specially sensitive to the initial collision geometry. Another domain in which the proton structure plays a central role is the description of multi-parton interactions, the mechanism that dominates the underlying event at LHC energies, in Monte Carlo event generators. All in all a precise characterization of the hadronic structure is a crucial ingredient of the physics program of the LHC.
A full characterization of a hadron would require momentum, spatial and spin information, the so-called Wigner distribution. So far obtaining this information experimentally has not been achieved. From a theoretical point of view several complications arise such as non-universality and breaking of factorization theorems. Then, in general, the description of the hadron structure relies on phenomenological tools that require theoretical modeling constrained by experimental data. The main goal of this thesis to characterize the transverse structure of the proton. For that purpose, a wide variety of phenomenological problems that are sensitive to the proton structure have been addressed.
First, elastic scattering data on proton-proton interactions constitutes a powerful probe of the geometry of the collision. A dedicated analysis of this observable focusing on the extraction of the inelasticity density from it at √s=62.5 GeV and √s=7 TeV is presented. In the TeV regime, a unexpected phenomenon, dubbed the hollowness effect, arises: the inelasticity density, a measurement of how effective is the collision producing secondary particles, reaches its maximum at non-zero impact parameter. We provide the first dynamical explanation of the hollowness effect by constructing the elastic scattering amplitude in impact parameter representation according to the Glauber model. For that purpose we relied on a composite description of the proton. More concretely, the relevant degrees of freedom that participate in the scattering process were considered to be gluonic hot spots. The probability distribution for the transverse positions of hot spots inside the proton includes repulsive short-range correlations between all pairs of hot spots controlled by an effective repulsive core rc that effectively enlarges the mean transverse separation distance between them. The main results extracted from this work are as follows. To begin with, we found that our model was not able to describe a growing behavior of the inelasticity density at zero impact parameter in the absence of non-trivial spatial correlations. However, even in the presence of correlations, the emergence of the hollowness effect couldn’t be described when the number of hot spots was smaller than 3. Both features set solid constraints in the proton structure within our model. Finally, we pinpoint the transverse diffusion of the hot spots with increasing collision energy to be the dynamical mechanism underlying the onset of the hollowness effect.
A convenient playground to test further implications of this novel geometric description of the proton are the initial state properties of high energy proton-proton interactions in the context of QGP physics. The parametrization of the geometry of the collision is mandatory in any theoretical model attempting to describe the striking experimental results that suggest collective behavior in proton-proton interactions at the LHC, such as the non-zero value of the flow harmonic coefficients (vn). A quantitative way to characterize the initial geometry anisotropy of the overlap region is to compute the spatial eccentricity moments (εn) that fluctuate on an event by event basis. For that purpose we develop a Monte Carlo Glauber event generator. A systematic investigation of the effect of non-trivial spatial correlations in the spatial eccentricity moments from ISR to LHC energies within our Monte Carlo Glauber approach is presented. We found that both the eccentricity (ε2) and the triangularity (ε3) are affected by the inclusion of short-range repulsive correlations. In particular, the correlated scenario yielded larger values of ε2(3) in ultra-central collisions while reducing them in minimum bias.
Moreover, we explore not only the eccentricities mean but their fluctuations in terms of symmetric cumulants. The experimental measurement by the CMS Collaboration at √s=13 TeV indicates a anti-correlation of v2 and v3 around the same number of tracks in the three collision systems available at the LHC. We lay out, for the first time in the literature, a particular mechanism that permits an anti-correlation of ε2 and ε3 in the highest centrality bins as dictated by data. When modeling the proton as composed by 3 gluonic hot spots, the most common assumption in the literature, we find that the inclusion of spatial correlations is indispensable to reproduce the negative sign. Further, we perform a systematic investigation of the parameter space of the model i.e. radius of the hot spot, radius of the proton, repulsive core and number of hot spots in each proton. Our results suggest that the interplay of the different scales is decisive and confirm the discriminating power of this observable on initial state models. Together with their drastic impact on the description of the hollowness effect and the absolute values of the eccentricities, the symmetric cumulant study adds evidence to the fact that the inclusion of spatial correlations between the sub nucleonic degrees of freedom of the proton modifies the initial state properties of p+p interactions at LHC energies.