Refine
Year of publication
- 2020 (235) (remove)
Document Type
- Doctoral Thesis (235) (remove)
Has Fulltext
- yes (235)
Is part of the Bibliography
- no (235)
Keywords
- Knochenersatzmaterial (2)
- Sprache (2)
- 3-alkylphenols (1)
- 3D-Druck (1)
- 6-methylsalicylic acid synthase (1)
- 9-HODE (1)
- ADHS (1)
- ALL (1)
- AML (1)
- Absorption modeling (1)
Institute
In vitro release testing as an alternative to establishing bioequivalence of drug products in vivo
(2020)
Generische Arzneimittel werden als Arzneimittel definiert, die im Vergleich zu einem Referenzarzneimittel hinsichtlich der meisten pharmazeutischen Aspekte identisch sind.
Um die therapeutische Äquivalenz zum Referenzprodukt sicherzustellen, sind Bioverfügbarkeitsstudien erforderlich. Für Arzneimittel, die als feste, perorale, schnell freisetzende Darreichungsformen formuliert sind, kann auf den Nachweis der Bioäquivalenz in vivo zugunsten eines vergleichenden Freisetzungstests in vitro im Rahmen eines sogenannten Biopharmaceutics Classification System (BCS) basierten Biowaivers verzichtet werden.
Der BCS-basierte Biowaiver ist ein vielversprechendes Instrument, welches Kosteneinsparungen sowie eine Verringerung des regulatorischen Aufwands im Zuge der behördlichen Zulassung von Generika ermöglicht und dazu beitragen kann, die Zugänglichkeit unentbehrlicher Arzneimittel zu verbessern. Dabei gibt es jedoch auch Hürden, welche die weitläufige Anwendung des Verfahrens verhindern: Unklare Löslichkeits- und Permeabilitätsklassifizierungen von Wirkstoffen, Arzneimittel, welche die in vitro Freisetzungskriterien nicht erfüllen, sowie Zweifel an der Eignung der regulatorischen Spezifikationen, Freisetzungsunterschiede in vitro erfassen zu können, die für das Verhalten in vivo relevant sind.
In der vorliegenden Dissertation werden diese Probleme thematisiert, indem eine umfassende Bewertung der Anwendbarkeit und Einschränkungen des BCS-basierten Biowaivers in seinem aktuell regulatorisch vorgeschriebenen Ablauf vorgenommen wird. Mögliche Anpassungen des Verfahrens wurden auf der Grundlage experimenteller in vitro Daten untersucht, bewertet und mithilfe von in silico Simulationsmodellen auf die Situation in vivo extrapoliert.
Muskelskeletterkrankungen (MSE) sind die Hauptursache für Arbeitsunfähigkeit bei Büroangestellten in Deutschland. Die Produktionsausfallkosten für MSE beliefen sich im Jahre 2017 auf 17,2 Milliarden Euro. Neben haltungsbezogenen Risikofaktoren wie die statische Körperhaltung am Büroarbeitsplatz, konnten zunehmend psychische Stressoren wie Termin- und Leistungsdruck als Risikofaktoren identifiziert werden. Arbeitgeber versuchen mittels verhaltens- und verhältnispräventiven Maßnahmen im Rahmen der (BGF) am Arbeitsplatz zur Prävention beizutragen. Insbesondere Bewegungsprogramme führen nachweislich zu einer Verringerung von MSE und Stress sowie zu einer Verbesserung der Lebensqualität. Vielversprechend sind untere andrem auch Dehninterventionen wie die wenigen bislang veröffentlichten Studien zeigen. Das „five-Business“ Dehnprogramm, dass an einem Gerät durchgeführt wird, wurde speziell für die Anwendung im Büro konzipiert und beinhaltet fünf einfache Übungen für den Rumpf. Ziel dieser Studie war es daher, die Auswirkungen des "five-Business" Trainingsprogramms für Büroangestellte auf MSE, die Lebensqualität und die Beweglichkeit zu untersuchen.
Im Rahmen der hier vorgestellten Promotionsarbeit wurde zunächst eine konkrete Methode entwickelt (Publikation 1) und anschließend der Effekt dieses Dehntrainings auf die Lebensqualität untersucht (Publikation 2). Insgesamt nahmen 313 Büroangestellte (173m/137f) mit einem Durchschnittsalter von 43,37 ± 11,24 (SD) Jahren, einer Körpergröße von 175,37 ± 9,35 cm und einem Gewicht von 75,76 ± 15,23 kg sowie einem durchschnittlichen BMI von 24,5 ± 3,81 kg/m2 freiwillig an dieser Interventionskontrollstudie teil. Die 158 Teilnehmenden der Interventionsgruppe absolvierten das Dehntraining zweimal wöchentlich für etwa zehn Minuten über eine Dauer von 12 Wochen. Die Kontrollgruppe hingegen sollte ihrem gewöhnlichen Alltag weiter nachgehen. Der Short-Form-36 Fragebogen (SF-36) wurde verwendet, um die Effekte der Intervention zu Beginn und nach 12 Wochen auf die gesundheitsbezogene Lebensqualität zu evaluieren. Nach 12 Wochen Dehntraining traten signifikante Verbesserungen in den Bereichen mentaler Summenscore (p=0,008), körperliche Funktionsfähigkeit (p<0,001), körperliche Schmerzen (p=0,01), Vitalität (p=0,025), Rolleneinschränkungen aufgrund körperlicher Probleme (p=0,018) und psychische Gesundheit (p=0,012) auf. Die Ergebnisse zeigen, dass das Dehntraining nicht nur physische Gesundheitsparameter beeinflusst, sondern ebenfalls positive Effekte bei psychischen Gesundheitsparametern hervorruft. Das Dehntraining ermöglicht demnach sowohl auf physischer als auch auf psychischer Ebene eine Entspannung. Daher deuten die Ergebnisse insgesamt darauf hin, dass ein 12-wöchiges Dehnprogramm geeignet ist, die gesundheitsbezogene Lebensqualität von Büroangestellten zu verbessern. Es kann geschlussfolgert werden, dass ein solches Dehnprogramm als präventive und rehabilitative Maßnahme in der betrieblichen Gesundheitsförderung geeignet sein kann, um aktuelle Herausforderungen des zunehmenden Wettbewerbs und steigenden Produktivitätsanforderungen am Arbeitsplatz entgegenzuwirken.
The interleukin (IL)-1 family has been described for its numerous involvement in the regulation of inflammatory processes. Certain members are able to induce inflammation, whereas others have the capacity to inhibit inflammation. The newly discovered IL-1 family member IL-38 shows interesting and innovative properties. While most of these cytokines are pro-inflammatory mediators, IL-38 appears to enter the smaller circle of anti-inflammatory mediators. As a pattern, IL-38 appears to suppress IL-17-driven chronic or auto-inflammation by working as receptor antagonist. These properties, as well as its beneficial effects in models of inflammatory and autoimmune diseases suggest the possibility of IL-38-based therapies. Nevertheless, its role in the resolution of acute inflammation, thereby preventing chronic inflammation, remains unclear.
The first part of my thesis elucidated the role of IL-38 in the resolution of inflammation. I found that the complete absence of IL-38 in IL-38 KO mice leads to a delayed resolution of inflammation in the zymosan-induced peritonitis mouse model, compared to WT mice. This was marked by a persistent neutrophilia and a lower production of pro-resolving mediators during the resolution phase, such as TGFβ1 production from macrophages following efferocytosis of apoptotic cells. Reduced TGFβ1 production from macrophages coincided with reduced levels of regulatory T cells (Tregs), which are known to promote the resolution of inflammation. Unexpectedly, the TGFβ1 production capacity of macrophages did not influence the induction of Tregs from naïve T cells. Rather, IL-38 KO mice had an accumulation of Tregs in the thymus compared to WT mice. This was caused by an impairment of CD62L expression at the surface of Tregs, which is required for Tregs migration outside of the thymus. Higher Treg numbers in the thymus correlated with lower level of Tregs in peripheral lymphoid organs. Importantly, CD62L expression at the surface of IL-38 KO Tregs in the thymus was restored by injecting IL-38 i.p. for 24h. These data indicate a potential key function of IL-38 in the regulation of Treg migration, which is triggered in many cases of autoimmunity.
The second part of my thesis was to study the role of IL-38 in experimental autoimmune encephalomyelitis (EAE) development, given that EAE is IL-17-dependent. Unexpectedly, IL-38-deficient mice showed strongly reduced clinical scores and histological markers of EAE. This came with reduced inflammatory cell infiltrates, as well as reduced expression of inflammatory markers in the spinal cord. IL-38 mRNA was detected in the spinal cord, mainly by resident and infiltrated phagocytes, but also by other cells, such as ependymal cells. IL-38 was upregulated upon pro-inflammatory stimulation of bone marrow-derived macrophages, and its presence was necessary for a complete activation of inflammatory macrophages. My data suggest an alternative cell-intrinsic role of IL-38 in macrophages to promote inflammation in the central nervous system.
In the last part of my thesis, I initiated a project on the function of IL-38 in B cell physiology and antibody production, given the fact that IL-38 is expressed by B cells. I generated preliminary data showing that the absence of IL-38 in mice decreased antibody production. Furthermore, I showed that IL-38 is particularly expressed by plasma cells in human tonsils. This project remains open and further studies will be conducted to investigate how IL-38 regulates antibody production, both in physiological and autoimmune settings. Understanding the role of IL-38 in autoantibody production could lead to original and innovative therapy for patients suffering from auto-inflammatory disease.
In summary, the different projects of my thesis provide evidence that the pro-resolving function of IL-38 may be indirectly linked to the retention of Tregs in the thymus. Moreover, a possible intracellular role of IL-38 within macrophages was described showing opposite properties in the regulation of inflammation. This function could be causatively involved in EAE development. However, further studies remain to be done to find the mechanism of action by which IL-38 regulates Tregs egression and how it influences the EAE development. Complete understanding of the IL-38 biology and differentiation between its extra- vs potential intracellular functions could make it a promising therapeutic target for chronic inflammatory or autoimmune diseases.
High-energy physics experiments aim to deepen our understanding of the fundamental structure of matter and the governing forces. One of the most challenging aspects of the design of new experiments is data management and event selection. The search for increasingly rare and intricate physics events asks for high-statistics measurements and sophisticated event analysis. With progressively complex event signatures, traditional hardware-based trigger systems reach the limits of realizable latency and complexity. The Compressed Baryonic Matter experiment (CBM) employs a novel approach for data readout and event selection to address these challenges. Self-triggered, free-streaming detectors push all data to a central compute cluster, called First-level Event Selector (FLES), for software-based event analysis and selection. While this concept solves many issues present in classical architectures, it also sets new challenges for the design of the detector readout systems and online event selection.
This thesis presents an efficient solution to the data management challenges presented by self-triggered, free-streaming particle detectors. The FLES must receive asynchronously streamed data from a heterogeneous detector setup at rates of up to 1 TB/s. The real-time processing environment implies that all components have to deliver high performance and reliability to record as much valuable data as possible. The thesis introduces a time-based data model to partition the input streams into containers of fixed length in experiment time for efficient data management. These containers provide all necessary metadata to enable generic, detector-subsystem-agnostic data distribution across the entire cluster. An analysis shows that the introduced data overhead is well below 1 % for a wide range of system parameters.
Furthermore, a concept and the implementation of a detector data input interface for the CBM FLES, optimized for resource-efficient data transport, are presented. The central element of the architecture is an FPGA-based PCIe extension card for the FLES entry nodes. The hardware designs developed in the thesis enable interfacing with a diverse set of detector systems. A custom, high-throughput DMA design structures data in a way that enables low-overhead access and efficient software processing. The ability to share the host DMA buffers with other devices, such as an InfiniBand HCA, allows for true zero-copy data distribution between the cluster nodes. The discussed FLES input interface is fully implemented and has already proven its reliability in production operation in various physics experiments.
Schätzungen zufolge sind weltweit etwa 71 Millionen Menschen chronisch mit dem Hepatitis-C-Virus (HCV) infiziert. Im Jahre 2016 sind rund 400.000 Menschen an einer HCV-bedingten Lebererkrankung gestorben, insbesondere aufgrund der Entwicklung von Leberzirrhose und Lebertumoren. Trotz der großen Unterschiede in den Prävalenzschätzungen und der Qualität der epidemiologischen Daten zeigt die jüngste weltweite Bewertung, dass die virämische Ausbreitung der HCV-Infektion (Prävalenz der HCV-RNA) in den meisten Industrieländern, einschließlich der USA, weniger als 1,0% beträgt (www .cdc.gov / Hepatitis / HCV). In einigen osteuropäischen Ländern wie Lettland (2,2%) oder Russland (3,3%) und bestimmten Ländern in Afrika, Ägypten (6,3%) und Gabun (7,0%) oder im Nahen Osten Syriens (3,0%) ist die Prävalenz bemerkenswert höher. In den USA und den am weitesten entwickelten Ländern gilt die gemeinsame Nutzung von Werkzeugezur Herstellung von Arzneimitteln und zur Injektion von Medikamenten (Nadeln) als die häufigste derzeitige Übertragungsart. Die vorherrschende Übertragungsart in Ländern, in denen die Ausbreitung von HCV-Infektionen im Vergleich zu den Industrieländern höher ist, beruht jedoch auf schlechten Methoden zur Infektionskontrolle und unsicherer Handhabung von Injektionsnadeln.
Wenn die chronische Infektion unbehandelt bleibt, kann sich im fortschreitenden Verlauf eine Zirrhose oder ein hepatozelluläres Karzinom bilden (Alter H. J. und Seef L. B. 2000). Die Doppeltherapie, bei der es sich um eine Kombination aus pegyliertem Interferon-α (PEG IFNα) und Ribavirin (riba) handelt, war in einigen Ländern der Dritten Welt bis vor kurzem der goldene Standard für die Behandlung von Patienten mit chronischer Hepatitis C und hat eine anhaltende virologische Reaktion erzielt. Mit nur 50% der mit HCV-Genotyp 1 infizierten Patienten (der häufigere) im Vergleich zu 80% mit Genotyp 2 oder 3, obwohl sie kostspielig und langwierig sind (z. B. 24-48 Wochen) und zahlreiche harte Nebenwirkungen aufweisen, die schwer zu bekämpfen sind tolerieren (Erklärung der National Institutes of Health Consensus Development Conference: Management von Hepatitis C: 2002 - 10.-12. Juni 2002 2002). Die Identifizierung des JFH1 (japanische fulminante Hepatitis Typ 1) -Isolats wurde in einigen in vitro-Studien zu HCV als wichtiger Durchbruch bei der HCV-Behandlung angesehen. Die Verwendung dieses Isolats führte nachfolgend zu einem besseren Verständnis des HCV-Lebenszyklus und der 3D-Strukturen der viralen Proteine. Basierend auf dieser Erkenntnis konnten die ersten direkt wirkenden antiviralen Mittel (DAAs) entwickelt werden, die spezifisch virale Proteine beeinflussen. Die beiden Proteasehemmer (PI) Telaprevir und Boceprevir hemmen die virale NS3-4A-Protease und wurden 2011 als Kombinationstherapie mit PEG IFNα und Ribavirin zugelassen, was die anhaltende virologische Reaktion auf 67-75% erhöhte (Pawlotsky et al. 2015).
Die Optimierung der gegenwärtigen Arzneimittelregime, die Einschränkung des Problems der Mutationsresistenz, die Gestaltung einer individualisierten Therapie, der Zugang zu diesen therapeutischen antiviralen Arzneimitteln und ihr hoher Preis bleiben weiterhin eine Herausforderung (Pawlotsky 2016; Pawlotsky et al. 2015; Sarrazin 2016). Die Entwicklung eines Impfstoffs wird jedoch als größte Herausforderung für die weltweite Kontrolle von HCV angesehen (Bukh 2016). Aus diesem Grund ist es wichtig, weiterhin mehr über den HCV-Lebenszyklus und die Faktoren zu erfahren, die sich auf die Replikation und den gesamten Lebenszyklus auswirken können, um effiziente, qualitativ hochwertige und vor allem leicht zugängliche Behandlungen für alle Menschen weltweit zu entwickeln.
Der Lipidstoffwechsel und insbesondere das Cholesteringleichgewicht werden durch die HCV-Infektion beeinflusst. Die Korrelation zwischen Lipidstoffwechsel und HCV wurde klinisch seit langem beobachtet. In den Leberbiopsien von mit HCV infizierten Patienten wurde ein Anstieg der in den Lipidtröpfchen im Cytosol akkumulierten neutralen Lipide festgestellt (Dienes et al. 1982). Das Hepatitis-C-Virus wurde auch von Hypobetalipoproteinämie, Hypocholesterinämie und Lebersteatose begleitet (Schaefer und Chung 2013). Die Leber ist der primäre Ort für die Synthese, Speicherung und Oxidation von Lipiden und anderen Makromolekülen. Daher ist der Fettstoffwechsel in der Leber für die Aufrechterhaltung der systemischen Nährstoffhomöostase von wesentlicher Bedeutung. Eine Dysregulation des Leberlipidstoffwechsels ist ein Kennzeichen mehrerer Krankheiten wie Diabetes, alkoholische und nichtalkoholische Fettlebererkrankungen sowie parasitäre und virale Infektionen, einschließlich einer HCV-Infektion. (Erklärung der National Institutes of Health Consensus Development Conference: Management von Hepatitis C: 2002 - 10.-12. Juni 2002 2002; Fon Tacer und Rozman 2011; Chen et al. 2013; Reddy und Rao 2006; Visser et al. 2013; Wu und Parhofer 2014)
...
Hofstadter-Hubbard physics
(2020)
The Hofstadter model, besides the Haldane and Kane-Mele models, is the most common tight-binding model which hosts topologically nontrivial states of matter. In its time-reversal-symmetric formulation the model can even describe topological insulators. Experimentally, the Hofstadter model was realized with ultracold quantum gases in optical lattices which is a wellcontrolled way to engineer quantum states of tight-binding Hamiltonians. Another established control parameter in ultracold quantum gases are twoparticle, on-site interactions, also known as Hubbard interactions. This work aims at introducing the reader to the concepts of topological states of matter, a collection of corresponding tight-binding models, and the methodology to treat interacting topological states with dynamical mean-field theory.We present recent results for inhomogeneous, interacting systems, spinimbalanced magnetic systems, propose experimental detection methods, and extensions to three-dimensional topological states.
Diese Arbeit beschäftigt sich mit linearen inversen Problemen, wie sie in einer Vielzahl an Anwendungen auftreten. Diese Probleme zeichnen sich dadurch aus, dass sie typischerweise schlecht gestellt sind, was in erster Linie die Stabilität betrifft. Selbst kleinste Messfehler haben enorme Konsequenzen für die Rekonstruktion der zu bestimmenden Größe.
Um eine robuste Rekonstruktion zu ermöglichen, muss das Problem regularisiert, dass heißt durch eine ganze Familie abgeänderter, stabiler Approximationen ersetzt werden. Die konkrete Wahl aus der Familie, die sogenannte Parameterwahlstrategie, stützt sich dann auf zusätzliche ad hoc Annahmen über den Messfehler. Typischerweise ist dies im deterministischen Fall die Kenntnis einer oberen Schranke an die Norm des Datenfehlers, oder im stochastischen Fall, die Kenntnis der Verteilung des Fehlers, beziehungsweise die Einschränkung auf eine bestimmte Klasse von Verteilungen, zumeist Gaußsche. In der vorliegenden Arbeit wird untersucht, wie sich diese Informationen unter der Annahme der Wiederholbarkeit der Messung gewinnen lassen. Die Daten werden dabei aus mehreren Messungen gemittelt, welche einer beliebigen, unbekannten Verteilung folgen, wobei die zur Lösung des Problems unweigerlich notwendige Fehlerschranke geschätzt wird. Auf Mittelwert und Schätzer wird dann ein klassisches Regularisierungsverfahren angewandt. Als Regularisierungen werden größtenteils Filter-basierte Verfahren behandelt, die sich auf die Spektralzerlegung des Problems stützen. Als Parameterwahlstrategien werden sowohl einfache a priori-Wahlen betrachtet, als auch das Diskrepanzprinzip als adaptives Verfahren. Es wird Konvergenz für unbekannte beliebige Fehlerverteilungen mit endlicher Varianz sowie für Weißes Rauschen (bezüglich allgemeiner Diskretisierungen) nachgewiesen. Schließlich wird noch die Konvergenz des Diskrepanzprinzips für ein stochastisches Gradientenverfahren gezeigt, als erste rigorose Analyse einer adaptiven Stoppregel für ein solches nicht Filter-basiertes Regularisierungsverfahren.
Das Hepatozelluläre Karzinom (HCC) ist die sechsthäufigste Krebsart mit der zweithäufigsten krebsbedingten Letalität. Sorafenib ist bereits seit über 10 Jahren die einzige verfügbare und zugelassene systemische Chemotherapie. Allerdings zeigen Patienten oft eine Resistenz gegenüber Sorafenib.
In zahlreichen Krebsarten konnte bereits gezeigt werden, dass Sphingolipide bei der Tumorentwicklung und Chemoresistenz eine wichtige Rolle spielen. Sphingolipide sind bioaktive Lipidmoleküle, welche unteranderem für die Beeinflussung verschiedener Signalwege intra- und extrazellulär verantwortlich sind. So konnte gezeigt werden, dass das Verhältnis zwischen Sphingosin-1-Phosphat (S1P) und Ceramiden eine wichtige Rolle für das Überleben von Zellen spielt, wobei eine Verschiebung des Verhältnisses zugunsten des S1P meist eine proliferative Wirkung auf Zellen hat. Für die Phosphorylierung des Sphingosins zu S1P sind die zwei Enzyme Sphingosinkinase 1 und 2 (SPHK1/2) verantwortlich.
Es gibt bereits Studien, die nachweisen konnten, dass diese Enzyme gerade in Tumorzellen verstärkt exprimiert werden. Auf der anderen Seite kann eine verstärkte Bildung von Ceramiden die Apoptose der Tumorzellen verstärken. Daher ist es nicht verwunderlich, dass der Sphingolipid-Stoffwechsel einen interessanten Angriffspunkt für die Krebstherapie darstellt. Aus diesem Grund sollte in der vorliegenden Arbeit zunächst untersucht werden, ob Sorafenib einen Einfluss auf den Sphingolipid Stoffwechsel hat. Weiter sollte untersucht werden, ob die Beeinflussung des Sphingolipid-Stoffwechsels die Effekte von Sorafenib potenzieren könnte.
Es konnte zunächst gezeigt werden, dass Sorafenib die mRNA-Expression verschiedener Enzyme, die das Verhältnis zwischen Ceramiden und S1P regulieren, beeinflussen kann. Es wurde weiter untersucht, wie sich der Ceramidsynthase Inhibitor FB1 auf die Proliferation und die Induktion der Apoptose auswirkt. Dies wurde ebenfalls mit SLP (SPHK1 Inhibitor), SLM (SPHK2 Inhibitor) und SKI II, einem unspezifischen Inhibitor beider Sphingosinkinasen, untersucht. Es wurden weiter die Einflüsse aller verwendeten Substanzen auf die Bildung verschiedener Sphingolipide untersucht.
Hierbei konnte gezeigt werden, dass Sorafenib in der Lage ist, die Proliferation der Zellen zu hemmen und die Apoptose-Induktion zu fördern. Weiter führte Sorafenib zu einer Akkumulation der Dihydroceramide. Was wiederrum weder mit SKI II, FB1; SLP noch SLM beobachtet werden konnte. Der signifikante Anstieg der Dihydroceramid-Konzentrationen konnte mit dem durch Sorafenib induzierten oxidativen Stress in Verbindung gebracht werden.
SLP und SLM waren nicht in der Lage, die Effekte von Sorafenib auf die Proliferation zu potenzieren. Die Kombination von Sorafenib mit SLP oder SLM führte jedoch in den Huh7.5 Zellen zu einer drastischen Reduktion des S1P-Spiegel.
FB1 und SKI II führten zu einer stärkeren Hemmung der Proliferation als Sorafenib. Wobei gezeigt werden konnte, dass beide Substanzen die Ceramid-Spiegel tendenziell eher vermindern und die S1P-Spiegel erhöhen. Durch die Stimulation mit FB1 kam es sogar zu einer signifikanten Erhöhung der S1P-Spiegel. Es scheint, dass der Einfluss von FB1 und SKI II auf die Proliferation der Zellen unabhängig vom Sphingolipid-Stoffwechsel ist. Diese scheinen eher über andere Mechanismen zu wirken. Es könnte von Interesse sein, gerade diese Signalwege von SKI II im HCC weiter zu untersuchen, da SKI II bereits in Mausmodellen anderer Krebsarten vielversprechende Ergebnisse zeigte.
Mit der COLTRIMS-Technik können immer kompliziertere Reaktionen untersucht werden, dabei steigt aber die Zahl der zu detektierenden Reaktionsfragmente. Der Nachweis von Ionen ist üblicherweise gut möglich, da die entsprechenden Flugzeiten groß sind im Vergleich zur Totzeit der benutzten Detektoren. Elektronen hingegen sind sehr leicht und erreichen den Detektor innerhalb von wenigen 10 ns. Aktuelle Detektoren erlauben aber nur den Nachweis weniger Elektronen und es werden somit neue Detektoren benötigt, um alle Teilchen nachzuweisen. Ziel dieser Arbeit war es also, einen Detektor zu entwickeln, der dies erreicht.
Zu Beginn dieser Monografie wird die COLTRIMS-Technik vorgestellt. Die Experimente mit dieser Messmethode finden hauptsächlich mit einer Laufzeitanode statt. Diese stößt aber bei dem Nachweis von mehreren Teilchen an ihre Grenzen und manche Experimente können nur unvollständig analysiert werden.
Damit ein neuer Detektor entwickelt werden kann, muss erst verstanden werden, wie die zu detektierenden Teilchen/Signale entstehen und wie ihre Eigenschaften sind. Aus diesem Grund wird das Sekundärteilchen-erzeugende MCP ausführlich vorgestellt.
Weiterhin gibt diese Arbeit einen umfassenden Überblick über bereits realisierte Anoden. Verschiedene Repräsentanten der fünf Anodenarten (Flächen-, Streifen-/Pixel-, Laufzeit-, Kamera-, sowie Halbleiter-Anode) werden vorgestellt und bewertet.
Mit diesem Wissen konnten drei Ansätze für neue Anoden entwickelt, designt, produziert, getestet und bewertet werden. Alle neu entwickelten Anoden benutzen Leiterplatinen als Basis und werden in derselben Vakuumkammer getestet. Auch wenn die Detektionsprinzipien der drei getesteten Detektoren unterschiedlich sind, so verläuft die Auskopplung, Verarbeitung und Digitalisierung der Signale nach dem gleichen Schema. Außerdem wurden im Rahmen dieser Arbeit diverse Algorithmen entwickelt und programmiert, mit deren Hilfe die Signalauswertung und Positionsbestimmung erfolgt.
Das dritte Kapitel beschreibt die neu entwickelte Draht-Harfen-Anode. Dieser Detektor besteht aus vielen kurzen Drähten die parallel auf Rahmen aus Leiterplatinen gespannt werden. Aus dieser Anode ließ sich im Rahmen dieser Arbeit aber kein funktionsfähiger Detektor entwickeln und es wird empfohlen, diesen Ansatz nicht weiterzuverfolgen.
Im Kapitel über die Pixel-Anode mit Streifenauslese wird ein Ansatz vorgestellt, bei dem die Elektronenwolke von einem Muster aus leitenden Rauten absorbiert wird. Es wurde ein funktionsfähiger Detektor mit MAMA-Verschaltung realisiert. Die aktive Fläche ist mit einem Durchmesser von 50 mm aber zu klein. Eine große Variante der Anode ist in der realisierten Form aber nicht als Detektor geeignet.
Als dritter neuer Detektor wird die Streifen-Laufzeit-Anode beschrieben. Diese besteht aus einem rechteckigen Muster von Pixeln, die in einer Richtung über eine Zeitverzögerung ausgelesen werden. Dieser Ansatz ist sehr vielversprechend und es ließen sich nicht nur einzelne Teilchen nachweisen, sondern auch beim Aufbruch eines D2+-Moleküls konnten beide Fragmente gemessen werden.
Das letzte Kapitel befasst sich mit weiteren Konzepten, die als Detektor realisiert werden könnten.
This thesis discusses important questions of the beam dynamics in the proton-lead operation in the Large Hadron Collider (LHC) at CERN in Geneva. In two time blocks of several weeks in the years 2013 and 2016, proton-lead collisions have so far been successfully generated in the LHC and used by the experiments at the LHC. One reason for doubts regarding the successful operation in proton-lead configuration was the fact that the beams have to be accelerated with different revolution frequencies. There is long-range repulsion between the beams, since both beams share the beam chamber around the interaction points. Because of the different revolution frequencies, the positions of the interaction between the beams shift each revolution. This can lead to resonant excitation and to an increase in the transverse beam emittance, as was observed in the Relativistic Heavy-Ion Collider (RHIC). In this thesis, simulations for the LHC, RHIC and the High-Luminosity Large Hadron Collider (HL-LHC) are performed with a new model. The results for RHIC show relative growth rates of the emittances of the gold beam in gold-deuteron operation in RHIC from 0.1 %/s to 1.5 %/s. Growth rates of this magnitude were observed experimentally in RHIC. Simulations for the LHC show no significant increase of the emittance of the lead beam for different intensities of the counter-rotating beam. The simulation results confirm the measured stability of the beams in the LHC and the issue of strongly increasing emittances in RHIC is reproduced. Also, no significant increase of the emittance is predicted for the Future Circular Collider (FCC) and the HL-LHC.
Using a frequency-map analysis, this work verifies whether the interaction of the lead beam with the much smaller proton beam in the proton-lead operation of the LHC leads to diffusion within the lead beam. Experiences at HERA at DESY in Hamburg and at SppS at CERN have shown that the lifetime of the larger beam can rapidly decrease under certain circumstances. The results of the simulation show no chaotic dynamics near the beam centre of the lead beam. This result is supported by experimental observation.
A program code has been developed which calculates the beam evolution in the LHC by means of coupled differential equations. This study shows that the growth rates of the lead beam due to intra-beam scattering is overestimated and that particle bunches of the lead beam lose more intensity than assumed in the model. The analysis also shows that bunches colliding in a detector suffer additional losses that increase with decreasing crossing angle at the interaction point.
In this work, 2016 data from beam-loss monitors in combination with the luminosity and the loss rate of the beam intensity are used to determine the cross section of proton-lead collisions at the center-of-mass energy of 8.16 TeV. Beam-loss monitors that mainly detect beam losses that are not caused by the collision process itself are used to determine the total cross section via regression. An analysis of the data recorded in 2016 at the center-of-mass energy of 8.16 TeV resulted in a total cross section of σ=(2.32±0.01(stat.)±0.20(sys.)) b. This corresponds approximately to a hadronic cross section of σ(had)=(2.24±0.01(stat.)±0.21(sys.)) b. This value deviates only by 5.7 % from the theoretical value σ(had)=(2.12±0.01) b.
The simulation code for determining the beam evolution is also used to estimate the integrated luminosity of a future one-month run with proton-lead collisions. The result of the study shows that in the future the luminosity in the ATLAS and CMS experiments will increase from 15/nb per day in 2016 to 30/nb per day, which is a significant increase in terms of the performance. This operation, however, requires the use of the TCL collimators to protect the dispersion suppressors at ATLAS and CMS from collision fragments.
This work also gives an outlook on the expected luminosity production in proton-nucleus operation using ion species lighter than lead ions. For example, a change from proton-lead to proton-argon collisions would increase the integrated luminosity from monthly 0.8/nb to 9.4/nb in ATLAS and CMS. This is an increase of one order of magnitude and approximately a doubling of the integrated nucleon-nucleon luminosity. There may be a test operation with proton-oxygen collisions in 2023, which will last only a few days and will be operated with a low luminosity. The LHCf experiment (LHCb experiment) would achieve the desired integrated luminosity of 1.5/nb (2/nb) within 70h (35h) beam time.
Three types of post-translation modifications (PTMs) containing N-glycosylation, phosphorylation, ubiquitylation were characterized in diffuse large B-cell lymphoma (DLBCL) on a global scale using quantitative mass spectrometry based proteomics technology in this study.
DLBCL is the most common type of malignant lymphomas and has a heterogeneous gene expression profiling, phenotype and clinical response to chemotherapy. DLBCL is a good model for the correct classification of cancers into molecularly different subtypes, which benefits for the selection of rational therapeutic strategies. It resulted in two histologically indistinguishable subtypes-activated B-cell-like (ABC) subgroup and germinal center B-cell-like (GCB) subgroup according to gene expression profiling. Signals originating from the B-cell receptor (BCR), the key protein on the surface of B cells, promote growth and survival of DLBCL. Antigen-dependent/independent BCR signaling is found in DLBCL subtypes.
Recent researches reveal that glycosylation plays role in human cells via site-specific regulation. Aberrant N-glycosylation in BCR-related effectors, such as, CD79a, immunoglobulin M or G (IgM or IgG), has been found to be associated with lymphoid malignancies. However, accurate quantification of intact glycopeptides and their individual glycan moieties in a cell-wide manner is still challenging. Here we established a site-specific quantitative N-glycoproteomics platform termed SugarQuant. It included a fast sample preparation workflow using Protein Aggregation Capture (PAC), an optimized multi-notch MS3 acquisition workflow (Glyco-SPS-MS3), a self-developed R-based tool (GlycoBinder). The robustness and accuracy of quantitation in SugarQuant were proved in a study using the different amounts of TMT-labelled IgM N-glycopeptides spiked into a background of TMT-labelled yeast peptides. Next, we used SugarQuant to identify and quantify more than 5000 unique glycoforms in Burkitt’s lymphoma cells treated with a series of doses of 2-deoxy-2-fluoro-L-fucose (2FF) and determine the more accurate site-specific glycosylation changes that occurred upon inhibition of fucosylation compared to using MS2 analysis. It revealed that 2FF-sensitive N-glycosylation on key players in BCR-mediated signaling in DG75. Furthermore, 2FF treatment also affects phosphorylation of the key players involving in B cell receptor signaling.
Then we investigated the site-specific quantitative N-glycoproteome in the cell lines of DLBCL subtypes using SugarQuant. More than 7000 unique intact glycopeptides (glycoforms) were quantified in five ABC DLBCL and four GCB DLBCL cell lines. The glycoproteome mapping (intact glycopeptide expressions) in each cell line allows to segregate DLBCL subtypes. The majority of these glycoforms were from the key cell-surface BCR effectors, such as IgM, CD79 and PTPRC. Lastly, we investigated the change of fucosylated glycopeptides in TMD8 cell line upon knockout of the fucosyltransferase FUT8, which is responsible for core-fucose synthesis, and by the treatment with 2FF. The results revealed that FUT8 might also regulate the synthesis of sub/terminal fucose on glycan chain and the inhibition of fucosylation increased the sialyated glycopeptide expression.
Phosphorylation is involved in regulating multiple processes as an important mediator in BCR signaling. Likewise, ubiquitylation plays vital roles in the activation of the nuclear factor-kappaB (NF-κB) pathway in BCR signaling. There are two vital upstream BCR-proximal tyrosine kinases, Bruton’s tyrosine kinase (BTK) and spleen tyrosine kinase (SYK), which regulate the auto-phosphorylation and phosphorylation of other proteins in BCR signaling pathway. Here we investigated the dynamics of downstream phosphorylation and ubiquitylation signaling in ABC DLBCL and GCB DLBCL cell lines upon the inhibitions of BTK and SYK using quantitative proteomics strategy. In the phosphoproteome analysis, a large dataset of quantified phosphorylation sites was obtained in the three ABC and four GCB DLBCL cell lines. BCR signaling in the subtypes of DLBCL cell lines was found to be highly individual in distinct cell lines. These significantly regulated phosphorylation events in each cell line with individual treatment were involved in multiple Reactome pathways, such as, M phase, signaling by Rho GTPases and diseases of signal transduction. Moreover, the gene regulation-related biological processes including chromosome organization and medication, DNA metabolic process, nuclear export, were involved in the DLBCL cell lines. In the ubiquitinome analysis, we identified more than 15,000 ubiquitylation sites in two ABC and one GCB cell lines upon the inhibition of BTK and SYK. The different ubiquitylation events observed in ABC and GCB subtypes revealed distinct BCR signaling pathways in two subtypes. The similar signaling perturbations across each cell line upon BTK and SYK inhibition, which were obtained from the significantly regulated ubiquitylated peptides expression, revealed the cell-type-specific concordance in ubiquitylation regulation upon BTK and SYK inhibition. These ubiquitylation modified proteins who bore the significantly regulated ubi-peptides in the samples were also found to be highly involved in gene regulatory processes.
...
Endothelial dysfunction plays an important role in different pathological conditions, but whether endothelial cell death contributes to the development and progression of certain pathological conditions is rather unclear. Here we found that endothelial cells undergo cell death during pathologies such as LPS-induced sepsis and in models of hindlimb, renal and cardiac ischemia-reperfusion injury. Analyses of mice lacking endothelial key cell death regulators such as TAK1, RIPK3 and Caspase 8 gave us insight in the role of endothelial cell death in these pathological models. For example, increased endothelial necroptosis along with basal inflammation in lungs of TAK1ECKO mice affects susceptibility to LPS-induced sepsis and mortality, which correlated with elevated IFN-gamma and MIP-2 serum levels. Furthermore, we found that inhibition of RIPK3-mediated endothelial necroptosis could reduce the susceptibility of TAK1ECKO mice to LPS-induced sepsis and mortality. In ischemia or ischemia-reperfusion models, inhibition of RIPK3-mediated endothelial necroptosis did not reduce injury in the heart after ischemia, nor did it have any effect on organ function post-injury in the kidney or the heart. Inhibition of necroptosis also did not alter vascularization processes in hindlimb post-ischemia. Taken together, endothelial necroptosis contributes to increased sepsis severity and progression whereas inhibition of endothelial necroptosis can ameliorate susceptibility to sepsis in the absence of endothelial TAK1. Inhibition of endothelial necroptosis however does not play an important role during ischemia or ischemia-reperfusion induced organ injury.
Ziel dieser Untersuchung ist es, die Legitimität der Kriminalisierung des Glücksspiels in Brasilien zu hinterfragen. Dies geschieht mit besonderem Augenmerk auf das spezifische brasilianische Glücksspiel, das „Spiel der Tiere“ (Jogo do bicho), das Ende des 19. Jahrhunderts in der Stadt Rio de Janeiro, der Hauptstadt des damaligen kaiserlichen Brasiliens, entstand. Es handelt sich um eine Form des Glücksspiels, die sich in ganz Brasilien verbreitet hat und bereits Gegenstand mehrerer akademischer Studien in den Bereichen Anthropologie und Soziologie war. Das Verbot dieser Art von Glücksspiel, seine Kriminalisierung, seine große Beliebtheit und seine gesellschaftliche Toleranz sind jedoch Gründe dafür, dass das Spiel der Tiere im Besonderen und das Glücksspiel im Allgemeinen auch im juristischen Bereich, insbesondere im Strafrecht, ein bisher vernachlässigter Forschungsgegenstand von großem Interesse ist.
Das Hauptaugenmerk dieser Arbeit liegt auf der Analyse der Kriminalisierung des Glücksspiels, das in Brasilien seit über einem Jahrhundert unter freiem Himmel praktiziert wird. Bei dieser Analyse werden die Gründe für die Kriminalisierung und die Legitimität des Verbots in Frage gestellt. Zu diesem Zweck ist der Text, abgesehen von der Einleitung und der Schlussfolgerung, in sechs Kapitel unterteilt.
Kapitel 1 beschreibt die Geschichte des brasilianischen Tierspiels, die Ursprünge seines Verbots und seiner Kriminalisierung. In Kapitel 2 wird über die Wirklichkeit der Strafverfolgung in diesem „Kriminalitätsbereich“ berichtet. Kapitel 3 stellt den ent-sprechenden Straftatbestand des brasilianischen „Código Penal“ im Kontext der Systematik des brasilianischen Strafgesetzbuches vor. Kapitel 4 widmet sich zunächst den verfassungsrechtlichen Grenzen der Kriminalisierung, und danach einem Überblick über das deutsche Glücksspielverbot und die Glücksspielregulierung. Ergänzt wird diese Suche in Kapitel 5, in dem die Forschung das strafrechtliche Glücksspielverbot in den Kontext der Debatte über die Abgrenzung zwischen und den Zusammenhang von Recht und Moral. Im abschließenden Kapitel 6 wird das (strafrechtlich sanktionierte) Glücksspielverbot mit den klassischen Legitimations-anforderungen konfrontiert.
Was in der strafrechtlichen Literatur der ersten Hälfte des 20. Jahrhunderts zur Rechtfertigung des Verbots zu lesen ist, deutet auf einen großen Einfluss moralischer Argumente hin. Diese Argumente haben bis heute an Gewicht nicht verloren, auch wenn die Befürworter der Beibehaltung der Kriminalisierung versuchen, ihre letztlich moralistische Ideologie gegen das Glücksspiel mit Argumenten wie der Begleitkriminalität des Glückspiels zu verschleiern, die eher eine Folge als eine Ursache der Kriminalisierung ist.
Hintergrund. Ziel dieser Studie war es, zu bewerten, ob die Datenübertragung während peripherer endovaskulärer Eingriffe durch ein sprachgesteuertes, optisches Head-Mounted Display verwirklicht, und ob hierdurch der Arbeitsablauf der Intervention verbessert werden kann.
Methoden. Wir benutzten die Google Glass® Explorer Edition in Verbindung mit einer eigens entwickelten Glass App, um vorhandene Grafiken über die Datenbrille durch Sprachbefehle zugänglich zu machen. 40 Medizinstudenten im letzten Drittel des Medizinstudiums wurden in zwei Gruppen randomisiert.
Jeder Proband erhielt die Aufgabe eine PTA der A. femoralis superficialis an einem High-Fidelity-VR-Simulator (ANGIO-Mentor®, 3D Systems) durchzuführen. Während Gruppe A hierfür nötige Informationen über einen zusätzlich installierten Monitor erhielt, verwendete Gruppe B Google Glass®, um jeweilige Informationen durch zuvor definierte Sprachbefehle aufzurufen. Die objektive Bewertung der erbrachten Leistung erfolgte durch standardisierte Bewertungsbögen in dichotomer Nominalskalierung und durch die Messung der für die Aufgaben benötigten Zeit. Am Ende jeder Simulation erfolgte die subjektive Bewertung seitens der Probanden durch standardisierte Fragebögen mit 5-Level-Likert-Skalierung.
Ergebnisse. Eine maximale Punktzahl von 10 Punkten war erreichbar. Der in Gruppe A und Gruppe B gefundene Median lag bei 9 Punkten mit nicht signifikanten Abweichungen (p = 0,91). Die Gesamtdauer des Eingriffs betrug zwischen 12 und 14 Minuten. Gruppe B war unter Verwendung von Google Glass®, aufgrund technischer Schwierigkeiten mit der getesteten App, im Schnitt um 1:07 Minuten signifikant langsamer (p = 0,01). Dennoch konnte nachgewiesen werden, dass Google Glass® bei dem Transfer einfacher Informationen schneller oder zumindest gleichwertig gegenüber dem klassischen Monitoring war.
In diesem Kontext erachteten 92,5% der Probanden die Digitalisierung im klinischen Alltag als sinnvoll. 17 von 20 Teilnehmern (85%) empfanden die Handhabung von Google Glass® als einfach bis sehr einfach. Alle Teilnehmer waren der Ansicht, dass Augmented Reality bei peripheren endovaskulären Eingriffen im Katheterlabor nützlich sein könnte.
Schlussfolgerung. Google Glass® war dem klassischen Monitoring im Katheterlabor hinsichtlich der Gesamtinterventionszeit nur geringfügig unterlegen und behinderte den Arbeitsablauf während einer simulierten PTA der A. femoralis superficialis nicht. Unsere Studie offenbarte hierbei technische Schwierigkeiten bei der Genauigkeit der Spracherkennung und der Bildqualität von Google Glass®. Trotzdem konnten einzelne Aufgaben durch die Nutzung der Google Glass® signifikant schneller durchgeführt werden. Wir erwarten, dass nach Überwindung dieser technischen Probleme der Arbeitsablauf während endovaskulären Eingriffen mit einem optischen Head-Mounted Display verbessert werden kann.
Zielstellung: Es sollte im Rahmen dieser Arbeit geprüft werden ob (1) ein Zusammenhang zwischen einer radiologischen Beinlängendifferenz und einer veränderten Hüft- bzw. Kniegelenksbelastung bei Coxarthrosepatienten besteht. Des Weiteren galt es zu prüfen (2) ob die radiologisch-anatomische Beinachse bei Coxarthrosepatienten einen Einfluss auf die Gelenksbelastung von Hüfte und Knie habe und (3) ob sich in diesem Zusammenhang Unterschiede zwischen unilateral und bilateral betroffenem Patientenkollektiv darstellen ließe.
Hintergründe: Es konnte bereits gezeigt werden, dass Coxarthrosepatienten ein verändertes Gangbild aufweisen. Diese Veränderungen sind mitverantwortlich für eine veränderete Gelenkbelastung sowohl in Knie als auch Hüfte, sowohl im Vergleich zwischen betroffener und nicht betroffener Seite als auch im Vergleich zu hüftgesunden Normprobanden. Insbesondere bezüglich der Kniegelenksbelastung konnte bei den Betroffenen ein reduziertes Knieadduktionsmoment (KAM) während der Standphase nachgewiesen werden. Dies steht im Einklang mit der Beobachtung, dass Coxarthrosepatienten vermehrt eine laterale Kniearthrose auf der ipsilateralen Seite entwickeln. Coxarthrosepatienten zeigten darüber hinaus eine veränderte Beinachse, mit einer Tendenz hin zu einer Valgusfehlstellung. In wieweit insbesondere die proximale Beinachse einen Einfluss auf die alterierten Gelenkmomente hat, bleibt bislang jedoch offen. Zu bilateralen Patienten sind darüber hinaus nur wenige Daten vorliegend.
Methoden: Um die oben genannten Hypothesen zu prüfen wurden bei insgesamt 29 Patienten, bei welchen die Indikation für eine Hüfttotalendoprothese aufgrund einer fortgeschrittenen Coxarthrose gestellt wurde, eine instrumentelle Bewegungsanalyse sowie eine biplanare EOSRöntgenaufnahme, welche in diesem Zusammenhang die konventionelle präoperative Planungsaufnahme ersetzte, durchgeführt. Anschließend wurden die Daten, die aus der 3D EOS Rekonstruktion über die Beinachse gewonnen wurden, sowie die Ergebnisse der Bewegungsanalyse mit bereits zuvor erhobenen Normdaten sowie untereinander verglichen und statistisch analysiert.
Ergebnisse: Es zeigte sich, dass die Patienten eine bis auf MFA nicht von der Norm abweichende Beinachse hatten. Die bilateralen zeigten eine signifikant größere Beinlängendifferenz als die Norm, die unilateralen Patienten jedoch diesbezüglich keine Abweichung. Insgesamt zeigten die Patienten ein verändertes Gangbild, welches weitgehend den bereits in der Literatur beschriebenen Veränderungen entsprach.
Bezüglich der Gelenkmomente zeigte sich ein im Vergleich zur Norm erniedrigtes KAM 2, die übrigen Gelenkmomente zeigten keine Abweichungen von der Norm.
Es zeigten sich weder für die Beinachse noch für die Gelenkmomente signifikante Unterschiede zwischen unilateralem und bilateralem Patientenkollektiv.
Die unilateralen Patienten als gesamtes zeigten keine Korrelationen mit der absoluten Beinlängendifferenz. In einer unilateralen Subgruppe, in der die betroffene Seite länger war, konnte eine inverse Korrelation mit HAM 1 und HAM 2 gefunden werden.
KAM 1 und KAM 2 korrelierten signifikant mit allen Beinachsenparametern. In einer schrittweisen Regressionsanalyse mit HKA, FO und MFA konnten damit 68% der KAM 1 Alterationen und 57,5 % der Veränderungen von KAM 2 erklärt werden. HAM 1 und HAM 2 zeigten jeweils eine signifikante Korrelation mit MFA.
Schlussfolgerung: Die vorliegenden Ergebnisse zeigen, dass die Beinachse, insbesondere das Offset, einen Teil der Veränderungen der Kniegelenksbelastung erklären. Eine intraoperative Vergrößerung des Offsets und damit eine Varisierung der Beinachse könnte möglicherweise so zu einer Normalisierung der Kniegelenksbelastung führen.
Connectomic analysis of apical dendrite innervation in pyramidal neurons of mouse cerebral cortex
(2020)
The central goal of this study was to generate synapse-resolution maps of local and long-range innervation on apical dendrites (AD) in mouse cerebral cortex. We used three-dimensional electron microscopy (3D-EM) to first measure the cell-type specific balance in the excitatory and inhibitory input on ADs. Further, we found two inhibitory axon populations with preference for apical dendrites originating from layer 2 and 3/5. Additionally, we used a combination of large-scale volumetric light and electron microscopy to investigate the innervation preference of long-range cortical projections onto ADs. To generate such large-scale 3D-EM datasets, we also developed a software package to automate aberration adjustment.
The balance of excitation and inhibition defines the computational properties of neurons. We, therefore, generated 6 datasets and annotated 26,548 excitatory and inhibitory synapses to map the relative inhibitory strength on the AD of pyramidal neurons in layers 1 and 2 (L1 and 2) of the cortex. We found consistent and cell-type specific patterns of inhibitory strength along the apical dendrite of L2-5 pyramidal neurons in primary somatosensory (S1), secondary visual (V2), posterior parietal (PPC) and anterior cingulate (ACC) cortices. L2 and L5 pyramidal neurons had inhibitory hot-zones at their main bifurcation and distal apical dendrite tuft, respectively. In contrast, L3 neurons had a baseline (~10%) level of inhibition along their apical dendrite. As controls, we quantified the effect of synapse strength (size), dendrite diameter, AD classification and synapse identification methods on the cell-type specific synapse densities. To classify L5 pyramidal subtypes, we performed hierarchical clustering using morphological properties that were described to differentiate slender- and thick-tufted L5 neurons.
We also investigated the distance to soma as a predictor of fractional inhibition around the main bifurcation of apical dendrites. Interestingly, we found a strong exponential relationship that was absent in density of either synapse type. This suggests a distance dependent control mechanism designed specifically for the balance (in synapse numbers) of excitation and inhibition.
Next, we focused on the inhibitory innervation preference for apical dendrite of pyramidal neuron. We, therefore, annotated 5,448 output synapses of AD-targeting inhibitory axons and found two populations specific for either L2 or L3/5 apical dendrites. Together with previous findings on preferential innervation of sub-cellular structures by inhibitory axons, this suggests two distinct inhibitory circuits for control of AD activity in L2 vs. deep-layer pyramidal neurons. This innervation preference was surprisingly consistent across S1, V2, PPC and ACC cortices.
3D-EM data acquisition is a laborious process that is made easier and more popular everyday by technical progress in the laboratory and industrial settings. To make data acquisition robust using our custom-built 3D-EM microscopes, an automatic aberration software was implemented to adjust the objective lens and the stigmators of the electron microscope. This method was used in multiple month-long experiments across 2 microscopes and 10 datasets. The aberration adjustment used the reduction in image details (high-frequency elements) to estimate the level of deviation from optimal focus and stigmator parameters. However, large objects in EM micrographs such as blood vessel and nuclei cross-sections generated anomalous results. We, therefore, added image processing routines based on edge detection combined with morphological operations to exclude such large objects.
Finally, we performed a correlative three-dimensional (3D) light (LM) and electron (EM) microscopy experiment to map the long-range primary visual (V1) and secondary motor (M2) cortical input to ADs in layer 1 of PPC using the “FluoEM” approach. This method allows for identification of the long-range source of projection axons in EM volumes without the need for EM-dense label conversion or heat-induced markings. The long-range source of an axon in EM is identified based on the fluorescent protein that is expressed in its LM counterpart. In comparison to M2 input, Long-range axons from V1 had a higher tendency to target L3 pyramidal neurons in PPC according to our preliminary analysis. In combination with the difference observed in the synapse composition of L2 and L3 apical dendrites, this suggests the need for separate functional and structural analysis of L2 and 3 pyramidal neurons.
Die Forschungsarbeit analysiert zwei Zeugniskonferenzen der Sekundarstufe I von hessischen Intensivklassen und Expertinneninterviews ihrer Teilnehmerinnen. Dabei werden verwaltungsrechtliche Sinnlogiken in ihren Diskursen und Entscheidungsmustern sichtbar gemacht, die am Ende zu dem Ergebnis führen, dass Lehrkräfte im Spannungsfeld zwischen Pädagogik und Verwaltung zwar arbeiten aber nur nach verwaltungsrechtlichen Maßstäben entscheiden dürfen. Im Ergebnis zeigt die Forschungsarbeit auf, dass das schulische Verwaltungssystem zur vorsätzlichen Ausgrenzung bestimmter Schüler*innentypen führt, die keine Chance auf einen Schulabschluss haben. Um fleißige aber sehr belastete Schüler*innen sprichwörtlich retten zu können, suchen die Lehrkräfte nach verwaltungsrechtlichen Grauzonen, um den Abgang von der Schule ohne Schulabschluss abwenden zu können. Dies geht sogar so weit, dass sie gegen die Rechtsnormen verstoßen oder Schüler*innen zum vorzeitigen Abgang von der Schule bewegen wollen, damit sie privat eine benötigte Alphabetisierung erhalten können, die in den Intensivklassen nicht möglich ist. Die Lehrkräfte formulieren im geschlossenen Bereich der Zeugniskonferenz offene Diskriminierung und Sexismus in ihren Interaktionen, welche sich auf ihre Bildungsentscheidungen auswirken können, ohne dass dies nach außen sichtbar wird. Neben den bereits forschungsgegenständlichen Antinomien und institutionellen Diskriminierungsmechanismen im Schulsystem, zeigt die Forschungsarbeit unmittelbar die Praxis schulische Selektionen.
Die kulturanthropologische Studie beschäftigt sich mit der pädagogischen Nutzung von Wäldern. Sie betrachtet dieses Phänomen vor dem Hintergrund zweier Entwicklungen: Zum einen wird die Zunahme von gesellschaftlichen Bedürfnissen an den Wald betrachtet etwa aus den Bereichen Freizeit, Sport, Gesundheit oder Bildung. Zum anderen wird die Zuspitzung des Nutzungskonflikts zwischen Forst- und Naturschutzakteuren im Wald in den Blick genommen. Im Zentrum der Arbeit stehen daher sowohl der Prozess der pädagogischen Inwertsetzung des Waldes als auch die Frage, wie sich der Nutzungskonflikt in der pädagogischen Praxis widerspiegelt. Eine empirisch-ethnografische Feldforschung im Nationalpark Kellerwald-Edersee und im Jugendwaldheim des Forstbetriebs des Landes Hessen im Jahr 2014 bilden das Fundament der Studie.
Die Ergebnisse machen den Prozess der pädagogischen Inwertsetzung transparent: Sie verweisen auf einzelne Praktiken, auf beteiligte Akteure und stellen dar, wie das Bild vom Wald als pädagogisch wertvoller Raum gesellschaftlich Fuß fasst. Sie zeigen darüber hinaus, dass Naturschutz- und Forstakteure die Bildungspraktiken nutzen, um ihre jeweiligen Vorstellungen zur Nutzung des Waldes gesellschaftlich durchzusetzen. Vor allem machen die Ergebnisse deutlich, dass durch die pädagogischen Inwertsetzung einerseits und die Instrumentalisierung der Bildung andererseits Diskussionen über die Funktion und den Stellenwert der pädagogischen Nutzung von Wäldern ausgelöst werden. Die Studie zeigt, dass im Rahmen dieser Debatten die gesellschaftlichen Wünsche gegenüber den bislang dominierenden forstwirtschaftlichen und naturschutzfachlichen Aspekten an Relevanz gewinnen.
Im Rahmen dieser Arbeit wurde ein Reaktionsmikroskop (REMI) nach dem Messprinzip COLTRIMS (Cold Target Recoil Ion Momentum Spectrometry) neu konstruiert und aufgebaut. Die Leistungsfähigkeit des Experimentaufbaus konnte sowohl in diversen Testreihen als auch anschließend unter realen Messbedingungen an der Synchrotronstrahlungsanlage SOLEIL und am endgültigen Bestimmungsort SQS-Instrument (Small Quantum Systems) des Freie-Elektronen-Lasers European XFEL (X-ray free-electron laser) eindrucksvoll unter Beweis gestellt werden.
Mit der Experimentiertechnik COLTRIMS ist es möglich, alle geladenen Fragmente einer Wechselwirkung eines Projektilteilchens mit einem Targetteilchen mittels zweier orts- und zeitauflösender Detektoren nachzuweisen. In einem Vakuumrezipienten wird die als Molekularstrahl präparierte Targetsubstanz inmitten der Hauptkammer zentral mit einem Projektilstrahl (z.B. des XFEL) zum Überlapp gebracht, sodass dort eine Wechselwirkung stattfinden kann. Bei den entstehenden Fragmenten handelt es sich um positiv geladene Ionen sowie negative geladene Elektronen. Elektrische Felder, erzeugt durch eine Spektrometer-Einheit, sowie durch Helmholtz-Spulen erzeugte magnetische Felder ermöglichen es, die geladenen Fragmente in Richtung der Detektoren zu lenken. Die Orts- und Zeitmessung eines einzelnen Teilchens (z.B. eines Ions) findet in Koinzidenz mit den anderen Teilchen (z.B. weiteren Ionen bzw. Elektronen) statt. Mit dieser Messmethode können die Impulsvektoren und Ladungszustände aller geladenen Fragmente in Koinzidenz gemessen werden. Da hierbei die geometrische Anordnung der einzelnen Komponenten für die Leistungsfähigkeit des Experiments eine entscheidende Rolle spielt, mussten bei der Neukonstruktion des COLTRIMS-Apparates für den Einsatz an einem Freie-Elektronen-Laser (FEL) einige Rahmenbedingungen erfüllt werden. Besonders wurden die hohen Vakuumvoraussetzungen an den Experimentaufbau aufgrund der enormen Lichtintensität eines FEL beachtet. Das Zusammenspiel der vielen Einzelkomponenten konnte zunächst in mehreren Testreihen überprüft werden. Unter anderem durch Variation der Vakuumbauteile in Material und Beschaffenheit konnten die zuvor ermittelten Vorgaben schließlich erreicht werden. Das neu konstruierte Target-Präparationssystem zur Erzeugung molekularer Gasstrahlen erlaubt nun den Einsatz von bis zu vier unterschiedlich dimensionierten, differentiell gepumpten Stufen. Zudem wurden hochpräzise Piezo-Aktuatoren verbaut, welche die Bewegung von Blenden im Vakuum erlauben, wodurch eine variable Einstellung des lokalen Targetdrucks ermöglicht wird. Die Anpassung der elektrischen Felder des Spektrometers für ein jeweiliges Experiment wurde mittels Simulationen der Teilchentrajektorien, Teilchenflugzeiten sowie der Detektorauflösung durchgeführt.
Da die in dieser Arbeit besprochenen Messungen und Ergebnisse die Wechselwirkungsprozesse von Röntgenstrahlung bzw. Synchrotronstrahlung mit Materie thematisieren, wird die Erzeugung von Synchrotronstrahlung sowohl in Kreisbeschleunigern als auch in den modernen Freie-Elektronen-Lasern (FEL) erklärt und hergeleitet. Der im Röntgenbereich arbeitende Freie-Elektronen-Laser European XFEL, welcher u.A. als Strahlungsquelle für die hier gezeigten Experimente diente, ist eine von derzeit noch wenigen Anlagen ihrer Art weltweit. Seine Lichtintensität in diesem Wellenlängenbereich liegt bis zu acht Größenordnungen über den bisher verwendeten Anlagen für Synchrotronstrahlung.
Beim ersten Einsatz der neuen Apparatur an der Synchrotronstrahlungsanlage SOLEIL wurde der ultraschnelle Dissoziationsprozess von Chlormethan (CH3Cl) untersucht. Während des Zerfallsprozesses nach Anregung durch Röntgenstrahlung werden hochenergetische Auger-Elektronen emittiert, welche in Koinzidenz mit verschiedenen Molekülfragmenten nachgewiesen wurden. Durch den Zerfallsmechanismus der ultraschnellen Dissoziation wird die Auger-Elektronenemission nach resonanter Molekülanregung während der Dissoziation des Moleküls beschrieben. Die kinetische Energie des Auger-Elektrons ist dabei abhängig von seinem Emissionszeitpunkt. Somit können die gemessenen Auger-Elektronen ein „Standbild“ der zeitlichen Abfolge des Dissoziationsprozesses liefern.
Es wird eine detaillierte Beschreibung der Datenanalyse vorgenommen, welche aus Kalibrationsmessungen und einer Interpretation der Messdaten besteht. Die abschließende Betrachtung besteht in der Darstellung der Elektronenemissionswinkelverteilungen im molekülfesten Koordinatensystem. Die Winkelverteilung der Auger-Elektronen wird am Anfang der Dissoziation vom umgebenden Molekül- potential beeinflusst und zeigt deutliche Strukturen entlang der Bindungsachse. Entfernen sich die Bindungspartner voneinander und das Auger-Elektron wird währenddessen emittiert, so verschwinden diese Strukturen zunehmend und eine Vorzugsemissionsrichtung senkrecht zur Molekülachse wird sichtbar.
Die Analyse der Messdaten zur Untersuchung von Multiphotonen-Ionisation an Sauerstoff-Molekülen am Freie-Elektronen-Laser European XFEL ermöglichte unter anderem die Beobachtung „hohler Moleküle“, also Systemen mit Doppelinnerschalen- Vakanzen. Solche Zustände können vor allem durch die sequentielle Absorption zweier Photonen entstehen, wobei die hierbei nötige Photonendichte nur von FEL- Anlagen bereit gestellt werden kann. Hier konnte das Ziel erreicht werden, erstmalig die Emissionswinkelverteilungen der Photoelektronen von mehrfach ionisierten Sauerstoff-Molekülen (O+/O3+-Aufbruchskanal) als Folge der ablaufenden Mechanismen femtosekundengenau zu beobachten. Hierzu wurde ein vereinfachtes Schema der verschiedenen Zerfallsschritte erstellt und schließlich ermittelt, dass der Zerfall durch eine PAPA-Sequenz beschrieben werden kann. Bei dieser handelt es sich um die zweimalige Abfolge von Photoionisation und Auger-Zerfall. Somit werden vier positive Ladungen im Molekül erzeugt. Das zweite Photon des XFEL wird dabei während der Dissoziation der sich Coulomb-abstoßenden Fragmente absorbiert, weshalb es sich um einen zweistufigen Prozess aus Anrege- und Abfrage- Schritt (Pump-Probe) handelt. Schlussendlich gelang zudem der Nachweis von Doppelinnerschalen-Vakanzen im Sauerstoff-Molekül nach Selektion des O2+/O2+- Aufbruchkanals. Hierfür konnten die beiden Möglichkeiten einer zweiseitigen oder einseitigen Doppelinnerschalen-Vakanz getrennt betrachtet werden und ebenfalls erstmalig das Verhalten der Elektronenemission dieser beiden Zustände verglichen werden.
Investigating the inhibition of anti-apoptotic BCL-2 family proteins in pediatric cancer cells
(2020)
Cancer is amongst the leading causes of death in childhood. Rhabdomyosarcoma (RMS) is the most frequently occurring soft tissue sarcoma in children and adolescents. It presumably arises from mesenchymal progenitors of skeletal muscle cells and presents with different subtypes that differ both histologically and genetically. Osteosarcoma (OS) and Ewing sarcoma (ES) are the most frequently diagnosed pediatric bone tumors. Even though the prognosis of these cancer entities improved significantly during recent decades, the survival rates are currently stagnating. Especially, dismal prognosis of relapsed and metastasizing cases of these malignancies urgently call for novel treatment options. BCL-2 proteins are vital guardians that control intrinsic apoptosis. Furthermore, it was shown that BCL-2 proteins critically regulate apoptosis in pediatric solid tumors. BH3 mimetics are small molecules that bind and inhibit anti-apoptotic BCL-2 proteins. They have already been investigated as cancer therapeutics for several years and show first encouraging clinical results. Therefore, we hypothesized that targeting BCL-2, MCL-1 and BCL-XL might be a promising approach to treat RMS, OS and ES.
In this study, we aimed to comprehensively evaluate the potential of anti-apoptotic BCL-2 family proteins as therapeutic targets for pediatric solid tumors such as RMS, OS and ES.
Notably, RMS, OS and ES cells largely expressed the most relevant BCL-2 family protein members. However, cells were widely insensitive to single pharmacological inhibition of either BCL-XL, BCL-2 or MCL-1 by A-1331852, ABT-199 and S63845, respectively. This finding was independent of their BCL-2 family protein expression levels. Significantly, co-administration of A-1331852 and S63845 induced cell death in RMS, OS and ES cell lines in a highly synergistic manner. Transient silencing of MCL-1 and/or BCL-XL verified the co-dependency of RMS cells on these proteins for survival. Importantly, A-1331852/S63845 co-treatment was more efficient in causing cell death in RMS, OS and ES cells than either inhibitor combined with ABT-199. Efficacy of A-1331852/S63845 co-treatment could be additionally demonstrated in a primary sample of pediatric malignant epithelioid mesothelioma.
Mechanistically, concomitant A-1331852/S63845 treatment mediated rapid intrinsic apoptosis involving swift loss of the mitochondrial outer membrane potential as well as activation of caspases-3, -8 and -9. An observed caspase dependent loss of MCL-1 might further amplify the A-1331852/S63845 triggered pro-death signaling. Furthermore, we identified BAX and BAK as key mediators of apoptosis caused by dual inhibition of MCL-1 and BCL-XL. A-1331852/S63845 induced cell death was relying on BAX and/or BAK in a cell line dependent manner. Interestingly, treatment with A-1331852 and S63845 liberated BAK from its interaction with MCL-1 and BCL-XL. Moreover, BAX and BAK were activated and interacted with each other to form a pore in the outer mitochondrial membrane. Further, in RD cells BIM and NOXA partially contributed to A-1331852/S63845 mediated cell death. Consistently, in this cell line BIM and NOXA were disrupted from their binding to BCL-XL and MCL-1 by A-1331852 and S63845, respectively. However, BH3 only proteins were not involved in A-1331852/S63845 induced cell death in Kym-1 cells. Therefore, we concluded that BH3 only proteins played only a marginal and cell line dependent role in mediating cell death caused by MCL-1 and BCL-XL co-repression.
Notably, A-1331852/S63845 co-treatment spared non-malignant fibroblasts, myoblasts and peripheral blood mononuclear cells, which suggests a therapeutic window for its application in vivo. Besides, we could demonstrate that sequential BH3 mimetic treatment still significantly induced cell death, albeit to minor extents compared to its dual administration. Importantly, we successfully evaluated concomitant treatment with A-1331852 and S63845 in multicellular RMS spheroids and in an in vivo embryonic chicken model of RMS. These findings stress the high transcriptional relevance of A-1331852/S63845 as an emerging novel cancer regimen.
Collectively, the thesis at hand explored the great potential of co-treatment with A-1331852 and S63845 in pediatric solid tumors and unveiled the underlying molecular mechanisms of cell death in RMS. Together, the current investigations support further preclinical and clinical studies to evaluate the effect of dual MCL-1 and BCL-XL targeting in pediatric solid tumors.