Refine
Year of publication
- 2020 (235) (remove)
Document Type
- Doctoral Thesis (235) (remove)
Has Fulltext
- yes (235)
Is part of the Bibliography
- no (235) (remove)
Keywords
- Knochenersatzmaterial (2)
- Sprache (2)
- 3-alkylphenols (1)
- 3D-Druck (1)
- 6-methylsalicylic acid synthase (1)
- 9-HODE (1)
- ADHS (1)
- ALL (1)
- AML (1)
- Absorption modeling (1)
Institute
In vitro release testing as an alternative to establishing bioequivalence of drug products in vivo
(2020)
Generische Arzneimittel werden als Arzneimittel definiert, die im Vergleich zu einem Referenzarzneimittel hinsichtlich der meisten pharmazeutischen Aspekte identisch sind.
Um die therapeutische Äquivalenz zum Referenzprodukt sicherzustellen, sind Bioverfügbarkeitsstudien erforderlich. Für Arzneimittel, die als feste, perorale, schnell freisetzende Darreichungsformen formuliert sind, kann auf den Nachweis der Bioäquivalenz in vivo zugunsten eines vergleichenden Freisetzungstests in vitro im Rahmen eines sogenannten Biopharmaceutics Classification System (BCS) basierten Biowaivers verzichtet werden.
Der BCS-basierte Biowaiver ist ein vielversprechendes Instrument, welches Kosteneinsparungen sowie eine Verringerung des regulatorischen Aufwands im Zuge der behördlichen Zulassung von Generika ermöglicht und dazu beitragen kann, die Zugänglichkeit unentbehrlicher Arzneimittel zu verbessern. Dabei gibt es jedoch auch Hürden, welche die weitläufige Anwendung des Verfahrens verhindern: Unklare Löslichkeits- und Permeabilitätsklassifizierungen von Wirkstoffen, Arzneimittel, welche die in vitro Freisetzungskriterien nicht erfüllen, sowie Zweifel an der Eignung der regulatorischen Spezifikationen, Freisetzungsunterschiede in vitro erfassen zu können, die für das Verhalten in vivo relevant sind.
In der vorliegenden Dissertation werden diese Probleme thematisiert, indem eine umfassende Bewertung der Anwendbarkeit und Einschränkungen des BCS-basierten Biowaivers in seinem aktuell regulatorisch vorgeschriebenen Ablauf vorgenommen wird. Mögliche Anpassungen des Verfahrens wurden auf der Grundlage experimenteller in vitro Daten untersucht, bewertet und mithilfe von in silico Simulationsmodellen auf die Situation in vivo extrapoliert.
Muskelskeletterkrankungen (MSE) sind die Hauptursache für Arbeitsunfähigkeit bei Büroangestellten in Deutschland. Die Produktionsausfallkosten für MSE beliefen sich im Jahre 2017 auf 17,2 Milliarden Euro. Neben haltungsbezogenen Risikofaktoren wie die statische Körperhaltung am Büroarbeitsplatz, konnten zunehmend psychische Stressoren wie Termin- und Leistungsdruck als Risikofaktoren identifiziert werden. Arbeitgeber versuchen mittels verhaltens- und verhältnispräventiven Maßnahmen im Rahmen der (BGF) am Arbeitsplatz zur Prävention beizutragen. Insbesondere Bewegungsprogramme führen nachweislich zu einer Verringerung von MSE und Stress sowie zu einer Verbesserung der Lebensqualität. Vielversprechend sind untere andrem auch Dehninterventionen wie die wenigen bislang veröffentlichten Studien zeigen. Das „five-Business“ Dehnprogramm, dass an einem Gerät durchgeführt wird, wurde speziell für die Anwendung im Büro konzipiert und beinhaltet fünf einfache Übungen für den Rumpf. Ziel dieser Studie war es daher, die Auswirkungen des "five-Business" Trainingsprogramms für Büroangestellte auf MSE, die Lebensqualität und die Beweglichkeit zu untersuchen.
Im Rahmen der hier vorgestellten Promotionsarbeit wurde zunächst eine konkrete Methode entwickelt (Publikation 1) und anschließend der Effekt dieses Dehntrainings auf die Lebensqualität untersucht (Publikation 2). Insgesamt nahmen 313 Büroangestellte (173m/137f) mit einem Durchschnittsalter von 43,37 ± 11,24 (SD) Jahren, einer Körpergröße von 175,37 ± 9,35 cm und einem Gewicht von 75,76 ± 15,23 kg sowie einem durchschnittlichen BMI von 24,5 ± 3,81 kg/m2 freiwillig an dieser Interventionskontrollstudie teil. Die 158 Teilnehmenden der Interventionsgruppe absolvierten das Dehntraining zweimal wöchentlich für etwa zehn Minuten über eine Dauer von 12 Wochen. Die Kontrollgruppe hingegen sollte ihrem gewöhnlichen Alltag weiter nachgehen. Der Short-Form-36 Fragebogen (SF-36) wurde verwendet, um die Effekte der Intervention zu Beginn und nach 12 Wochen auf die gesundheitsbezogene Lebensqualität zu evaluieren. Nach 12 Wochen Dehntraining traten signifikante Verbesserungen in den Bereichen mentaler Summenscore (p=0,008), körperliche Funktionsfähigkeit (p<0,001), körperliche Schmerzen (p=0,01), Vitalität (p=0,025), Rolleneinschränkungen aufgrund körperlicher Probleme (p=0,018) und psychische Gesundheit (p=0,012) auf. Die Ergebnisse zeigen, dass das Dehntraining nicht nur physische Gesundheitsparameter beeinflusst, sondern ebenfalls positive Effekte bei psychischen Gesundheitsparametern hervorruft. Das Dehntraining ermöglicht demnach sowohl auf physischer als auch auf psychischer Ebene eine Entspannung. Daher deuten die Ergebnisse insgesamt darauf hin, dass ein 12-wöchiges Dehnprogramm geeignet ist, die gesundheitsbezogene Lebensqualität von Büroangestellten zu verbessern. Es kann geschlussfolgert werden, dass ein solches Dehnprogramm als präventive und rehabilitative Maßnahme in der betrieblichen Gesundheitsförderung geeignet sein kann, um aktuelle Herausforderungen des zunehmenden Wettbewerbs und steigenden Produktivitätsanforderungen am Arbeitsplatz entgegenzuwirken.
The interleukin (IL)-1 family has been described for its numerous involvement in the regulation of inflammatory processes. Certain members are able to induce inflammation, whereas others have the capacity to inhibit inflammation. The newly discovered IL-1 family member IL-38 shows interesting and innovative properties. While most of these cytokines are pro-inflammatory mediators, IL-38 appears to enter the smaller circle of anti-inflammatory mediators. As a pattern, IL-38 appears to suppress IL-17-driven chronic or auto-inflammation by working as receptor antagonist. These properties, as well as its beneficial effects in models of inflammatory and autoimmune diseases suggest the possibility of IL-38-based therapies. Nevertheless, its role in the resolution of acute inflammation, thereby preventing chronic inflammation, remains unclear.
The first part of my thesis elucidated the role of IL-38 in the resolution of inflammation. I found that the complete absence of IL-38 in IL-38 KO mice leads to a delayed resolution of inflammation in the zymosan-induced peritonitis mouse model, compared to WT mice. This was marked by a persistent neutrophilia and a lower production of pro-resolving mediators during the resolution phase, such as TGFβ1 production from macrophages following efferocytosis of apoptotic cells. Reduced TGFβ1 production from macrophages coincided with reduced levels of regulatory T cells (Tregs), which are known to promote the resolution of inflammation. Unexpectedly, the TGFβ1 production capacity of macrophages did not influence the induction of Tregs from naïve T cells. Rather, IL-38 KO mice had an accumulation of Tregs in the thymus compared to WT mice. This was caused by an impairment of CD62L expression at the surface of Tregs, which is required for Tregs migration outside of the thymus. Higher Treg numbers in the thymus correlated with lower level of Tregs in peripheral lymphoid organs. Importantly, CD62L expression at the surface of IL-38 KO Tregs in the thymus was restored by injecting IL-38 i.p. for 24h. These data indicate a potential key function of IL-38 in the regulation of Treg migration, which is triggered in many cases of autoimmunity.
The second part of my thesis was to study the role of IL-38 in experimental autoimmune encephalomyelitis (EAE) development, given that EAE is IL-17-dependent. Unexpectedly, IL-38-deficient mice showed strongly reduced clinical scores and histological markers of EAE. This came with reduced inflammatory cell infiltrates, as well as reduced expression of inflammatory markers in the spinal cord. IL-38 mRNA was detected in the spinal cord, mainly by resident and infiltrated phagocytes, but also by other cells, such as ependymal cells. IL-38 was upregulated upon pro-inflammatory stimulation of bone marrow-derived macrophages, and its presence was necessary for a complete activation of inflammatory macrophages. My data suggest an alternative cell-intrinsic role of IL-38 in macrophages to promote inflammation in the central nervous system.
In the last part of my thesis, I initiated a project on the function of IL-38 in B cell physiology and antibody production, given the fact that IL-38 is expressed by B cells. I generated preliminary data showing that the absence of IL-38 in mice decreased antibody production. Furthermore, I showed that IL-38 is particularly expressed by plasma cells in human tonsils. This project remains open and further studies will be conducted to investigate how IL-38 regulates antibody production, both in physiological and autoimmune settings. Understanding the role of IL-38 in autoantibody production could lead to original and innovative therapy for patients suffering from auto-inflammatory disease.
In summary, the different projects of my thesis provide evidence that the pro-resolving function of IL-38 may be indirectly linked to the retention of Tregs in the thymus. Moreover, a possible intracellular role of IL-38 within macrophages was described showing opposite properties in the regulation of inflammation. This function could be causatively involved in EAE development. However, further studies remain to be done to find the mechanism of action by which IL-38 regulates Tregs egression and how it influences the EAE development. Complete understanding of the IL-38 biology and differentiation between its extra- vs potential intracellular functions could make it a promising therapeutic target for chronic inflammatory or autoimmune diseases.
High-energy physics experiments aim to deepen our understanding of the fundamental structure of matter and the governing forces. One of the most challenging aspects of the design of new experiments is data management and event selection. The search for increasingly rare and intricate physics events asks for high-statistics measurements and sophisticated event analysis. With progressively complex event signatures, traditional hardware-based trigger systems reach the limits of realizable latency and complexity. The Compressed Baryonic Matter experiment (CBM) employs a novel approach for data readout and event selection to address these challenges. Self-triggered, free-streaming detectors push all data to a central compute cluster, called First-level Event Selector (FLES), for software-based event analysis and selection. While this concept solves many issues present in classical architectures, it also sets new challenges for the design of the detector readout systems and online event selection.
This thesis presents an efficient solution to the data management challenges presented by self-triggered, free-streaming particle detectors. The FLES must receive asynchronously streamed data from a heterogeneous detector setup at rates of up to 1 TB/s. The real-time processing environment implies that all components have to deliver high performance and reliability to record as much valuable data as possible. The thesis introduces a time-based data model to partition the input streams into containers of fixed length in experiment time for efficient data management. These containers provide all necessary metadata to enable generic, detector-subsystem-agnostic data distribution across the entire cluster. An analysis shows that the introduced data overhead is well below 1 % for a wide range of system parameters.
Furthermore, a concept and the implementation of a detector data input interface for the CBM FLES, optimized for resource-efficient data transport, are presented. The central element of the architecture is an FPGA-based PCIe extension card for the FLES entry nodes. The hardware designs developed in the thesis enable interfacing with a diverse set of detector systems. A custom, high-throughput DMA design structures data in a way that enables low-overhead access and efficient software processing. The ability to share the host DMA buffers with other devices, such as an InfiniBand HCA, allows for true zero-copy data distribution between the cluster nodes. The discussed FLES input interface is fully implemented and has already proven its reliability in production operation in various physics experiments.
Schätzungen zufolge sind weltweit etwa 71 Millionen Menschen chronisch mit dem Hepatitis-C-Virus (HCV) infiziert. Im Jahre 2016 sind rund 400.000 Menschen an einer HCV-bedingten Lebererkrankung gestorben, insbesondere aufgrund der Entwicklung von Leberzirrhose und Lebertumoren. Trotz der großen Unterschiede in den Prävalenzschätzungen und der Qualität der epidemiologischen Daten zeigt die jüngste weltweite Bewertung, dass die virämische Ausbreitung der HCV-Infektion (Prävalenz der HCV-RNA) in den meisten Industrieländern, einschließlich der USA, weniger als 1,0% beträgt (www .cdc.gov / Hepatitis / HCV). In einigen osteuropäischen Ländern wie Lettland (2,2%) oder Russland (3,3%) und bestimmten Ländern in Afrika, Ägypten (6,3%) und Gabun (7,0%) oder im Nahen Osten Syriens (3,0%) ist die Prävalenz bemerkenswert höher. In den USA und den am weitesten entwickelten Ländern gilt die gemeinsame Nutzung von Werkzeugezur Herstellung von Arzneimitteln und zur Injektion von Medikamenten (Nadeln) als die häufigste derzeitige Übertragungsart. Die vorherrschende Übertragungsart in Ländern, in denen die Ausbreitung von HCV-Infektionen im Vergleich zu den Industrieländern höher ist, beruht jedoch auf schlechten Methoden zur Infektionskontrolle und unsicherer Handhabung von Injektionsnadeln.
Wenn die chronische Infektion unbehandelt bleibt, kann sich im fortschreitenden Verlauf eine Zirrhose oder ein hepatozelluläres Karzinom bilden (Alter H. J. und Seef L. B. 2000). Die Doppeltherapie, bei der es sich um eine Kombination aus pegyliertem Interferon-α (PEG IFNα) und Ribavirin (riba) handelt, war in einigen Ländern der Dritten Welt bis vor kurzem der goldene Standard für die Behandlung von Patienten mit chronischer Hepatitis C und hat eine anhaltende virologische Reaktion erzielt. Mit nur 50% der mit HCV-Genotyp 1 infizierten Patienten (der häufigere) im Vergleich zu 80% mit Genotyp 2 oder 3, obwohl sie kostspielig und langwierig sind (z. B. 24-48 Wochen) und zahlreiche harte Nebenwirkungen aufweisen, die schwer zu bekämpfen sind tolerieren (Erklärung der National Institutes of Health Consensus Development Conference: Management von Hepatitis C: 2002 - 10.-12. Juni 2002 2002). Die Identifizierung des JFH1 (japanische fulminante Hepatitis Typ 1) -Isolats wurde in einigen in vitro-Studien zu HCV als wichtiger Durchbruch bei der HCV-Behandlung angesehen. Die Verwendung dieses Isolats führte nachfolgend zu einem besseren Verständnis des HCV-Lebenszyklus und der 3D-Strukturen der viralen Proteine. Basierend auf dieser Erkenntnis konnten die ersten direkt wirkenden antiviralen Mittel (DAAs) entwickelt werden, die spezifisch virale Proteine beeinflussen. Die beiden Proteasehemmer (PI) Telaprevir und Boceprevir hemmen die virale NS3-4A-Protease und wurden 2011 als Kombinationstherapie mit PEG IFNα und Ribavirin zugelassen, was die anhaltende virologische Reaktion auf 67-75% erhöhte (Pawlotsky et al. 2015).
Die Optimierung der gegenwärtigen Arzneimittelregime, die Einschränkung des Problems der Mutationsresistenz, die Gestaltung einer individualisierten Therapie, der Zugang zu diesen therapeutischen antiviralen Arzneimitteln und ihr hoher Preis bleiben weiterhin eine Herausforderung (Pawlotsky 2016; Pawlotsky et al. 2015; Sarrazin 2016). Die Entwicklung eines Impfstoffs wird jedoch als größte Herausforderung für die weltweite Kontrolle von HCV angesehen (Bukh 2016). Aus diesem Grund ist es wichtig, weiterhin mehr über den HCV-Lebenszyklus und die Faktoren zu erfahren, die sich auf die Replikation und den gesamten Lebenszyklus auswirken können, um effiziente, qualitativ hochwertige und vor allem leicht zugängliche Behandlungen für alle Menschen weltweit zu entwickeln.
Der Lipidstoffwechsel und insbesondere das Cholesteringleichgewicht werden durch die HCV-Infektion beeinflusst. Die Korrelation zwischen Lipidstoffwechsel und HCV wurde klinisch seit langem beobachtet. In den Leberbiopsien von mit HCV infizierten Patienten wurde ein Anstieg der in den Lipidtröpfchen im Cytosol akkumulierten neutralen Lipide festgestellt (Dienes et al. 1982). Das Hepatitis-C-Virus wurde auch von Hypobetalipoproteinämie, Hypocholesterinämie und Lebersteatose begleitet (Schaefer und Chung 2013). Die Leber ist der primäre Ort für die Synthese, Speicherung und Oxidation von Lipiden und anderen Makromolekülen. Daher ist der Fettstoffwechsel in der Leber für die Aufrechterhaltung der systemischen Nährstoffhomöostase von wesentlicher Bedeutung. Eine Dysregulation des Leberlipidstoffwechsels ist ein Kennzeichen mehrerer Krankheiten wie Diabetes, alkoholische und nichtalkoholische Fettlebererkrankungen sowie parasitäre und virale Infektionen, einschließlich einer HCV-Infektion. (Erklärung der National Institutes of Health Consensus Development Conference: Management von Hepatitis C: 2002 - 10.-12. Juni 2002 2002; Fon Tacer und Rozman 2011; Chen et al. 2013; Reddy und Rao 2006; Visser et al. 2013; Wu und Parhofer 2014)
...
Hofstadter-Hubbard physics
(2020)
The Hofstadter model, besides the Haldane and Kane-Mele models, is the most common tight-binding model which hosts topologically nontrivial states of matter. In its time-reversal-symmetric formulation the model can even describe topological insulators. Experimentally, the Hofstadter model was realized with ultracold quantum gases in optical lattices which is a wellcontrolled way to engineer quantum states of tight-binding Hamiltonians. Another established control parameter in ultracold quantum gases are twoparticle, on-site interactions, also known as Hubbard interactions. This work aims at introducing the reader to the concepts of topological states of matter, a collection of corresponding tight-binding models, and the methodology to treat interacting topological states with dynamical mean-field theory.We present recent results for inhomogeneous, interacting systems, spinimbalanced magnetic systems, propose experimental detection methods, and extensions to three-dimensional topological states.
Diese Arbeit beschäftigt sich mit linearen inversen Problemen, wie sie in einer Vielzahl an Anwendungen auftreten. Diese Probleme zeichnen sich dadurch aus, dass sie typischerweise schlecht gestellt sind, was in erster Linie die Stabilität betrifft. Selbst kleinste Messfehler haben enorme Konsequenzen für die Rekonstruktion der zu bestimmenden Größe.
Um eine robuste Rekonstruktion zu ermöglichen, muss das Problem regularisiert, dass heißt durch eine ganze Familie abgeänderter, stabiler Approximationen ersetzt werden. Die konkrete Wahl aus der Familie, die sogenannte Parameterwahlstrategie, stützt sich dann auf zusätzliche ad hoc Annahmen über den Messfehler. Typischerweise ist dies im deterministischen Fall die Kenntnis einer oberen Schranke an die Norm des Datenfehlers, oder im stochastischen Fall, die Kenntnis der Verteilung des Fehlers, beziehungsweise die Einschränkung auf eine bestimmte Klasse von Verteilungen, zumeist Gaußsche. In der vorliegenden Arbeit wird untersucht, wie sich diese Informationen unter der Annahme der Wiederholbarkeit der Messung gewinnen lassen. Die Daten werden dabei aus mehreren Messungen gemittelt, welche einer beliebigen, unbekannten Verteilung folgen, wobei die zur Lösung des Problems unweigerlich notwendige Fehlerschranke geschätzt wird. Auf Mittelwert und Schätzer wird dann ein klassisches Regularisierungsverfahren angewandt. Als Regularisierungen werden größtenteils Filter-basierte Verfahren behandelt, die sich auf die Spektralzerlegung des Problems stützen. Als Parameterwahlstrategien werden sowohl einfache a priori-Wahlen betrachtet, als auch das Diskrepanzprinzip als adaptives Verfahren. Es wird Konvergenz für unbekannte beliebige Fehlerverteilungen mit endlicher Varianz sowie für Weißes Rauschen (bezüglich allgemeiner Diskretisierungen) nachgewiesen. Schließlich wird noch die Konvergenz des Diskrepanzprinzips für ein stochastisches Gradientenverfahren gezeigt, als erste rigorose Analyse einer adaptiven Stoppregel für ein solches nicht Filter-basiertes Regularisierungsverfahren.
Das Hepatozelluläre Karzinom (HCC) ist die sechsthäufigste Krebsart mit der zweithäufigsten krebsbedingten Letalität. Sorafenib ist bereits seit über 10 Jahren die einzige verfügbare und zugelassene systemische Chemotherapie. Allerdings zeigen Patienten oft eine Resistenz gegenüber Sorafenib.
In zahlreichen Krebsarten konnte bereits gezeigt werden, dass Sphingolipide bei der Tumorentwicklung und Chemoresistenz eine wichtige Rolle spielen. Sphingolipide sind bioaktive Lipidmoleküle, welche unteranderem für die Beeinflussung verschiedener Signalwege intra- und extrazellulär verantwortlich sind. So konnte gezeigt werden, dass das Verhältnis zwischen Sphingosin-1-Phosphat (S1P) und Ceramiden eine wichtige Rolle für das Überleben von Zellen spielt, wobei eine Verschiebung des Verhältnisses zugunsten des S1P meist eine proliferative Wirkung auf Zellen hat. Für die Phosphorylierung des Sphingosins zu S1P sind die zwei Enzyme Sphingosinkinase 1 und 2 (SPHK1/2) verantwortlich.
Es gibt bereits Studien, die nachweisen konnten, dass diese Enzyme gerade in Tumorzellen verstärkt exprimiert werden. Auf der anderen Seite kann eine verstärkte Bildung von Ceramiden die Apoptose der Tumorzellen verstärken. Daher ist es nicht verwunderlich, dass der Sphingolipid-Stoffwechsel einen interessanten Angriffspunkt für die Krebstherapie darstellt. Aus diesem Grund sollte in der vorliegenden Arbeit zunächst untersucht werden, ob Sorafenib einen Einfluss auf den Sphingolipid Stoffwechsel hat. Weiter sollte untersucht werden, ob die Beeinflussung des Sphingolipid-Stoffwechsels die Effekte von Sorafenib potenzieren könnte.
Es konnte zunächst gezeigt werden, dass Sorafenib die mRNA-Expression verschiedener Enzyme, die das Verhältnis zwischen Ceramiden und S1P regulieren, beeinflussen kann. Es wurde weiter untersucht, wie sich der Ceramidsynthase Inhibitor FB1 auf die Proliferation und die Induktion der Apoptose auswirkt. Dies wurde ebenfalls mit SLP (SPHK1 Inhibitor), SLM (SPHK2 Inhibitor) und SKI II, einem unspezifischen Inhibitor beider Sphingosinkinasen, untersucht. Es wurden weiter die Einflüsse aller verwendeten Substanzen auf die Bildung verschiedener Sphingolipide untersucht.
Hierbei konnte gezeigt werden, dass Sorafenib in der Lage ist, die Proliferation der Zellen zu hemmen und die Apoptose-Induktion zu fördern. Weiter führte Sorafenib zu einer Akkumulation der Dihydroceramide. Was wiederrum weder mit SKI II, FB1; SLP noch SLM beobachtet werden konnte. Der signifikante Anstieg der Dihydroceramid-Konzentrationen konnte mit dem durch Sorafenib induzierten oxidativen Stress in Verbindung gebracht werden.
SLP und SLM waren nicht in der Lage, die Effekte von Sorafenib auf die Proliferation zu potenzieren. Die Kombination von Sorafenib mit SLP oder SLM führte jedoch in den Huh7.5 Zellen zu einer drastischen Reduktion des S1P-Spiegel.
FB1 und SKI II führten zu einer stärkeren Hemmung der Proliferation als Sorafenib. Wobei gezeigt werden konnte, dass beide Substanzen die Ceramid-Spiegel tendenziell eher vermindern und die S1P-Spiegel erhöhen. Durch die Stimulation mit FB1 kam es sogar zu einer signifikanten Erhöhung der S1P-Spiegel. Es scheint, dass der Einfluss von FB1 und SKI II auf die Proliferation der Zellen unabhängig vom Sphingolipid-Stoffwechsel ist. Diese scheinen eher über andere Mechanismen zu wirken. Es könnte von Interesse sein, gerade diese Signalwege von SKI II im HCC weiter zu untersuchen, da SKI II bereits in Mausmodellen anderer Krebsarten vielversprechende Ergebnisse zeigte.
Mit der COLTRIMS-Technik können immer kompliziertere Reaktionen untersucht werden, dabei steigt aber die Zahl der zu detektierenden Reaktionsfragmente. Der Nachweis von Ionen ist üblicherweise gut möglich, da die entsprechenden Flugzeiten groß sind im Vergleich zur Totzeit der benutzten Detektoren. Elektronen hingegen sind sehr leicht und erreichen den Detektor innerhalb von wenigen 10 ns. Aktuelle Detektoren erlauben aber nur den Nachweis weniger Elektronen und es werden somit neue Detektoren benötigt, um alle Teilchen nachzuweisen. Ziel dieser Arbeit war es also, einen Detektor zu entwickeln, der dies erreicht.
Zu Beginn dieser Monografie wird die COLTRIMS-Technik vorgestellt. Die Experimente mit dieser Messmethode finden hauptsächlich mit einer Laufzeitanode statt. Diese stößt aber bei dem Nachweis von mehreren Teilchen an ihre Grenzen und manche Experimente können nur unvollständig analysiert werden.
Damit ein neuer Detektor entwickelt werden kann, muss erst verstanden werden, wie die zu detektierenden Teilchen/Signale entstehen und wie ihre Eigenschaften sind. Aus diesem Grund wird das Sekundärteilchen-erzeugende MCP ausführlich vorgestellt.
Weiterhin gibt diese Arbeit einen umfassenden Überblick über bereits realisierte Anoden. Verschiedene Repräsentanten der fünf Anodenarten (Flächen-, Streifen-/Pixel-, Laufzeit-, Kamera-, sowie Halbleiter-Anode) werden vorgestellt und bewertet.
Mit diesem Wissen konnten drei Ansätze für neue Anoden entwickelt, designt, produziert, getestet und bewertet werden. Alle neu entwickelten Anoden benutzen Leiterplatinen als Basis und werden in derselben Vakuumkammer getestet. Auch wenn die Detektionsprinzipien der drei getesteten Detektoren unterschiedlich sind, so verläuft die Auskopplung, Verarbeitung und Digitalisierung der Signale nach dem gleichen Schema. Außerdem wurden im Rahmen dieser Arbeit diverse Algorithmen entwickelt und programmiert, mit deren Hilfe die Signalauswertung und Positionsbestimmung erfolgt.
Das dritte Kapitel beschreibt die neu entwickelte Draht-Harfen-Anode. Dieser Detektor besteht aus vielen kurzen Drähten die parallel auf Rahmen aus Leiterplatinen gespannt werden. Aus dieser Anode ließ sich im Rahmen dieser Arbeit aber kein funktionsfähiger Detektor entwickeln und es wird empfohlen, diesen Ansatz nicht weiterzuverfolgen.
Im Kapitel über die Pixel-Anode mit Streifenauslese wird ein Ansatz vorgestellt, bei dem die Elektronenwolke von einem Muster aus leitenden Rauten absorbiert wird. Es wurde ein funktionsfähiger Detektor mit MAMA-Verschaltung realisiert. Die aktive Fläche ist mit einem Durchmesser von 50 mm aber zu klein. Eine große Variante der Anode ist in der realisierten Form aber nicht als Detektor geeignet.
Als dritter neuer Detektor wird die Streifen-Laufzeit-Anode beschrieben. Diese besteht aus einem rechteckigen Muster von Pixeln, die in einer Richtung über eine Zeitverzögerung ausgelesen werden. Dieser Ansatz ist sehr vielversprechend und es ließen sich nicht nur einzelne Teilchen nachweisen, sondern auch beim Aufbruch eines D2+-Moleküls konnten beide Fragmente gemessen werden.
Das letzte Kapitel befasst sich mit weiteren Konzepten, die als Detektor realisiert werden könnten.
This thesis discusses important questions of the beam dynamics in the proton-lead operation in the Large Hadron Collider (LHC) at CERN in Geneva. In two time blocks of several weeks in the years 2013 and 2016, proton-lead collisions have so far been successfully generated in the LHC and used by the experiments at the LHC. One reason for doubts regarding the successful operation in proton-lead configuration was the fact that the beams have to be accelerated with different revolution frequencies. There is long-range repulsion between the beams, since both beams share the beam chamber around the interaction points. Because of the different revolution frequencies, the positions of the interaction between the beams shift each revolution. This can lead to resonant excitation and to an increase in the transverse beam emittance, as was observed in the Relativistic Heavy-Ion Collider (RHIC). In this thesis, simulations for the LHC, RHIC and the High-Luminosity Large Hadron Collider (HL-LHC) are performed with a new model. The results for RHIC show relative growth rates of the emittances of the gold beam in gold-deuteron operation in RHIC from 0.1 %/s to 1.5 %/s. Growth rates of this magnitude were observed experimentally in RHIC. Simulations for the LHC show no significant increase of the emittance of the lead beam for different intensities of the counter-rotating beam. The simulation results confirm the measured stability of the beams in the LHC and the issue of strongly increasing emittances in RHIC is reproduced. Also, no significant increase of the emittance is predicted for the Future Circular Collider (FCC) and the HL-LHC.
Using a frequency-map analysis, this work verifies whether the interaction of the lead beam with the much smaller proton beam in the proton-lead operation of the LHC leads to diffusion within the lead beam. Experiences at HERA at DESY in Hamburg and at SppS at CERN have shown that the lifetime of the larger beam can rapidly decrease under certain circumstances. The results of the simulation show no chaotic dynamics near the beam centre of the lead beam. This result is supported by experimental observation.
A program code has been developed which calculates the beam evolution in the LHC by means of coupled differential equations. This study shows that the growth rates of the lead beam due to intra-beam scattering is overestimated and that particle bunches of the lead beam lose more intensity than assumed in the model. The analysis also shows that bunches colliding in a detector suffer additional losses that increase with decreasing crossing angle at the interaction point.
In this work, 2016 data from beam-loss monitors in combination with the luminosity and the loss rate of the beam intensity are used to determine the cross section of proton-lead collisions at the center-of-mass energy of 8.16 TeV. Beam-loss monitors that mainly detect beam losses that are not caused by the collision process itself are used to determine the total cross section via regression. An analysis of the data recorded in 2016 at the center-of-mass energy of 8.16 TeV resulted in a total cross section of σ=(2.32±0.01(stat.)±0.20(sys.)) b. This corresponds approximately to a hadronic cross section of σ(had)=(2.24±0.01(stat.)±0.21(sys.)) b. This value deviates only by 5.7 % from the theoretical value σ(had)=(2.12±0.01) b.
The simulation code for determining the beam evolution is also used to estimate the integrated luminosity of a future one-month run with proton-lead collisions. The result of the study shows that in the future the luminosity in the ATLAS and CMS experiments will increase from 15/nb per day in 2016 to 30/nb per day, which is a significant increase in terms of the performance. This operation, however, requires the use of the TCL collimators to protect the dispersion suppressors at ATLAS and CMS from collision fragments.
This work also gives an outlook on the expected luminosity production in proton-nucleus operation using ion species lighter than lead ions. For example, a change from proton-lead to proton-argon collisions would increase the integrated luminosity from monthly 0.8/nb to 9.4/nb in ATLAS and CMS. This is an increase of one order of magnitude and approximately a doubling of the integrated nucleon-nucleon luminosity. There may be a test operation with proton-oxygen collisions in 2023, which will last only a few days and will be operated with a low luminosity. The LHCf experiment (LHCb experiment) would achieve the desired integrated luminosity of 1.5/nb (2/nb) within 70h (35h) beam time.