Refine
Year of publication
- 2003 (202) (remove)
Document Type
- Doctoral Thesis (202) (remove)
Language
- German (168)
- English (33)
- Portuguese (1)
Has Fulltext
- yes (202)
Is part of the Bibliography
- no (202)
Keywords
- Deutschland (2)
- AFLPs (1)
- Algonquian (1)
- Alternative (1)
- Alvin ; Rechtfertigung <Philosophie> (1)
- Alzheimer Demenz (1)
- Aminoacetophenone (1)
- Amsterdam (1)
- Ananasgewächse (1)
- Antiproton (1)
Institute
- Medizin (50)
- Biochemie und Chemie (35)
- Biowissenschaften (29)
- Physik (23)
- Pharmazie (19)
- Geowissenschaften (7)
- Neuere Philologien (5)
- Gesellschaftswissenschaften (4)
- Mathematik (4)
- Sportwissenschaften (4)
Resistive Plate Chambers (RPCs) are gaseous parallel plate avalanche detectors that implement electrodes made from a material with a high volume resistivity between 10 high 7 and 10 high 12 omega cm. Large area RPCs with 2mm single gaps operated in avalanche mode provide above 98% efficiency and a time resolution of around 1 ns up to a flux of several kHz/cm high 2. These Trigger RPCs will, as an example, equip the muon detector system of the ATLAS experiment at CERN on an area of 3650 m high 2 and with 355.000 independent read out channels. Timing RPCs with a gas gap of 0.2 to 0.3mm are widely used in multi gap configurations and provide 99% efficiency and time resolution down to 50 ps. While their performance is comparable to existing scintillator-based Time-Of-Flight (TOF) technology, Timing RPCs feature a significantly, up to an order of magnitude, lower price per channel. They will for example equip the 176 m high 2 TOF barrel of the ALICE experiment at CERN with 160.000 independent read out cells. RPCs were originally operated in streamer mode providing large signals which simplifies readout electronics and gap uniformity requirements. However, high rate applications and detector aging issues made the operation in avalanche mode popular. This was also facilitated by the development of new highly quenching C2F4H2-based gas mixtures with small contents of SF6. While the physics of streamers is difficult to study, the avalanche mode opened the possibility for a detailed simulation of the detector physics processes in RPCs. Even though RPCs were introduced in the early eighties and have been (will be) used in experiments, there are still disagreements about the explanation of several aspects of the RPC performance. The high efficiency of single gap RPCs would require a large ionization density of the used gases, which according to some authors contradicts measurements. Even in the case of a large ionization density the gas gain has to be extremely large, in order to arrive at the observed RPC efficiency. This raises other questions: A very strong space charge effect is required to explain the observed small avalanche charges around 1 pC. Doubts have been raised whether an avalanche can progress under such extreme conditions without developing into a streamer. To overcome these difficulties, other processes, like the emission of an electron from the cathode, were suggested. Moreover, the shape of measured charge spectra of single gap RPCs differs largely from what is expected from the statistics of the primary ionization and the avalanche multiplication. In this thesis we discuss the detector physics processes of RPCs, from the primary ionization and the avalanche statistics to the signal induction and the read out electronics. We present Monte-Carlo simulation procedures that implement the described processes. While the fundament of the described model and some results were already published elsewhere [1], the subject of this thesis is the implementation of the space charge effect. We present analytic formulas for the electrostatic potential of a point charge in the gas gap of an RPC. These formulas were developed in collaboration with the University of Graz [2] and were published in [3, 4]. The simulation model presented in [1] is completed by the dynamic calculation of the space charge field using these formulas. Since the gas parameters like drift velocity and the Townsend and attachment coefficients depend on the electric field, they are calculated dynamically as well. The functional dependence of these parameters on the field is obtained with the simulation programs MAGBOLTZ and IMONTE. For the primary ionization parameters, we use the values that are predicted by the program HEED. While the described procedure only simulates the longitudinal avalanche development towards the anode of the RPC, we also present more dimensional models that allow a careful study of the transverse repulsive and attractive forces of the space charge fields, and of the consequences for the avalanche propagation. We shall show that the efficiencies of single gap Timing RPCs is indeed explained by the high primary ionization density (about 9.5 /cm as predicted by HEED) and a large effective Townsend coefficient (around 113 /mm as predicted by IMONTE). We show that the space charge field reaches the same magnitude as the applied electric field in avalanches at large gas gain. This strong space charge effect effectively suppresses large values for the avalanche charges. The shape of the simulated charge spectra is very similar to the measurements. Also the simulated average charges are close to the experimental results. RPCs are operated in a strong space charge regime over a large range of applied voltage, contrary to wire chambers. We apply only standard detector physics simulations to RPCs. The performance of Timing and Trigger RPCs is well reproduced by our simulations. The results concerning the space charge effect were presented and discussed at the 'RPC 2001' workshop [5] and on the '2002 NSS/MIC' conference [6].
In summary, the cooled heavy-ion beams of the ESR storage ring offer excellent experimental conditions for a precise study of the effects of QED in the groundstate of high-Z one- and two-electron ions. This has been demonstrated within the series of experiments conducted at the electron cooler device as well as at the gasjet target. In this work we have used a recently developed experimental approach to obtain the first direct measurement of the two-electron contributions to the ground state binding energy of helium-like uranium. By employing our method, all one-electron contributions to the binding energy such as finite-nuclear size corrections and the one-electron self energy cancel out completely. Note, this is a distinctive feature of this particular kind of QED test and is in contrast to all other tests of bound state QED for high-Z ions such as 1s Lamb shift (in one-electron systems), g-factor of bound electrons, or hyperfine splitting. Compared to former investigations conducted at the superEBIT in Livermore we could already substantially improve the statistical accuracy and extend studies to the higher-Z regime. Moreover, our result has reached a sensitivity on specific two-electron QED contributions. Our value agrees with the theoretical predictions within the experimental uncertainty. Similar to the superEBIT experiment possible sources of systematic errors are essentially eliminated and the final result is limited only by counting statistics. For the case of the 1s Lamb shift in hydrogen-like uranium, the achieved accuracy of +- 4.2 eV is a substantial improvement by a factor of 3 compared to the most precise value up to now [44] (see Fig. 5.6). Our result already provides a test of the first-order QED contributions at the 1.5% level and only a slight improvement is required in order to achieve a sensitivity to QED contributions beyond first-order SE and VP.
Die exzessive Bildung und Ablagerung von aggregiertem Amyloid beta-Peptid im Gehirn von Alzheimer Patienten wird allgemein als zentrales Ereignis im Rahmen des Neurodegenerationsprozesses der Alzheimer Demenz betrachtet. Der Amyloid-Stoffwechsel ist dabei in sehr vielfältiger Weise mit dem zellulären Cholesterol-Stoffwechsel verknüpft. Hohe Cholesterolspiegel in spezifischen Membrandomänen wie Lipid-Rafts forcieren sehr wahrscheinlich die zelluläre Produktion als auch die Fibrillogenese von Amyloid beta-Peptid. Umgekehrt schützt ein hoher Membrancholesterol-Gehalt aber auch vor den toxischen Effekten von aggregiertem Aß. Durch Modulation des Cholesterolgehalts von Hirnmembranen mit MßCD und seinen Cholesterol-Komplexverbindungen in vitro sowie mit Statinen in vivo konnten wir zeigen, daß beide Substanzklassen verschiedene membranäre Cholesterol-Pools beeinflussen, die gleichfalls an der Vermittlung zytotoxischer Amyloid- Effekte in unterschiedlicher Weise beteiligt sind. Wir konnten weiterhin erstmals nachweisen, daß sowohl hydrophile als auch lipophile Statine in vivo einen unmittelbaren Einfluß auf die zerebrale Membrancholesterol-Homöostase nehmen und dabei vermutlich membranäre Raft- Strukturen im exofacialen Membranblatt verändern, die favorisierte Orte der zellulären APP-Prozessierung bzw- Amyloidbildung sind. Aus diesem Wirkmechanismus leitet sich womöglich der für bestimmte Statine berichtete neuroprotektive Effekt bei AD in retrospektiven Humanstudien ab, der sich durch eine reine Cholesterolsenkung in spezifischen Bereichen des ZNS nicht erklären läßt. Ob einzelne Statine in ausreichender Konzentration direkt ins Gehirn vordringen und dort teilweise Isoprenoid-abhängige Signalkaskaden induzieren, oder ihre zentralen Effekte indirekt an der BHS vermitteln, ist unklar. Unsere Daten stützen nachhaltig die Hypothese, daß die sporadische Alzheimer Demenz vergleichbar der Niemann-Pick Typ C-Krankheit auf einer Dysregulation der zellulären Cholesterolverteilung beruht, die durch spezifische Risikofaktoren wie das Alter oder den apoE4-Genotyp gefördert wird. Substanzen, die gezielt in Mechanismen der fehlgesteuerten zellulären Lipid-Distribution und Kompartimentierung eingreifen, sind somit potentielle Wirkstoffe in der Therapie der Alzheimer Demenz.
Die Entwicklung der Renormierungsgruppen-Technik, die in ihrer feldtheoretischen Version auf Ideen von Stückelberg und Petermann und in der Festkörperphysik auf K.G. Wilson zurückgeht, hat wesentliche Einsichten in die Natur physikalischer Systeme geliefert. Insbesondere das Konzept der so genannten Universalitätsklassen erhellt, warum Systeme, die durch scheinbar sehr verschiedene Hamilton-Operatoren beschrieben werden, doch im Wesentlichen die selbe (Niederenergie-)Physik zeigen. Ein weiterer Grund für den Erfolg dieser Methode liegt darin begründet, dass sie in systematischer Weise unendlich viele Feynman-Diagramme aufsummiert und somit über konventionelle Störungstheorie hinaus geht. Dies spielt in der Festkörperphysik vor allem dann eine wichtige Rolle, wenn das vorliegende physikalische System stark korreliert ist. Entsprechend der Vielzahl von Anwendungsmöglichkeiten hat sich in den vergangenen Jahrzehnten eine große Bandbreite verschiedener Formulierungen der Renormierungsgruppen-Technik ergeben. Eine davon ist die sogenannte funktionale Renormierungsgruppe, die auf Wegner und Houghton zurück geht und die auch in der vorliegenden Arbeit benutzt und weiter entwickelt wurde. Wir haben hier insbesondere auf die Einbeziehung der wichtigen Reskalierungsschritte wertgelegt. Als erstes Anwendungsgebiet des neu entwickelten Formalismus wurden stark korrelierte Elektronen in einer Raumdimension ausgewählt und hier insbesondere ein Modell, das als Tomonaga-Luttinger-Modell (TLM) bezeichnet wird. Im TLM wechselwirken Elektronen mit einer strikt linearen Energiedispersion ausschließlich über so genannte Vorwärtsstreu-Prozesse. Aufgrund der Linearisierung der Energiedispersion nahe der Fermipunkte ergibt sich ein Modell, das z.B. mit Hilfe der so genannten Bosonisierungs-Technik exakt gelöst werden kann. Hauptziel der vorliegenden Arbeit ist es, die bekannte Spektralfunktion dieses Modells unter Verwendung des Renormierungsgruppen-Formalismus zu reproduzieren. Gegenüber der bisherigen Implementierung der Renormierungsgruppe, bei der lediglich der Fluss einer endlichen Anzahl von Kopplungskonstanten betrachtet wird, stellt die Berechnung des Flusses ganzer Korrelationsfunktionen eine enorme Erweiterung dar. Der Erfolg dieser Herangehensweise im TLM bestärkt die Hoffnung, dass es in Zukunft auch möglich sein wird, die Spektralfunktionen anderer Modelle mit dieser Methode zu berechnen, bei denen herkömmliche Techniken versagen.
Wir haben uns in dieser Arbeit der möglichen Produktion Schwarzer Löcher in hochenergetischen Teilchenkollisonen unter Annahme einer Raumzeit mit großen Extra-Dimensionen gewidmet. Die Produktionsraten, die bei einer neuen fundamentalen Skala im Bereich Mf ~ 1 TeV zu erwarten sind, liegen für den LHC in der Größenordnung von ~ 10 hoch 8 Schwarzen Löchern pro Jahr. Diese hohe Anzahl begründet das Interesse an den Eigenschaften der produzierten Schwarzen Löchern und wirft die Frage auf, wie diese Objekte beobachtet werden können. Bei der Untersuchung der Eigenschaften dieser Schwarzen Löcher haben wir festgestellt, dass das Entstehen Schwarzer Löcher ab einer c.o.m.-Energie im Bereich der neuen Planck-Masse zu einer raschen Unterdrückung hochenergetischer Jets, wie sie in pp-Kollisionen entstehen, führt. Dies ist ein klares Signal und leicht zu beobachten. Unter Ansetzen des Mikrokanonischen Ensembles haben wir die Zerfallsrate der Schwarzen Löcher und ihre Lebensdauer berechnet. Es zeigt sich, dass diese Lebensdauer hoch genug ist, um ein zeitlich deutlich verzögertes Signal zu erhalten. Nimmt man an, dass die statistische Mechanik bis zur Größenordung Mf gülig bleibt, so gelangen die Schwarzen Löcher im Zuge ihrer Verdunstung in einen quasi-stabilen Zustand und ein Rest verbleibt. Die Lebenszeit ist von der Anzahl der Dimensionen abhängig und lässt so Rückschlüsse auf diesen Parameter zu. Im Falle (Mf ~ TeV, d > 5) liegt sie für Energien von ~ 10 TeV in der Größenordung 100 fm/c. Eine geometrische Quantisierung der Strahlung legt außerdem nahe, dass die Schwarzen Löcher nicht restlos verdampfen können, sondern ein stabiler Überrest verbleibt. Diese Ergebnisse sind in [202, 203, 205] veröffentlicht worden.
Die Mehrzahl der akuten B-Zell Leukämien (B-ALL) im Kindesalter kann heutzutage geheilt werden (ca. 80%). Es gibt jedoch eine Untergruppe, die sog. Hochrisiko-Leukämien, der ein anderer Pathomechanismus zu Grude liegt und für die keine effektive Therapie zur Verfügung steht. Diese Form tritt fast ausschliesslich bei Kleinkindern im ersten Lebensjahr und bei älteren Patienten als Sekundärleukämie nach Chemotherapie auf. Diese akuten Hochrisiko-Leukämien sind zu 80% mit Translokationen des MLL Gens, Chromosom 11, Bande q23, assoziiert. Die reziproke Translokation t(4;11), bei der das MLL Gen mit dem AF-4 Gen fusioniert wird, hat die Expression der zwei funktionellen Derivatproteine MLL.AF-4 und AF-4.MLL und gleichzeitig eine Dosisreduktion des nativen MLL Proteins um 50% zur Folge. Das Zusammenspiel dieser Fakoren scheint die Grundvoraussetzung für die pathologische klonale Expansion leukämischer Blasten zu sein. Aus Untersuchungen in Drosophila melanogaster und im Maussystem ist bereits bekannt, dass das Wildtyp MLL Protein eine essentielle Funktion in der Steuerung von Genexpression durch Histon- und Chromatinregulation ausübt. Daraus stellte sich als Gegenstand dieser Arbeit die Frage nach der bislang überwiegend unbekannten Wildtyp-Funktion des MLL Proteins, und inwieweit das native Expressionsmuster einer Zelle durch die MLL Dosisreduktion beeinflusst, bzw. verändert wird. Zunächst wurden die MLL Targetgene identifiziert, und zwar anhand von je zwei DNA-Microchip-Hybridisierungen mit cRNA aus den MLL+/+ und MLL-/- Fibroblasten-Zelllinien. Der Expressionsvergleich dieser Datensätze ergab insgesamt 197 differentiell exprimierte Gene, die sich in der Expressionsstärke um mind. den 2,5-fachen Wert unterscheiden. Davon wurden 136 Gene bei völliger Abwesenheit des MLL Proteins, im Vergleich zum Normalzustand der Wildtyp-Zellen, um mind. den 2,5-fachen Wert transkriptionell aktiviert, die übrigen 61 Targetgene um mind. diese Stärke transkriptionell deaktiviert. Die Entdeckung dieser transkriptionell reprimierenden Eigenschaften des MLL Proteins, von dem bislang ausschliesslich aktivierende und transkriptionsaufrechterhaltende Eigenschaften bekannt waren, ist eines der wesentlichen Ergebnisse der vorliegenden Arbeit. Ein Teil der, durch die Abwesenheit des MLL Proteins hochregulierten 136 Gene ist bereits als Tumormarker bekannt oder an folgenden onkogenen Mechanismen beteiligt: Proliferation durch Fehlsteuerung des Zellzyklus mit gesteigerter Nukleotid-Biosynthese, erhöhte Migrationsaktivität durch veränderte extrazelluläre Matrix mit der Folge von Metastasierung/Organinfiltration, erhöhter Schutz vor proteolytischem Abbau nukleärer (Onko-) Proteine, und der Generation von Spleiss-Varianten mit z.T. negativem Einfluss auf essentielle Differenzierungswege. Zu diesen, in der Summe das Krebsrisiko erhöhenden Effekten, kommt noch hinzu, dass eine Gegenregulation durch MLL induzierte Expression von Tumorsuppressoren (verschiedene Zellzyklus- Inhibitoren) fehlt. Da bei Leukämie-Zellen die MLL Proteindosis reduziert ist, liegt der Schluss nahe, den oben genannten 136 identifizierten Genen eine mögliche direkte Beteiligung an der Leukämogenese beizumessen. Die meisten der 61 Gene, die durch das MLL Protein transkriptionell aktiviert wurden, kodieren für Faktoren, die zum größten Teil in embryonale Differenzierungsprozesse involviert sind. Dabei spielt die Entwicklung von meso- und ektodermalen Geweben eine besondere Rolle. Das MLL Protein ist somit für die Organogenese von Herz, Leber, Nieren, sensorischen Organen, hämatopoietischen Zellen und ebenso für Knochen und Muskeln essentiell. Die gewonnenen Daten wurden durch verschiedene Experimente (subtraktive Klonierung und RT-PCR) verifiziert und die wenigen, bereits publizierten MLL Targetgene konnten durch diese Arbeit bestätigt werden. Neben den Targetgenen des MLL Proteins sollten auch diejenigen der beiden Derivatproteine MLL.AF-4 und AF-4.MLL identifiziert werden. MLL+/+ Zellen wurden mit den humanen Derivatkonstrukten stabil transfiziert und im Vergleich zur Leervektor-Kontrolle per DNA-Microchips analysiert. Wieder Erwarten wurden keine unterschiedlichen Transkriptionsmuster erhalten. Daraufhin wurden Komplementationsexperimente zur Eignungsüberprüfung des Testsystems durchgeführt. Es stellte sich heraus, dass das humane MLL Expressionskonstrukt die MLL-/- Zellen funktionell nicht komplementieren konnte. Dafür gibt es verschiedene Erklärungsansätze, wobei jedoch die Hypothese, dass das "transkriptionelle Gedächtnis" in den murinen embryonalen Fibroblasten (Entwicklungsstatus Tag 10,5 p.c.), bereits stabil etabliert und nur noch marginal veränderbar ist, die Wahrscheinlichste ist. Sollte sich herausstellen, dass die epigenetische Programmierung der Zellen verantwortlich für die hier erhaltenen Ergebnisse ist, hätte das einen dramatischen Einfluss auf unser Verständnis vom Leukämie-Pathomechanismus. Es würde nämlich bedeuten, dass MLL und davon abgeleitete reziproke Derivatproteine nur in einem engen Zeitfenster Einfluss auf Genexpressionsmuster haben und nach einen "hit and run" Mechanismus die Leukämie auslösen.
In der vorliegenden Arbeit wurden verschiedene Techniken entwickelt, um die Polo-Like Kinase 1 (PLK 1), eine Kinase aus der Familie der hochkonservierten Serin/Threonin-Kinasen in ihrer Funktion zu hemmen. Alle Zellen des Säugetier-Organismus benötigen für ihre Zellteilung PLK1. PLK1 wird vor allem in der G2/M-Phase des Zellzyklus exprimiert und wird in malignen Geweben, verglichen mit normalem, primärem Gewebe überexprimiert. Hier liegt ein differentieller Unterschied zwischen normalem, primärem Gewebe und malignem Tumorgewebe vor, denn in normalem Gewebe sind nur sehr niedrige PLKI -Spiegel vorhanden, so dass eine Krebstherapie, die über die Hemmung von PLKI wirkt, keine bzw. geringe Auswirkungen auf das normale gesunde Gewebe haben sollte. Insgesamt bietet sich PLKI daher als interessantes Ziel für eine molekularbiologisch basierte Krebstherapie an. Die im Rahmen dieser Arbeit angewandten Techniken waren die Antisense-Technologie und die RNA-Interferenz (mittels synthetischer small interfering RNAs [siRNAs]) und rekombinanter Plasmide zur Expression von hairpin-RNAs [shRNAs]). Antisense-Oligonukleotide (ASOs) sind schon seit ca. einem Jahrzehnt im Einsatz, um verschiedene Zellzykluselemente zu hemmen, auch bereits in verschiedenen Phasen der klinischen Prüfung, doch mit PLKI ist erstmals die Hemmung eines späten Elements der Signaltransduktionskaskade, das essentiell für die Mitose ist, gelungen. Hierbei sind die Auswirkungen auf die Zellen wesentlich stärker als bei weiter am Anfang der Signaltransduktionskaskade gelegenen Elementen, bei denen die Zelle noch die Möglichkeit hat, die Hemmung durch alternative parallele Signalwege zu umgehen. siRNAs bzw. shRNA-exprimierende Plasmide sind erstmals zum Einsatz gekommen, um in Mammalia-Zellen die Krebszellproliferation bzw. das Tumorwachstum im humanen Krebs-Xenograft-Modell durch Hemmung eines endogenen Gens zu hemmen. Bei Anwendung der RNA-lnterferenz konnte darüber hinaus ein für die Anwendung am Menschen wichtiger differentieller Unterschied zwischen primären Zellen und Krebszelllinien in vitro beobachtet werden, denn für die Hemmung der Proliferation und für die Reduktion der PLK1-mRNA und des PLK1-Proteins in primären humanen Mammaepithelzellen war eine 350-fach höhere siRNA-Konzentration nötig als in den Krebszelllinien. Die Konzentrationen, mit denen die Krebszellproliferation signifikant gehemmt werden konnte, hatten auf die primären Zellen überhaupt keine Auswirkungen, womit ein Meilenstein auf dem Weg zu einer spezifischen Krebstherapie erreicht werden konnte. Dabei konnten mit allen drei eingesetzten Techniken die PLK1-mRNA- und -Protein-Expression in vitro und die Zellproliferation in vitro gehemmt werden. Das Tumorwachstum konnte mit ASOs und mit den rekombinanten Plasmiden in vivo in Krebs-Xenograft-Modellen an Nacktmäusen erfolgreich gehemmt werden. Mit U6-Promoter-basiert exprimierten shRNAs konnten im humanen Xenograft-Modell auch die Expression der PLK1-mRNA und das PLK 1-Protein reduziert werden. Auf diese Weise kam es zu einem starken Antitumor-Effekt in vivo, der nach Behandlung mit den Expressionsplasmiden vier Wochen über das Ende der Therapie hinaus anhielt. Ausgehend von diesen Daten sollte für beide Techniken - sowohl für die Antisense-Strategie als auch für die RNA-Interferenz mit dem Target PLK1 - über Toxizitätsuntersuchungen und Ausweitung auf weitere Tumormodelle der Weg in die präklinische Phase eingeschlagen werden, um möglichst schnell die Grundlagen für einen Heilversuch oder eine klinische Studie zu schaffen.
Es wurde für Protonen- und Deuteronenbeschleuniger unter Extrembedingungen (hoher Ionenstrom, Dauerstrichbetrieb, Niedrigenergieabschnitt) ein Vergleich zwischen der konventionellen RFQ-Alvarez-DTL-Kombination und einer erstmals am IAP für diese Zwecke entwickelten RFQ-H-DTL-kombination durchgeführt. Insbesondere die Auslegung der Teilchendynamik von HF-Driftröhrenlinearbeschleunigern und RFQ's für leichte Ionen unter Miteinbeziehung der Raumladung und der Forderung nach Dauerstrichbetrieb sind Thema der vorliegenden Arbeit. Die vorgestellten Beschleuniger müssen extrem hohen Anforderungen an Transmission (Stromverlustrate << 3 µ A/m nach dem RFQ), Stabilität (stetige Strahldynamik bei Strahlfehlanpassung und Berücksichtigung von mechanischen und optischen Toleranzen), Anlagensicherheit ("Hands-on-Kriterium") und -zuverlässigkeit (Anlagenverfügbarkeit > 80 %) bei hoher HF-Effizienz (optimierte Shuntimpedanzen, Laufzeitfaktoren und Oberflächenstromdichten) genügen. Es wurden exemplarisch im Rahmen von zwei aktuellen Hochstromprojekten mit Dauerstrichbetrieb teilchendynamische DTL-Entwürfe für den mittleren Energiebereich (0.1 = ß = 0.34) durchgeführt: einmal für das ADS/XADS Projekt (Hier: 40 mA, 350/700 MHz 24 MW, Protonen, CW) und als extremes Beispiel das IFMIF Projekt (125 mA, 175 MHz, 5 MW, Deuteronen, CW). Da IFMIF hinsichtlich Transmissionseffizienz und Strahlstrom in Verbindung mit einem 100 %-Tastverhältnis wohl einzigartig ist, mussten besonders intensive Anstrengungen für den Test der Robustheit des teilchendynamische Entwurfs der DTL-Strukturen unternommen werden. Hierzu wurde der gesamte Injektorpart vom Eingang des Referenz Four-Vane-RFQ bei 0.1 MeV bis zum Ausgang des DTL bei 40 MeV als ganzes simuliert, unter Einbeziehung von optischen, HF- und mechanischen Toleranzen. Diese Rechnungen machten deutlich, dass die Einbringung einer kompakten Strahltransportstrecke (MEBT) zwischen RFQ und DTL notwendig ist, um den Strahl transversal und longitudinal ohne Teilchenverluste an den nachfolgenden DTL anzupassen. Man gewinnt dadurch auch zusätzliche Möglichkeiten für Strahljustierung und -diagnose. Infolgedessen gehört ein MEBT mittlerweile zum Referenz-Design, welches einen 175 MHz Four-Vane-RFQ als Vorbeschleuniger vorsieht und nach dem MEBT einen 175 MHz Alvarez-DTL mit FoDo-Fokussierschema. Die Designkriterien für IFMIF gelten uneingeschränkt auch für das ADS/XADS Projekt und infolgedessen wurde ebenfalls erstmals eine Auslegung des Mittelenergieabschnitts des ADS/XADS-Beschleunigers, der unmittelbar nach dem 350 MHz RFQ bei 5 MeV anfängt und bis ~ 100 MeV reicht, mit der neuen supraleitende CH-Struktur unternommen. Der Hochenergiebereich von 100 MeV bis 600 MeV wird im Referenzentwurf mit den bereits bewährten supraleitenden elliptischen Kavitäten mit einer Resonanzfrequenz von 700 MHz abgedeckt [ADS]. Die umfangreichen Untersuchungen inklusive Toleranzabschätzungen ergaben, dass eine Kette von zehn supraleitenden CH-Resonatoren mit Zwischentankfokussierung (Ausnahme das Modul 1) für diese Anwendung bestens geeignet ist. Des weiteren ergab sich, dass ein Frequenzsprung auf 700 MHz nach dem 6-ten CH-Modul bei einer Energie von ~ 56 MeV die Beschleunigungs- und HF-Effizienz erhöht. Außerdem wird dadurch der Strahl ideal an den Hochenergieabschnitt angepasst. Im Rahmen dieser Arbeit wurden neue Driftröhrenlinearbeschleunigerstrukturen vorgestellt (normal leitender IH-DTL, supraleitender CH-DTL), die für bis zu 10 MW Strahlleistung, 125 mA Strahlstrom und höchsten Tastverhältnissen geeignet sind. Ferner konnte durch geschickte Wahl der Strukturparameter und Arbeitspunkte eine gute Teilchendynamik mit einem moderaten Emittanzwachstum erzielt werden: Strahltransport und -beschleunigung ohne Teilchenverluste, starke transversale und longitudinale Fokussierung, große Aperturfaktoren und höchste HF-Effizienz sind gleichzeitig erreichbar. Somit stellen die neuen H-Moden Driftföhrenbeschleuniger vor allen Dingen in der supraleitenden Ausführung (CH-DTL) eine tragfähige Basis für alle weiteren geplanten Hochintensitätsbeschleunigeranlagen dar.
Die Stat-Proteine (signal transducers and activators of transcription) bilden eine Familie von 7 verschiedenen Signaltranskriptionsfaktoren, die latent im Zytoplasma vorliegen. Sie spielen eine wichtige Rolle bei der Übertragung von zytokin- und wachstumsfaktorvermittelten Signalen von der Zellmembran in den Nukleus. Die Aktivierung der Stat-Proteine ist ein transienter und streng regulierter Signaltransduktionsprozess, dessen Deregulation eine Rolle bei der Krebsentstehung spielt. In verschiedenen Tumorarten werden vor allem konstitutiv aktive Stat3- und Stat5-Proteine gefunden. Stat5 ist das Hauptsignalprotein bei der prolaktinvermittelten Signaltransduktion im Brustgewebe. Neben Stat3 und Stat1 ist vor allem Stat5A maßgeblich an der Entwicklung und Differenzierung (Laktation) des Brustgewebes beteiligt. Bei der Entstehung von Brusttumoren scheint der Prolaktin/JAK/Stat5-Signalweg ebenfalls involviert zu sein. Die Funktion, die Stat5 dabei hat, ist jedoch weitgehend ungeklärt. Eine gezielte, nur Stat5-abhängige Regulation des Zellsystems ist nur schwer zu untersuchen, da Prolaktin noch eine Reihe weiterer Signalkaskaden aktiviert. In dieser Arbeit wird daher mit Hilfe einer konstitutiv aktiven Mutante die Funktion von Stat5A in der Regulation der Proliferation, Migration, Differenzierung und Apoptose, deren Fehlregulation die Transformation zu Tumorzellen bestimmt, untersucht. Es kann gezeigt werden, dass Stat5 multiple Aufgaben in Brustkrebs- und -epithelzellen übernimmt. Einige dieser Funktionen lassen sich mit der Wirkungsweise von Prolaktin korrelieren. In Tumorzellen hat nicht nur Prolaktin, sondern auch die konstitutiv aktive Stat5A-Mutante Einfluss auf die Proliferation und den Zellzyklus. Die Überexpression dieser Mutante führt, ebenso wie die Prolaktinstimulation, zu einer Erhöhung der Proliferationsrate, die im Falle von Prolaktin Cyclin D1 vermittelt ist. Für die konstitutiv aktive Stat5A-Mutante kann keine Regulation einiger am Zellzyklus beteiligter Proteine festgestellt werden. Die Untersuchungen der Zellmobilität dienen als Marker für das Metastasierungspotential. Sowohl in Brusttumor- als auch in -epithelzellen ist die Fähigkeit zur Migration in Zellen mit konstitutiv aktivem Stat5A, oder nach Prolaktinstimulation erhöht. Für die Tumorentstehung zeichnet sich demnach folgendes Bild: Prolaktin und konstitutiv aktives Stat5A erhöhen sowohl die Proliferations- als auch die Migrationsrate von Brustkrebszellen. Zusammenfassung 2 In der nicht transformierten Brustepithelzelllinie HC11 hat die konstitutiv aktive Stat5AMutante eine andere Funktion. Sie wirkt nicht als Mitogen, wie in Tumorzelllinien, sondern ist in Differenzierungsvorgänge involviert. Die konstitutiv aktive Mutante ist in der Lage, die Signaltransduktion in vitro durch Prolaktin und Dexamethason zu ersetzen und unabhängig davon, die ß-Kaseinbildung zu induzieren. In vivo zeigt sich, dass konstitutiv aktives Stat5A in die Kontrolle der Differenzierung des alveolaren Brustepithels involviert ist. Die alveolaren Strukturen bilden sich schon im jungfräulichen Gewebe und nicht erst in trächtigen Mäusen aus. Eine Überexpression der konstitutiv aktiven Stat5A-Mutante führt in HC11 Zellen jedoch nicht nur zu einer Differenzierung der Zellen, sondern ebenfalls zu einem Anstieg der Apoptoserate. Die konstitutiv aktive Stat5A-Mutante induziert die Expression der negativen Regulatoren des JAK/Stat-Signalweges SOCS1 und SOCS3. Diese blockieren die Janus-Kinase 2, welches wiederum eine Deaktivierung von Stat3 zu Folge hat. Als potentieller molekularer Mechanismus für die Förderung der Apoptose kann eine Inhibierung der Bcl-XL-Expression gezeigt werden. Die Ergebnisse zeigen, das Stat5 unterschiedliche Funktionen sowohl bei der Proliferation und Apoptose als auch bei der Differenzierung von Brustepithelzellen hat. Die Funktion von Stat5 auf das Zellgeschehen scheint vom zellulären Kontext und bereits aktivierten Signalwegen abzuhängen.
Die Entwicklung eines Impfstoffes gegen das humane Immundefizienz Virus (HIV-1) erfordert die Aktivierung einer humoralen und zellvermittelten Immunantwort. Diese kann durch lebende attenuierte Viren oder DNA Impfstoffe am besten induziert werden. Im Mittelpunkt der Impfstoffentwicklung steht das HIV-1 Hüllglykoprotein (Env), da es den initialen Kontakt mit der CD4-positiven Zielzelle herstellt. Die hohe Mutationsrate des HIV-1 führt zu Veränderungen des Hüllproteins und erzwingt die Ableitung konservierter Bereiche der nativen, oligomeren Konformation des Proteins. Im ersten Teil dieser Arbeit wurden CD4-gp120 Fusionsproteine hergestellt, die Konformationsänderungen des Hüllglykoproteins nachahmen sollten, wie sie beim Eintritt von HIV in die Wirtszelle entstehen. Eine inhibitorische Wirkung dieser Proteine bei der Infektion von CD4-exprimierenden Zellen, sowie die Bildung neutralisierender Antikörper in immunisierten transgenen CD4+ Mäusen konnten nicht nachgewiesen werden. Der zweite Teil dieser Arbeit beschäftigt sich mit der Entstehung und Charakterisierung replikationskompetenter Viren zur Expression des oligomeren HIV-1 Hüllglykoproteins. Hierfür wurden murine Leukämie Viren (MLV) mit einer verkürzten Variante des HIV-1 Hüllglykoproteins pseudotypisiert. Sämtliche akzessorischen Gene des HIV-1 waren nicht enthalten. Die regulatorische Funktion des akzessorischen Proteins Rev wurde entweder durch die Verwendung eines Introns, durch das posttranskriptionelle Element des "woodchuck hepatitis virus" (WPRE) oder durch Benutzung eines kodonveränderten Hüllproteins ersetzt. Folglich wurden drei unterschiedliche MLV/HIV-1 Pseudotypviren konstruiert. Alle MLV/HIV-1 Pseudotypviren konnten nach Transfektion in 293 T Zellen synthetisiert werden und waren in der Lage CD4- und CXCR4-positive Zielzellen zu infizieren. Die Effizienz der zweiten Infektion war für die Proviren mit WPRE Element und synthetischen Hüllprotein reduziert, obwohl die mRNA-Synthese korrekt erfolgte und die Funktion des akzessorischen Elements Rev erfolgreich ersetzt werden konnte. Das Intron enthaltende MLV/HIV-1 pseudotypisierte Virus zeigte kaum mRNA-Produktion, folglich konnte keine zweite Infektion stattfinden. Replikationskompetente MLV/HIV-1 Pseudotypviren konnten mit keinem Konstrukt erzeugt werden, da Viruspartikel, die aus infizierten Zellen freigesetzt wurden, kaum Hüllprotein enthielten. Verschiedene Faktoren könnten hierbei eine Rolle spielen, unter anderem das zytoplasmatisch auf 7 Aminosäuren verkürzte HIV-1 Hüllglykoprotein selbst, was nur in MT-4 Zellen eine HIV-Replikation erlaubt. Folglich sind für die Herstellung replikationskompetenter MLV/HIV-1 Pseudotypviren Veränderungen am CTerminus des Hüllglykoproteins unausweichlich.
Fest ins Genom integrierte und durch Vererbung (vertikal) weitergegebene endogene Retroviren stellen ein Risiko im Rahmen einer therapeutischen Übertragung von tierischen Zellen, Geweben oder Organen auf den Menschen dar. Bei Verwendung der als Spender bevorzugten Schweine sind zwei Klassen von C-Typ-Retroviren (PERV) bekannt, die zumindest in vitro humane Zellen infizieren können. Deshalb sind eine molekulare Kenntnis und eine genetische bzw. immunologische Kontrolle dieser Viren zur Vermeidung einer potentiellen Infektion von Xenotranplantat-empfängern wünschenswert. Die Analyse einer genomischen Bibliothek des "large white"-Schweins führte zur Charakterisierung von vier nativen proviralen Vollängensequenzen, von denen drei in der Lage sind, auf humanen Zellen zu replizieren, während ein Provirus zwei Stop- Mutationen im Polymerase-Gen trägt. Die Klone PERV-A(Bac-130A12), PERVA( Bac-151B10) und PERV-A(Bac-463H12) gehören zur Klasse A, der Klon PERVB( Bac-192B9) wird der Klasse B zugeordnet. Alle vier Klone weisen hohe Homologien zu bereits beschriebenen Sequenzen (Czauderna et al., 2000; Krach et al., 2001) auf, sind mit diesen jedoch nicht identisch. Die Bestimmung der flankierenden genomischen Sequenzen ermöglicht den spezifischen Nachweis der Proviren in genomischer DNA und zeigt, daß die vom "large white"-Schwein abgeleiteten Sequenzen zur Untersuchung verschiedener Schweinerassen geeignet sind. Desweiteren konnte gezeigt werden, daß die im Klon PERV-B(Bac-192B9) beobachteten Punktmutationen in einigen der untersuchten Individuen revertiert sind. Die Untersuchung von 86 einzelnen Proben aus 5 verschiedenen Rassen zeigt eine sehr heterogene Verteilung der PERV und würde damit eine Züchtung (in Bezug auf replikationskompetente Viren) PERV-freier Schweine ermöglichen. Dies erübrigt sich aber durch die Tatsache, das Miniaturschweine des d/d-Haplotyps für die getesteten Proviren bereits negativ sind. Faßt man die vier hier und die in der Literatur beschriebenen Proviren (Czauderna et al., 2000; Krach et al., 2001) zusammen, scheinen von den etwa 30-50 Integrationsorten im porcinen Genom (LeTissier et al., 1997; Patience et al., 1997) zwischen sechs und zehn replikations-kompetente Proviren zu enthalten. Für den Fall, daß bei einer XTx Partikel freigesetzt werden, geben die Versuche mit den Pseudotypvektoren Hinweise darauf, daß eine Infektion schon nach wenigen Minuten stattfinden kann und damit auch nach einer raschen Entfernung des Organs persistieren könnte. Diese freigesetzten Partikel lassen sich aber durch Antikörper neutralisieren, so daß es möglich erscheint, Patienten sowie deren Ärzte und Kontaktpersonen zu impfen, um einer potentiellen Infektion vorzubeugen. Darüber hinaus scheinen die phylogenetisch jüngeren Viren mit der "repeat"-losen LTR die Fähigkeit verloren zu haben, xenotrop Zellen zu infizieren, da Proviren mit dieser LTR-Struktur weder aus einer 293-PERV-PK-Bibliothek isoliert werden konnten (Czauderna et al., 2000), noch konnten solche Elemente in genomischer DNA dieser Zellinie nachgewiesen werden. Mit der Untersuchung des Infektionsverhaltens von PERV und durch die Möglichkeit, in der XTx verwendete Schweine auf die Präsenz replikations-kompetenter PERV hin zu testen und die chromosomal lokalisierten Proviren eventuell durch Züchtung zu entfernen, leistet die vorliegende Arbeit einen Beitrag dazu, zukünftige Xenotransplantationen in virologischer Hinsicht sicherer zu machen.
Rückblick Die Motivation für diese Arbeit ergibt sich aus den immer neuen Fragestellungen der modernen Wissenschaft. Deren Beantwortung hängt wesentlich von den geeigneten Messapparaturen ab, die Einblicke in physikalische Prozesse erlauben. Durch effektivere und höher auflösende Detektoren werden präzisere, schnellere und schonendere Messungen möglich. Die Zielsetzung dieser Arbeit über den Hochdruck-Gas-Szintillations-Proportionalzähler ist es, einen Detektor zu entwickeln, mit dem hochenergetische Photonen praktisch vollständig vermessen werden können. Dazu gehören: - die Photonenenergie im Bereich von 5 bis 500 keV, - die Richtung der einfallenden Strahlung (bzw. der Auftreffort auf dem Detektor), - der Absorptionszeitpunkt und - die Diskriminierung von Gamma-induziertem Untergrund. Potenzielle Einsatzgebiete des Detektors sind im wesentlichen medizinische, atom- und astrophysikalische Anwendungen. Die vielversprechenden Eigenschaften dieses Detektorkonzeptes, gegenüber herkömmlichen Gasdetektoren, ergeben sich aus den Mechanismen der primären und der sekundären Gasszintillation. Daraus folgen der überlegene Verstärkungsprozess und das schnelle Zeitsignal. Als Grundlage für die in dieser Arbeit diskutierten Ergebnisse dienen die zuvor von Dangendorf und Bräuning entwickelten Konzepte und die von ihnen gebauten Prototypen. Sie sind geeignet für kleine und mittlere Photonenenergien und liefern eine gute Energie- und Zeitauflösung. Die Tests der Ortsauslese mit abbildenden, optischen Systemen zeigten erste Resultate. Ausgehend von diesen bestehenden Entwicklungen war die Motivation der Arbeit, den Aufbau an die gewünschten Anforderungen anzupassen. Für die höheren Photonenenergien werden ein dichterer Absorber, also ein höherer Gasdruck und damit verbunden neue Auslesekonzepte benötigt. Problem Ein zentrales Problem, das aufgrund dieser neuen Anforderungen auftritt, ist der Druckunterschied zwischen dem Hochdruck-Szintillator und der bei Niederdruck oder im Vakuum betriebenen UV-Auslese. Die dadurch bedingten Kräfte machen entweder besondere Stützstrukturen oder stabile - und dadurch dicke - Fenster erforderlich. In beiden Fällen geht ein Teil des Signals verloren und die Detektorauflösung nimmt ab. Es handelt sich dabei jedoch nicht um prinzipielle Probleme. Die Schwierigkeiten sind rein technischer Natur. Deshalb wurde intensiv weiter nach neuen Konzepten und Lösungsansätzen gesucht, die die Vorteile dieser überlegenen physikalischen Prozesse ausnutzen können. Lösungsansatz Das konkrete Ziel - bzw. die Aufgabenstellung - dieser Arbeit war, mit neuen Technologien, und dabei vor allem mit einem neuen Mikrostruktur-Elektroden-System, bislang bestehende technische Hürden zu überwinden (Kapitel 3). Durch die Möglichkeit, einen in das Hochdruckvolumen integrierten Photonendetektor zu bauen, werden viele der Stabilitätsprobleme gelöst. Mit der großflächigen Auslese des Szintillationslichts direkt dort, wo es entsteht, werden die Transmissionsverluste in Fenstern vermieden. Es gibt damit nur kleine raumwinkelabhängige Effekte und es wird nur ein Gasvolumen und damit kein zusätzliches System zum Evakuieren, Zirkulieren und Reinigen benötigt. Durch die Trennung der Energie- und der Ortsinformation und deren separate Auslese wird zwar die Komplexität des Detektors erhöht, die Teilsysteme können jedoch unabhängig für die jeweiligen Anforderungen optimiert werden. Grundlagen Im Rahmen dieser Arbeit wurden bereits existierende Erfahrungen aufgegriffen und in deren logischer Fortsetzung, ein, in das Szintillatorvolumen integrierter, UV-Photonendetektor entwickelt. Zunächst musste mit einer umfangreichen Recherche ermittelt werden, welche Anforderungen an einen integrierten Photonendetektor bestehen und wie ein solches System in den Aufbau eingebunden werden kann. Mit dem GEM, der sich schon in diversen anderen Gasdetektoranwendungen als universell einsetzbarer Verstärker bewährt hatte, war ein potenzielles Mikrostuktur-Elektroden-System für unsere Anwendung gefunden. Um die Einsatztauglichkeit dieser Mikrostrukturen für die neuen Applikationen zu analysieren, wurden sie im Standard-Design, unter vielen verschiedenen Betriebsparametern getestet. Dabei wurden wertvolle Erfahrungen im Umgang mit den Mikrostrukturen gesammelt. Die GEMs wurden in den typischen Detektorgasen, bei verschieden Drücken, elektrischen Spannungen und Feld-stärken studiert. Dabei wurden die Chancen, aber auch - vor allem aufgrund elektrischer Überschläge und Instabilitäten - die Grenzen des damit Erreichbaren, aufgezeigt. Mit der Herstellung der speziell für diese Anwendung entwickelten GEMs wurde die Grundlage für den stabilen Betrieb des Detektors geschaffen. Simulationsrechnungen In Kooperation mit einer italienischen Gruppe vom INFN in Cagliari haben wir, mit dem Detektor-Simulations-Programm Garfield, Berechnungen durchgeführt (Kapitel 4). Damit konnte schon vor der technischen Realisierung ein Überblick über die Betriebsbedingungen eines mehrstufigen und komplexen Systems gewonnen werden. Dazu zählen die messtechnisch erfassbaren Größen, wie z.B. die mittlere Gasverstärkung und Diffusion. Daneben konnten aber auch die Prozesse im Kleinen studiert werden. Von besonderem Interesse für die Funktion des Detektors ist dabei der Verlauf der Feldstärke in den Poren der Mikrostrukturen und den umliegenden Regionen. Dessen räumlicher Verlauf in Kombination mit den jeweiligen Gasdaten bestimmen die Elektronentransportparameter, die Gasverstärkung, die Diffusion und die Effizienz. In den Xenon-Szintillator integrierter UV-Photonen-Detektor Der UV-Photonendetektor konnte in zwei Varianten erfolgreich in ein Volumen mit dem Xenon-Gas-Szintillator integriert werden. Die Verbindung der CsI-Photokathode mit dem Elektronenverstärker wurde dabei zum einen als semitransparente dünne Schicht auf einer Quarzglasplatte vor der GEM-Folie und zum anderen als opake Variante auf der Frontseite des GEM realisiert. Bei der Auslese des Xenon-Szintillationslichts mit einer in reinem Xenon und bei hohem Druck betriebenen CsI-Photokathode, wurde Neuland betreten. Es wurde erfolgreich gezeigt, dass der integrierte Photonendetektor auf GEM Basis für die hier diskutierten Einsatzbereiche und Anforderungen funktioniert. Die Ankopplung der Photokathode an die Verstärkerstruktur und dabei vor allem der Elektronentransport von der CsI-Schicht in die Verstärkungszone, wurden im Detail untersucht. Dass die Gasverstärkung in reinem Xenon bei den beschriebe-nen Betriebsparameter überhaupt funktioniert, liegt zum einen daran, dass die optische Rückkopplung mit diesem neuen Design effektiv unterdrückt werden kann. Zum anderen konnten die Einflussparameter auf die Gasverstärkung, für den mehrstufigen GEM-Verstärkungsprozess in reinem Xenon, im Detail untersucht werden. Die gekoppelten Gas-Verstärker-Elemente wurden mit einer eigens für diese Anwendung entwickelten Versorgungsspannungsquelle betrieben, die die Folgen von elektrischen Überschlägen minimiert (Kapitel 5.1.3). Gegenüber den herkömmlichen Gasdetektoren ist es mit diesem neuartigen Aufbau möglich, den UV-Photonen-Detektor bei diesen Betriebsparametern stabil zu betreiben. Abbildende Optiken - optische und mechanische Eigenschaften Parallel zur Entwicklung dieses großflächigen Detektors zur Messung des Energiesignals und der Registrierung des primären Lichts, wurde das Konzept zur Ortsauslese via abbildender Optik weiterverfolgt. Die optischen Abbildungseigenschaften der Linsen wurde im Wellenlängenbereich des Xenon-Szintillationslichtes untersucht. In ersten Tests konnte bei kleinen Gasdrücken und somit geringen mechanischen Beanspruchungen die Ebene der Sekundär-lichterzeugung auf einen gekapselten Mikro-Kanal-Platten-Detektor abgebildet werden. Die Festigkeit der Quarzglaslinse für die Druckbeanspruchungen im hier diskutierten Detektor konnte in Zusammenarbeit mit der Fachhochschule Heilbronn - mittels Finite-Elemente-Berechnung - als ausreichend verifiziert werden. Ausblick Die beiden getrennten Systeme für Orts- und Energiemessung funktionieren unabhängig voneinander. Die Vorraussetzungen für die Kombination der Komponenten in einem gemeinsamen Aufbau sind damit geschaffen. Damit ist der Weg für die folgenden Schritte in diesem Projekt aufgezeigt. Als logische Fortsetzung dieser Arbeiten ist geplant, den integrierten Photonendetektor mit der Photokathode auf der GEM-Frontseite, zusammen mit der Ortsauslese gemeinsam aufzubauen. Von dieser Kombination profitiert das Auflösungsvermögen beider Messungen. Die Korrektur der ortsabhängigen Schwankungen in der Effizienz der Photokathode verbessert die Energieauflösung signifikant. Auf der anderen Seite kann durch das geschickte Setzen von geeigneten Bedingungen auf das Energiesignal die Ortsmessung optimiert werden. Als weiterer naheliegender Schritt auf dem Weg zum effizienten Nachweis der hochenergetischen Photonen, bietet sich der Einbau einer zusätzlichen Verstärkungsstufe zum Aufbau eines dreifach-GEM-Detektors an. Damit kann bei höheren Gasdrücken, trotz kleiner werdender maximaler Verstärkung pro GEM, eine ausreichende Gesamtverstärkung erreicht werden. Der Einsatz des Detektors in einem größeren Experiment, in Kombination mit anderen Messapparaturen, rückt somit in greifbare Nähe.
In meiner exemplarischen Untersuchung stelle ich drei Hauptwerke in den Vordergrund, die jeweils für eine literarische Epoche repräsentativ sind, in denen die Auseinandersetzung um die industriegeprägte Technik eine besondere Schärfe erreicht. In dem biedermeierlich geprägten Fabrikroman "Das Engelchen" von Robert Prutz erscheint 1851 zu Beginn der Industrialisierung die Technik als ein bedrohliches, weil unverständliches Prinzip, das die zunftgeregelte Gesellschaftsordnung und mit ihr das moralische Wertesystem untergräbt. Maschinen werden mit Bildern bedrohlicher urzeitlicher Tiere belegt. Technische Kompetenz wird im Roman nicht dazu genutzt, Maschinen humaner zu gestalten - technische Kompetenz ist hier Mittel, um Technik gezielt außer Kraft zu setzen - indem der Konstrukteur die Maschinen durch Überhitzen zerstört und dabei selbst umkommt. Die reale industrielle Entwicklung ignorierend sieht Prutz eine Lösung darin, zum Agrarsystem zurückzukehren - also ein Leben ganz ohne industrielle Technik. Zu Beginn des 20. Jahrhunderts dann, als sich der erste technologisch bestimmte Weltkrieg abzeichnet, erscheint dieses frühe Lösungsmuster als nicht mehr möglich. Technik wird hier auch als Erweiterung soziokultureller Handlungsmöglichkeiten gesehen, weit stärker zeigt sich in der Dramentrilogie "Die Koralle", "Gas" und "Gas. Zweiter Teil" von Gerhard Kaiser aber das destruktive Potential technischer Anwendungen. Aus dem nutzbringenden Energieträger Gas wird unter staatspolitischer Machtausübung in "Gas II" das Massenvernichtungsmittel Giftgas. Nach Faschismus und Zweitem Weltkrieg, nach einer beispiellos-naiven literarischen Technikverherrlichung vor und während der nationalsozialistischen Gewaltherrschaft aber auch dem gleichzeitigen Warnen vor einer atomaren Katastrophe, rückt nun in der Nachkriegsliteratur die ent-industrialisierte Technik in den Vordergrund. Statt Artefakten beschreibt Max Frisch den technischen Menschen, der sein Denken und Handeln in einem kontinuierlichen Prozeß immer weiter zu optimieren versucht. Ziel ist es, ähnlich wie bei einer Rechenmaschine, Fehler immer weiter auszuschließen. Der Mensch erscheint so als Analogon zur Maschine, der sein Denken lediglich nach rationalen Faktoren hin ausrichtet: Eine psychische Technologik wird im "Homo faber" einer sog. weiblichen Logik gegenübergestellt. In allen drei Werken, die repräsentativ für eine literarische Epoche sind, scheinen sich Technik und Leben auszuschließen. Die Skizzierung eines verantwortungsvollen Umgangs mit der Technik steht für die deutsche Literatur bislang aus.
Die Immobilisierung ist eine wichtige Ursache von Knochenverlusten. Viele Autoren haben über eine erhebliche Abnahme der Knochenmasse nach Frakturen der langen Röhrenknochen berichtet, die nicht nur die Frakturstelle, sondern auch deren Nachbarschaft betrifft. Angegeben wurden Substanzverluste von bis zu 50 % sowohl proximal als auch distal der Frakturstelle. Im Erwachsenenalter kommt es über einen Zeitraum von mehreren Jahren zu einer partiellen Wiederherstellung der Knochenmasse, die allerdings auch ausbleiben kann. Untersuchungen nach Radiusfrakturen wurden bisher qualitativ mittels nativer Röntgendiagnostik durchgeführt. Die Verlaufsbeobachtung mittels DEXA ermöglicht die quantitative Bestimmung der Knochendichte und Lokalisation der ersten, bzw. stärksten Atrophie im Handskelett. Da bisher für die Früherkennung einer Heilentgleisung im Stadium I lediglich die mehr oder weniger stark ausgeprägten klinischen Symptome einen Anhalt bieten, wäre die Feststellung eines quantitativen Schwellenwertes mit einer hohen Genauigkeit eine Bereicherung für Definition, Früherkennung und Therapiekontrolle einer Heilentgleisung, bzw. Algodystrophie. Um einen vergleichenden Bezug herstellen zu können, wird die Kenntnis des "physiologischen" Knochenmineralsalzgehaltes entsprechend der Händigkeit vorausgesetzt. Um letzteres zu eruieren soll die Studie dienen. Ferner soll ein objektives und sensitives Maß für die Beurteilung des Ausmaßes einer seitendifferenten Bemuskelung, z. B. im Gutachtenwesen, erarbeitet werden. Die primären Zielvariablen sind die Knochendichte der Hände sowie die Muskel-, Mineral- und Fettmasse der oberen Extremitäten absolut und relativ zur dominanten Seite. Anhand dieser Variablen soll das Ausmaß der "physiologischen" Gewichtung durch die Händigkeit bestimmt werden und Berücksichtigung finden bei der Beurteilung fraglicher "pathologischer" Entmineralisierung, bzw. Muskelatrophie einer Seite. Die Knochendichte und der Knochenmineralgehalt der Hand sowie die Ganzkörpergewebszusammensetzung wurden mittels DEXA (Dual X-Ray Absorptiometry) ermittelt. 114 gesunde weiße Frauen und Männer ohne Verletzungen der oberen Extremität nach der Pubertät im Alter zwischen 20 und 82 Jahren, davon 19 Links- und 95 Rechtshänder, erhielten Scans beider Hände sowie des ganzen Körpers. Durch Serien- und Doppelbestimmungen wurde die Präzision der Knochendichtemessungen kontrolliert. Es zeigte sich ein Variationskoeffizient von 0,3 % bis 0,8 % in Abhängigkeit von der ROI-Position. Das verwendete DEXA-Gerät ist also in der Lage, die Knochendichte mit hoher Präzision zu bestimmen. Wir konnten in unserer Studie signifikante Differenzen zwischen beiden Armen, bzw. Händen bei Normalpersonen nachweisen. Die prozentualen Unterschiede zwischen dominantem und nicht dominantem Arm liegen für die BMD (Knochendichte) bei insgesamt 2,7%, für die BMC (Knochenmineralgehalt) bei 7,4%, für die Muskelmasse bei 11,5% und für das Absolutgewicht (BMC + Muskelmasse + Fettmasse) beider Arme bei 8,3%. Der prozentuale Fettgehalt war dabei im dominanten Arm durchschnittlich 2,3% niedriger als im kontralateralen Arm. Kein Unterschied zwischen beiden Armen konnte beim absoluten Fettgehalt gefunden werden. Ebenfalls signifikante Abweichungen bestehen für BMD und BMC beider Hände. Der mittlere prozentuale Unterschied liegt hierbei für die BMD bei 3,8% und für die BMC bei 5,9% . Bei Linkshändern sind jedoch im Unterschied zu Rechtshändern alle Mittelwerte im nicht dominanten, rechten Arm höher als im dominanten Arm - mit Ausnahme des absoluten und prozentualen Fettgehalts, wo das Gegenteil gilt. Diese Unterschiede sind für die BMC mit 4,8 %, die Muskelmasse mit 6,7 % sowie den absoluten und prozentualen Fettgehalt mit 9,4 % und 3,2 % signifikant. Keine signifikante Differenz bei Linkshändern besteht für die BMD und das Gesamtgewicht des Armes. Die Hände betreffend zeigen Linkshänder im Gegensatz zu Rechtshändern keinerlei signifikante Abweichung. Die geschlechtsspezifischen Unterschiede betrachtend, verlieren Frauen bereits mit Eintritt in die Menopause kontinuierlich an Knochenmasse in Armen und Händen, wohingegen bei den männlichen Individuen ein Anstieg von BMD und BMC bis zum 69. Lebensjahr zu verzeichnen ist. Erst danach kommt es zu einer signifikanten Abnahme, die jedoch geringer ausgeprägt ist als bei den weiblichen Personen. Der Unterschied zwischen beiden Geschlechtern beläuft sich für die BMD der Arme auf insgesamt 17% und für die BMC auf 36%. Die Hände betreffend sind die Differenzen zwischen männlichen und weiblichen Personen etwa um ein Drittel niedriger und betragen 11% für die Knochendichte und 28% für den Knochenmineralgehalt. Postmenopausale Frauen haben im Durchschnitt in den Armen und in den Händen ca. 10% weniger Knochenmasse als premenopausale Frauen. Männliche Personen haben im dominanten Arm insgesamt 39% und im nicht dominanten Arm 42% mehr Muskelmasse als Frauen. Der Fettgehalt in beiden Armen ist bei Männern ca. 21% niedriger als bei Frauen. Die Knochendichte der Hände kann auch zur Abschätzung der systemischen Mineralisierung herangezogen werden. So besteht eine positive signifikante Korrelation zwischen der BMD der Hand einerseits und der des gesamten Körpers (r = 0,62) sowie dem T-Score whole body (r = 0,78) als Maß der systemischen Mineralisierung. Auch BMD von Hand und gleichseitigem Arm korrelieren gut miteinander (r = 0,72), ebenso die Knochendichte der Arme einerseits und die Muskelmasse (r = 0,72) des gleichseitigen Armes, das Körpergewicht (r = 0,49) und die Körpergröße (r = 0,54) andererseits. Eine negative signifikante Korrelation konnte unter anderem nachgewiesen werden zwischen der BMD der Arme und ihrem prozentualen Fettgehalt (r = -0,71). Diesen Ergebnissen zufolge ist also von einem geringen, aber signifikanten Unterschied bei der Knochendichte, dem Knochenmineralgehalt und der "body composition" (Gewebszusammensetzung) zwischen beiden Armen und Händen - mit Ausnahme des absoluten Fettgehalts - bei Rechtshändern auszugehen. Bei Linkshändern dagegen liegt keine reine Linkshändigkeit vor.
Die Arbeit thematisiert den postulierten Zusammenhang zwischen Informationstechnologie (IT) und gesellschaftlichem Wandel. Von Interesse ist hier, wie das Paradigma technologiegetriebenen Wandels in unterschiedlichen Gesellschaften aufgenommen wird. Grundlage der vorliegenden Ergebnisse sind ethnographische Forschungen zwischen 1999 und 2002 in der Republik Zypern (Nicosia), Kolumbien (Bogotá), Rumänien (Timisoara), Indien (Mumbai, Pune, Bangalore) und den Vereinigten Staaten (San Francisco, Silicon Valley). Es wurden insgesamt achtzig Experten im IT-Sektor als Mitglieder transnationaler Berufsgemeinschaften in Technologiezentren und Innovationsregionen unter einer vergleichenden Perspektive zur Bedeutung von IT für Wandel in ihren Gesellschaften befragt. Aus kulturanthropologischer Perspektive kann der Begriff Informationstechnologie als Teil eines dichten "konzeptionellen Feldes" betrachtet werden, ausgestattet mit "kulturellen Logiken", in denen Konzepte wie Modernität, Entwicklung und Fortschritt zentral sind. Experten machen Eingaben in "konzeptionelle Konfigurationen" von Informationstechnologie und können als Akteure an "kulturellen Schnittstellen" identifiziert werden, die kulturelle Diskurse über Informationstechnologie als Werkzeug zur gesellschaftlichen Restrukturierung herstellen und transportieren. Unter dem Ansatz von akteursgetriebenen Wandlungsdynamiken können sie als konstitutiv für die Erzeugung kultureller Logiken der Veränderung und der Erneuerung, und damit einer "Kultur des Wandels" gelten. Die Untersuchung versteht sich als Beitrag zum Wissensfortschritt in der Kulturanthropologie zur Analyse von gegenwärtigen Modernisierungs- und Entwicklungsprozessen in gegenwärtigen Gesellschaften unter der Perspektive von Transnationalisierung.
Ziel dieser Arbeit war es, mit den Methoden der NMR-Spektroskopie die elektrostatischen Eigenschaften der Xylanase aus Bacillus agaradhaerens in Abhängigkeit vom pH-Wert zu charakterisieren. Für die vorliegende Arbeit wurde das Strukturgen der Xylanase in verschiedene Expressionsvektoren des pET-Systems kloniert, wobei das Enzym auf 207 Aminosäuren verkürzt wurde. Diese Länge entspricht der publizierten Kristallstrukur von Sabini et al. (1999). Die Expression in pET3a und die Aufreinigung des Genproduktes mit Ionenaustauschchromatographie wurde optimiert, sodass homogenes Protein mit guten Ausbeuten erhalten werden konnte. Die Xylanase wurde mit den Isotopen 15N und 13C markiert und heteronukleare, mehrdimensionale NMR-Spektren wurden für die Zuordnung der Resonanzen des Proteins aufgenommen. Die chemischen Verschiebungswerte des Proteinrückgrats und die der aliphatischen Seitenketten wurden vollständig zugeordnet. Als eine weitere Voraussetzung für eine pH-Titration wurden sequenzspezifisch die Resonanzen der Histidin- bzw. Carboxylatgruppen bestimmt. Die Lösungsstruktur der Xylanase wurde anhand mehrerer automatisierter Prozeduren errechnet, um die Zuordnung der Resonanzen zu validieren. Alle Strukturelemente, die bereits aus der Kristallstruktur bekannt sind, wurden korrekt wiedergegeben. Da die Lösungsstruktur mit einem backbone RMSD-Wert von 2.44 ± 0.29 Å hoch 2 als vorläufig zu betrachten war, wurde im Folgenden ausschließlich die Kristallstruktur zur Bewertung der Distanzbeziehungen verwendet. In Abwesenheit des Substrats wurden die pH-abhängigen Resonanzen der Histidin- und Carboxylatgruppen sowie der Amide des Proteinrückgrats gemessen. Die Auswertung ergab 220 Titrationsprofile der 15N- and 13C-Resonanzen in einem pH-Bereich von 3.2 bis 8.7. Durch nichtlineare Regression der gemessenen Werte an eine modifizierte Henderson-Hasselbalch Gleichung wurden die pK S-Werte der Seitenketten von Aspartat und Glutamat, sowie für das C-terminale Carboxylat und für die Histidingruppen bestimmt. Die Titrationskurven der katalytischen Dyade zeigten eine ausgeprägte gegenseitige Wechselwirkung. Die korrespondierenden pK S-Werte stimmen gut mit dem vorhergesagten enzymatischen Mechanismus überein (Sabini et al., 1999) und belegen, dass das Nukleophil Glu94 bei einem neutralem pH-Wert deprotoniert ist, während die Bronsted Säure/Base GIu184 zu ca. 30% protoniert ist. Um die Untersuchungen zur katalytischen Aktivität zu vervollständigen, wurden alle pH-abhängigen [15N]-Resonanzen der Amide des Proteinrückgrats wie auch die der lndolstickstoffe in der Substratbindungsspalte analysiert. Die Wendepunkte konnten dem Titrationsverhalten der benachbarten sauren Aminosäure-Seitenketten zugeordnet werden. Aber es erscheint sehr wahrscheinlich, dass ein wesentlich komplexerer Ablauf stattfindet. Die asymmetrische Wechselwirkung von Trptophan-Seitenketten bezüglich der katalytischen Dyade wie auch das wechselnde Monotonieverhalten der Titrationskurven deuten auf eine simultane Reorganisation der Seitenkettenkonformere bei pH ungefähr gleich 6 und/oder auf eine Änderung des Wasserstoffbrückennetzwerkes innerhalb der Bindungsspalte.
This thesis presented the measurement of antideuteron and antihelium-3 production in central AuAu collisions at V SNN = 200 GeV center-of-mass energy at RHIC. The analysis is based on STAR data, about 3 x 10 high 6 events at top 10% centrality. Within the data sample a total number of about 5000 antideuterons and 193 antihelium-3 were observed in the STARTPC at mid-rapidity. The specific energy loss measurement in the TPC provides antideuteron identification only in a small momentum window, antihelium-3 however can be identified nearly background free with almost complete momentum range coverage. Following the statistical analysis of the hadronic composition at chemical freeze-out of the fireball, the antinuclei abundances were analyzed in terms of the same statistical description. Now applied to the clusterization of the fireball, the statistical analysis yields a fireball temperature of (135+-10) MeV and chemical potential of (5+-10) MeV at kinetic freeze-out. In the same way as the hadronization, the clusterization process is phase-space dominated and clusters are born into a state of maximum entropy. The large sample of observed antihelium-3 allowed for the first time in heavy-ion physics to calculate a differential multiplicity and invariant cross section as a function of transverse momentum. As expected, the collective transverse flow in the fireball flattens the shape of the transverse momentum spectrum and leads to the high inverse slope parameter of (950+-140) MeV of the antihelium-3 spectrum. With the extracted mean transverse momentum of antihelium-3, the collective flow velocity in transverse direction could be estimated. As the average thermal velocity is small compared to the mean collective flow velocity for heavy particles, the mean transverse momentum of antihelium-3 by itself constrains the flow velocity. Here, a simple ideal-gas approximation was fitted to the distribution of the mean transverse momentum as a function of particle mass and provided direct access to the kinetic freeze-out temperature and the flow velocity. A concept, which is complementary to the combined analysis of momentum spectra and two-particle HBT correlation methods commonly used to extract these parameters, and a cross check for the statistical analysis. The upper limit for the transverse collective flow velocity from the antihelium-3 measurement alone is v flow <= (0.68+-0.06)c, whereas the ideal-gas approximation yields a temperature of (130+-40) MeV and v flow = (0.46+-0.08)c. The results indicate, that the kinetic freeze-out conditions at SPS and RHIC are very similar, except for a smaller baryon chemical potential at RHIC. The simultaneous inclusive measurement of antiprotons allowed to study the cluster production in terms of the coalescence picture. With the large momentum coverage of the antihelium-3 momentum spectrum, the coalescence parameter could be calculated as a function of transverse momentum. Due to the difference between antiproton and antihelium-3 inverse slopes, increases with increasing transverse momentum - again a direct consequence of collective transverse flow. Both B2 and B3 follow the common behavior of decreasing coalescence parameters as a function of collision energy. According to the simple thermodynamic coalescence model, this indicates an increasing freeze-out volume for higher energies and is confirmed by the interpretation of the coalescence parameters in the framework of Scheibl and Heinz. Their model includes a dynamically expanding source in a quantum mechanical description of the coalescence process and expresses the coalescence parameter as a function of the homogeneity volume V hom accessible also in two-particle HBT correlation analyzes. The values for the antideuteron and antihelium-3 results agree well with the homogeneity volume from pion-pion correlations, but do not seem to follow the same transverse mass dependence. A comparison with proton-proton correlations may clarify this point and provide an important cross check for this analysis. Compared to SPS the homogeneity volume increases nearly by a factor of two. The analysis of the antinuclei emission at RHIC allowed to study the kinetic freeze-out of the created fireball. The results show, that the temperature and mean transverse velocity in the expanding system does not change significantly, when the collision energy increases by one order of magnitude. Only the source volume, i.e. the homogeneity volume, increases. That leaves open questions for the theoreticians to the details of the system evolution from the initial hot and dense phase - the initial energy density is a factor of two to three higher at RHIC than at SPS - to the final kinetic freeze-out with similar conditions. At the same time, the results are important constraints for the theoretical descriptions. The successful implementation of the Level-3 trigger system in STAR opens the door for the measurement of very rare signals. Indeed, in the coalescence physics perspective, the first observations of anti-alpha 4 He nuclei and antihypertritons 3/Delta H will come within the reach of STAR, in addition to a high statistics sample of antihelium-3.