Refine
Year of publication
Document Type
- Article (1984)
- Preprint (1379)
- Doctoral Thesis (597)
- Conference Proceeding (249)
- diplomthesis (100)
- Bachelor Thesis (75)
- Master's Thesis (61)
- Contribution to a Periodical (46)
- Diploma Thesis (34)
- Book (33)
Keywords
- Kollisionen schwerer Ionen (47)
- heavy ion collisions (44)
- LHC (25)
- Quark-Gluon-Plasma (25)
- Heavy Ion Experiments (20)
- BESIII (19)
- equation of state (19)
- quark-gluon plasma (19)
- Relativistic heavy-ion collisions (18)
- QCD (16)
Institute
- Physik (4653) (remove)
Viele mikroskopische Vorgänge in Festkörpern und molekularen Verbindungen sind verbunden mit Änderungen ihres Magnetisierungszustandes. Dies macht den Einsatz externer Magnetfeldsensoren interessant, die sich über wohlbekannte Effekte kalibrieren ließen und dann im Messeinsatz quantitative Aussagen liefern können. Nun laufen viele der interessanten magnetischen Vorgänge in besagten Materialien auf sehr schnellen Zeitskalen im Piko- und Subpikosekundenbereich ab. Kein etablierter Magnetfeldsensor kann diese Anforderung leisten. Im Rahmen dieser Arbeit wurde eine systematische Untersuchung verschiedener Ansätze zum Bau ultraschneller Magnetfelddetektoren durchgeführt. Ein Teil der Arbeit beschäftigt sich mit dem Potential photokonduktiver Ringantennen als Emitter und Detektor für ultraschnelle Magnetfelder. Ein alternativer Ansatz zur Messung transienter Magnetfelder besteht in der Verwendung magnetooptischer Sensoren, wie sie in verschiedenen Anwendungen, in denen keine Zeitauflösung gefordert wird, bereits zum Einsatz kommen (z. B. in der Faradaymikroskopie). Es wird eine für ultraschnelle Magnetooptik vielversprechende Materialklasse als Sensormaterial vorgestellt: die DMS-Systeme. Das sind magnetisch dotierte Verbindungshalbleiter, die in der Umgebung ihrer exzitonischen Resonanzen gewaltige Verdetkonstanten aufweisen. Parallel zu den DMS-Systemen wird das Verhalten eines dotierten Eisengranats untersucht, der als Ferrimagnet völlig andere Voraussetzungen als Messsensor bietet. Darüber hinaus werden verschiedene experimentelle Techniken zur Messung magnetooptischer Phänomene vorgestellt und ihre Vor- und Nachteile ausführlich diskutiert. Es wird ein Verfahren entwickelt, das trotz des Einsatzes der hochempfindlichen Differenzdetektion eine gewisse spektrale Auflösung gewährleistet und deshalb den Betrieb der DMS-Systeme als magnetooptische Sensoren erst ermöglicht. Es werden für die verschiedenen Messmethoden und magnetooptischen Materialien die Grenzen der Nachweisempfindlichkeit analysiert und ihre Eignung als schnelle Detektoren untersucht. Die verschiedenen Vor- und Nachteile der beiden Sensorsubstanzen wird anhand der gemessenen magnetischen Transienten detailliert analysiert. Anschließend wird das Optimierungspotenzial der beiden Materialklassen hinsichtlich ihrer chemischen Zusammensetzung ausgearbeitet und dargestellt.
Gegenstand der vorliegenden Arbeit ist die Untersuchung einer Transferionisation am Beispiel des Stoßsystems (H + ; He), bei der ein Elektron des Targets eingefangen und ein Elektron ins Kontinuum emittiert wird. Ausgangspunkt für die theoretische Untersuchung der Transferionisation sind Experimente für das (H + ; He) Stoßsystem (1) . Unter anderem wurden beobachtet, dass die Elektronen bevorzugt in entgegengesetzter Richtung zum auslaufenden Projektil emittiert werden, dass hohe Emissionsenergien auftreten und alle Ejektile, (He 2+ , H 0 , e ), in die durch Einschuss- und Streurichtung des Projektils definierte Ebene emittiert werden. Unter der Annahme, dass zur Transferionisation hauptsächlich unabhängige Ein-Teilchen-Prozesse beitragen, wurde mit der vorliegenden Arbeit das Ziel verfolgt, das beobachtete markante Emissionsverhalten einer Transferionisation am Proton-Helium-Stoßsystem im Rahmen einer theoretischen Untersuchung zu verstehen. Dazu wurde ein Modellkonzept entwickelt, bei dem das Stoßgeschehen in einem semiklassischen nichtrelativistischen perturbativen Rahmen im Bild unabhängiger Ereignisse beschrieben wird. Das zentrale Anliegen der Modellierung war es, die Bedeutung der Targetstruktur für die Emissionseigenschaften zu klären. Hierbei interessierte der Einfluss der Struktur der Wellenfunktion auf dem Niveau des Modells unabhängiger Teilchen als auch die Rolle der interelektronischen Korrelation im Grundzustand des Targets. Der Einfluss der Targetstruktur auf das Emissionsverhalten wurde durch Einbau dreier verschiedener Wellenfunktionen für den Helium-Grundzustand untersucht: Um die Sensitivität der Rechnungen auf die strukturellen Eigenschaften der Targetbeschreibung zu untersuchen, wurden eine wasserstoffähnliche und eine Hartree-Fock-Beschreibung in das Modell implementiert. Beide bilden die Targetstruktur auf der Basis des Modells unabhängiger Teilchen (IPM) ab und enthalten per Definiton keine interelektronische Korrelation. Um den Einfluss zu klären, den die interelektronische Korrelation auf die Emissionseigenschaften hat, wurde der Eckart-Ansatz in das Modell eingebaut. Dieser Ansatz schließt radiale Anteile von Korrelation mit ein. Anhand eines systematischen Vergleichs der Ergebnisse konnte gezeigt werden, dass die strukturellen Eigenschaften der Wellenfunktion zwar eine Rolle spielen, aber die Qualität der Beschreibung ohne Berücksichtigung der interelektronischen Korrelation unbefriedigend bleibt, während die Berücksichtigung der radialen Anteile elektronischer Korrelation mit dem Eckart-Ansatz verglichen mit den IPM-Ansätzen sich im Hinblick auf das Emissionsverhalten als effizient erwiesen hat. Dieser Befund legt den Schluss nahe, dass die interelektronische Korrelation im Grundzustand des Heliumatoms zum Verständnis der Emissionseigenschaften äußerst wichtig ist. Trotzem werden auch mit dem Eckart-Ansatz nicht alle Züge des Emissionsverhaltens richtig wiedergegeben. Da die Bewegungen der Komponenten eines Vielteilchenproblems voneinander abhängen, besteht Grund zu der Annahme, dass ein radialsymmetrischer Ansatz zur Beschreibung des Systems Helium nicht in der Lage ist, die experimentell beobachtete Emission von Elektronen in einer Vorzugsrichtung zutreffend zu beschreiben: Neben der Radialkorrelation ist auch die Winkelkorrelation zu berücksichtigen. Die logische Erweiterung des Modells in dieser Richtung ist die Implementation eines Konfigurationsmischungs-Ansatzes. Eine zukünftige Rechnung unter Verwendung eines Konfigurationsmischungs-Ansatzes erscheint daher im Hinblick auf eine Erklärung des Emissionsverhaltens im Bild unabhängiger Ereignisse interessant. (1) V.Mergel, Dissertation, Frankfurt am Main 1996
Die Infrarotspektroskopie in Verbindung mit photoaktivierbaren Substraten wurde zur Untersuchung von Substrat-Protein-Wechselwirkungen eingesetzt. Dabei wurden Konformationsänderungen der Ca2+-ATPase des Sarkoplasmatischen Retikulums bei Bindung des Nukleotids, der Phosphorylierung der ATPase und der Hydrolyse des Phosphoenzyms beobachtet. Verwender wurden das native Substrat ATP und seine Analoga ADP, AMPPNP, 2'-deoxyATP, 3'-deoxyATP, ITP, AMP, Pyrophosphat, Ribosetriphosphat und TNP-AMP beobachtet. Diese Analoga waren an spezifischen funktionellen Gruppen des Substrats ATP modifiziert. Modifikation der 2'- und 3'-OH Gruppe des Ribosetriphosphats, der beta- und gamma-Phosphatgruppe und der Aminogruppe des Adenins reduzieren das Ausmaß an bindungsinduzierten Konformationsänderungen. Ein besonders starker Effekt wird für die 3'-OH Gruppe und die Aminogruppe des Adenins beobachtet. Dies zeigt die strukturelle Empfindlichkeit des Nukleotid-ATPase Komplexes auf einzelne Wechselwirkungen zwischen dem Nukleotid und der ATPase. Die Wechselwirkungen einer bestimmten Ligandengruppe mit der ATPase hängen von Wechselwirkungen anderer Ligandengruppen mit die ATPase ab. Die TNP-AMP Bindung verursacht teilweise gegenläufige und kleinere Konformationsänderungen verglichen mit ATP. Die Bindungweise von TNP-AMP ist unterschiedlich zu der von ATP, AMPPNP und anderen Tri- und Diphosphat Nucleotiden. Die Phosphorylierung der ATPase wurde mit ITP und 2'-deoxyATP beobachtet. Ca2E1P wurde in gleichem Ausmaß mit ITP und 2'-deoxyATP wie mit ATP akkumuliert, obwohl das Ausmaß der Konformationsänderungen bei Ca2E1P-Bildung geringer ist. Änderungen der 2'- und 3'-OH des Ribosetriphosphats und der Aminogruppe des Adenins beeinflussen die Reaktionsgeschwindigkeit der Phosphorylierung der ATPase. Es gibt keine direkte Verbindung zwischen dem Ausmaß der Konformationsänderung bei Nukleotid- Bindung und der Rate der Phosphorylierung. Das volle Ausmaß der ATP-induzierten Konformationsänderung ist nicht zwingend für die Phosphorylierung. Die Konformationen von Ca2E1N und Ca2E1P hängen vom Nukleotid ab. Dies weist darauf hin, dass die Struktur von ATPase Zuständen heterogener ist, als bisher erwartet. Die Aussagekraft und der Reichtum an Informationen in den Infrarotspektren zeigen, dass hiermit eine leistungsfähige Methode für die Untersuchung von Enzym-Substrat-Wechsel-Wirkungen und das räumliche Abtasten von Bindungstaschen zur Verfügung steht.
Die hier vorgelegte Arbeit hatte zur Aufgabe, funktionellen Einflüsse auf den Neurotransmittertransporter GAT-1 zu erhellen, welche durch eine N-Glykosilierung des Transportproteins hervorgerufen werden. Frühere Untersuchungen deuteten bereits darauf hin, daß der Glykosilierung der drei extrazellulär vorhandenen N-Glykosilierungsstellen des GAT- 1 neben einer expressionellen Bedeutung auch eine funktionelle zukam. So zeigten sich bei Arbeiten anderer Gruppen, welche N-Glykosilierungsmutanten des GAT-1 verwendeten, um die Glykosilierung des Transportproteins zu beeinträchtigen, daß fehlende Oligosaccharide an den N-Glykosilierungsstellen des GAT-1 durchaus in eine Reduktion der GABA-Aufnahme in die Zellen mündete, was zumindest bei Oozyten des Xenopus laevis auf eine verminderte Transportrate zurückgeführt werden konnte. An CHO-Zellen konnte nun auf gleiche Weise eine Reduktion der GABA-Aufnahme beobachtet werden, und es galt, mit elektrophysiologischen Methoden die Ursachen dieser Reduktion zu erkunden. Die hier vorgelegte Arbeit vermochte nun bei CHO-Zellen, eine Verminderung der Transportrate als Ursache jener reduzierten GABA-Aufnahme auszumachen. Zu diesem Zwecke wurden die CHO-Zellen entweder mit der DNA des mGAT1 Wild-Typs (einem aus der Maus klonierten GAT-1-Transporter) oder mit der DNA von N-Glykosilierungsmutanten des mGAT1 transfiziert. Es fanden zwei verschiedene N-Glykosilierungsmutanten Verwendung, an denen jeweils zwei der drei N-Glykosilierungsstellen Asparagin durch Aspartat bzw. Glycin ersetzt wurden: (Asp176, Gly181, Asn184) bzw. DDN (Asp176, Asp181, Asn184). Wie indes die durch eine beeinträchtigte N-Glykosilierung verminderte Transportrate zustande kam, und wie sich eine entsprechende Erklärung in die bisherige Annahme den GAT-1 Reaktionszyklus betreffend einfügen und mit dessen Struktur verbinden ließe, vermochte die hier vorgelegte Arbeit zu einem großen Teil einsichtig zu machen. Zwei Phänomene konnten die Transportrate vermindern: Zunächst waren die Zeitkonstanten transienter Ströme, welche bei Abwesenheit von GABA auftreten, verlangsamt. Weil diese Ströme den ratenlimitierenden Schritt im Reaktionszyklus zu repräsentieren scheinen, mußte also jener Schritt, welcher die Okklusion des ersten Natriums oder die darauffolgende Konformationsänderung beinhaltet, verlangsamt sein. Im weiteren zeigten Analysen der bei den transienten Strömen auftretenden Ladungsverschiebungen, daß die Natrium-Transporter-Interaktion auf extrazellulärer Seite durch das Fehlen von Oligosacchariden an den N-Glykosilierungsstellen des GAT-1 beeinträchtigt war, wobei als Grund hierfür eine Verstärkung der dimensionalen bzw. elektrogenen Schranke zu sehen ist, welche sich vor der Natriumbindungsstelle des GAT-1 befindet. Eine Veränderung der Expressionsrate als tragende Ursache verminderter Transportraten bzw. reduzierter GABA-Aufnahmen konnte hingegen ausgeschlossen werden. Experimente mit dem N-Glykosilierungs-Inhibitor dMM sowie Vergleiche von Experimenten verschiedener Mutanten vermochten die oben beschriebenen Effekte hauptsächlich auf die durch die Mutationen fehlenden Oligosaccharide zurückzuführen und weniger auf andere durch die Mutation hervorgerufene strukturelle Änderungen des GAT-1-Proteins.
Die vorliegende Arbeit stellt Design, Aufbau und erste experimentelle Testergebnisse einer integrierten RFQ-Driftröhrenkombination für den Einsatz im Injektorbereich einer klinischen Synchrotronanlage zur Behandlung von Tumorerkrankungen mit Ionenstrahlen vor. Das Hauptziel der Bemühungen war, eine sehr kompakte und auf die gestellten Aufgaben hoch spezialisierte Lösung zu finden, die den täglichen Anforderungen im Klinikbetrieb gerecht wird. Zuverlässigkeit, einfache Bedienbarkeit und möglichst geringe Betriebskosten standen dabei im Vordergrund und führten letztlich zu einer nur 1,40 m langen Kombination der beiden Beschleunigerkomponenten, die üblicher Weise in zwei getrennten Kavitäten mit separater Leistungsversorgung, separater Steuerung und mit deutlich mehr Platzbedarf untergebracht sind. Im Zuge der Designarbeiten wurde insbesondere das Programm PARMPRO den hier aufgetretenen aktuellen Problemstellungen angepasst. Die Berechnung der Wechselwirkung von Ionen bei raumladungsdominierten Teilchenstrahlen wurde korrigiert, das Programm um ein Transportelement zu Transformation geladener Teilchen durch eine frei wählbare Potentialverteilung erweitert und mit einem neu entwickelten Programmteil wurden die zur Fertigung notwendigen Daten generiert. Die Optimierung der Strukturparameter mit Hilfe einer externen Visual-Basic-Anwendung zum automatischen Optimieren der Strukturdaten mit Hilfe von PARMPRO war ein Schritt auf dem Wege zum endgültigen, an die Eingangsstrahldaten und an die Erfordernisse der darauffolgenden IH-Struktur angepassten Elektrodendesign. Nach den Simulationsrechnungen erfolgten Referenzmessungen an entsprechenden Modellaufbauten insbesondere mit einem computergesteuerten Störkörpermessstand, zur experimentellen Bestimmung der Spannungsverhältnisse an der jeweils zu untersuchenden Strukturvariante. Auf diesen Ergebnissen basiert das endgültig entwickelte Resonatorkonzept der RFQ-Driftröhrenkombination. Das Kapitel "Aufbau des Medizin-RFQs" behandelt die Konstruktion und die technische Umsetzung des erarbeiteten Beschleunigerkonzepts. Einzelnen Beschleunigerkomponenten wie Tank, Elektroden, Resonatorstruktur, Bunchereinheit und deren Fertigungsprozesse werden vorgestellt, Arbeitsschritte wie das Verkupfern des Tanks in der Galvanik der GSI oder das Verfahren zum Versilbern von Kontaktteilen im hauseigenen Labor werden beschrieben. Es folgt eine Diskussion des Justierkonzepts und der Maßnahmen zur Einhaltung der erforderlichen Genauigkeiten von ca. 20 mm, um die berechnete Strahlqualität zu gewährleisen. Abschließend werden die Ergebnisse erster HF-Testmessungen auf Messsenderniveau beschrieben. Hier wurden zunächst experimentell grundlegende Resonatoreigenschaften wie etwa Resonanzfrequenz, Güte und Parallelersatzwiderstand bestimmt. Danach wurde ein spezielles Störkörpermessverfahren angewandt, um den über die Montagehöhe der Driftröhre einstellbaren Spannungsbereich der Bunchereinheit zu erfassen, da die geometrischen Verhältnisse einen computergesteuerten Messstand wie er zur Untersuchung der Modellaufbauten herangezogen wurde nicht zuließen. Abschließend erfolgte ein Abstimmen der Spannungsverteilung entlang der RFQ-Elektroden. Diese experimentellen Ergebnisse belegen eindrucksvoll die Funktionsfähigkeit der RFQ-Driftröhrenkombination, so ist insbesondere die erforderliche Buncherspannung auf einer mittleren Montagehöhe der spannungsführenden Driftröhre zu erreichen, die durch die zusätzlich Driftröhrenkapazität hervorgerufene Verzerrung der Spannungsverteilung auf den Elektroden lässt sich über die höhenverschiebbaren Kurzschlussplatten gut korrigieren. Das erarbeitete Gesamtkonzept dieser neuartigen, sehr kompakten RFQ-Driftröhrenkombination ist auch für andere Anwendungsbereiche sehr attraktiv, so dass bereits ein Patent darauf angemeldet wurde. Damit ist das Ziel, eine RFQ-Driftröhrenkombination für die medizinische Beschleunigeranlage in Heidelberg aufzubauen erreicht. Strahltests und die experimentelle Bestimmung der Phasen- und Energiebreite des Ionenstrahls sind als nächstes vorgesehen.
Die opto-elektronische Erzeugung intensiver Terahertz-Pulse unter Verwendung von Verstärkerlaser-Systemen stellt eine leistungsfähige und im wissenschaftlichen Umfeld etablierte Technik dar. Es ist anzunehmen, dass diese Technik in Zukunft auch für kommerzielle Anwendungen eingesetzt werden wird. (Z.B. entwickelt die Firma Nikon, Japan ein Echtzeit- Bildgebungssystem mit opto-elektronisch erzeugter Terahertz-Strahlung basierend auf einem Verstärkerlaser.) In dieser Arbeit werden gängige und neuartige opto-elektronische Terahertz-Emitter für Verstärkerlaser theoretisch und experimentell untersucht. Zur experimentellen Untersuchung wurde die Methode der elektro-optischen Detektion, welche in der Arbeit ausführlich vorgestellt wird, verwendet. Dabei wird insbesondere die spektrale Detektorempfindlichkeit dargestellt und eine Methode zur Durchführung kalibrierter Messungen vorgestellt, welche auch für die Verwendung mit Verstärkerlasern geeignet ist. Zu den untersuchten bekannten Emittern gehört der vor ca. 10 Jahren erstmals vorgestellte groß- flächige GaAs-Emitter mit externem Feld. Obwohl dieser Emitter in der Literatur bereits ausführlich untersucht wurde, werden in der vorliegende Arbeit über den Stand der Literatur hinausgehende neue Aspekte wie die Feldabschirmung auf Grund von Ladungsträgerverschiebung und die Abhängigkeit der erzeugten THz-Feldstärke bzw. der THz-Pulsenergie von der Emitterfläche diskutiert. Zudem erfolgt die Behandlung dieses Emitters erstmals vollständig quantitativ, wobei eine gute Übereinstimmung mit den experimentellen Daten erreicht wird. Der zweite in der Arbeit untersuchte Emitter ist der großflächige ZnTe-Emitter. Die elektro-optische Erzeugung von THz-Strahlung in ZnTe-Kristallen mit hoch-repetierlichen Kurzpuls-Lasersystemen ist langjährig bekannt. Die Verwendung großflächiger ZnTe-Kristalle in Verbindung mit Verstärkerlasern wurde allerdings in Rahmen dieser Arbeit erstmals demonstriert. Vor dem Hintergrund der demonstrierten hervorragenden Eigenschaften dieses Emitters ist dieses besonders erstaunlich. Der Hauptteil der Arbeit beschäftigt sich mit der neuartigen Erzeugung von THz-Pulsen in laser-generierten Plasmen. Dabei wurden zwei Methoden untersucht. Die erste Methode, welche im Rahmen dieser Arbeit erstmals realisiert wurde, basiert auf einer Vorspannung des Plasmas mit einem externen elektrischem Feld. Die Methode ist vergleichsweise wenig effektiv, stellt aber eine gute Möglichkeit zur Überprüfung der in der Arbeit entwickelten Modelle für die THz-Emission dar. Die zweite Methode, die erstmals von Cook et al. im Jahre 2000 demonstriert wurde, basiert auf einer "optischen Vorspannung" des Plasmas mittels der Überlagerung des Laserpulses der Fundamentalfrequenz mit einem phasensynchronen Laserpuls der zweiten Harmonischen. Die ausführliche experimentelle und theoretische Untersuchung dieser Methode beinhaltet eine quantitative Modellierung der zu erwartenden Ergebnisse auf Basis des von Cook et al. vorgestellten phänomenologischen Modells, welches auf zeitunabhängigen Nichtlinearitäten dritter Ordnung im Plasma oder in der Luft beruht. Die in dieser Arbeit vorgestellte quantitative Analyse legt die Schlussfolgerung nahe, dass das phänomenologische Modell von Cook et al. in der vorliegenden Form in Frage gestellt werden muss. Daher wurde im Rahmen der Arbeit ein einfaches Modell zur Erklärung der mikroskopischen Ursache der Nichtlinearität entwickelt. Dieses Modell beinhaltet die Kopplung der Nichtlinearität mit dem lokalen Ionisierungsprozess und damit formal auch eine explizite Zeitabhängigkeit der Nichtlinearität im Plasma. Die quantitative Modellierung der makroskopischen THz-Emission auf Basis des mikroskopischen Bildes der Generations-Nichtlinearitäten zeigt, dass das Modell die experimentellen Befunde zufriedenstellend beschreiben kann. Die Arbeit schließt mit einem Vergleich der untersuchten Emitter in Bezug auf spektrale Eigenschaften, Effizienz und Sättigungsverhalten. Bei der Darstellung des Sättigungsverhaltens wird anhand der in der Arbeit entwickelten Modelle versucht die Entwicklung der erzeugten THz-Feldamplituden für Laserpulsenergien von bis zu 50 mJ vorauszusagen. Diese Abschätzung lässt vermuten, dass der Plasma-Emitter für Laserpulsenergien von 10mJ und mehr das Potential hat, deutlich höhere THz-Feldamplituden zu erzeugen als alle gängigen Standardemitter. Entsprechende Experimente in diesem Laserpuls-Energiebereich sind am Front-End des PHELIX-Lasers der GSI (Gesellschaft für Schwerionenforschung) in Darmstadt im Rahmen der Fortführung der Forschungsarbeiten geplant.
Das zeitdiskrete Rohrmodell besitzt für die Modellierung der menschlichen Sprachproduktion eine wichtige theoretische und praktische Bedeutung, da es ein mathematisch handhabbares Modell darstellt und zugleich eine vereinfachte akustische Beschreibung des Sprechtraktes beinhaltet. Dies ist einerseits begründet durch die modellhafte Beschreibung der Ausbreitung von ebenen Wellen durch den Sprechtrakt und andererseits in der Darstellung des Rohrmodells als zeitdiskretes lineares System. Erst durch die Verfügbarkeit von adäquaten Schätzalgorithmen, welche die Modellparameter aus dem Sprachsignal bestimmen, ist das Rohrmodell für Anwendungen in der Sprachverarbeitung interessant. Diese liegen allerdings nur für die einfachsten unverzweigten Rohrmodelle vor, welche den Sprechtrakt nur stark vereinfacht modellieren. Für erweiterte Rohrmodelle existieren nur in eingeschränkter Weise adäquate Schätzalgorithmen, mit denen die Modellparameter aus dem Sprachsignal geschätzt werden können. Daher wird mit dieser Arbeit versucht diesen Mißstand aufzulösen, wofür Schätzalgorithmen auch für erweiterte Rohrmodelle entwickelt und vorgestellt werden. Die Erweiterungen des Rohrmodells beziehen sich auf Rohrverzweigungen, die auch mehrfach auftreten können, und Rohrabschlüsse, die frequenzabhängig oder zeitvariabel sein können. Zusätzlich werden Sprechtraktmodelle behandelt, die zwei Systemausgänge aufweisen. Dies wird für Analysen von getrennt aufgenommenen Mund- und Nasensignalen von nasalierten Lauten diskutiert, um die Lippen- und Nasenabstrahlung einzeln zu berücksichtigen. Ebenso werden verzweigte Modelle mit zwei Systemausgängen für eine Beschreibung des Nasaltraktes unter Berücksichtigung der beiden Nasengänge behandelt. Die Erweiterungen des Rohrmodells durch Verzweigungen und angepaßte Rohrabschlüsse ermöglichen eine genauere Beschreibung des Sprechtraktes infolge der Verzweigungen durch den Nasaltrakt und infolge der Abschlüsse an den Lippen, Nasenlöchern und der Glottis. Die Parameterbestimmung wird durch Minimierung eines Fehlers durchgeführt, welcher ein spektrales Abstandsmaß zwischen dem Rohrmodell und dem analysierten Sprachsignal darstellt. Für die Definition des Fehlers wird die inverse Filterung herangezogen, welche eine Leistungsminimierung des Ausgangssignals des inversen Systems beinhaltet. Dabei hat sich gezeigt, daß die Fehlerdefinition der inversen Filterung modifiziert werden muß, um auch erfolgreich auf erweiterte Rohrmodelle angewendet werden zu können. Die Modifikation kann für erweiterte Rohrmodelle einheitlich für den zeitinvarianten und zeitvariablen Fall vorgestellt werden. Über den allgemeinen Ansatz der Schätzung hinaus werden auch effiziente Schätzverfahren für ausgewählte Rohrstrukturen und allgemeine Pol-Nullstellen-Systeme vorgestellt. Die diskutierten Schätzverfahren ermöglichen eine gute Approximation der Sprachspektren durch die Modellbetragsgänge. Darüber hinaus konnte auch gezeigt werden, daß durch entsprechende Rohrmodellstrukturen und eine geeignete Vorverarbeitung des Sprachsignals realistische Querschnittsflächen des Sprechtraktes geschätzt werden können. Daher eignen sich die erweiterten Sprechtraktmodelle auch für die Sprachproduktion. In Synthesebeispielen wurden Lautübergänge auf der Basis von geschätzten Vokaltraktflächen realisiert und in Resynthesebeispielen mittels unverzweigter Rohrmodelle wurde insbesondere die Anregung der Modelle diskutiert. Daß durch die Verwendung von Rohrmodellen auch Lauttransformationen möglich sind, zeigt die vorgestellte künstliche Nasalierung von Sprachsignalen unnasalierter Laute, welche mittels verzweigter Rohrmodelle und Analysen von getrennt aufgenommenen Mund- und Nasensignalen erreicht werden konnte.
Im ersten Teil dieser Arbeit sind Protein-Protein Docking-Studien dokumentiert. Bis heute konnten die meisten Protein-Komplex-Strukturen nicht experimentell aufgeklärt werden, so auch die beiden oben genannten Elektrontransfer-Komplexe. Nach einem erfolgreichen Test wurden verschiedene Cytochrom c Oxidase:Cytochrom c Paare mit der gleichen Methode gedockt: COX aus Paracoccus denitrificans mit Pferdeherz Cytochrom c und COX mit dem löslichen Fragment des membrangebundenen Cytochrom C552 (beide aus P. denitrificans). Im zweiten Teil dieser Arbeit wurde die diffusive Annäherung des Cytochrom c an die Cytochrom c Qxidase mit der Brownschen Dynamik Methode simuliert. Die Diffusionsbewegung eines Brownschen Teilchens in wässriger Lösung wird durch die Langevin-Gleichung bestimmt. Der auf dieser Gleichung fußende Ermak-McCammon-Algorithmus ist Grundlage der Simulationsmethode. Die so ermittelten Raten für COX und Pferdeherz, sowie für COX und Cytochrom C552, wurden dann mit experimentell gewonnenen Raten verglichen. Da die Elektrostatik für den Annäherungsprozeß dieser Proteine eine so gewichtige Rolle spielt, wirken sich Mutationen, die mit einer Ladungsänderung einhergehen, merklich aus. Dies ist vor allem dann der Fall, wenn sich die Mutation in der Nähe der Bindungsstelle befindet. Aus dem gleichen Grund ist die Assoziationsrate auch stark von der Ionenstärke der umgebenden Lösung abhängig. Steigt die Ionenkonzentration wird die elektrostatische Komplementarität der Bindingsstellen der beiden Makromoleküle stärker abgeschirmt, und die Rate sinkt. Diese beiden relativen Trends konnten durch die Simulationen gut reproduziert und bestätigt werden. Allerdings liegen die absoluten Resultate merklich über den experimentell gemessenen Raten. Es ist sehr gut möglich, daß post-diffusive Effekte, die nicht in einer Brownschen Dynamik Simulation von starren Körpern berücksichtigt werden können, die Raten erniedrigen. Um den Einfluß der Membranumgebung auf die Wechselwirkung des Elektrontransportsystems zu untersuchen. wurde eine DPPC Doppelschicht um die Oxidase modelliert und energieminimiert. Mit Poisson-Boltzmann Rechnungen wurde das elektrostatische Potential dieses Nanosystems untersucht und mit dem der einzelnen Oxidase verglichen. Durch einen modifizierten Set-up konnten dann auch für dieses Membransystem Brownsche Dynamik Simulationen durchgeführt werden. Der Vergleich mit den vorhergehenden Simulationen ohne Membran erbrachte bemerkenswerte Ergebnisse. Während die Assoziationsraten für Pferdeherz Cytochrom c durch den Membraneinfluß erniedrigt wurden, stiegen sie im Fall des physiologischen Transferpartners c552. Pferdeherz Cytochrom c weist eine positive Nettoladung und einen ausgeprägten bipolaren Charakter auf. Eine große Zahl positiv geladener Seitenketten befindet sich auf der gleichen Hemisphäre wie die Bindungsstelle. Obwohl die DPPC Lipidmoleküle neutral sind, zeigten die Elektrostatikrechnungen, daß die Membranoberfläche abstoßend auf positive Ladungen wirkt. Da sich nun die Bindungsstelle der Oxidase für Cytochrom c nur etwa 10 Å oberhalb der Membran befindet, verringert sich die Wahrscheinlichkeit der Assoziation.
Diese Arbeit untersucht die Produktion von Teilchen durch Vakuumpolarisation in Anwesenheit klassischer Felder. Eine unquantisierte Beschreibung des bosonischen Sektors einer Quantenfeldtheorie wird möglich, wenn dieser stark besetzt ist. Sind die Besetzungszahlen größer als eins, können Quantenprozesse als Korrekturen angesehen werden. Für die Fermionen gibt es wegen des Paulischen Prinzips kein solches Konzept. Situationen mit diesen starkbesetzten Feldern finden sich im Fall der Quantenchromodynamik (QCD) zum Beispiel in ultrarelativistischen Schwerionenkollisionen. Diese werden zur Zeit am Relativistic Heavy Ion Collider (RHIC) am Brookhaven National Laboratory durchgeführt und in Zukunft am Large Hadron Collider (LHC) am CERN untersucht werden. Diese hochbesetzten sind auch starke Felder. Damit können in Abwesenheit weiterer Skalen Prozesse mit unterschiedlich häufigen Kopplungen an das Hintergrundfeld nicht parametrisch unterschieden werden. Die dominanten Quanteneffekte werden durch Terme der klassischen Wirkung. die zweiter Ordnung in den Quantenfeldern sind, repräsentiert. Alle diesbezüglichen Informationen sind in den Propagatoren der entsprechenden Quanten enthalten. Wegen der starken Felder müssen hier die vollen Propagatoren im Hintergrundfeld benutzt werden. Bei schwacher Kopplung - in führender Ordnung in den Quanteneffekten - enthalten sie alle Details über die Streuung der Quantenteilchen am Feld und deren Produktion durch Vakuumpolarisation. Ohne weitere radiative Korrekturen, gibt es in der Quantenelektrodynamik die Produktion von Elektron-Positron-Paaren. Analog dazu werden in der QCD Quark-Antiquark-Paare produziert. Dort kommt aber wegen der Nichtlinearität des Feldtensors noch die Produktion von Paaren gluonischer Quantenfluktuationen hinzu. Die Quarks und Antiquarks sowie die gluonischen Quantenfluktuationen sind parametrisch nicht zu unterscheiden. Für Schwerionenkollisionen lassen sich Größen wie die anfängliche Energiedichte und die Zerfallszeit des hochdichten Regimes abschätzen. Es stellt sich nun die Frage, ob man bei Einschränkung auf diese Situationen eine der beiden Quantenspezies als unwichtig vernachlässigen kann. Im Bereich hoher Teilchenimpulse, läßt sich die Produktion störungstheoretisch beschreiben. Hier untersuche ich zunächst in der niedrigsten Ordnung der klassischen Wirkung die Produktionsprozesse der beiden Arten von Quanten bei Anwesenheit beliebiger Felder. Für die Aufteilung des Gluonenfeldes in seinen Erwartungswert und seine Fluktuationen wird die Hintergrundfeldmethode der QCD verwendet. Für den Spezialfall rein zeitabhängiger Felder werden die Produktionsraten für Parametersätze, wie sie für RHIC und LHC erwartet sind, angegeben. Es stellt sich heraus, daß auf perturbativem Niveau sowohl Situationen, in denen die Fermionen dominieren, als auch solche, in denen die gluonischen Quantenfluktuationen überwiegen' vorkommen. Im Fall der Gluonen könnte der stark besetzte niederengetische Bereich durch das klassische Feld und der hochenergetische schwächer besetzte durch eine perturbative Beschreibung hinreichend genähert sein. Da es für die Fermionen jedoch kein klassisches Feld gibt, bliebe ihr niederenergetischer Bereich vollkommen unbehandelt. Hier ist auf jeden Fall eine nichtperturbative Beschreibung notwendig. Diese kann auf dem vollen Fermionpropagator im Hintergrundfeld aufgebaut werden. Der bereits oben verwendete Spezialfall eines rein zeitabhängigen Feldes kann als Näherung eines boostinvarianten Szenarios in der zentralen Region der Schwerionenkollision gesehen werden. In Anwesenheit derartiger Felder wird hier der volle retardierte Propagator hergeleitet. Für den exakten Propagator und alle Näherungen wird das Impulsspektrum der produzierten Fermionen berechnet. Dabei stellt sich die sogenannte Abelsche Näherung als bester Kandidat neben der exakten Beschreibung heraus. Sie entspricht, im Gegensatz zur störungstheoretischen Näherung, bei der die Fermionen immer mir ihrem asymptotischen kinematischen Impuls propagiert werden, einer Propagation mit dem mittleren kanonischen Impuls, was die Verbesserung der Näherung erklärt. Mit den, durch die induzierten Strömen modifizierten Yang-Mills-Gleichungen, stellt die Arbeit das komplette Funktionensystem dar, daß benötigt wird, um eine selbstkonsistente Berechnung des klassischen Feldes mit perturbativ beschriebenen gluonischen Quantenfluktuationen und exakt berechneten Quarks und Antiquarks durchzuführen.
Gegenstand dieser Arbeit sind Eigenschaften angeregter hadronischer Materie sowie physikalische Systeme, in denen diese Materie auftritt bzw. produziert wird. Die Beschreibung der stark wechselwirkenden Materie erfolgt in einem hadronischen, chiral-symmetrischen SU(3)L x SU(3)R Modell, welches die Saturierungseigenschaften von Kernmaterie und die Eigenschaften von Atomkernen reproduziert. Die Untersuchung heißer und dichter unendlicher hadronischor Materie zeigt, dass das vom Modell vorhergesagte Phasendiagramm stark von den Kopplungen der Baryonenresonanzen abhängt. Für kalte hadronische Materie ergibt die Einbeziehung des Baryonendekupletts und die Freiheit in deren Vektorkopplungen eine sehr große Bandbreite an verschiedenen Zustandsgleichungen. Für heiße hadronische Materie mit verschwindendem baryochemischen Potential zeigt sich ebenfalls eine starke Abhängigkeit der Eigenschaften hadronischer Materie von der Ankopplung der baryonischen Resonanzen. Es werden drei verschiedene Parametrisierungen betrachtet. Das resultierende Phasenübergangsverhalten variiert von einem "Crossover" über einen schwachen, zu einem doppelten Phasenübergang erster Ordnung. Es zeigt sich jedoch, dass die beobachteten Eigenschaften von Neutronensternen die Unbestimmtheit bzgl. der Vektorkopplung dieser Freiheitsgrade und damit der Zustandsgleichung deutlich verringern. Das Raum-Zeit Verhalten relativistischer Schwerionenkollisionen bei SPS- und RHIC-Energien wird mittels einer hydrodynamischen Simulation unter Benutzung der chiralen Zustandsgleichungen untersucht. Dabei spiegelt sich das unterschiedliche Phasenübergangsverhalten deutlich im Ausfrierverhalten der hadronischen Materie wider. Die im chiralen Modell berechneten Teilchenzahlverhältnisse werden mit den aus Schwerionenkollisionen von AGS- bis RHIC-Energien erhaltenen experimentellen Daten verglichen. Dabei zeigt sich, dass die verschiedenen Parametersätze des chiralen Modells und die Rechnungen für ein nichtwechselwirkendes, ideales Hadronengas eine ähnlich gute Beschreibung der gemessenen Weite liefern. Die deduzierten Ausfrierwerte für die Temperatur sind sensitiv auf das Phasenübergangsverhalten und liegen unterhalb der jeweiligen kritischen Temperatur. Die vorhergesagten Ausfriermassen sind in allen Parametrisierungen sehr ähnlich mit Abweichungen bis zu 15% von den entsprechenden Vakuumwerten. Die Untersuchung der Eigenschaften von Vektormesonen in dichter Materie erfolgt in der Mittleren-Feld- und in der HartreeNäherung. Hierbei zeigt sich eine signifikante Reduzierung der Teilchenmassen durch Vakuumpolarisationseffekte.
Gegenstand dieser Arbeit war die Untersuchung der optischen und elektronischen Eigenschaften von metallorganischen Materialien, die mit dem Verfahren der Elektronenstrahlinduzierten Deposition hergestellt wurden. Da es sich bei diesen noch relativ unerforschten Endprodukten um Materialmengen von wenigen Nanogramm Gewicht und geometrische Abmessungen im Sub-µm-Bereich handelt, wurden hierzu neue Verfahren der Herstellung, Strukturierung und Charakterisierung entwickelt. Sowohl die optischen als auch die elektronischen Eigenschaften dieser Deponate besitzen einen gemeinsamen physikalischen Nenner in ihrer inneren Morphologie: ein nanokristallines dielektrisches Verbundmaterial, das aus metallischen Kristalliten und organischen Polymeren gebildet wird. Im Hinblick auf die Durchführung der Untersuchungen war das Augenmerk auf zwei potentielle industrielle Anwendungen gerichtet: den Photonischen Kristallen und den Einzelelektronen-Phänomenen bei Raumtemperatur. Mit Hilfe von Beugungsexperimenten im Fernfeld wird ein Verfahren gezeigt, das eine der periodischen Struktur von Photonischen Kristallen angepaßte Charakterisierung von Materialstrukturen mit optischer Bandlücke ermöglicht. Das mathematische Grundgerüst bildet dabei eine rigorose Streutheorie, die als Lösung der Helmholtz-Gleichung an dielektrischen Zylindern mit wenigen hundert nm Durchmesser den Experimenten zugrunde gelegt wird und sowohl für die praktische Dimensionierung des Versuchsaufbaus als auch für die theoretische Auswertung der Meßdaten, z.B. für die Brechungsindexbestimmung, dient. Die Herstellung und Kontrolle der Eigenschaften von Einzelelektronen-Tunnelelementen (SETs, Single Electron Tunneling Devices), welche bei hohen Temperaturen mit einer abzählbar kleinen Anzahl von Elektronen noch arbeiten, dürfte wohl eine der größten Herausforderungen in der heutigen Festkörperelektronik sein. Obwohl die Idee dazu, auf Basis der "Orthodoxen Theorie", bis auf die 80er Jahre des vergangenen Jahrhunderts zurückgeht, konnten nennenswerte Ergebnisse nur unter "Laborbedingungen" mit entsprechend hohem experimentellem Aufwand erzielt werden. In der vorliegenden Arbeit wird ein neuer Weg gegangen, um die beiden wesentlichen Bedingungen der orthodoxen Theorie, nämlich die Kleinheit der Kapazitäten und hohe Tunnelwiderstände, durch das ungeordnete nanokristalline Netzwerk der metallorganischen Deponate zu erfüllen. Die Motivation hierzu liegt in der hochohmigen organischen Matrix der Deponate, die mit darin eingebetteten elektrisch isolierten Nanokristalliten (die mit Durchmessern zwischen 1 nm und 2.5 nm ausgezeichnete Quantenpunkte bilden) eine ideale Umgebung für den Betrieb von Einzelelektronen-Tunnelelementen bereitstellen. Ein stabiles Verhalten unter hohen Temperaturen und eine ausgeprägte Resistenz gegen quantenmechanische Fluktuationen (z. B. dem Co-Tunneln oder Hintergrundladungen) wird durch den Aufbau von nanokristallinen Netzwerken, die in der Arbeit als "Über-SET" bezeichnet werden, erreicht. Mit Hilfe der entwickelten speziellen Technik lassen sich Nanokristallite elektrisch bis zur quantenmechanischen Tunnelgrenze voneinander isolieren und als Quantenpunkte betreiben. Die dabei beobachtbaren Phänomene sind diskretisierte I/U-Kennlinien und das Blockade-Verhalten der Spannung bei Raumtemperatur, deren Entstehung in Monte-Carlo-Simulationen auf zwei physikalische Grundprinzipien zurückgeführt wird: der Ausbildung von Einfangzuständen (Traps) für Elektronen an Grenzstellen und dem Mechanismus des negativen differentiellen Widerstandes (NDR, Negative Differential Resistance). Beide Effekte fungieren in einer gegenseitigen Kombination zueinander durch Coulomb-Wechselwirkungen zu einem mikroskopischen Schalter für den gesamten Strom.
Resistive Plate Chambers (RPCs) are gaseous parallel plate avalanche detectors that implement electrodes made from a material with a high volume resistivity between 10 high 7 and 10 high 12 omega cm. Large area RPCs with 2mm single gaps operated in avalanche mode provide above 98% efficiency and a time resolution of around 1 ns up to a flux of several kHz/cm high 2. These Trigger RPCs will, as an example, equip the muon detector system of the ATLAS experiment at CERN on an area of 3650 m high 2 and with 355.000 independent read out channels. Timing RPCs with a gas gap of 0.2 to 0.3mm are widely used in multi gap configurations and provide 99% efficiency and time resolution down to 50 ps. While their performance is comparable to existing scintillator-based Time-Of-Flight (TOF) technology, Timing RPCs feature a significantly, up to an order of magnitude, lower price per channel. They will for example equip the 176 m high 2 TOF barrel of the ALICE experiment at CERN with 160.000 independent read out cells. RPCs were originally operated in streamer mode providing large signals which simplifies readout electronics and gap uniformity requirements. However, high rate applications and detector aging issues made the operation in avalanche mode popular. This was also facilitated by the development of new highly quenching C2F4H2-based gas mixtures with small contents of SF6. While the physics of streamers is difficult to study, the avalanche mode opened the possibility for a detailed simulation of the detector physics processes in RPCs. Even though RPCs were introduced in the early eighties and have been (will be) used in experiments, there are still disagreements about the explanation of several aspects of the RPC performance. The high efficiency of single gap RPCs would require a large ionization density of the used gases, which according to some authors contradicts measurements. Even in the case of a large ionization density the gas gain has to be extremely large, in order to arrive at the observed RPC efficiency. This raises other questions: A very strong space charge effect is required to explain the observed small avalanche charges around 1 pC. Doubts have been raised whether an avalanche can progress under such extreme conditions without developing into a streamer. To overcome these difficulties, other processes, like the emission of an electron from the cathode, were suggested. Moreover, the shape of measured charge spectra of single gap RPCs differs largely from what is expected from the statistics of the primary ionization and the avalanche multiplication. In this thesis we discuss the detector physics processes of RPCs, from the primary ionization and the avalanche statistics to the signal induction and the read out electronics. We present Monte-Carlo simulation procedures that implement the described processes. While the fundament of the described model and some results were already published elsewhere [1], the subject of this thesis is the implementation of the space charge effect. We present analytic formulas for the electrostatic potential of a point charge in the gas gap of an RPC. These formulas were developed in collaboration with the University of Graz [2] and were published in [3, 4]. The simulation model presented in [1] is completed by the dynamic calculation of the space charge field using these formulas. Since the gas parameters like drift velocity and the Townsend and attachment coefficients depend on the electric field, they are calculated dynamically as well. The functional dependence of these parameters on the field is obtained with the simulation programs MAGBOLTZ and IMONTE. For the primary ionization parameters, we use the values that are predicted by the program HEED. While the described procedure only simulates the longitudinal avalanche development towards the anode of the RPC, we also present more dimensional models that allow a careful study of the transverse repulsive and attractive forces of the space charge fields, and of the consequences for the avalanche propagation. We shall show that the efficiencies of single gap Timing RPCs is indeed explained by the high primary ionization density (about 9.5 /cm as predicted by HEED) and a large effective Townsend coefficient (around 113 /mm as predicted by IMONTE). We show that the space charge field reaches the same magnitude as the applied electric field in avalanches at large gas gain. This strong space charge effect effectively suppresses large values for the avalanche charges. The shape of the simulated charge spectra is very similar to the measurements. Also the simulated average charges are close to the experimental results. RPCs are operated in a strong space charge regime over a large range of applied voltage, contrary to wire chambers. We apply only standard detector physics simulations to RPCs. The performance of Timing and Trigger RPCs is well reproduced by our simulations. The results concerning the space charge effect were presented and discussed at the 'RPC 2001' workshop [5] and on the '2002 NSS/MIC' conference [6].
In summary, the cooled heavy-ion beams of the ESR storage ring offer excellent experimental conditions for a precise study of the effects of QED in the groundstate of high-Z one- and two-electron ions. This has been demonstrated within the series of experiments conducted at the electron cooler device as well as at the gasjet target. In this work we have used a recently developed experimental approach to obtain the first direct measurement of the two-electron contributions to the ground state binding energy of helium-like uranium. By employing our method, all one-electron contributions to the binding energy such as finite-nuclear size corrections and the one-electron self energy cancel out completely. Note, this is a distinctive feature of this particular kind of QED test and is in contrast to all other tests of bound state QED for high-Z ions such as 1s Lamb shift (in one-electron systems), g-factor of bound electrons, or hyperfine splitting. Compared to former investigations conducted at the superEBIT in Livermore we could already substantially improve the statistical accuracy and extend studies to the higher-Z regime. Moreover, our result has reached a sensitivity on specific two-electron QED contributions. Our value agrees with the theoretical predictions within the experimental uncertainty. Similar to the superEBIT experiment possible sources of systematic errors are essentially eliminated and the final result is limited only by counting statistics. For the case of the 1s Lamb shift in hydrogen-like uranium, the achieved accuracy of +- 4.2 eV is a substantial improvement by a factor of 3 compared to the most precise value up to now [44] (see Fig. 5.6). Our result already provides a test of the first-order QED contributions at the 1.5% level and only a slight improvement is required in order to achieve a sensitivity to QED contributions beyond first-order SE and VP.
Die Entwicklung der Renormierungsgruppen-Technik, die in ihrer feldtheoretischen Version auf Ideen von Stückelberg und Petermann und in der Festkörperphysik auf K.G. Wilson zurückgeht, hat wesentliche Einsichten in die Natur physikalischer Systeme geliefert. Insbesondere das Konzept der so genannten Universalitätsklassen erhellt, warum Systeme, die durch scheinbar sehr verschiedene Hamilton-Operatoren beschrieben werden, doch im Wesentlichen die selbe (Niederenergie-)Physik zeigen. Ein weiterer Grund für den Erfolg dieser Methode liegt darin begründet, dass sie in systematischer Weise unendlich viele Feynman-Diagramme aufsummiert und somit über konventionelle Störungstheorie hinaus geht. Dies spielt in der Festkörperphysik vor allem dann eine wichtige Rolle, wenn das vorliegende physikalische System stark korreliert ist. Entsprechend der Vielzahl von Anwendungsmöglichkeiten hat sich in den vergangenen Jahrzehnten eine große Bandbreite verschiedener Formulierungen der Renormierungsgruppen-Technik ergeben. Eine davon ist die sogenannte funktionale Renormierungsgruppe, die auf Wegner und Houghton zurück geht und die auch in der vorliegenden Arbeit benutzt und weiter entwickelt wurde. Wir haben hier insbesondere auf die Einbeziehung der wichtigen Reskalierungsschritte wertgelegt. Als erstes Anwendungsgebiet des neu entwickelten Formalismus wurden stark korrelierte Elektronen in einer Raumdimension ausgewählt und hier insbesondere ein Modell, das als Tomonaga-Luttinger-Modell (TLM) bezeichnet wird. Im TLM wechselwirken Elektronen mit einer strikt linearen Energiedispersion ausschließlich über so genannte Vorwärtsstreu-Prozesse. Aufgrund der Linearisierung der Energiedispersion nahe der Fermipunkte ergibt sich ein Modell, das z.B. mit Hilfe der so genannten Bosonisierungs-Technik exakt gelöst werden kann. Hauptziel der vorliegenden Arbeit ist es, die bekannte Spektralfunktion dieses Modells unter Verwendung des Renormierungsgruppen-Formalismus zu reproduzieren. Gegenüber der bisherigen Implementierung der Renormierungsgruppe, bei der lediglich der Fluss einer endlichen Anzahl von Kopplungskonstanten betrachtet wird, stellt die Berechnung des Flusses ganzer Korrelationsfunktionen eine enorme Erweiterung dar. Der Erfolg dieser Herangehensweise im TLM bestärkt die Hoffnung, dass es in Zukunft auch möglich sein wird, die Spektralfunktionen anderer Modelle mit dieser Methode zu berechnen, bei denen herkömmliche Techniken versagen.
Wir haben uns in dieser Arbeit der möglichen Produktion Schwarzer Löcher in hochenergetischen Teilchenkollisonen unter Annahme einer Raumzeit mit großen Extra-Dimensionen gewidmet. Die Produktionsraten, die bei einer neuen fundamentalen Skala im Bereich Mf ~ 1 TeV zu erwarten sind, liegen für den LHC in der Größenordnung von ~ 10 hoch 8 Schwarzen Löchern pro Jahr. Diese hohe Anzahl begründet das Interesse an den Eigenschaften der produzierten Schwarzen Löchern und wirft die Frage auf, wie diese Objekte beobachtet werden können. Bei der Untersuchung der Eigenschaften dieser Schwarzen Löcher haben wir festgestellt, dass das Entstehen Schwarzer Löcher ab einer c.o.m.-Energie im Bereich der neuen Planck-Masse zu einer raschen Unterdrückung hochenergetischer Jets, wie sie in pp-Kollisionen entstehen, führt. Dies ist ein klares Signal und leicht zu beobachten. Unter Ansetzen des Mikrokanonischen Ensembles haben wir die Zerfallsrate der Schwarzen Löcher und ihre Lebensdauer berechnet. Es zeigt sich, dass diese Lebensdauer hoch genug ist, um ein zeitlich deutlich verzögertes Signal zu erhalten. Nimmt man an, dass die statistische Mechanik bis zur Größenordung Mf gülig bleibt, so gelangen die Schwarzen Löcher im Zuge ihrer Verdunstung in einen quasi-stabilen Zustand und ein Rest verbleibt. Die Lebenszeit ist von der Anzahl der Dimensionen abhängig und lässt so Rückschlüsse auf diesen Parameter zu. Im Falle (Mf ~ TeV, d > 5) liegt sie für Energien von ~ 10 TeV in der Größenordung 100 fm/c. Eine geometrische Quantisierung der Strahlung legt außerdem nahe, dass die Schwarzen Löcher nicht restlos verdampfen können, sondern ein stabiler Überrest verbleibt. Diese Ergebnisse sind in [202, 203, 205] veröffentlicht worden.
In der vorliegenden Arbeit wird untersucht, inwieweit sich quantenoptische Zufallsgeneratoren, bei denen die "Welcher-Weg-Entscheidung" einzelner Photonen am Strahlteiler bzw. Faserkoppler zur Zufallsgenerierung verwendet wird, zur Erzeugung von Zufallsbitströmen eignen. Es werden hierbei im wesentlichen vier verschiedene Varianten aufgebaut, die sich durch die eingesetzte Lichtquelle und die Realisierung des optischen Aufbaus unterscheiden, um zu erkennen, welche Detailprobleme sich beim Aufbau solcher Generatoren zeigen. Als Lichtquellen werden eine Einphotonenquelle auf Basis der parametrischen Fluoreszenz und eine Quelle, die stark abgeschwächte, gepulste Poisson-Lichtfelder abstrahlt, eingesetzt. Bei der optischen Realisierung wird jeweils einmal Freistrahl- und einmal Faseroptik für das Zufall generierende Element verwendet. Die Rohdaten-Bitströme der verschiedenen Varianten werden mit Hilfe von statistischen Verfahren untersucht, die für Tests von physikalischen Zufallsgeneratoren geeignet sind. In der Diskussion werden die verschiedenen Testverfahren hinsichtlich ihrer Eignung zum Aufdecken tieferliegender Defekte bewertet. Thermische Einflüsse auf die Rohdaten-Ströme werden dargelegt, Methoden zur Verringerung der Einflüsse angegeben und gezeigt, wie mit Hilfe von mathematischen Regularisierungsverfahren ideale Bitströme aus den Rohdaten erzeugt werden können. Anhand von (mehrstufigen) Autokorrelationskoeffiziententests werden die Auswirkungen von Problemen mit verschiedenen Datenaufnahme-Elektroniken auf die Rohdaten- Ströme analysiert. Die Ursachen der Probleme werden diskutiert, mögliche Lösungen, wie sich die Probleme stark verringern bzw. vermeiden lassen, werden vorgeschlagen und experimentell untersucht. Die Einflüsse der Eigenschaften der verwendeten Photonenquellen im Zusammenspiel mit den verwendeten optischen Komponenten und Detektoren werden analysiert und ihre Auswirkungen auf die Zufallsgenerierung diskutiert. Zur Erhöhung der Ausgangbitrate quantenoptischer Zufallsgeneratoren werden verschiedene Ausführungen von Mehrfachzufallsgeneratoren vorgeschlagen, insbesondere für den quantenoptischen Zufallsgenerator auf Basis der parametrischen Fluoreszenz. Als weitere, interessante Variante eines quantenoptischen Zufallsgenerators wird das theoretische Konzept für den "HOM-Generator" präsentiert, bei dem beide Photonen eines Photonenpaares bei einer gemeinsamen "Welcher-Weg-Entscheidung" zur Zufallsgenerierung verwendet werden. Die vorgeschlagenen Varianten quantenoptischer Zufallsgeneratoren werden hinsichtlich ihrer Eignung für einen praktischen Einsatz diskutiert und bewertet. Für den Dauereinsatz quantenoptischer Zufallsgeneratoren als Komponente in Sicherheitsinfrastrukturen, wie z.B. Trustcentern, werden Optimierungen, Möglichkeiten der Kostenreduzierung und weitere Aufbauvarianten vorgeschlagen. Die Optimierungen werden hinsichtlich ihrer Praxistauglichkeit diskutiert und gewertet. Mögliche Angriffe auf quantenoptische Zufallsgeneratoren werden diskutiert und zur Erkennung von Manipulationen an physikalischen Zufallsgeneratoren werden verschiedene Möglichkeiten vorgestellt, um künstliche Signaturen einzufügen, sie vor Verwendung der Zufallsdaten zu verifizieren und aus dem Zufallsstrom zu entfernen.
Es wurde für Protonen- und Deuteronenbeschleuniger unter Extrembedingungen (hoher Ionenstrom, Dauerstrichbetrieb, Niedrigenergieabschnitt) ein Vergleich zwischen der konventionellen RFQ-Alvarez-DTL-Kombination und einer erstmals am IAP für diese Zwecke entwickelten RFQ-H-DTL-kombination durchgeführt. Insbesondere die Auslegung der Teilchendynamik von HF-Driftröhrenlinearbeschleunigern und RFQ's für leichte Ionen unter Miteinbeziehung der Raumladung und der Forderung nach Dauerstrichbetrieb sind Thema der vorliegenden Arbeit. Die vorgestellten Beschleuniger müssen extrem hohen Anforderungen an Transmission (Stromverlustrate << 3 µ A/m nach dem RFQ), Stabilität (stetige Strahldynamik bei Strahlfehlanpassung und Berücksichtigung von mechanischen und optischen Toleranzen), Anlagensicherheit ("Hands-on-Kriterium") und -zuverlässigkeit (Anlagenverfügbarkeit > 80 %) bei hoher HF-Effizienz (optimierte Shuntimpedanzen, Laufzeitfaktoren und Oberflächenstromdichten) genügen. Es wurden exemplarisch im Rahmen von zwei aktuellen Hochstromprojekten mit Dauerstrichbetrieb teilchendynamische DTL-Entwürfe für den mittleren Energiebereich (0.1 = ß = 0.34) durchgeführt: einmal für das ADS/XADS Projekt (Hier: 40 mA, 350/700 MHz 24 MW, Protonen, CW) und als extremes Beispiel das IFMIF Projekt (125 mA, 175 MHz, 5 MW, Deuteronen, CW). Da IFMIF hinsichtlich Transmissionseffizienz und Strahlstrom in Verbindung mit einem 100 %-Tastverhältnis wohl einzigartig ist, mussten besonders intensive Anstrengungen für den Test der Robustheit des teilchendynamische Entwurfs der DTL-Strukturen unternommen werden. Hierzu wurde der gesamte Injektorpart vom Eingang des Referenz Four-Vane-RFQ bei 0.1 MeV bis zum Ausgang des DTL bei 40 MeV als ganzes simuliert, unter Einbeziehung von optischen, HF- und mechanischen Toleranzen. Diese Rechnungen machten deutlich, dass die Einbringung einer kompakten Strahltransportstrecke (MEBT) zwischen RFQ und DTL notwendig ist, um den Strahl transversal und longitudinal ohne Teilchenverluste an den nachfolgenden DTL anzupassen. Man gewinnt dadurch auch zusätzliche Möglichkeiten für Strahljustierung und -diagnose. Infolgedessen gehört ein MEBT mittlerweile zum Referenz-Design, welches einen 175 MHz Four-Vane-RFQ als Vorbeschleuniger vorsieht und nach dem MEBT einen 175 MHz Alvarez-DTL mit FoDo-Fokussierschema. Die Designkriterien für IFMIF gelten uneingeschränkt auch für das ADS/XADS Projekt und infolgedessen wurde ebenfalls erstmals eine Auslegung des Mittelenergieabschnitts des ADS/XADS-Beschleunigers, der unmittelbar nach dem 350 MHz RFQ bei 5 MeV anfängt und bis ~ 100 MeV reicht, mit der neuen supraleitende CH-Struktur unternommen. Der Hochenergiebereich von 100 MeV bis 600 MeV wird im Referenzentwurf mit den bereits bewährten supraleitenden elliptischen Kavitäten mit einer Resonanzfrequenz von 700 MHz abgedeckt [ADS]. Die umfangreichen Untersuchungen inklusive Toleranzabschätzungen ergaben, dass eine Kette von zehn supraleitenden CH-Resonatoren mit Zwischentankfokussierung (Ausnahme das Modul 1) für diese Anwendung bestens geeignet ist. Des weiteren ergab sich, dass ein Frequenzsprung auf 700 MHz nach dem 6-ten CH-Modul bei einer Energie von ~ 56 MeV die Beschleunigungs- und HF-Effizienz erhöht. Außerdem wird dadurch der Strahl ideal an den Hochenergieabschnitt angepasst. Im Rahmen dieser Arbeit wurden neue Driftröhrenlinearbeschleunigerstrukturen vorgestellt (normal leitender IH-DTL, supraleitender CH-DTL), die für bis zu 10 MW Strahlleistung, 125 mA Strahlstrom und höchsten Tastverhältnissen geeignet sind. Ferner konnte durch geschickte Wahl der Strukturparameter und Arbeitspunkte eine gute Teilchendynamik mit einem moderaten Emittanzwachstum erzielt werden: Strahltransport und -beschleunigung ohne Teilchenverluste, starke transversale und longitudinale Fokussierung, große Aperturfaktoren und höchste HF-Effizienz sind gleichzeitig erreichbar. Somit stellen die neuen H-Moden Driftföhrenbeschleuniger vor allen Dingen in der supraleitenden Ausführung (CH-DTL) eine tragfähige Basis für alle weiteren geplanten Hochintensitätsbeschleunigeranlagen dar.
Rückblick Die Motivation für diese Arbeit ergibt sich aus den immer neuen Fragestellungen der modernen Wissenschaft. Deren Beantwortung hängt wesentlich von den geeigneten Messapparaturen ab, die Einblicke in physikalische Prozesse erlauben. Durch effektivere und höher auflösende Detektoren werden präzisere, schnellere und schonendere Messungen möglich. Die Zielsetzung dieser Arbeit über den Hochdruck-Gas-Szintillations-Proportionalzähler ist es, einen Detektor zu entwickeln, mit dem hochenergetische Photonen praktisch vollständig vermessen werden können. Dazu gehören: - die Photonenenergie im Bereich von 5 bis 500 keV, - die Richtung der einfallenden Strahlung (bzw. der Auftreffort auf dem Detektor), - der Absorptionszeitpunkt und - die Diskriminierung von Gamma-induziertem Untergrund. Potenzielle Einsatzgebiete des Detektors sind im wesentlichen medizinische, atom- und astrophysikalische Anwendungen. Die vielversprechenden Eigenschaften dieses Detektorkonzeptes, gegenüber herkömmlichen Gasdetektoren, ergeben sich aus den Mechanismen der primären und der sekundären Gasszintillation. Daraus folgen der überlegene Verstärkungsprozess und das schnelle Zeitsignal. Als Grundlage für die in dieser Arbeit diskutierten Ergebnisse dienen die zuvor von Dangendorf und Bräuning entwickelten Konzepte und die von ihnen gebauten Prototypen. Sie sind geeignet für kleine und mittlere Photonenenergien und liefern eine gute Energie- und Zeitauflösung. Die Tests der Ortsauslese mit abbildenden, optischen Systemen zeigten erste Resultate. Ausgehend von diesen bestehenden Entwicklungen war die Motivation der Arbeit, den Aufbau an die gewünschten Anforderungen anzupassen. Für die höheren Photonenenergien werden ein dichterer Absorber, also ein höherer Gasdruck und damit verbunden neue Auslesekonzepte benötigt. Problem Ein zentrales Problem, das aufgrund dieser neuen Anforderungen auftritt, ist der Druckunterschied zwischen dem Hochdruck-Szintillator und der bei Niederdruck oder im Vakuum betriebenen UV-Auslese. Die dadurch bedingten Kräfte machen entweder besondere Stützstrukturen oder stabile - und dadurch dicke - Fenster erforderlich. In beiden Fällen geht ein Teil des Signals verloren und die Detektorauflösung nimmt ab. Es handelt sich dabei jedoch nicht um prinzipielle Probleme. Die Schwierigkeiten sind rein technischer Natur. Deshalb wurde intensiv weiter nach neuen Konzepten und Lösungsansätzen gesucht, die die Vorteile dieser überlegenen physikalischen Prozesse ausnutzen können. Lösungsansatz Das konkrete Ziel - bzw. die Aufgabenstellung - dieser Arbeit war, mit neuen Technologien, und dabei vor allem mit einem neuen Mikrostruktur-Elektroden-System, bislang bestehende technische Hürden zu überwinden (Kapitel 3). Durch die Möglichkeit, einen in das Hochdruckvolumen integrierten Photonendetektor zu bauen, werden viele der Stabilitätsprobleme gelöst. Mit der großflächigen Auslese des Szintillationslichts direkt dort, wo es entsteht, werden die Transmissionsverluste in Fenstern vermieden. Es gibt damit nur kleine raumwinkelabhängige Effekte und es wird nur ein Gasvolumen und damit kein zusätzliches System zum Evakuieren, Zirkulieren und Reinigen benötigt. Durch die Trennung der Energie- und der Ortsinformation und deren separate Auslese wird zwar die Komplexität des Detektors erhöht, die Teilsysteme können jedoch unabhängig für die jeweiligen Anforderungen optimiert werden. Grundlagen Im Rahmen dieser Arbeit wurden bereits existierende Erfahrungen aufgegriffen und in deren logischer Fortsetzung, ein, in das Szintillatorvolumen integrierter, UV-Photonendetektor entwickelt. Zunächst musste mit einer umfangreichen Recherche ermittelt werden, welche Anforderungen an einen integrierten Photonendetektor bestehen und wie ein solches System in den Aufbau eingebunden werden kann. Mit dem GEM, der sich schon in diversen anderen Gasdetektoranwendungen als universell einsetzbarer Verstärker bewährt hatte, war ein potenzielles Mikrostuktur-Elektroden-System für unsere Anwendung gefunden. Um die Einsatztauglichkeit dieser Mikrostrukturen für die neuen Applikationen zu analysieren, wurden sie im Standard-Design, unter vielen verschiedenen Betriebsparametern getestet. Dabei wurden wertvolle Erfahrungen im Umgang mit den Mikrostrukturen gesammelt. Die GEMs wurden in den typischen Detektorgasen, bei verschieden Drücken, elektrischen Spannungen und Feld-stärken studiert. Dabei wurden die Chancen, aber auch - vor allem aufgrund elektrischer Überschläge und Instabilitäten - die Grenzen des damit Erreichbaren, aufgezeigt. Mit der Herstellung der speziell für diese Anwendung entwickelten GEMs wurde die Grundlage für den stabilen Betrieb des Detektors geschaffen. Simulationsrechnungen In Kooperation mit einer italienischen Gruppe vom INFN in Cagliari haben wir, mit dem Detektor-Simulations-Programm Garfield, Berechnungen durchgeführt (Kapitel 4). Damit konnte schon vor der technischen Realisierung ein Überblick über die Betriebsbedingungen eines mehrstufigen und komplexen Systems gewonnen werden. Dazu zählen die messtechnisch erfassbaren Größen, wie z.B. die mittlere Gasverstärkung und Diffusion. Daneben konnten aber auch die Prozesse im Kleinen studiert werden. Von besonderem Interesse für die Funktion des Detektors ist dabei der Verlauf der Feldstärke in den Poren der Mikrostrukturen und den umliegenden Regionen. Dessen räumlicher Verlauf in Kombination mit den jeweiligen Gasdaten bestimmen die Elektronentransportparameter, die Gasverstärkung, die Diffusion und die Effizienz. In den Xenon-Szintillator integrierter UV-Photonen-Detektor Der UV-Photonendetektor konnte in zwei Varianten erfolgreich in ein Volumen mit dem Xenon-Gas-Szintillator integriert werden. Die Verbindung der CsI-Photokathode mit dem Elektronenverstärker wurde dabei zum einen als semitransparente dünne Schicht auf einer Quarzglasplatte vor der GEM-Folie und zum anderen als opake Variante auf der Frontseite des GEM realisiert. Bei der Auslese des Xenon-Szintillationslichts mit einer in reinem Xenon und bei hohem Druck betriebenen CsI-Photokathode, wurde Neuland betreten. Es wurde erfolgreich gezeigt, dass der integrierte Photonendetektor auf GEM Basis für die hier diskutierten Einsatzbereiche und Anforderungen funktioniert. Die Ankopplung der Photokathode an die Verstärkerstruktur und dabei vor allem der Elektronentransport von der CsI-Schicht in die Verstärkungszone, wurden im Detail untersucht. Dass die Gasverstärkung in reinem Xenon bei den beschriebe-nen Betriebsparameter überhaupt funktioniert, liegt zum einen daran, dass die optische Rückkopplung mit diesem neuen Design effektiv unterdrückt werden kann. Zum anderen konnten die Einflussparameter auf die Gasverstärkung, für den mehrstufigen GEM-Verstärkungsprozess in reinem Xenon, im Detail untersucht werden. Die gekoppelten Gas-Verstärker-Elemente wurden mit einer eigens für diese Anwendung entwickelten Versorgungsspannungsquelle betrieben, die die Folgen von elektrischen Überschlägen minimiert (Kapitel 5.1.3). Gegenüber den herkömmlichen Gasdetektoren ist es mit diesem neuartigen Aufbau möglich, den UV-Photonen-Detektor bei diesen Betriebsparametern stabil zu betreiben. Abbildende Optiken - optische und mechanische Eigenschaften Parallel zur Entwicklung dieses großflächigen Detektors zur Messung des Energiesignals und der Registrierung des primären Lichts, wurde das Konzept zur Ortsauslese via abbildender Optik weiterverfolgt. Die optischen Abbildungseigenschaften der Linsen wurde im Wellenlängenbereich des Xenon-Szintillationslichtes untersucht. In ersten Tests konnte bei kleinen Gasdrücken und somit geringen mechanischen Beanspruchungen die Ebene der Sekundär-lichterzeugung auf einen gekapselten Mikro-Kanal-Platten-Detektor abgebildet werden. Die Festigkeit der Quarzglaslinse für die Druckbeanspruchungen im hier diskutierten Detektor konnte in Zusammenarbeit mit der Fachhochschule Heilbronn - mittels Finite-Elemente-Berechnung - als ausreichend verifiziert werden. Ausblick Die beiden getrennten Systeme für Orts- und Energiemessung funktionieren unabhängig voneinander. Die Vorraussetzungen für die Kombination der Komponenten in einem gemeinsamen Aufbau sind damit geschaffen. Damit ist der Weg für die folgenden Schritte in diesem Projekt aufgezeigt. Als logische Fortsetzung dieser Arbeiten ist geplant, den integrierten Photonendetektor mit der Photokathode auf der GEM-Frontseite, zusammen mit der Ortsauslese gemeinsam aufzubauen. Von dieser Kombination profitiert das Auflösungsvermögen beider Messungen. Die Korrektur der ortsabhängigen Schwankungen in der Effizienz der Photokathode verbessert die Energieauflösung signifikant. Auf der anderen Seite kann durch das geschickte Setzen von geeigneten Bedingungen auf das Energiesignal die Ortsmessung optimiert werden. Als weiterer naheliegender Schritt auf dem Weg zum effizienten Nachweis der hochenergetischen Photonen, bietet sich der Einbau einer zusätzlichen Verstärkungsstufe zum Aufbau eines dreifach-GEM-Detektors an. Damit kann bei höheren Gasdrücken, trotz kleiner werdender maximaler Verstärkung pro GEM, eine ausreichende Gesamtverstärkung erreicht werden. Der Einsatz des Detektors in einem größeren Experiment, in Kombination mit anderen Messapparaturen, rückt somit in greifbare Nähe.
This thesis presented the measurement of antideuteron and antihelium-3 production in central AuAu collisions at V SNN = 200 GeV center-of-mass energy at RHIC. The analysis is based on STAR data, about 3 x 10 high 6 events at top 10% centrality. Within the data sample a total number of about 5000 antideuterons and 193 antihelium-3 were observed in the STARTPC at mid-rapidity. The specific energy loss measurement in the TPC provides antideuteron identification only in a small momentum window, antihelium-3 however can be identified nearly background free with almost complete momentum range coverage. Following the statistical analysis of the hadronic composition at chemical freeze-out of the fireball, the antinuclei abundances were analyzed in terms of the same statistical description. Now applied to the clusterization of the fireball, the statistical analysis yields a fireball temperature of (135+-10) MeV and chemical potential of (5+-10) MeV at kinetic freeze-out. In the same way as the hadronization, the clusterization process is phase-space dominated and clusters are born into a state of maximum entropy. The large sample of observed antihelium-3 allowed for the first time in heavy-ion physics to calculate a differential multiplicity and invariant cross section as a function of transverse momentum. As expected, the collective transverse flow in the fireball flattens the shape of the transverse momentum spectrum and leads to the high inverse slope parameter of (950+-140) MeV of the antihelium-3 spectrum. With the extracted mean transverse momentum of antihelium-3, the collective flow velocity in transverse direction could be estimated. As the average thermal velocity is small compared to the mean collective flow velocity for heavy particles, the mean transverse momentum of antihelium-3 by itself constrains the flow velocity. Here, a simple ideal-gas approximation was fitted to the distribution of the mean transverse momentum as a function of particle mass and provided direct access to the kinetic freeze-out temperature and the flow velocity. A concept, which is complementary to the combined analysis of momentum spectra and two-particle HBT correlation methods commonly used to extract these parameters, and a cross check for the statistical analysis. The upper limit for the transverse collective flow velocity from the antihelium-3 measurement alone is v flow <= (0.68+-0.06)c, whereas the ideal-gas approximation yields a temperature of (130+-40) MeV and v flow = (0.46+-0.08)c. The results indicate, that the kinetic freeze-out conditions at SPS and RHIC are very similar, except for a smaller baryon chemical potential at RHIC. The simultaneous inclusive measurement of antiprotons allowed to study the cluster production in terms of the coalescence picture. With the large momentum coverage of the antihelium-3 momentum spectrum, the coalescence parameter could be calculated as a function of transverse momentum. Due to the difference between antiproton and antihelium-3 inverse slopes, increases with increasing transverse momentum - again a direct consequence of collective transverse flow. Both B2 and B3 follow the common behavior of decreasing coalescence parameters as a function of collision energy. According to the simple thermodynamic coalescence model, this indicates an increasing freeze-out volume for higher energies and is confirmed by the interpretation of the coalescence parameters in the framework of Scheibl and Heinz. Their model includes a dynamically expanding source in a quantum mechanical description of the coalescence process and expresses the coalescence parameter as a function of the homogeneity volume V hom accessible also in two-particle HBT correlation analyzes. The values for the antideuteron and antihelium-3 results agree well with the homogeneity volume from pion-pion correlations, but do not seem to follow the same transverse mass dependence. A comparison with proton-proton correlations may clarify this point and provide an important cross check for this analysis. Compared to SPS the homogeneity volume increases nearly by a factor of two. The analysis of the antinuclei emission at RHIC allowed to study the kinetic freeze-out of the created fireball. The results show, that the temperature and mean transverse velocity in the expanding system does not change significantly, when the collision energy increases by one order of magnitude. Only the source volume, i.e. the homogeneity volume, increases. That leaves open questions for the theoreticians to the details of the system evolution from the initial hot and dense phase - the initial energy density is a factor of two to three higher at RHIC than at SPS - to the final kinetic freeze-out with similar conditions. At the same time, the results are important constraints for the theoretical descriptions. The successful implementation of the Level-3 trigger system in STAR opens the door for the measurement of very rare signals. Indeed, in the coalescence physics perspective, the first observations of anti-alpha 4 He nuclei and antihypertritons 3/Delta H will come within the reach of STAR, in addition to a high statistics sample of antihelium-3.
Die Doppelionisation von Wasserstoffmolekülen H2 durch einzelne Photonen stellt ein fundamentales und herausforderndes Problem sowohl für die experimentelle als auch für die theoretische Physik dar. In den meisten Fällen kann dabei die elektronische Bewegung von der nuklearen Dynamik entkoppelt werden (Born-Oppenheimer Näherung). Aus diesem Grund kann man auch den molekularen Fragmentationsprozess als eine Emission eines Dielektrons aus einem nuklearen Zweizentren-Coulomb-Potential beschreiben. Die vorliegende Arbeit befasst sich mit der Photodoppelionisation (PDI) von molekularem Wasserstoff durch einzelne, linear polarisierte Photonen mit einer Energie von 75 eV. Dieses Szenario wird verglichen mit der Photodoppelionisation von Heliumatomen (siehe [Bri00] für einen umfassenden Überblick). In diesem Versuch wurde die Rückstoßionenimpulsspektroskopie-Methode (COLd Target Recoil Ion Momentum Spectroscopy COLTRIMS) benutzt, um alle Fragmente der Reaktion auf ortsauflösende Vielkanalglasplatten(Multi-Channel-Plate MCP)-Detektoren mit Verzögerungsdrahtauslese (delay-line anode) abzubilden. Dabei wurden die Mikropartikel durch elektrische und magnetische Felder geführt. In einer Messung wurde das Rückstoßionenspektrometer mit gepulster Extraktionsspannung betrieben, um das Dielektron und die Stellung der molekularen Achse mit guter Impulsauflösung gleichzeitig vermessen zu können. In einer weiteren Messung kam ein neuartiges Detektorsystem mit hexagonaler Verzögerunsdrahtanode zum Einsatz, die in der Lage war, beide Elektronen, die in sehr kurzen Zeitabständen auf dem Detektor eintrafen, ohne Totzeitverluste in Koinzidenz mit den nuklearen Fragmenten ortsauflösend zu registrieren. Aus den Flugzeiten und Auftrefforten der Teilchen der beiden Datensätze konnten die Impulse des Vierteilchenendzustandes generiert werden. Dies stellt die Messung des Betragsquadrats der quantenmechanischen Wellenfunktion im Impulsraum dar. Aus diesen Größen konnten auch die azimutalen und polaren Winkelverteilungen in Referenz zum Polarisationsvektor des einfallenden Lichts bestimmt werden. Basierend auf der axialen Rückstoßnäherung konnten so zum ersten Mal hochdifferentielle Wirkungsquerschnitte (QDCS und höher) des Vierkörper-Problems für eine raumfeste Molekülachse gemessen werden. Unter Ausnutzung der Reflexions-Näherung war sogar der internukleare Abstand des Moleküls zum Zeitpunkt der Photoabsorption zugänglich. Man findet markante Übereinstimmungen mit der PDI von Heliumatomen. Das Dielektron wird vorwiegend entlang des Polarisationsvektors emittiert und koppelt an das Schwerpunktssystem (Center-of-Mass CM) der nuklearen Partikel, die in einer Coulomb-Explosion fragmentiern. Etwa 72.5 % der Anregungsenergie der beiden Elektronen geht in deren Relativbewegung. Wie bei der Ionisation von Heliumatomen bestimmt die Elektron-Elektron Wechselwirkung zusammen mit diversen Auswahlregeln (siehe [Wal00c]) die Form der polaren Winkelverteilung. In der azimutalen Ebene (die Ebene, die senkrecht zum Polarisationsvektor des Lichts angeordnet ist) erkennt man den attraktiven Einfluss des nuklearen Zweizentren-Potentials, was zu einer Abweichung von der Zylindersymmetrie um die Achse des elektrischen Feldvektors des Lichts führt, wie sie bei niedrigeren Photonenenergien vorzufinden ist (siehe [Dör98b]). In dieser Ansicht tendieren langsame Elektronen dazu, entlang der Molekülachse emittiert zu werden. Es können der sogenannte Auffülleffekt der Knotenstruktur und die vergrößerten Zwischenwinkel in der Polarwinkelverteilung der Elektronen in Form einer Zweikeulenstruktur verifiziert werden (siehe [Red97, Wig 98]). Die Ergebnisse bestätigen den Modellansatz von J. Feagin (siehe [Fea98]), der den Zusammenbruch einer atomaren Auswahlregel, die auf einem Konus wirkt, für den molekularen Fall vorhersagt. Diese Auswahlregel reduziert sich auf eine Knotenlinie, die aufgrund der endlichen Öffnungswinkel des Experiments aufgefüllt wird. Es gibt Hinweise, dass die Verringerung des elektronischen Zwischenwinkels eine Funktion der Stellung der Molekülachse ist, d.h. der kohärenten Überlagerung der beiden möglichen Endzustände mit S- und ?-Symmetrie. Die Ergebnisse der Wannier-Theorie vierter Ordnung nach T. Reddish und J. Feagin (siehe [Red99]) zeigen eine gute Übereinstimmung mit den experimentell gewonnen Daten, zumindest solange die beiden Elektronen den gleichen kinetischen Energiebetrag erhalten. Im Gegensatz dazu bewertet die hochkorrelierte 5C-Theorie nach M. Walter et al. (siehe [Wal99]) den Einfluss des attraktiven nuklearen Zweizentren-Potentials zu hoch. Vorläufige Ergebnisse einer CCC-Rechnung von A. Kheifets et al. (siehe [Khe02]) zeigen eine sehr akkurate Übereinstimmung mit den gemessenen Winkelverteilungen. Minimiert man die Elektron-Elektron Wechselwirkung, indem man eine rechtwinklige Emission der beiden Elektronen fordert (dies kommt einer Ionisation eines H2 +-Ions gleich), so findet man keine starken Fokussierungseffekte vor, wie man sie von Ionisationsprozessen von N2 und CO her kennt (siehe [Lan01, Web01b, Jah02a und Web02]). Stattdessen beobachtet man die Emission eines langsamen Elektrons auf dem nuklearen Sattelpunktspotential, wie man es nach einer halbklassischen Beschreibung erwarten kann. Zusätzlich ist eine hochstrukturierte Winkelverteilung zu beobachten, die auf höhere Drehimpulsbeiträge schliessen lässt (vergleichbar der Parametrisierung bei der PDI von Heliumatomen nach L. Malegat et al., siehe [Mal97d]). Die Verteilung ist sehr sensitiv auf die Energie der Elektronen und die Orientierung der Molekülachse, was weder angemessen durch auslaufende, ebene Wellen noch durch die 5C-Theorie beschrieben werden kann. Für diese Ereignisse erzwingen große internukleare Abstände eine Emission der Elektronen entlang des Polarisationsvektors, während für kleine Abstände die Elektronen vorwiegend rechtwinklig zur Molekülachse ausgesendet werden. Anhand dieser Tatsachen kann man auf einen merklichen Einfluss des Anfangszustands auf die Winkelverteilung der Elektronen zurückschließen. Das ganze Szenario ändert sich sobald man die Elektron-Elektron Wechselwirkung wieder "einschaltet", indem man fordert, dass die Fragmentation in einer Ebene stattfindet. Hier bestimmt die Relativbewegung der beiden Elektronen die Form der Wirkungsquerschnitte. Es zeigen sich nur geringfügige Änderungen in Abhängigkeit zum internuklearen Abstand. Es kann aber teilweise eine dreifache Keulenstruktur ausgemacht werden. Diese Substruktur ändert ihre Amplitude und Richtung als Funktion des Molekülabstandes. Eine direkte Emission entlang des Polarisationsvektors scheint dabei verboten zu sein. In dieser Darstellung zeigt das elektronische Emissionsmuster einen sehr heliumähnlichen Charakter für kleine Bindungslängen. Für größere Abstände der Kerne werden langsame Elektronen deutlich unter einem Zwischenwinkel von 180° (back-to-back-emission) gegen das schnelle Referenzelektron emittiert. Referenzen: [Bri00] J.S. Briggs et al., J. Phys. B: At. Mol. Opt. Phys., 33, (2000), S. R1 [Dör98b] R. Dörner et. al., Phys. Rev. Lett., 81, (1998), S. 5776 [Fea98] J. Feagin, J. Phys. B: At. Mol. Opt. Phys., 31, (1998), S. L729 [Jah02a] T. Jahnke et. al., Phys. Rev. Lett., 88, (2002), S. 073002 [Khe02] A. Kheifets, private Mitteilung, (2002) [Lan01] A. Landers et al., Phys. Rev. Lett., 86, (2001), S. 013002 [Mal97d] L. Malegat et al., J. Phys. B: At. Mol. Opt. Phys., 30, (1997), S. 251 [Red97] T. Reddish et al., Phys. Rev. Lett., 79, (1997), S. 2438 [Red99] T. Reddish et al., J. Phys. B: At. Mol. Opt. Phys., 32, (1999), S. 2473 [Wal00c] M. Walter et al., Phys. Rev. Lett., 85, (2000), S. 1630 [Wal99] M. Walter et al., J. Phys. B: At. Mol. Opt. Phys., 32, (1999), S. 2487 [Web01b] Th. Weber et al., J. Phys. B: At. Mol. Opt. Phys., 34, (2001), S. 3669 [Web02] Th. Weber et al., Phys. Rev. Lett., (2002), eingereicht zur Veröffentlichung [Wig98] J.P. Wightman et al., J. Phys. B: At. Mol. Opt. Phys., 31, (1998), S. 1753