Refine
Year of publication
Document Type
- Article (1876)
- Preprint (1253)
- Doctoral Thesis (593)
- Conference Proceeding (248)
- diplomthesis (101)
- Bachelor Thesis (75)
- Master's Thesis (61)
- Contribution to a Periodical (46)
- Book (33)
- Diploma Thesis (33)
Keywords
- Kollisionen schwerer Ionen (47)
- heavy ion collisions (44)
- LHC (25)
- Quark-Gluon-Plasma (25)
- Heavy Ion Experiments (20)
- equation of state (19)
- quark-gluon plasma (19)
- Relativistic heavy-ion collisions (16)
- QCD (15)
- QGP (15)
Institute
- Physik (4414) (remove)
Das Institut wurde 1956 mit der Berufung von Erwin Schopper als erstem Institutsdirektor am Frankfurter Rebstock-Gelände gegründet. Zur Erstausstattung gehörten Großgeräte wie ein Forschungsreaktor (in Betrieb von 1958 bis 1968) und zwei Van-de-Graaff-Beschleuniger. Ein breites Spektrum von Arbeitsgebieten kennzeichnet seine Forschung und Lehre heute. In der Grundlagenforschung zeichnen das Institut aus Arbeiten zur Struktur und Dynamik von atomaren, nuklearen und subnuklearen Reaktionen. Die Angewandte Forschung widmet sich der Materialanalyse und Materialmodifikation mit atomaren und nuklearen Methoden. Wichtige Impulse für die Forschung kommen durch ein Netzwerk von Kooperationen mit in- und ausländischen Partnerinstituten (z.B. GSI-Darmstadt, CERN-Genf) und durch interdisziplinäre Projekte mit Wissenschaft und Industrie. Einzelbandaufnahmen: Suche mit "Institut für Kernphysik der Johann Wolfgang Goethe-Universität"
Im Rahmen dieser Arbeit wird ein Experiment vorgestellt, mit dem es möglich ist, die Wechselwirkungen zwischen Elektronen in der Gegenwart eines extrem starken Laserfeldes zu untersuchen. Diese resultieren aus der nichtsequentiellen Multiphoton- Doppelionisation von Neon in einem starken elektrischen Feld, das durch einen Hochleistungslaser erzeugt wird. Mit Hilfe der COLTRIMS-Technologie ist es möglich die entstandenen Teilchen nachzuweisen und die Impulskomponenten zu bestimmen. Bei dieser Technologie handelt es sich um ein „Mikroskop“, das atomphysikalische Prozesse vollständig differntiell beobachtet. Die bei der Doppelionisation entstandenen Elektronen und das Rückstossion werden mittels eines schwachen elektrischen Feldes auf orts- und zeitaufgelöste Multichannelplate-Detektoren mit Delaylineauslese geleitet. Zusätzlich wird noch ein magnetisches Feld überlagert. Aus dem Auftreffort und der Flugzeit der Teilchen können die Impulse bestimmt werden. Es ist erstmals möglich die Impulskomponenten der drei Raumrichtungen für alle an der Ionisation beteiligten Teilchen mit hinreichend guter Auflösung zu bestimmen. Es können vollständige differentielle Winkelverteilungen erzielt werden. Damit gelingt es, ein kinematisch vollständiges Experiment zu realisieren. Die Elektronen werden bevorzugt in Richtung des Polarisationsvektors des Laserlichtes emittiert. Aufgrund der guten Impulsauflösung ist es jetzt möglich, die Richtung senkrecht zur Polarisation zu untersuchen und die Erkenntnisse in Bezug zueinander zu bringen. Das der nichtsequentiellen Doppelionisation zu grunde liegende sehr anschauliche Modell ist der „Rescattering-Prozess“: Das Laserfeld koppelt an das Coulombpotential des Atoms und verformt es derart, dass ein Elektron die effektive Potentialbarriere überqueren oder durch diese durchtunneln kann. Dieses zuerst befreite Elektron wird durch das oszillierende elektromagnetische Feld zunächst vom Ursprungsion fortgetrieben. Kehrt aber die Phase des Laserfeldes um, wird es zurück zum Ion beschleunigt, nimmt dabei Energie aus dem Feld auf und kann durch Elektron-Elektron-Stossionisation ein zweites Elektron aus dem Atom ionisieren oder es können kurzzeitige Anregungszustände erzeugt werden, die später feldionisiert werden. Dieses Modell wurde schon durch ein Vielzahl von Experimenten verifiziert. Gleichzeitig wirft es aber auch Fragen auf: Wie sind die Elektron-Elektron-Korrelationen zu erklären? Wie hängt der Longitudinal- mit dem Transversalimpuls zusammen? Welche Ionisationsmechanismen treten wann auf? Zusammenfassend kann man sagen, dass ein Experiment präsentiert wird, das zur Erfoschung von Korrelationseffekten bei Multiphoton-Ionisation beiträgt und sehr detaillierte Einblicke in die Welt der Laseratomphysik gewährt. Die Daten belegen eindeutig, dass eine Messung der korrelierten Impulse mehrerer Teilchen in einem Laserfeld eine Zeitmessung mit einer Auflösung weit unter einer Femtosekunde ermöglicht. Das beobachtete Ein- und Ausschalten der Elektronenabstossung, je nach der über die Longitudinal-Impulskorrelation gemessenen Verzögerungszeit, zeigt die Möglichkeit „Attosekunden Physik ohne Attosekunden-Pulse“ zu betreiben.
Stability, unfolding and refolding of the outer membrane protein porin from Paracoccus denitrificans was investigated using genetic and spectroscopic methods. Structural and functional activity studies on wild type and mutant porins: The site-directed mutants were constructed based on conserved residues and evidences on the role of certain amino acids from previous studies with OmpF. Secondary structure analysis of wild type and mutants E81Q, W74C, E81Q/D148N, E81Q/D148N/W74C by FTIR and CD spectroscopy are in line with the fact that porins are predominantly ß-sheet structure. The functional activity studies by black lipid bilayer techniques showed that the wild type and mutants W74C, E81Q/D148N, E81Q/D148N/W74C have a conductance of 3.25 nS. For mutant E81Q conductance of 1.25nS was more predominant over 3.25 nS. The activity of the mutants was observed to be far less than the wild type. This indicates that structural similarities does not implies similar functional activity. Thermal stability analysis of porin in detergent micelles and reconstituted into liposomes: Thermal stability analysis of wild type and mutants in detergent micelles showed changes in secondary and quaternary structure. It was found that wild type porin unfolds into aggregated structure with a high transition temperature of 86.2 °C. For mutants E81Q, W74C, E81Q/D148N the transition temperature was found to be 84.2 °C, 80.3 °C and 80.2 °C respectively. Functional activity assays at high temperatures revealed that the protein tends to loose its activity on heating up to 50 °C. This shows that structural stability does not imply functionality in the case of porins. Thermal stability analysis of porin reconstituted into liposomes showed that there was no change in the secondary and quaternary structure of the protein up to 100 °C, revealing that the protein becomes more thermostable when it is reconstituted into liposomes. Refolding of aggregated porin: This study shows that disaggregation of ß-sheet membrane protein porin is possible by changing its chemical and thermodynamic parameters. An increase of the solution pH to 12 or above results in opening up of the aggregated protein into unordered structure, as observed by FTIR and CD spectroscopy. This unordered structure could be refolded into native-like structure forming trimers. The secondary structure of the refolded protein deviated slightly from the native one. The thermal stability analysis of the native-like refolded proteins showed that the unfolding pattern is entirely different when compared to the native porins. pH dependent unfolding of porin: Thermal stability of porin at different pH values showed that the protein is stable in a pH range of 1-11. At pH 12 and above the protein unfolds into unordered structure instead of aggregating. The high pH unfolding of porin is a reversible process. The secondary structure of the refolded protein varied slightly from the native-one. Whereas thermal stability was entirely different. This shows that even though the unfolding of porin at high pH is reversible, it results in changes in local interaction between the amino acids resulting in a difference in stability. Unfolding in presence of urea and guanidinium hydrochloride (GuHCl): Denaturation of porin in the presence of chemical denaturants like urea and GuHCl showed that porin unfold into unordered structure. The unfolding is a reversible process. Unfolded protein was refolded into detergent micelles and liposomes. Refolding into detergent micelles was faster compared to refolding into liposomes, as seen by kinetic gel shift assays. The refolding into liposomes showed the presence of intermediates similar to those reported for OmpF. This study shows the difference in thermal stability of the outer membrane protein porin from Paracoccus denitrificans in detergent micelles and native-like liposomes. It suggests various unfolding pathways, which can be further investigated for unfolding and refolding kinetics. This report also suggests that it is possible to refold a heat-aggregated protein.
Results were presented from Brownian dynamics simulations for cyt c molecules approximated as spherical particles with diameter 2R ' 3.3 nm interacting with a charged planar membrane surface. Using the well-known Ermak-McCammon algorithm of ref. [36, 37] for solving the Langevin equations (see Chapter 2), a new computer program in C++ was developed. An overview of the way it is implemented is given in Chapter 3. The program in its current state is able to compute the trajectories (translation and rotation) of hundreds of spherical particles in systems with typical dimensions of 103 − 1003 nm3 . As explained in the introductory Chapter 1 the motivation for studying the dynamics of cyt c molecules in such systems came from the progress in the research of photosynthetic bacteria, e.g. While the internal processes of energy transduction (light harvesting, channelling to RC, charge separation) are quite well understood, the dynamics of soluble cyt c as an electron transporter in this context is not yet clear. In many textbooks one can find illustrations where a single cyt c is responsible for the electron transport between two integral membrane proteins (the reaction centre RC and the bc1 complex). But as pointed out in publications like refs. [49], [59], [60], [61] or [62] biological cells are crowded with different molecules. Consequently, one can assume that the electron transport between two integral membrane proteins is not simply taken on by one single cyt c molecule. Instead it is likely that many of these particles are located in a cyt c pool above the membrane and that they perform the electron transport in turns. Thus, it is desirable to have a simulation package that is able to compute the trajectories of many proteins. Note that the detailed processes of electron transfer and binding to membrane proteins are not modelled here. The details of these processes are quite complicated so that we refrained from including them in the coarse-grained simulations. Here, the actual binding is simply defined by a particle distance zb from the membrane which marks the beginning of the attractive potential. ...
Hinreichend kalte und dichte Quarkmaterie ist ein Farbsupraleiter. Ähnlich wie Elektronen in einem gewöhnlichen Supraleiter bilden Quarks Cooper-Paare. Während bei Elektronen der Austausch von Phononen zu einer Anziehung führt, ist im Falle von Quarks der Antitriplett-Kanal der starken Wechselwirkung attraktiv. Arbeiten in den letzten Jahren haben verschiedene Phasen von farbsupraleitender Quarkmaterie untersucht und sich dabei vor allem auf Phasen konzentriert, m denen der Gesamtspin eines Cooper-Paares verschwindet. In der vorliegenden Dissertation habe ich hauptsächlich Farbsupraleiter diskutiert, deren Cooper-Paare im Spin-Triplett-Kanal kondensieren, d.h. die Cooper-Paare haben den Gesamtspin 1. Diese Art von Supraleiter ist möglicherweise relevant für Systeme in der Natur, wie z.B. das Innere von Neutronensternen. Denn bei der Spin-0-Farbsupraleitung wird vorausgesetzt, dass die Fermi-Impulse zweier Quark-Flavor gleich ist oder zumindest hinreichend klein, was für realistische Systeme, also für nicht zu große Dichten, fragwürdig ist. Diese Einschränkung gibt es im Falle von Spin-1-Farbsupraleitern nicht, da hier Quarks des gleichen Flavors Cooper-Paare bilden. Ich habe in meiner Dissertation die verschiedenen möglichen Phasen eines Spin-1-Farbsupraleiters systematisch klassifiziert. Dies wurde mit Hilfe von gruppen-theoretischen Methoden durchgeführt, basierend auf der Tatsache, dass die Farbsupraleitung durch das theoretische Konzept der spontanen Symmetriebrechung beschrieben werden kann. Ähnlich wie bei supraflüssigem Helium-3 gibt es eine Vielzahl theoretisch möglicher Phasen. Ich habe die physikalischen Eigenschaften von vier dieser Phasen untersucht, nämlich der polaren und planaren Phasen sowie der A- und CSL-(color-spin-locked)Phasen. Mit Hilfe der QCD-Lückengleichung wurde die Energielücke sowie die kritische Temperatur bestimmt. Es stellt sich heraus, dass die Energielücke eines Spin-1-Farbsupraleiters um 2-3 Größenordnungen kleiner ist als die eines Spin-0-Farbsupraleiters, d.h. sie liegt im Bereich von 10 - 100 keV. Zwei besondere Eigenschaften der Energielücke werden diskutiert, nämlich eine 2-Lücken-Struktur, die in zwei der untersuchten Fälle auftritt, sowie mögliche Anisotropien, insbesondere Nullstellen der Lückenfunktion. Die Berechnung der kritischen Temperatur zeigt, dass es durchaus farbsupraleitende Materie in einer Spin-1-Phase im Innern von Neutronensternen geben kann, da die Temperatur von alten Neutronensternen im Bereich von einigen keV oder sogar darunter liegt. Darüber hinaus wurde die Frage untersucht, ob ein Farbsupraleiter auch ein gewöhnlicher Supraleiter ist. In diesem Zusammenhang ist die Frage von Interesse, ob ein Spin-1-Farbsupraleiter gewöhnliche Magnetfelder aus seinem Innern verdrängt, was sicherlich Auswirkungen auf die Observablen eines Neutronensterns hätte. Tatsächlich stellt sich heraus, dass ein Spin-1-Farbsupraleiter, im Gegensatz zu einem Spin-0-Farbsupraleiter, einen elektronmagnetischen Meissner-Effekt aufweist. Dieses Ergebnis wurde mit Hilfe von gruppentheoretischen Überlegungen vorausgesagt und mit Hilfe einer detaillierten Berechnung der Photon-Meissner-Massen bestätigt.
Transmembrane proteins play crucial roles in biological systems as active or passive channels and receptors. Experimentally only few structures could be determined so far. Gaining structural insights enables besides a general understanding of biological mechanisms also further processing such as in drug design. Due to the lack of experimental data, reliable theoretical predictions would be of high value. However, for the same reason, missing data, the knowledge-based class of prediction methods that is well established for soluble proteins can not be applied. The goal of predicting transmembrane protein structures with ab initio methods demands locating the free energy minimum. Main difficulties here are, first, the computational costs of explicitly calculating all involved interactions and, second, providing an algorithm that is capable of finding the minimum within an extremely complex and rugged energy landscape. We have developed promising energy functions that describe the interactions of amino acids on a residue level, reducing computational costs while still containing most information on the atomistic level. We have also found a way to describe the interaction of the residues with its surrounding in a realistic manner by distinguishing residues exposed to the environment from those buried within helices using a sphere algorithm. The sphere algorithm can also be applied for a different purpose: one can measure how densely sidechains are packed for certain helical conformations, and thereby get an estimate of the sidechain entropy. In addition, overcrowding effects can be identified which are not well-described by the energy functions due to the pairwise calculation. To determine the absolute free energy minimum, we assume the helices to be located on an equidistance grid with slightly larger distances than to be expected. Optimizing the helices on the grid provides a starting point that should enable common minimizing algorithms, gradient-based or not, to find the absolute minimum beyond the grid. To simulate the dynamics of the helices on large time scales, we split them into rigid body dynamics and internal dynamics in terms of the dihedrals. The former one is well-known with its inherent problem of numerical drift and plenty of approaches to it, among which we have chosen the quaternions to represent the rotation of the rigid bodies. The latter one requires a detailed analysis of the torque size exerted on the dihedrals caused by the forces acting on the residues.
Das Spektrum der Einfachionisation von Helium unterhalb der Doppelionisationsschwelle bei 79 eV ist reich an komplexen Strukturen. Eine Vielzahl von Resonanzen tritt dort auf. Diese Resonanzen sind unmittelbar verbunden mit doppelt angeregten Zuständen von Helium. Unterhalb einer Photonenenergie von ca. 77 eV liegen diese Resonanzen geordnet vor, und sie können dort mit Hilfe weniger Quantenzahlen klassifiziert werden. Das trifft aber nicht auf den Bereich dicht unterhalb der Doppelionisationsschwelle zu, d.h. zwischen ca. 78,2 eV und 79 eV. Hier verlieren die bis dahin verwendeten Quantenzahlen ihre Gültigkeit. Dieses Gebiet ist sowohl theoretisch als auch experimentell nahezu unerforscht. Traditionelle experimentelle Methoden stoßen hier auf Hindernisse, die auch in den kommenden Jahren höchstwahrscheinlich nicht überwunden werden können. Das größte Problem hierbei sind die sehr geringen Reaktionsraten. Aus diesem Grund wurde im Rahmen dieser Arbeit ein neuer Weg gewählt, der diese Probleme weitgehend hinter sich läßt und Untersuchungen in dieser äußerst schwer zugänglichen Region ermöglicht. Die neue Technik weist gegenüber bisherigen Methoden eine um mehrere Größenordnungen gesteigerte Nachweiseffizienz auf, wodurch Messungen in diesem Energiebereich innerhalb eines vernünftigen Zeitrahmens praktisch erst ermöglicht werden. Erreicht wird dies durch ein Spektrometer, das zu allen Raumrichtungen hin sensitiv ist und die Impulse und Flugrichtungen der emittierten Elektronen individuell für jede einzelne Reaktion nachweisen kann. Die Elektronen werden zusammen mit dem jeweiligen He+-Ion in Koinzidenz nachgewiesen, wodurch eine sehr effiziente Unterdrückung von Untergrundereignissen realisiert wird. Die vorgestellte Meßmethode basiert auf der sogenannten Coltrims-Technik, die seit einigen Jahren im Bereich der Atom- und Molekülphysik äußerst erfolgreich eingesetzt wird. Ihre Anwendung auf niederenergetische Elektronen mit kinetischen Energien im Bereich zwischen 0 eV und 0,5 eV war bisher jedoch nur sehr eingeschränkt möglich und mit großen Unsicherheiten verbunden, da in diesem Fall die Einflüsse verschiedener Störquellen wie beispielsweise das Erdmagnetfeld berücksichtigt werden müssen. Diese Probleme konnten gelöst werden, so daß nun auch winkelaufgelöste Messungen an Elektronen mit weniger als 100 meV kinetischer Energie möglich sind. Die Apparatur wurde im Rahmen einer Messung am Berliner Synchrotron BESSY II erfolgreich eingesetzt. Untersucht wurden die partiellen Wirkungsquerschnitte sN(E) der verschiedenen Ausgangskanäle der Reaktion g(E) + He -> He** -> e- + He+(N), wobei E die Photonenenergie und N die Hauptquantenzahl des erzeugten Heliumions ist. Zusätzlich wurde zu jedem dieser Reaktionskanäle die Winkelverteilung bN(E) der emittierten Elektronen bestimmt. Ziel der Messung war es, zunächst einen Bereich des Energiespektrums abzudecken, für den theoretische Vorhersagen existieren. Im weiteren Verlauf der Messung wurde dieser Bereich ausgedehnt bis hin zur Doppelionisationsschwelle. Die Ergebnisse werden verschiedenen theoretischen Vorhersagen gegenübergestellt und diskutiert. Die aufgenommenen Daten umfassen auch Bereiche des Energiespektrums, für die noch keine theoretischen Ergebnisse vorliegen (78,3 eV<E<78,9 eV). Die hier beobachteten Verhaltensweisen insbesondere der Winkelverteilungen der emittierten Elektronen werden mit veröffentlichten Daten verglichen, die bei einer Photonenenergie von E=80,1 eV aufgenommen wurden, d.h. dicht oberhalb der Doppelionisationsschwelle. Die beobachteten Parallelen können innerhalb eines klassischen Modells interpretiert werden.
Ziel dieser Arbeit war die Entwicklung eines Mess-Systems zur energie- und winkelaufgelösten Spektroskopie von koinzidenten Elektronenpaaren, die in Reaktionen an einer Oberfläche emittiert wurden. Das Hauptinteresse galt hierbei dem Zwei-Elektronen-Photoemissionsprozess an Oberflächen. Das Prinzip des Spektrometers stellt eine Erweiterung der existierenden COLTRIMS-Spektrometer (COld Target Recoil Ion Momentum Spectroscopy) für Gasphasen-Experimente auf den Themenkreis der Oberflächenphysik dar. Anders als bei den in der Photoelektronen-Spektroskopie häufig eingesetzten elektrostatischen Analysatoren, wird hier eine Flugzeittechnik verwendet. Die Elektronen, die in der Reaktion erzeugt wurden, werden h ierzu mit einem schwachen homogenen elektrostatischen Feld vom Target abgesaugt und in Richtung eines orts- und zeitauflösenden Detektors beschleunigt. Zusätzlich wird ein homogenes Magnetfeld überlagert, das einen Einschluss der Elektronen bis zu einem maximalen Transversal-Impuls gewährleistet. Durch Messung der Flugzeiten und Auftrefforte auf dem Detektor können - unter Kenntnis d er elektrischen und magnetischen Feldstärken - die Startimpulse der Elektronen rekonstruiert werden. Auf diese Weise konnten Elektronen von 0 eV bis zu 50 eV mit einem Raumwinkel von nahezu 2p gleichzeitig abgebildet werden. Durch diesen sehr großen Aktzeptanzbereich, konnte eine wesentliche Erhöhung der Koinzidenzeffizienz der Anordnung gegenüber anderen Systemen erreicht werden (> 10 hoch 2 - 10 hoch 6 je nach Mess-System). Wesentlich hierfür ist des weiteren die Fähigkeit des Detektors mehrere Treffer mit verschwindender Totzeit zu verarbeiten. Mit dem beschriebenen System wurde die Zwei-Elektronen-Photoemission an Oberflächen untersucht. Die Experimente hierzu wurden im wesentlichen am Hamburger Synchrotron Strahlungslabor (HASYLAB) durchgeführt. Als Target wurde die (111)-Oberfläche eines einkristallines Kupfer-Targets verwendet. Mehrere Messreihen mit Photonenenergien im Bereich h? = 40 eV bis h? = 100 eV wurden aufgezeichnet. Durch die vollständige Vermessung des gesamten Impulsraumes der beiden Elektronen, stellt dies die erste kinematisch vollständige Untersuchung (bis auf die Spin-Freiheitsgrade) der Zwei-Elektronen-Photoemission an Oberflächen dar. Im Anschluss an vorangegangene Experimente [HER98], konnte auch hier in den Zwei-Elektronen-Energieverteilungen (innerhalb der experimentellen Auflösung) als Maximal-Energie des Paares der Wert E1 + E2 = h? - 2W0 festgestellt werden, der auf eine Selbst-Faltung der Bänder für die Zwei-Elektronen-Photoemission hindeutet. Die Form der Spektren wird wesentlich durch das Transmissionsverhalten der Elektronen beim Durchgang durch die Oberfläche bestimmt. Die auftretende energieabhängige Brechung der Trajektorie führt dabei zu einer starken Unterdrückung niederenergetischer Elektronen. In der Betrachtung der Kinematik der Emission konnten deutliche Analogien des Effektes zum analogen Prozess der Doppel-Photoionisation an freien Atomen bzw. Molekülen gefunden werden. Die Bewegung des Schwerpunktsimpulses des Paares ist daher durch die Richtung des Polarisationsvektor des Lichtes bestimmt. Im Gegensatz zur Emission am freien System, tritt hier allerdings - je nach Orientierung des Polarisationsvektors - ein Symmetriebruch auf, da Elektronen entweder auf die Oberfläche zu oder von ihr weg emittiert werden. Ein Bruchteil der in den Festkörper emittierten Intensität kann schließlich wieder am Gitter reflektiert werden und die Oberflächenbarriere noch überwinden. Die Energie- und Winkelverteilungen der Elektronen zeigen, dass, je nach Energieaufteilung des Paares, zwischen den Beiträgen durch einen "shake-off"-Mechanismus und einem "knock-out"-Mechanismus unterschieden werden kann. Auch hierin zeigt sich eine Ähnlichkeit des Zwei-Elektronen-Photoemissionsprozesses an Oberflächen mit der Doppel-Ionisation von Helium-Atomen. Während bei der Doppel-Ionisation von Helium diese Unterscheidung allerdings erst bei höheren Photonenenergien (> 100 eV) möglich ist, kann hier schon bei ca. 60 eV zwischen beiden Prozessen getrennt werden. Der Grund hierfür liegt sehr wahrscheinlich in der Abschirmung der Elektronen im Festkörper begründet, die die direkte Coulomb-Wechselwirkung der Elektronen im Endzustand reduziert. Insbesondere der starke Beitrag des "shake-off"-artigen Prozesses ist ein deutlicher Hinweis darauf, dass die gegenwärtigen theoretischen Modelle zur Beschreibung der Zwei-Elektronen-Photoemission nicht ausreichend sein können, da nur die Wechselwirkung im End-Zustand berücksichtigt wird. Vielmehr ist die Einbeziehung von Grundzustandswellenfunktionen jenseits des Bildes unabhängiger Teilchen nötig.
In this thesis the anti-proton to proton ratio in 197Au + 197Au collisions, measured at mid-rapidity, at a center of mass energy of psNN = 200GeV is reported. The value was measured to be ¹p/p = 0.81+-0.002stat +- 0.05syst: in the 5% most central collisions. The ratio shows no dependence on rapidity in the range jyj < 0:5. Furthermore, a dependence on transverse momentum within 0:4< p? < 1:0 GeV/c is not observed. At higher p?, a slight drop in the ratio is observed. In the present analysis, the highest momentum considered is p? = 4:5 GeV/c yielding ¹p=p = 0:645§0:005stat: §0:10syst:. However, the systematic error is higher in this momentum range. A slight centrality dependence was observed, where a decrease from ¹p=p = 0:83§0:002stat:§0:05syst: for most peripheral collisions (less than 80% central) to ¹p=p = 0:78§0:002stat:§0:05syst: for the 5% most central collisions was measured. An estimate of the feed-down contributions fromthe decay of heavier strange baryons results in ¹p=p = 0:77 § 0:05syst:. The measured ratio indicates a » 12:5 times higher value compared to the highest SPS energy of psNN = 17:3 and an \almost net-baryon free" region, at mid- rapidity. The asymmetry of protons and anti-protons may be explained by the contribution ofvalence quarks in a nucleus break-up picture. In such a scenario, the absolute value of the ratio and the fact that the ratio does not depend on rapidity (at mid-rapidity) is well reproduced. Fragmentation of quarks and anti- quarks into protons and anti-protons is assumed. An estimate of the ratio, when feed-down correction is taken into consideration, agrees well with the prediction of a statistical model analysis at a temperature of T = 177 § 7 MeV and a baryon chemical potential of ¹B = 29 § 8 MeV. The temperature achieved is only slightly higher when compared to the top SPS energy, while the baryochemical potential is factor »10 lower. As in the case of the SPS results, these parameters are close to the phase boundary of Figure 1.6. The measurement of the ratio at high transverse momentum was of special in- terest in this analysis, since at RHIC energies, the cross section for hadrons at high transverse momentum is increased with respect to SPS energies. The weak dependence of the ratio on the transverse momentum is well described by the non- perturbative quenched and baryon junction scenario (i.e. Soft+Quench model), where baryon creation is enhanced by baryon junctions. In comparison the ratio does not decrease within the considered momentum range as predicted by pQCD.
Cytochrome c oxidase is the terminal enzyme in the respiratory chain of mitochondria and aerobic bacteria. This enzyme ultimately couples electron transfer from cytochrome c to an oxygen molecule with proton translocation across the inner mitochondrial and bacterial membrane. This reaction requires complicated chemical processes to occur at the catalytic site of the enzyme in coordination with proton translocation, the exact mechanism of which is not known at present. The mechanisms underlying oxygen activation, electron transfer and coupling of electron transfer to proton translocation are the main questions in the field of bioenergetics. The major goal of this work was to investigate the coupling of electron transfer and proton translocation in cytochrome c oxidase from Paracoccus denitrificans. Different theoretical approaches have been used to investigate the coupling of electron and proton transfer. This thesis presents an internal water prediction scheme in the enzyme and a molecular dynamics study of cytochrome c oxidase from Paracoccus denitrificans in the fully oxidized state, embedded in a fully hydrated dimyristoylphosphatidylcholine lipid bilayer membrane. Two parallel molecular dynamics simulations with different levels of protein hydration, 1.125 ns each in length, were carried out under conditions of constant temperature and pressure using three-dimensional periodic boundary conditions and full electrostatics to investigate the distribution and dynamics of water molecules and their corresponding hydrogen-bonded networks inside cytochrome c oxidase. The average number of solvent sites in the proton conducting K- and D- pathways was determined. The highly fluctuating hydrogen-bonded networks, combined with the significant diffusion of individual water molecules provide a basis for the transfer of protons in cytochrome c oxidase, therefore leading to a better understanding of the mechanism of proton pumping. The importance of the hydrogen bonding network and the possible coupling of local structural changes to larger scale changes in the cytochrome c oxidase during the catalytic cycle have been shown.
Ziel der vorliegenden Arbeit war die Untersuchung der elektrochemischen und spektroskopischen Eigenschaften der bc1-Komplexe aus dem Bodenbakterium Paracoccus denitrificans und der Hefe Saccharomyces cerevisiae im sichtbaren und infraroten Spektralbereich. Das redoxaktive Protein ist Bestandteil der Atmungskette und trägt entscheidend zum Aufbau eines Protonengradienten bei, der zur Bildung des universellen Energieträgers ATP genutzt wird. Der bakterielle P. denitrificans-Komplex besteht aus den drei katalytischen Untereinheiten Cytochrom b, Cytochrom c1 und Rieske-Protein. Der mitochondriale Hefe-bc1-Komplex besitzt neben diesen drei noch acht weitere Untereinheiten, die anscheinend für die Stabilität des Enzyms bedeutsam sind. Um Konformationsänderungen des Proteins infolge von Elektronen- und daran gekoppelten Protonentransferreaktionen zu dokumentieren, wurde der Komplex elektrochemisch in definierte Redoxzustände versetzt. Aus den in diesen Zuständen aufgenommenen Absorptionsspektren berechnen sich Differenzspektren, deren Banden auf die Redoxreaktion zurückzuführende Veränderungen im Protein widerspiegeln. Durch Vergleiche mit Modellspektren isolierter Proteinbestandteile, Spektren ähnlicher Proteine und Informationen aus Kristallstrukturen konnten Beiträge der verschiedenen Kofaktoren, des Proteinrückgrates und einzelner Aminosäuren zu diesen Banden zugeordnet werden. Die elektrochemisch induzierten FTIR-Differenzspektren des P. denitrificans-bc1-Komplexes zeigten vor allem Beiträge der im Komplex gebundenen Chinone, die durch den Vergleich mit Differenzspektren isolierter Chinone identifiziert werden konnten. Ein wichtiges Ergebnis war die Abschätzung der Chinonkonzentration im Protein anhand einer charakteristische Bande bei 1262 cm-1 resultierend aus Schwingungen der Chinon-Methoxygruppen. Das Ergebnis von durchschnittlich 3 Molekülen Chinon pro Protein-Monomer unterstützt das zur Zeit für die Qo-Bindestelle diskutierte double-occupancy-Modell. Interessanterweise konnte die Protonierung einer Glu/Asp-Aminosäureseitenkette in Abhängigkeit vom Chinongehalt beobachtet und daraus abgeleitet Signale eines an der Qo-Bindestelle gebundenen Chinons differenziert werden. Die Beiträge der Cytochrom b und c-Untereinheiten relativ zum Gesamtspektrum des P. denitrificans-bc1-Komplexes wurden mittels Differenzspektren der einzelnen Kofaktoren unterschieden. Anhand ihrer Mittelpunktpotentiale, die zuvor durch Potentialtitrationen im sichtbaren Spektralbereich bestimmt wurden (Häm bL: Em7=-292 mV vs. Ag/AgCl, Häm bH: -144 mV, Häm c1: 89 mV), konnten die Differenzsignale des jeweiligen Kofaktors und seiner durch die Redoxreaktion beeinflußten Umgebung durch Wahl geeigneter Potentialschritte separiert werden. Die Zuordnungen der Signale des Cytochrom c1 und des Rieske-Proteins, die spektroskopisch nicht getrennt werden können, wurden durch Messungen an wasserlöslichen Fragmenten dieser Untereinheiten abgesichert. In allen Spektren konnten typische Beiträge des Proteingrundgerüstes, Schwingungen der Häme und ihrer Substituenten sowie einzelner Aminosäuren vorläufig zugeordnet werden. Die Bindung von Inhibitoren führte zu deutlichen Veränderungen im FTIR-Differenzspektrum. Der Qi-Inhibitor Antimycin A zeigt eigene Differenzsignale im Bereich oberhalb 1734 cm-1, an denen die Bindung des Inhibitors im Protein nachvollzogen werden konnte. Sie führte zur Abnahme der Signalintensität einer Bande, die die Beeinflussung eines protonierten Hämpropionates oder Arginin-bzw. Asparaginseitenketten vermuten lassen. Die Bindung des Qo-Inhibitors Stigmatellin, der selbst redoxaktiv ist, äußerte sich in Veränderungen im Amid I-Bereich des Differenzspektrums. Die Deprotonierung einer Glu/Asp-Seitenkette infolge der Stigmatellinbindung wurde diskutiert. Die FTIR-Differenzspektren des S. cervisiae-bc1-Komplexes gleichen denen des bakteriellen Komplexes in Bezug auf die Bandenpositionen weitestgehend. Die Signalintensitäten sowie die Größenverhältnisse der Banden zueinander unterscheiden sich jedoch. Dies wird durch den geringeren Chinongehalt des Hefeproteins nach der Präparation bedingt. Der Einfluß fünf verschiedener Inhibitoren der Qi- und Qo-Bindestelle auf die Differenzspektren wurde untersucht. Dabei standen von zwei Substanzen isotopenmarkierte Varianten zur Verfügung, die tieferen Einblick in die genaue Wechselwirkung bei der Inhibitorbindung bringen sollte. Die Bindung der Inhibitoren führte zu Veränderungen in den Spektren. Sie wurden vor dem Hintergrund der Kristallstruktur betrachtet, die aufgrund ihrer Auflösung keine exakten Aussagen über den Protonierungszustand einzelner Proteinbestandteile liefern kann. Der Schwerpunkt der Studien lag auf den Vergleich der Qo- Inhibitoren Stigmatellin und HHDBT. Die Bindung von Stigmatellin führte wie im P. denitrificans-Komplex zur Deprotonierung einer Glu/Asp-Seitenkette. Die Inhibierung mit HHDBT resultierte in der Protonierung vermutlich der gleichen Glu/Asp-Seitenkette. Die Auswirkungen des unterschiedlichen Protonierungszustandes der Aminosäure in Anwesenheit dieser beiden Inhibitoren wurde im Kontext eines vermuteten Chinoloxidations-Mechanismus beleuchtet.
Viele mikroskopische Vorgänge in Festkörpern und molekularen Verbindungen sind verbunden mit Änderungen ihres Magnetisierungszustandes. Dies macht den Einsatz externer Magnetfeldsensoren interessant, die sich über wohlbekannte Effekte kalibrieren ließen und dann im Messeinsatz quantitative Aussagen liefern können. Nun laufen viele der interessanten magnetischen Vorgänge in besagten Materialien auf sehr schnellen Zeitskalen im Piko- und Subpikosekundenbereich ab. Kein etablierter Magnetfeldsensor kann diese Anforderung leisten. Im Rahmen dieser Arbeit wurde eine systematische Untersuchung verschiedener Ansätze zum Bau ultraschneller Magnetfelddetektoren durchgeführt. Ein Teil der Arbeit beschäftigt sich mit dem Potential photokonduktiver Ringantennen als Emitter und Detektor für ultraschnelle Magnetfelder. Ein alternativer Ansatz zur Messung transienter Magnetfelder besteht in der Verwendung magnetooptischer Sensoren, wie sie in verschiedenen Anwendungen, in denen keine Zeitauflösung gefordert wird, bereits zum Einsatz kommen (z. B. in der Faradaymikroskopie). Es wird eine für ultraschnelle Magnetooptik vielversprechende Materialklasse als Sensormaterial vorgestellt: die DMS-Systeme. Das sind magnetisch dotierte Verbindungshalbleiter, die in der Umgebung ihrer exzitonischen Resonanzen gewaltige Verdetkonstanten aufweisen. Parallel zu den DMS-Systemen wird das Verhalten eines dotierten Eisengranats untersucht, der als Ferrimagnet völlig andere Voraussetzungen als Messsensor bietet. Darüber hinaus werden verschiedene experimentelle Techniken zur Messung magnetooptischer Phänomene vorgestellt und ihre Vor- und Nachteile ausführlich diskutiert. Es wird ein Verfahren entwickelt, das trotz des Einsatzes der hochempfindlichen Differenzdetektion eine gewisse spektrale Auflösung gewährleistet und deshalb den Betrieb der DMS-Systeme als magnetooptische Sensoren erst ermöglicht. Es werden für die verschiedenen Messmethoden und magnetooptischen Materialien die Grenzen der Nachweisempfindlichkeit analysiert und ihre Eignung als schnelle Detektoren untersucht. Die verschiedenen Vor- und Nachteile der beiden Sensorsubstanzen wird anhand der gemessenen magnetischen Transienten detailliert analysiert. Anschließend wird das Optimierungspotenzial der beiden Materialklassen hinsichtlich ihrer chemischen Zusammensetzung ausgearbeitet und dargestellt.
Gegenstand der vorliegenden Arbeit ist die Untersuchung einer Transferionisation am Beispiel des Stoßsystems (H + ; He), bei der ein Elektron des Targets eingefangen und ein Elektron ins Kontinuum emittiert wird. Ausgangspunkt für die theoretische Untersuchung der Transferionisation sind Experimente für das (H + ; He) Stoßsystem (1) . Unter anderem wurden beobachtet, dass die Elektronen bevorzugt in entgegengesetzter Richtung zum auslaufenden Projektil emittiert werden, dass hohe Emissionsenergien auftreten und alle Ejektile, (He 2+ , H 0 , e ), in die durch Einschuss- und Streurichtung des Projektils definierte Ebene emittiert werden. Unter der Annahme, dass zur Transferionisation hauptsächlich unabhängige Ein-Teilchen-Prozesse beitragen, wurde mit der vorliegenden Arbeit das Ziel verfolgt, das beobachtete markante Emissionsverhalten einer Transferionisation am Proton-Helium-Stoßsystem im Rahmen einer theoretischen Untersuchung zu verstehen. Dazu wurde ein Modellkonzept entwickelt, bei dem das Stoßgeschehen in einem semiklassischen nichtrelativistischen perturbativen Rahmen im Bild unabhängiger Ereignisse beschrieben wird. Das zentrale Anliegen der Modellierung war es, die Bedeutung der Targetstruktur für die Emissionseigenschaften zu klären. Hierbei interessierte der Einfluss der Struktur der Wellenfunktion auf dem Niveau des Modells unabhängiger Teilchen als auch die Rolle der interelektronischen Korrelation im Grundzustand des Targets. Der Einfluss der Targetstruktur auf das Emissionsverhalten wurde durch Einbau dreier verschiedener Wellenfunktionen für den Helium-Grundzustand untersucht: Um die Sensitivität der Rechnungen auf die strukturellen Eigenschaften der Targetbeschreibung zu untersuchen, wurden eine wasserstoffähnliche und eine Hartree-Fock-Beschreibung in das Modell implementiert. Beide bilden die Targetstruktur auf der Basis des Modells unabhängiger Teilchen (IPM) ab und enthalten per Definiton keine interelektronische Korrelation. Um den Einfluss zu klären, den die interelektronische Korrelation auf die Emissionseigenschaften hat, wurde der Eckart-Ansatz in das Modell eingebaut. Dieser Ansatz schließt radiale Anteile von Korrelation mit ein. Anhand eines systematischen Vergleichs der Ergebnisse konnte gezeigt werden, dass die strukturellen Eigenschaften der Wellenfunktion zwar eine Rolle spielen, aber die Qualität der Beschreibung ohne Berücksichtigung der interelektronischen Korrelation unbefriedigend bleibt, während die Berücksichtigung der radialen Anteile elektronischer Korrelation mit dem Eckart-Ansatz verglichen mit den IPM-Ansätzen sich im Hinblick auf das Emissionsverhalten als effizient erwiesen hat. Dieser Befund legt den Schluss nahe, dass die interelektronische Korrelation im Grundzustand des Heliumatoms zum Verständnis der Emissionseigenschaften äußerst wichtig ist. Trotzem werden auch mit dem Eckart-Ansatz nicht alle Züge des Emissionsverhaltens richtig wiedergegeben. Da die Bewegungen der Komponenten eines Vielteilchenproblems voneinander abhängen, besteht Grund zu der Annahme, dass ein radialsymmetrischer Ansatz zur Beschreibung des Systems Helium nicht in der Lage ist, die experimentell beobachtete Emission von Elektronen in einer Vorzugsrichtung zutreffend zu beschreiben: Neben der Radialkorrelation ist auch die Winkelkorrelation zu berücksichtigen. Die logische Erweiterung des Modells in dieser Richtung ist die Implementation eines Konfigurationsmischungs-Ansatzes. Eine zukünftige Rechnung unter Verwendung eines Konfigurationsmischungs-Ansatzes erscheint daher im Hinblick auf eine Erklärung des Emissionsverhaltens im Bild unabhängiger Ereignisse interessant. (1) V.Mergel, Dissertation, Frankfurt am Main 1996
Die Infrarotspektroskopie in Verbindung mit photoaktivierbaren Substraten wurde zur Untersuchung von Substrat-Protein-Wechselwirkungen eingesetzt. Dabei wurden Konformationsänderungen der Ca2+-ATPase des Sarkoplasmatischen Retikulums bei Bindung des Nukleotids, der Phosphorylierung der ATPase und der Hydrolyse des Phosphoenzyms beobachtet. Verwender wurden das native Substrat ATP und seine Analoga ADP, AMPPNP, 2'-deoxyATP, 3'-deoxyATP, ITP, AMP, Pyrophosphat, Ribosetriphosphat und TNP-AMP beobachtet. Diese Analoga waren an spezifischen funktionellen Gruppen des Substrats ATP modifiziert. Modifikation der 2'- und 3'-OH Gruppe des Ribosetriphosphats, der beta- und gamma-Phosphatgruppe und der Aminogruppe des Adenins reduzieren das Ausmaß an bindungsinduzierten Konformationsänderungen. Ein besonders starker Effekt wird für die 3'-OH Gruppe und die Aminogruppe des Adenins beobachtet. Dies zeigt die strukturelle Empfindlichkeit des Nukleotid-ATPase Komplexes auf einzelne Wechselwirkungen zwischen dem Nukleotid und der ATPase. Die Wechselwirkungen einer bestimmten Ligandengruppe mit der ATPase hängen von Wechselwirkungen anderer Ligandengruppen mit die ATPase ab. Die TNP-AMP Bindung verursacht teilweise gegenläufige und kleinere Konformationsänderungen verglichen mit ATP. Die Bindungweise von TNP-AMP ist unterschiedlich zu der von ATP, AMPPNP und anderen Tri- und Diphosphat Nucleotiden. Die Phosphorylierung der ATPase wurde mit ITP und 2'-deoxyATP beobachtet. Ca2E1P wurde in gleichem Ausmaß mit ITP und 2'-deoxyATP wie mit ATP akkumuliert, obwohl das Ausmaß der Konformationsänderungen bei Ca2E1P-Bildung geringer ist. Änderungen der 2'- und 3'-OH des Ribosetriphosphats und der Aminogruppe des Adenins beeinflussen die Reaktionsgeschwindigkeit der Phosphorylierung der ATPase. Es gibt keine direkte Verbindung zwischen dem Ausmaß der Konformationsänderung bei Nukleotid- Bindung und der Rate der Phosphorylierung. Das volle Ausmaß der ATP-induzierten Konformationsänderung ist nicht zwingend für die Phosphorylierung. Die Konformationen von Ca2E1N und Ca2E1P hängen vom Nukleotid ab. Dies weist darauf hin, dass die Struktur von ATPase Zuständen heterogener ist, als bisher erwartet. Die Aussagekraft und der Reichtum an Informationen in den Infrarotspektren zeigen, dass hiermit eine leistungsfähige Methode für die Untersuchung von Enzym-Substrat-Wechsel-Wirkungen und das räumliche Abtasten von Bindungstaschen zur Verfügung steht.
Die hier vorgelegte Arbeit hatte zur Aufgabe, funktionellen Einflüsse auf den Neurotransmittertransporter GAT-1 zu erhellen, welche durch eine N-Glykosilierung des Transportproteins hervorgerufen werden. Frühere Untersuchungen deuteten bereits darauf hin, daß der Glykosilierung der drei extrazellulär vorhandenen N-Glykosilierungsstellen des GAT- 1 neben einer expressionellen Bedeutung auch eine funktionelle zukam. So zeigten sich bei Arbeiten anderer Gruppen, welche N-Glykosilierungsmutanten des GAT-1 verwendeten, um die Glykosilierung des Transportproteins zu beeinträchtigen, daß fehlende Oligosaccharide an den N-Glykosilierungsstellen des GAT-1 durchaus in eine Reduktion der GABA-Aufnahme in die Zellen mündete, was zumindest bei Oozyten des Xenopus laevis auf eine verminderte Transportrate zurückgeführt werden konnte. An CHO-Zellen konnte nun auf gleiche Weise eine Reduktion der GABA-Aufnahme beobachtet werden, und es galt, mit elektrophysiologischen Methoden die Ursachen dieser Reduktion zu erkunden. Die hier vorgelegte Arbeit vermochte nun bei CHO-Zellen, eine Verminderung der Transportrate als Ursache jener reduzierten GABA-Aufnahme auszumachen. Zu diesem Zwecke wurden die CHO-Zellen entweder mit der DNA des mGAT1 Wild-Typs (einem aus der Maus klonierten GAT-1-Transporter) oder mit der DNA von N-Glykosilierungsmutanten des mGAT1 transfiziert. Es fanden zwei verschiedene N-Glykosilierungsmutanten Verwendung, an denen jeweils zwei der drei N-Glykosilierungsstellen Asparagin durch Aspartat bzw. Glycin ersetzt wurden: (Asp176, Gly181, Asn184) bzw. DDN (Asp176, Asp181, Asn184). Wie indes die durch eine beeinträchtigte N-Glykosilierung verminderte Transportrate zustande kam, und wie sich eine entsprechende Erklärung in die bisherige Annahme den GAT-1 Reaktionszyklus betreffend einfügen und mit dessen Struktur verbinden ließe, vermochte die hier vorgelegte Arbeit zu einem großen Teil einsichtig zu machen. Zwei Phänomene konnten die Transportrate vermindern: Zunächst waren die Zeitkonstanten transienter Ströme, welche bei Abwesenheit von GABA auftreten, verlangsamt. Weil diese Ströme den ratenlimitierenden Schritt im Reaktionszyklus zu repräsentieren scheinen, mußte also jener Schritt, welcher die Okklusion des ersten Natriums oder die darauffolgende Konformationsänderung beinhaltet, verlangsamt sein. Im weiteren zeigten Analysen der bei den transienten Strömen auftretenden Ladungsverschiebungen, daß die Natrium-Transporter-Interaktion auf extrazellulärer Seite durch das Fehlen von Oligosacchariden an den N-Glykosilierungsstellen des GAT-1 beeinträchtigt war, wobei als Grund hierfür eine Verstärkung der dimensionalen bzw. elektrogenen Schranke zu sehen ist, welche sich vor der Natriumbindungsstelle des GAT-1 befindet. Eine Veränderung der Expressionsrate als tragende Ursache verminderter Transportraten bzw. reduzierter GABA-Aufnahmen konnte hingegen ausgeschlossen werden. Experimente mit dem N-Glykosilierungs-Inhibitor dMM sowie Vergleiche von Experimenten verschiedener Mutanten vermochten die oben beschriebenen Effekte hauptsächlich auf die durch die Mutationen fehlenden Oligosaccharide zurückzuführen und weniger auf andere durch die Mutation hervorgerufene strukturelle Änderungen des GAT-1-Proteins.
Die vorliegende Arbeit stellt Design, Aufbau und erste experimentelle Testergebnisse einer integrierten RFQ-Driftröhrenkombination für den Einsatz im Injektorbereich einer klinischen Synchrotronanlage zur Behandlung von Tumorerkrankungen mit Ionenstrahlen vor. Das Hauptziel der Bemühungen war, eine sehr kompakte und auf die gestellten Aufgaben hoch spezialisierte Lösung zu finden, die den täglichen Anforderungen im Klinikbetrieb gerecht wird. Zuverlässigkeit, einfache Bedienbarkeit und möglichst geringe Betriebskosten standen dabei im Vordergrund und führten letztlich zu einer nur 1,40 m langen Kombination der beiden Beschleunigerkomponenten, die üblicher Weise in zwei getrennten Kavitäten mit separater Leistungsversorgung, separater Steuerung und mit deutlich mehr Platzbedarf untergebracht sind. Im Zuge der Designarbeiten wurde insbesondere das Programm PARMPRO den hier aufgetretenen aktuellen Problemstellungen angepasst. Die Berechnung der Wechselwirkung von Ionen bei raumladungsdominierten Teilchenstrahlen wurde korrigiert, das Programm um ein Transportelement zu Transformation geladener Teilchen durch eine frei wählbare Potentialverteilung erweitert und mit einem neu entwickelten Programmteil wurden die zur Fertigung notwendigen Daten generiert. Die Optimierung der Strukturparameter mit Hilfe einer externen Visual-Basic-Anwendung zum automatischen Optimieren der Strukturdaten mit Hilfe von PARMPRO war ein Schritt auf dem Wege zum endgültigen, an die Eingangsstrahldaten und an die Erfordernisse der darauffolgenden IH-Struktur angepassten Elektrodendesign. Nach den Simulationsrechnungen erfolgten Referenzmessungen an entsprechenden Modellaufbauten insbesondere mit einem computergesteuerten Störkörpermessstand, zur experimentellen Bestimmung der Spannungsverhältnisse an der jeweils zu untersuchenden Strukturvariante. Auf diesen Ergebnissen basiert das endgültig entwickelte Resonatorkonzept der RFQ-Driftröhrenkombination. Das Kapitel "Aufbau des Medizin-RFQs" behandelt die Konstruktion und die technische Umsetzung des erarbeiteten Beschleunigerkonzepts. Einzelnen Beschleunigerkomponenten wie Tank, Elektroden, Resonatorstruktur, Bunchereinheit und deren Fertigungsprozesse werden vorgestellt, Arbeitsschritte wie das Verkupfern des Tanks in der Galvanik der GSI oder das Verfahren zum Versilbern von Kontaktteilen im hauseigenen Labor werden beschrieben. Es folgt eine Diskussion des Justierkonzepts und der Maßnahmen zur Einhaltung der erforderlichen Genauigkeiten von ca. 20 mm, um die berechnete Strahlqualität zu gewährleisen. Abschließend werden die Ergebnisse erster HF-Testmessungen auf Messsenderniveau beschrieben. Hier wurden zunächst experimentell grundlegende Resonatoreigenschaften wie etwa Resonanzfrequenz, Güte und Parallelersatzwiderstand bestimmt. Danach wurde ein spezielles Störkörpermessverfahren angewandt, um den über die Montagehöhe der Driftröhre einstellbaren Spannungsbereich der Bunchereinheit zu erfassen, da die geometrischen Verhältnisse einen computergesteuerten Messstand wie er zur Untersuchung der Modellaufbauten herangezogen wurde nicht zuließen. Abschließend erfolgte ein Abstimmen der Spannungsverteilung entlang der RFQ-Elektroden. Diese experimentellen Ergebnisse belegen eindrucksvoll die Funktionsfähigkeit der RFQ-Driftröhrenkombination, so ist insbesondere die erforderliche Buncherspannung auf einer mittleren Montagehöhe der spannungsführenden Driftröhre zu erreichen, die durch die zusätzlich Driftröhrenkapazität hervorgerufene Verzerrung der Spannungsverteilung auf den Elektroden lässt sich über die höhenverschiebbaren Kurzschlussplatten gut korrigieren. Das erarbeitete Gesamtkonzept dieser neuartigen, sehr kompakten RFQ-Driftröhrenkombination ist auch für andere Anwendungsbereiche sehr attraktiv, so dass bereits ein Patent darauf angemeldet wurde. Damit ist das Ziel, eine RFQ-Driftröhrenkombination für die medizinische Beschleunigeranlage in Heidelberg aufzubauen erreicht. Strahltests und die experimentelle Bestimmung der Phasen- und Energiebreite des Ionenstrahls sind als nächstes vorgesehen.
Die opto-elektronische Erzeugung intensiver Terahertz-Pulse unter Verwendung von Verstärkerlaser-Systemen stellt eine leistungsfähige und im wissenschaftlichen Umfeld etablierte Technik dar. Es ist anzunehmen, dass diese Technik in Zukunft auch für kommerzielle Anwendungen eingesetzt werden wird. (Z.B. entwickelt die Firma Nikon, Japan ein Echtzeit- Bildgebungssystem mit opto-elektronisch erzeugter Terahertz-Strahlung basierend auf einem Verstärkerlaser.) In dieser Arbeit werden gängige und neuartige opto-elektronische Terahertz-Emitter für Verstärkerlaser theoretisch und experimentell untersucht. Zur experimentellen Untersuchung wurde die Methode der elektro-optischen Detektion, welche in der Arbeit ausführlich vorgestellt wird, verwendet. Dabei wird insbesondere die spektrale Detektorempfindlichkeit dargestellt und eine Methode zur Durchführung kalibrierter Messungen vorgestellt, welche auch für die Verwendung mit Verstärkerlasern geeignet ist. Zu den untersuchten bekannten Emittern gehört der vor ca. 10 Jahren erstmals vorgestellte groß- flächige GaAs-Emitter mit externem Feld. Obwohl dieser Emitter in der Literatur bereits ausführlich untersucht wurde, werden in der vorliegende Arbeit über den Stand der Literatur hinausgehende neue Aspekte wie die Feldabschirmung auf Grund von Ladungsträgerverschiebung und die Abhängigkeit der erzeugten THz-Feldstärke bzw. der THz-Pulsenergie von der Emitterfläche diskutiert. Zudem erfolgt die Behandlung dieses Emitters erstmals vollständig quantitativ, wobei eine gute Übereinstimmung mit den experimentellen Daten erreicht wird. Der zweite in der Arbeit untersuchte Emitter ist der großflächige ZnTe-Emitter. Die elektro-optische Erzeugung von THz-Strahlung in ZnTe-Kristallen mit hoch-repetierlichen Kurzpuls-Lasersystemen ist langjährig bekannt. Die Verwendung großflächiger ZnTe-Kristalle in Verbindung mit Verstärkerlasern wurde allerdings in Rahmen dieser Arbeit erstmals demonstriert. Vor dem Hintergrund der demonstrierten hervorragenden Eigenschaften dieses Emitters ist dieses besonders erstaunlich. Der Hauptteil der Arbeit beschäftigt sich mit der neuartigen Erzeugung von THz-Pulsen in laser-generierten Plasmen. Dabei wurden zwei Methoden untersucht. Die erste Methode, welche im Rahmen dieser Arbeit erstmals realisiert wurde, basiert auf einer Vorspannung des Plasmas mit einem externen elektrischem Feld. Die Methode ist vergleichsweise wenig effektiv, stellt aber eine gute Möglichkeit zur Überprüfung der in der Arbeit entwickelten Modelle für die THz-Emission dar. Die zweite Methode, die erstmals von Cook et al. im Jahre 2000 demonstriert wurde, basiert auf einer "optischen Vorspannung" des Plasmas mittels der Überlagerung des Laserpulses der Fundamentalfrequenz mit einem phasensynchronen Laserpuls der zweiten Harmonischen. Die ausführliche experimentelle und theoretische Untersuchung dieser Methode beinhaltet eine quantitative Modellierung der zu erwartenden Ergebnisse auf Basis des von Cook et al. vorgestellten phänomenologischen Modells, welches auf zeitunabhängigen Nichtlinearitäten dritter Ordnung im Plasma oder in der Luft beruht. Die in dieser Arbeit vorgestellte quantitative Analyse legt die Schlussfolgerung nahe, dass das phänomenologische Modell von Cook et al. in der vorliegenden Form in Frage gestellt werden muss. Daher wurde im Rahmen der Arbeit ein einfaches Modell zur Erklärung der mikroskopischen Ursache der Nichtlinearität entwickelt. Dieses Modell beinhaltet die Kopplung der Nichtlinearität mit dem lokalen Ionisierungsprozess und damit formal auch eine explizite Zeitabhängigkeit der Nichtlinearität im Plasma. Die quantitative Modellierung der makroskopischen THz-Emission auf Basis des mikroskopischen Bildes der Generations-Nichtlinearitäten zeigt, dass das Modell die experimentellen Befunde zufriedenstellend beschreiben kann. Die Arbeit schließt mit einem Vergleich der untersuchten Emitter in Bezug auf spektrale Eigenschaften, Effizienz und Sättigungsverhalten. Bei der Darstellung des Sättigungsverhaltens wird anhand der in der Arbeit entwickelten Modelle versucht die Entwicklung der erzeugten THz-Feldamplituden für Laserpulsenergien von bis zu 50 mJ vorauszusagen. Diese Abschätzung lässt vermuten, dass der Plasma-Emitter für Laserpulsenergien von 10mJ und mehr das Potential hat, deutlich höhere THz-Feldamplituden zu erzeugen als alle gängigen Standardemitter. Entsprechende Experimente in diesem Laserpuls-Energiebereich sind am Front-End des PHELIX-Lasers der GSI (Gesellschaft für Schwerionenforschung) in Darmstadt im Rahmen der Fortführung der Forschungsarbeiten geplant.
Das zeitdiskrete Rohrmodell besitzt für die Modellierung der menschlichen Sprachproduktion eine wichtige theoretische und praktische Bedeutung, da es ein mathematisch handhabbares Modell darstellt und zugleich eine vereinfachte akustische Beschreibung des Sprechtraktes beinhaltet. Dies ist einerseits begründet durch die modellhafte Beschreibung der Ausbreitung von ebenen Wellen durch den Sprechtrakt und andererseits in der Darstellung des Rohrmodells als zeitdiskretes lineares System. Erst durch die Verfügbarkeit von adäquaten Schätzalgorithmen, welche die Modellparameter aus dem Sprachsignal bestimmen, ist das Rohrmodell für Anwendungen in der Sprachverarbeitung interessant. Diese liegen allerdings nur für die einfachsten unverzweigten Rohrmodelle vor, welche den Sprechtrakt nur stark vereinfacht modellieren. Für erweiterte Rohrmodelle existieren nur in eingeschränkter Weise adäquate Schätzalgorithmen, mit denen die Modellparameter aus dem Sprachsignal geschätzt werden können. Daher wird mit dieser Arbeit versucht diesen Mißstand aufzulösen, wofür Schätzalgorithmen auch für erweiterte Rohrmodelle entwickelt und vorgestellt werden. Die Erweiterungen des Rohrmodells beziehen sich auf Rohrverzweigungen, die auch mehrfach auftreten können, und Rohrabschlüsse, die frequenzabhängig oder zeitvariabel sein können. Zusätzlich werden Sprechtraktmodelle behandelt, die zwei Systemausgänge aufweisen. Dies wird für Analysen von getrennt aufgenommenen Mund- und Nasensignalen von nasalierten Lauten diskutiert, um die Lippen- und Nasenabstrahlung einzeln zu berücksichtigen. Ebenso werden verzweigte Modelle mit zwei Systemausgängen für eine Beschreibung des Nasaltraktes unter Berücksichtigung der beiden Nasengänge behandelt. Die Erweiterungen des Rohrmodells durch Verzweigungen und angepaßte Rohrabschlüsse ermöglichen eine genauere Beschreibung des Sprechtraktes infolge der Verzweigungen durch den Nasaltrakt und infolge der Abschlüsse an den Lippen, Nasenlöchern und der Glottis. Die Parameterbestimmung wird durch Minimierung eines Fehlers durchgeführt, welcher ein spektrales Abstandsmaß zwischen dem Rohrmodell und dem analysierten Sprachsignal darstellt. Für die Definition des Fehlers wird die inverse Filterung herangezogen, welche eine Leistungsminimierung des Ausgangssignals des inversen Systems beinhaltet. Dabei hat sich gezeigt, daß die Fehlerdefinition der inversen Filterung modifiziert werden muß, um auch erfolgreich auf erweiterte Rohrmodelle angewendet werden zu können. Die Modifikation kann für erweiterte Rohrmodelle einheitlich für den zeitinvarianten und zeitvariablen Fall vorgestellt werden. Über den allgemeinen Ansatz der Schätzung hinaus werden auch effiziente Schätzverfahren für ausgewählte Rohrstrukturen und allgemeine Pol-Nullstellen-Systeme vorgestellt. Die diskutierten Schätzverfahren ermöglichen eine gute Approximation der Sprachspektren durch die Modellbetragsgänge. Darüber hinaus konnte auch gezeigt werden, daß durch entsprechende Rohrmodellstrukturen und eine geeignete Vorverarbeitung des Sprachsignals realistische Querschnittsflächen des Sprechtraktes geschätzt werden können. Daher eignen sich die erweiterten Sprechtraktmodelle auch für die Sprachproduktion. In Synthesebeispielen wurden Lautübergänge auf der Basis von geschätzten Vokaltraktflächen realisiert und in Resynthesebeispielen mittels unverzweigter Rohrmodelle wurde insbesondere die Anregung der Modelle diskutiert. Daß durch die Verwendung von Rohrmodellen auch Lauttransformationen möglich sind, zeigt die vorgestellte künstliche Nasalierung von Sprachsignalen unnasalierter Laute, welche mittels verzweigter Rohrmodelle und Analysen von getrennt aufgenommenen Mund- und Nasensignalen erreicht werden konnte.
Im ersten Teil dieser Arbeit sind Protein-Protein Docking-Studien dokumentiert. Bis heute konnten die meisten Protein-Komplex-Strukturen nicht experimentell aufgeklärt werden, so auch die beiden oben genannten Elektrontransfer-Komplexe. Nach einem erfolgreichen Test wurden verschiedene Cytochrom c Oxidase:Cytochrom c Paare mit der gleichen Methode gedockt: COX aus Paracoccus denitrificans mit Pferdeherz Cytochrom c und COX mit dem löslichen Fragment des membrangebundenen Cytochrom C552 (beide aus P. denitrificans). Im zweiten Teil dieser Arbeit wurde die diffusive Annäherung des Cytochrom c an die Cytochrom c Qxidase mit der Brownschen Dynamik Methode simuliert. Die Diffusionsbewegung eines Brownschen Teilchens in wässriger Lösung wird durch die Langevin-Gleichung bestimmt. Der auf dieser Gleichung fußende Ermak-McCammon-Algorithmus ist Grundlage der Simulationsmethode. Die so ermittelten Raten für COX und Pferdeherz, sowie für COX und Cytochrom C552, wurden dann mit experimentell gewonnenen Raten verglichen. Da die Elektrostatik für den Annäherungsprozeß dieser Proteine eine so gewichtige Rolle spielt, wirken sich Mutationen, die mit einer Ladungsänderung einhergehen, merklich aus. Dies ist vor allem dann der Fall, wenn sich die Mutation in der Nähe der Bindungsstelle befindet. Aus dem gleichen Grund ist die Assoziationsrate auch stark von der Ionenstärke der umgebenden Lösung abhängig. Steigt die Ionenkonzentration wird die elektrostatische Komplementarität der Bindingsstellen der beiden Makromoleküle stärker abgeschirmt, und die Rate sinkt. Diese beiden relativen Trends konnten durch die Simulationen gut reproduziert und bestätigt werden. Allerdings liegen die absoluten Resultate merklich über den experimentell gemessenen Raten. Es ist sehr gut möglich, daß post-diffusive Effekte, die nicht in einer Brownschen Dynamik Simulation von starren Körpern berücksichtigt werden können, die Raten erniedrigen. Um den Einfluß der Membranumgebung auf die Wechselwirkung des Elektrontransportsystems zu untersuchen. wurde eine DPPC Doppelschicht um die Oxidase modelliert und energieminimiert. Mit Poisson-Boltzmann Rechnungen wurde das elektrostatische Potential dieses Nanosystems untersucht und mit dem der einzelnen Oxidase verglichen. Durch einen modifizierten Set-up konnten dann auch für dieses Membransystem Brownsche Dynamik Simulationen durchgeführt werden. Der Vergleich mit den vorhergehenden Simulationen ohne Membran erbrachte bemerkenswerte Ergebnisse. Während die Assoziationsraten für Pferdeherz Cytochrom c durch den Membraneinfluß erniedrigt wurden, stiegen sie im Fall des physiologischen Transferpartners c552. Pferdeherz Cytochrom c weist eine positive Nettoladung und einen ausgeprägten bipolaren Charakter auf. Eine große Zahl positiv geladener Seitenketten befindet sich auf der gleichen Hemisphäre wie die Bindungsstelle. Obwohl die DPPC Lipidmoleküle neutral sind, zeigten die Elektrostatikrechnungen, daß die Membranoberfläche abstoßend auf positive Ladungen wirkt. Da sich nun die Bindungsstelle der Oxidase für Cytochrom c nur etwa 10 Å oberhalb der Membran befindet, verringert sich die Wahrscheinlichkeit der Assoziation.
Diese Arbeit untersucht die Produktion von Teilchen durch Vakuumpolarisation in Anwesenheit klassischer Felder. Eine unquantisierte Beschreibung des bosonischen Sektors einer Quantenfeldtheorie wird möglich, wenn dieser stark besetzt ist. Sind die Besetzungszahlen größer als eins, können Quantenprozesse als Korrekturen angesehen werden. Für die Fermionen gibt es wegen des Paulischen Prinzips kein solches Konzept. Situationen mit diesen starkbesetzten Feldern finden sich im Fall der Quantenchromodynamik (QCD) zum Beispiel in ultrarelativistischen Schwerionenkollisionen. Diese werden zur Zeit am Relativistic Heavy Ion Collider (RHIC) am Brookhaven National Laboratory durchgeführt und in Zukunft am Large Hadron Collider (LHC) am CERN untersucht werden. Diese hochbesetzten sind auch starke Felder. Damit können in Abwesenheit weiterer Skalen Prozesse mit unterschiedlich häufigen Kopplungen an das Hintergrundfeld nicht parametrisch unterschieden werden. Die dominanten Quanteneffekte werden durch Terme der klassischen Wirkung. die zweiter Ordnung in den Quantenfeldern sind, repräsentiert. Alle diesbezüglichen Informationen sind in den Propagatoren der entsprechenden Quanten enthalten. Wegen der starken Felder müssen hier die vollen Propagatoren im Hintergrundfeld benutzt werden. Bei schwacher Kopplung - in führender Ordnung in den Quanteneffekten - enthalten sie alle Details über die Streuung der Quantenteilchen am Feld und deren Produktion durch Vakuumpolarisation. Ohne weitere radiative Korrekturen, gibt es in der Quantenelektrodynamik die Produktion von Elektron-Positron-Paaren. Analog dazu werden in der QCD Quark-Antiquark-Paare produziert. Dort kommt aber wegen der Nichtlinearität des Feldtensors noch die Produktion von Paaren gluonischer Quantenfluktuationen hinzu. Die Quarks und Antiquarks sowie die gluonischen Quantenfluktuationen sind parametrisch nicht zu unterscheiden. Für Schwerionenkollisionen lassen sich Größen wie die anfängliche Energiedichte und die Zerfallszeit des hochdichten Regimes abschätzen. Es stellt sich nun die Frage, ob man bei Einschränkung auf diese Situationen eine der beiden Quantenspezies als unwichtig vernachlässigen kann. Im Bereich hoher Teilchenimpulse, läßt sich die Produktion störungstheoretisch beschreiben. Hier untersuche ich zunächst in der niedrigsten Ordnung der klassischen Wirkung die Produktionsprozesse der beiden Arten von Quanten bei Anwesenheit beliebiger Felder. Für die Aufteilung des Gluonenfeldes in seinen Erwartungswert und seine Fluktuationen wird die Hintergrundfeldmethode der QCD verwendet. Für den Spezialfall rein zeitabhängiger Felder werden die Produktionsraten für Parametersätze, wie sie für RHIC und LHC erwartet sind, angegeben. Es stellt sich heraus, daß auf perturbativem Niveau sowohl Situationen, in denen die Fermionen dominieren, als auch solche, in denen die gluonischen Quantenfluktuationen überwiegen' vorkommen. Im Fall der Gluonen könnte der stark besetzte niederengetische Bereich durch das klassische Feld und der hochenergetische schwächer besetzte durch eine perturbative Beschreibung hinreichend genähert sein. Da es für die Fermionen jedoch kein klassisches Feld gibt, bliebe ihr niederenergetischer Bereich vollkommen unbehandelt. Hier ist auf jeden Fall eine nichtperturbative Beschreibung notwendig. Diese kann auf dem vollen Fermionpropagator im Hintergrundfeld aufgebaut werden. Der bereits oben verwendete Spezialfall eines rein zeitabhängigen Feldes kann als Näherung eines boostinvarianten Szenarios in der zentralen Region der Schwerionenkollision gesehen werden. In Anwesenheit derartiger Felder wird hier der volle retardierte Propagator hergeleitet. Für den exakten Propagator und alle Näherungen wird das Impulsspektrum der produzierten Fermionen berechnet. Dabei stellt sich die sogenannte Abelsche Näherung als bester Kandidat neben der exakten Beschreibung heraus. Sie entspricht, im Gegensatz zur störungstheoretischen Näherung, bei der die Fermionen immer mir ihrem asymptotischen kinematischen Impuls propagiert werden, einer Propagation mit dem mittleren kanonischen Impuls, was die Verbesserung der Näherung erklärt. Mit den, durch die induzierten Strömen modifizierten Yang-Mills-Gleichungen, stellt die Arbeit das komplette Funktionensystem dar, daß benötigt wird, um eine selbstkonsistente Berechnung des klassischen Feldes mit perturbativ beschriebenen gluonischen Quantenfluktuationen und exakt berechneten Quarks und Antiquarks durchzuführen.
Gegenstand dieser Arbeit sind Eigenschaften angeregter hadronischer Materie sowie physikalische Systeme, in denen diese Materie auftritt bzw. produziert wird. Die Beschreibung der stark wechselwirkenden Materie erfolgt in einem hadronischen, chiral-symmetrischen SU(3)L x SU(3)R Modell, welches die Saturierungseigenschaften von Kernmaterie und die Eigenschaften von Atomkernen reproduziert. Die Untersuchung heißer und dichter unendlicher hadronischor Materie zeigt, dass das vom Modell vorhergesagte Phasendiagramm stark von den Kopplungen der Baryonenresonanzen abhängt. Für kalte hadronische Materie ergibt die Einbeziehung des Baryonendekupletts und die Freiheit in deren Vektorkopplungen eine sehr große Bandbreite an verschiedenen Zustandsgleichungen. Für heiße hadronische Materie mit verschwindendem baryochemischen Potential zeigt sich ebenfalls eine starke Abhängigkeit der Eigenschaften hadronischer Materie von der Ankopplung der baryonischen Resonanzen. Es werden drei verschiedene Parametrisierungen betrachtet. Das resultierende Phasenübergangsverhalten variiert von einem "Crossover" über einen schwachen, zu einem doppelten Phasenübergang erster Ordnung. Es zeigt sich jedoch, dass die beobachteten Eigenschaften von Neutronensternen die Unbestimmtheit bzgl. der Vektorkopplung dieser Freiheitsgrade und damit der Zustandsgleichung deutlich verringern. Das Raum-Zeit Verhalten relativistischer Schwerionenkollisionen bei SPS- und RHIC-Energien wird mittels einer hydrodynamischen Simulation unter Benutzung der chiralen Zustandsgleichungen untersucht. Dabei spiegelt sich das unterschiedliche Phasenübergangsverhalten deutlich im Ausfrierverhalten der hadronischen Materie wider. Die im chiralen Modell berechneten Teilchenzahlverhältnisse werden mit den aus Schwerionenkollisionen von AGS- bis RHIC-Energien erhaltenen experimentellen Daten verglichen. Dabei zeigt sich, dass die verschiedenen Parametersätze des chiralen Modells und die Rechnungen für ein nichtwechselwirkendes, ideales Hadronengas eine ähnlich gute Beschreibung der gemessenen Weite liefern. Die deduzierten Ausfrierwerte für die Temperatur sind sensitiv auf das Phasenübergangsverhalten und liegen unterhalb der jeweiligen kritischen Temperatur. Die vorhergesagten Ausfriermassen sind in allen Parametrisierungen sehr ähnlich mit Abweichungen bis zu 15% von den entsprechenden Vakuumwerten. Die Untersuchung der Eigenschaften von Vektormesonen in dichter Materie erfolgt in der Mittleren-Feld- und in der HartreeNäherung. Hierbei zeigt sich eine signifikante Reduzierung der Teilchenmassen durch Vakuumpolarisationseffekte.
Gegenstand dieser Arbeit war die Untersuchung der optischen und elektronischen Eigenschaften von metallorganischen Materialien, die mit dem Verfahren der Elektronenstrahlinduzierten Deposition hergestellt wurden. Da es sich bei diesen noch relativ unerforschten Endprodukten um Materialmengen von wenigen Nanogramm Gewicht und geometrische Abmessungen im Sub-µm-Bereich handelt, wurden hierzu neue Verfahren der Herstellung, Strukturierung und Charakterisierung entwickelt. Sowohl die optischen als auch die elektronischen Eigenschaften dieser Deponate besitzen einen gemeinsamen physikalischen Nenner in ihrer inneren Morphologie: ein nanokristallines dielektrisches Verbundmaterial, das aus metallischen Kristalliten und organischen Polymeren gebildet wird. Im Hinblick auf die Durchführung der Untersuchungen war das Augenmerk auf zwei potentielle industrielle Anwendungen gerichtet: den Photonischen Kristallen und den Einzelelektronen-Phänomenen bei Raumtemperatur. Mit Hilfe von Beugungsexperimenten im Fernfeld wird ein Verfahren gezeigt, das eine der periodischen Struktur von Photonischen Kristallen angepaßte Charakterisierung von Materialstrukturen mit optischer Bandlücke ermöglicht. Das mathematische Grundgerüst bildet dabei eine rigorose Streutheorie, die als Lösung der Helmholtz-Gleichung an dielektrischen Zylindern mit wenigen hundert nm Durchmesser den Experimenten zugrunde gelegt wird und sowohl für die praktische Dimensionierung des Versuchsaufbaus als auch für die theoretische Auswertung der Meßdaten, z.B. für die Brechungsindexbestimmung, dient. Die Herstellung und Kontrolle der Eigenschaften von Einzelelektronen-Tunnelelementen (SETs, Single Electron Tunneling Devices), welche bei hohen Temperaturen mit einer abzählbar kleinen Anzahl von Elektronen noch arbeiten, dürfte wohl eine der größten Herausforderungen in der heutigen Festkörperelektronik sein. Obwohl die Idee dazu, auf Basis der "Orthodoxen Theorie", bis auf die 80er Jahre des vergangenen Jahrhunderts zurückgeht, konnten nennenswerte Ergebnisse nur unter "Laborbedingungen" mit entsprechend hohem experimentellem Aufwand erzielt werden. In der vorliegenden Arbeit wird ein neuer Weg gegangen, um die beiden wesentlichen Bedingungen der orthodoxen Theorie, nämlich die Kleinheit der Kapazitäten und hohe Tunnelwiderstände, durch das ungeordnete nanokristalline Netzwerk der metallorganischen Deponate zu erfüllen. Die Motivation hierzu liegt in der hochohmigen organischen Matrix der Deponate, die mit darin eingebetteten elektrisch isolierten Nanokristalliten (die mit Durchmessern zwischen 1 nm und 2.5 nm ausgezeichnete Quantenpunkte bilden) eine ideale Umgebung für den Betrieb von Einzelelektronen-Tunnelelementen bereitstellen. Ein stabiles Verhalten unter hohen Temperaturen und eine ausgeprägte Resistenz gegen quantenmechanische Fluktuationen (z. B. dem Co-Tunneln oder Hintergrundladungen) wird durch den Aufbau von nanokristallinen Netzwerken, die in der Arbeit als "Über-SET" bezeichnet werden, erreicht. Mit Hilfe der entwickelten speziellen Technik lassen sich Nanokristallite elektrisch bis zur quantenmechanischen Tunnelgrenze voneinander isolieren und als Quantenpunkte betreiben. Die dabei beobachtbaren Phänomene sind diskretisierte I/U-Kennlinien und das Blockade-Verhalten der Spannung bei Raumtemperatur, deren Entstehung in Monte-Carlo-Simulationen auf zwei physikalische Grundprinzipien zurückgeführt wird: der Ausbildung von Einfangzuständen (Traps) für Elektronen an Grenzstellen und dem Mechanismus des negativen differentiellen Widerstandes (NDR, Negative Differential Resistance). Beide Effekte fungieren in einer gegenseitigen Kombination zueinander durch Coulomb-Wechselwirkungen zu einem mikroskopischen Schalter für den gesamten Strom.
Resistive Plate Chambers (RPCs) are gaseous parallel plate avalanche detectors that implement electrodes made from a material with a high volume resistivity between 10 high 7 and 10 high 12 omega cm. Large area RPCs with 2mm single gaps operated in avalanche mode provide above 98% efficiency and a time resolution of around 1 ns up to a flux of several kHz/cm high 2. These Trigger RPCs will, as an example, equip the muon detector system of the ATLAS experiment at CERN on an area of 3650 m high 2 and with 355.000 independent read out channels. Timing RPCs with a gas gap of 0.2 to 0.3mm are widely used in multi gap configurations and provide 99% efficiency and time resolution down to 50 ps. While their performance is comparable to existing scintillator-based Time-Of-Flight (TOF) technology, Timing RPCs feature a significantly, up to an order of magnitude, lower price per channel. They will for example equip the 176 m high 2 TOF barrel of the ALICE experiment at CERN with 160.000 independent read out cells. RPCs were originally operated in streamer mode providing large signals which simplifies readout electronics and gap uniformity requirements. However, high rate applications and detector aging issues made the operation in avalanche mode popular. This was also facilitated by the development of new highly quenching C2F4H2-based gas mixtures with small contents of SF6. While the physics of streamers is difficult to study, the avalanche mode opened the possibility for a detailed simulation of the detector physics processes in RPCs. Even though RPCs were introduced in the early eighties and have been (will be) used in experiments, there are still disagreements about the explanation of several aspects of the RPC performance. The high efficiency of single gap RPCs would require a large ionization density of the used gases, which according to some authors contradicts measurements. Even in the case of a large ionization density the gas gain has to be extremely large, in order to arrive at the observed RPC efficiency. This raises other questions: A very strong space charge effect is required to explain the observed small avalanche charges around 1 pC. Doubts have been raised whether an avalanche can progress under such extreme conditions without developing into a streamer. To overcome these difficulties, other processes, like the emission of an electron from the cathode, were suggested. Moreover, the shape of measured charge spectra of single gap RPCs differs largely from what is expected from the statistics of the primary ionization and the avalanche multiplication. In this thesis we discuss the detector physics processes of RPCs, from the primary ionization and the avalanche statistics to the signal induction and the read out electronics. We present Monte-Carlo simulation procedures that implement the described processes. While the fundament of the described model and some results were already published elsewhere [1], the subject of this thesis is the implementation of the space charge effect. We present analytic formulas for the electrostatic potential of a point charge in the gas gap of an RPC. These formulas were developed in collaboration with the University of Graz [2] and were published in [3, 4]. The simulation model presented in [1] is completed by the dynamic calculation of the space charge field using these formulas. Since the gas parameters like drift velocity and the Townsend and attachment coefficients depend on the electric field, they are calculated dynamically as well. The functional dependence of these parameters on the field is obtained with the simulation programs MAGBOLTZ and IMONTE. For the primary ionization parameters, we use the values that are predicted by the program HEED. While the described procedure only simulates the longitudinal avalanche development towards the anode of the RPC, we also present more dimensional models that allow a careful study of the transverse repulsive and attractive forces of the space charge fields, and of the consequences for the avalanche propagation. We shall show that the efficiencies of single gap Timing RPCs is indeed explained by the high primary ionization density (about 9.5 /cm as predicted by HEED) and a large effective Townsend coefficient (around 113 /mm as predicted by IMONTE). We show that the space charge field reaches the same magnitude as the applied electric field in avalanches at large gas gain. This strong space charge effect effectively suppresses large values for the avalanche charges. The shape of the simulated charge spectra is very similar to the measurements. Also the simulated average charges are close to the experimental results. RPCs are operated in a strong space charge regime over a large range of applied voltage, contrary to wire chambers. We apply only standard detector physics simulations to RPCs. The performance of Timing and Trigger RPCs is well reproduced by our simulations. The results concerning the space charge effect were presented and discussed at the 'RPC 2001' workshop [5] and on the '2002 NSS/MIC' conference [6].
In summary, the cooled heavy-ion beams of the ESR storage ring offer excellent experimental conditions for a precise study of the effects of QED in the groundstate of high-Z one- and two-electron ions. This has been demonstrated within the series of experiments conducted at the electron cooler device as well as at the gasjet target. In this work we have used a recently developed experimental approach to obtain the first direct measurement of the two-electron contributions to the ground state binding energy of helium-like uranium. By employing our method, all one-electron contributions to the binding energy such as finite-nuclear size corrections and the one-electron self energy cancel out completely. Note, this is a distinctive feature of this particular kind of QED test and is in contrast to all other tests of bound state QED for high-Z ions such as 1s Lamb shift (in one-electron systems), g-factor of bound electrons, or hyperfine splitting. Compared to former investigations conducted at the superEBIT in Livermore we could already substantially improve the statistical accuracy and extend studies to the higher-Z regime. Moreover, our result has reached a sensitivity on specific two-electron QED contributions. Our value agrees with the theoretical predictions within the experimental uncertainty. Similar to the superEBIT experiment possible sources of systematic errors are essentially eliminated and the final result is limited only by counting statistics. For the case of the 1s Lamb shift in hydrogen-like uranium, the achieved accuracy of +- 4.2 eV is a substantial improvement by a factor of 3 compared to the most precise value up to now [44] (see Fig. 5.6). Our result already provides a test of the first-order QED contributions at the 1.5% level and only a slight improvement is required in order to achieve a sensitivity to QED contributions beyond first-order SE and VP.
Die Entwicklung der Renormierungsgruppen-Technik, die in ihrer feldtheoretischen Version auf Ideen von Stückelberg und Petermann und in der Festkörperphysik auf K.G. Wilson zurückgeht, hat wesentliche Einsichten in die Natur physikalischer Systeme geliefert. Insbesondere das Konzept der so genannten Universalitätsklassen erhellt, warum Systeme, die durch scheinbar sehr verschiedene Hamilton-Operatoren beschrieben werden, doch im Wesentlichen die selbe (Niederenergie-)Physik zeigen. Ein weiterer Grund für den Erfolg dieser Methode liegt darin begründet, dass sie in systematischer Weise unendlich viele Feynman-Diagramme aufsummiert und somit über konventionelle Störungstheorie hinaus geht. Dies spielt in der Festkörperphysik vor allem dann eine wichtige Rolle, wenn das vorliegende physikalische System stark korreliert ist. Entsprechend der Vielzahl von Anwendungsmöglichkeiten hat sich in den vergangenen Jahrzehnten eine große Bandbreite verschiedener Formulierungen der Renormierungsgruppen-Technik ergeben. Eine davon ist die sogenannte funktionale Renormierungsgruppe, die auf Wegner und Houghton zurück geht und die auch in der vorliegenden Arbeit benutzt und weiter entwickelt wurde. Wir haben hier insbesondere auf die Einbeziehung der wichtigen Reskalierungsschritte wertgelegt. Als erstes Anwendungsgebiet des neu entwickelten Formalismus wurden stark korrelierte Elektronen in einer Raumdimension ausgewählt und hier insbesondere ein Modell, das als Tomonaga-Luttinger-Modell (TLM) bezeichnet wird. Im TLM wechselwirken Elektronen mit einer strikt linearen Energiedispersion ausschließlich über so genannte Vorwärtsstreu-Prozesse. Aufgrund der Linearisierung der Energiedispersion nahe der Fermipunkte ergibt sich ein Modell, das z.B. mit Hilfe der so genannten Bosonisierungs-Technik exakt gelöst werden kann. Hauptziel der vorliegenden Arbeit ist es, die bekannte Spektralfunktion dieses Modells unter Verwendung des Renormierungsgruppen-Formalismus zu reproduzieren. Gegenüber der bisherigen Implementierung der Renormierungsgruppe, bei der lediglich der Fluss einer endlichen Anzahl von Kopplungskonstanten betrachtet wird, stellt die Berechnung des Flusses ganzer Korrelationsfunktionen eine enorme Erweiterung dar. Der Erfolg dieser Herangehensweise im TLM bestärkt die Hoffnung, dass es in Zukunft auch möglich sein wird, die Spektralfunktionen anderer Modelle mit dieser Methode zu berechnen, bei denen herkömmliche Techniken versagen.
Wir haben uns in dieser Arbeit der möglichen Produktion Schwarzer Löcher in hochenergetischen Teilchenkollisonen unter Annahme einer Raumzeit mit großen Extra-Dimensionen gewidmet. Die Produktionsraten, die bei einer neuen fundamentalen Skala im Bereich Mf ~ 1 TeV zu erwarten sind, liegen für den LHC in der Größenordnung von ~ 10 hoch 8 Schwarzen Löchern pro Jahr. Diese hohe Anzahl begründet das Interesse an den Eigenschaften der produzierten Schwarzen Löchern und wirft die Frage auf, wie diese Objekte beobachtet werden können. Bei der Untersuchung der Eigenschaften dieser Schwarzen Löcher haben wir festgestellt, dass das Entstehen Schwarzer Löcher ab einer c.o.m.-Energie im Bereich der neuen Planck-Masse zu einer raschen Unterdrückung hochenergetischer Jets, wie sie in pp-Kollisionen entstehen, führt. Dies ist ein klares Signal und leicht zu beobachten. Unter Ansetzen des Mikrokanonischen Ensembles haben wir die Zerfallsrate der Schwarzen Löcher und ihre Lebensdauer berechnet. Es zeigt sich, dass diese Lebensdauer hoch genug ist, um ein zeitlich deutlich verzögertes Signal zu erhalten. Nimmt man an, dass die statistische Mechanik bis zur Größenordung Mf gülig bleibt, so gelangen die Schwarzen Löcher im Zuge ihrer Verdunstung in einen quasi-stabilen Zustand und ein Rest verbleibt. Die Lebenszeit ist von der Anzahl der Dimensionen abhängig und lässt so Rückschlüsse auf diesen Parameter zu. Im Falle (Mf ~ TeV, d > 5) liegt sie für Energien von ~ 10 TeV in der Größenordung 100 fm/c. Eine geometrische Quantisierung der Strahlung legt außerdem nahe, dass die Schwarzen Löcher nicht restlos verdampfen können, sondern ein stabiler Überrest verbleibt. Diese Ergebnisse sind in [202, 203, 205] veröffentlicht worden.
In der vorliegenden Arbeit wird untersucht, inwieweit sich quantenoptische Zufallsgeneratoren, bei denen die "Welcher-Weg-Entscheidung" einzelner Photonen am Strahlteiler bzw. Faserkoppler zur Zufallsgenerierung verwendet wird, zur Erzeugung von Zufallsbitströmen eignen. Es werden hierbei im wesentlichen vier verschiedene Varianten aufgebaut, die sich durch die eingesetzte Lichtquelle und die Realisierung des optischen Aufbaus unterscheiden, um zu erkennen, welche Detailprobleme sich beim Aufbau solcher Generatoren zeigen. Als Lichtquellen werden eine Einphotonenquelle auf Basis der parametrischen Fluoreszenz und eine Quelle, die stark abgeschwächte, gepulste Poisson-Lichtfelder abstrahlt, eingesetzt. Bei der optischen Realisierung wird jeweils einmal Freistrahl- und einmal Faseroptik für das Zufall generierende Element verwendet. Die Rohdaten-Bitströme der verschiedenen Varianten werden mit Hilfe von statistischen Verfahren untersucht, die für Tests von physikalischen Zufallsgeneratoren geeignet sind. In der Diskussion werden die verschiedenen Testverfahren hinsichtlich ihrer Eignung zum Aufdecken tieferliegender Defekte bewertet. Thermische Einflüsse auf die Rohdaten-Ströme werden dargelegt, Methoden zur Verringerung der Einflüsse angegeben und gezeigt, wie mit Hilfe von mathematischen Regularisierungsverfahren ideale Bitströme aus den Rohdaten erzeugt werden können. Anhand von (mehrstufigen) Autokorrelationskoeffiziententests werden die Auswirkungen von Problemen mit verschiedenen Datenaufnahme-Elektroniken auf die Rohdaten- Ströme analysiert. Die Ursachen der Probleme werden diskutiert, mögliche Lösungen, wie sich die Probleme stark verringern bzw. vermeiden lassen, werden vorgeschlagen und experimentell untersucht. Die Einflüsse der Eigenschaften der verwendeten Photonenquellen im Zusammenspiel mit den verwendeten optischen Komponenten und Detektoren werden analysiert und ihre Auswirkungen auf die Zufallsgenerierung diskutiert. Zur Erhöhung der Ausgangbitrate quantenoptischer Zufallsgeneratoren werden verschiedene Ausführungen von Mehrfachzufallsgeneratoren vorgeschlagen, insbesondere für den quantenoptischen Zufallsgenerator auf Basis der parametrischen Fluoreszenz. Als weitere, interessante Variante eines quantenoptischen Zufallsgenerators wird das theoretische Konzept für den "HOM-Generator" präsentiert, bei dem beide Photonen eines Photonenpaares bei einer gemeinsamen "Welcher-Weg-Entscheidung" zur Zufallsgenerierung verwendet werden. Die vorgeschlagenen Varianten quantenoptischer Zufallsgeneratoren werden hinsichtlich ihrer Eignung für einen praktischen Einsatz diskutiert und bewertet. Für den Dauereinsatz quantenoptischer Zufallsgeneratoren als Komponente in Sicherheitsinfrastrukturen, wie z.B. Trustcentern, werden Optimierungen, Möglichkeiten der Kostenreduzierung und weitere Aufbauvarianten vorgeschlagen. Die Optimierungen werden hinsichtlich ihrer Praxistauglichkeit diskutiert und gewertet. Mögliche Angriffe auf quantenoptische Zufallsgeneratoren werden diskutiert und zur Erkennung von Manipulationen an physikalischen Zufallsgeneratoren werden verschiedene Möglichkeiten vorgestellt, um künstliche Signaturen einzufügen, sie vor Verwendung der Zufallsdaten zu verifizieren und aus dem Zufallsstrom zu entfernen.
Es wurde für Protonen- und Deuteronenbeschleuniger unter Extrembedingungen (hoher Ionenstrom, Dauerstrichbetrieb, Niedrigenergieabschnitt) ein Vergleich zwischen der konventionellen RFQ-Alvarez-DTL-Kombination und einer erstmals am IAP für diese Zwecke entwickelten RFQ-H-DTL-kombination durchgeführt. Insbesondere die Auslegung der Teilchendynamik von HF-Driftröhrenlinearbeschleunigern und RFQ's für leichte Ionen unter Miteinbeziehung der Raumladung und der Forderung nach Dauerstrichbetrieb sind Thema der vorliegenden Arbeit. Die vorgestellten Beschleuniger müssen extrem hohen Anforderungen an Transmission (Stromverlustrate << 3 µ A/m nach dem RFQ), Stabilität (stetige Strahldynamik bei Strahlfehlanpassung und Berücksichtigung von mechanischen und optischen Toleranzen), Anlagensicherheit ("Hands-on-Kriterium") und -zuverlässigkeit (Anlagenverfügbarkeit > 80 %) bei hoher HF-Effizienz (optimierte Shuntimpedanzen, Laufzeitfaktoren und Oberflächenstromdichten) genügen. Es wurden exemplarisch im Rahmen von zwei aktuellen Hochstromprojekten mit Dauerstrichbetrieb teilchendynamische DTL-Entwürfe für den mittleren Energiebereich (0.1 = ß = 0.34) durchgeführt: einmal für das ADS/XADS Projekt (Hier: 40 mA, 350/700 MHz 24 MW, Protonen, CW) und als extremes Beispiel das IFMIF Projekt (125 mA, 175 MHz, 5 MW, Deuteronen, CW). Da IFMIF hinsichtlich Transmissionseffizienz und Strahlstrom in Verbindung mit einem 100 %-Tastverhältnis wohl einzigartig ist, mussten besonders intensive Anstrengungen für den Test der Robustheit des teilchendynamische Entwurfs der DTL-Strukturen unternommen werden. Hierzu wurde der gesamte Injektorpart vom Eingang des Referenz Four-Vane-RFQ bei 0.1 MeV bis zum Ausgang des DTL bei 40 MeV als ganzes simuliert, unter Einbeziehung von optischen, HF- und mechanischen Toleranzen. Diese Rechnungen machten deutlich, dass die Einbringung einer kompakten Strahltransportstrecke (MEBT) zwischen RFQ und DTL notwendig ist, um den Strahl transversal und longitudinal ohne Teilchenverluste an den nachfolgenden DTL anzupassen. Man gewinnt dadurch auch zusätzliche Möglichkeiten für Strahljustierung und -diagnose. Infolgedessen gehört ein MEBT mittlerweile zum Referenz-Design, welches einen 175 MHz Four-Vane-RFQ als Vorbeschleuniger vorsieht und nach dem MEBT einen 175 MHz Alvarez-DTL mit FoDo-Fokussierschema. Die Designkriterien für IFMIF gelten uneingeschränkt auch für das ADS/XADS Projekt und infolgedessen wurde ebenfalls erstmals eine Auslegung des Mittelenergieabschnitts des ADS/XADS-Beschleunigers, der unmittelbar nach dem 350 MHz RFQ bei 5 MeV anfängt und bis ~ 100 MeV reicht, mit der neuen supraleitende CH-Struktur unternommen. Der Hochenergiebereich von 100 MeV bis 600 MeV wird im Referenzentwurf mit den bereits bewährten supraleitenden elliptischen Kavitäten mit einer Resonanzfrequenz von 700 MHz abgedeckt [ADS]. Die umfangreichen Untersuchungen inklusive Toleranzabschätzungen ergaben, dass eine Kette von zehn supraleitenden CH-Resonatoren mit Zwischentankfokussierung (Ausnahme das Modul 1) für diese Anwendung bestens geeignet ist. Des weiteren ergab sich, dass ein Frequenzsprung auf 700 MHz nach dem 6-ten CH-Modul bei einer Energie von ~ 56 MeV die Beschleunigungs- und HF-Effizienz erhöht. Außerdem wird dadurch der Strahl ideal an den Hochenergieabschnitt angepasst. Im Rahmen dieser Arbeit wurden neue Driftröhrenlinearbeschleunigerstrukturen vorgestellt (normal leitender IH-DTL, supraleitender CH-DTL), die für bis zu 10 MW Strahlleistung, 125 mA Strahlstrom und höchsten Tastverhältnissen geeignet sind. Ferner konnte durch geschickte Wahl der Strukturparameter und Arbeitspunkte eine gute Teilchendynamik mit einem moderaten Emittanzwachstum erzielt werden: Strahltransport und -beschleunigung ohne Teilchenverluste, starke transversale und longitudinale Fokussierung, große Aperturfaktoren und höchste HF-Effizienz sind gleichzeitig erreichbar. Somit stellen die neuen H-Moden Driftföhrenbeschleuniger vor allen Dingen in der supraleitenden Ausführung (CH-DTL) eine tragfähige Basis für alle weiteren geplanten Hochintensitätsbeschleunigeranlagen dar.
Rückblick Die Motivation für diese Arbeit ergibt sich aus den immer neuen Fragestellungen der modernen Wissenschaft. Deren Beantwortung hängt wesentlich von den geeigneten Messapparaturen ab, die Einblicke in physikalische Prozesse erlauben. Durch effektivere und höher auflösende Detektoren werden präzisere, schnellere und schonendere Messungen möglich. Die Zielsetzung dieser Arbeit über den Hochdruck-Gas-Szintillations-Proportionalzähler ist es, einen Detektor zu entwickeln, mit dem hochenergetische Photonen praktisch vollständig vermessen werden können. Dazu gehören: - die Photonenenergie im Bereich von 5 bis 500 keV, - die Richtung der einfallenden Strahlung (bzw. der Auftreffort auf dem Detektor), - der Absorptionszeitpunkt und - die Diskriminierung von Gamma-induziertem Untergrund. Potenzielle Einsatzgebiete des Detektors sind im wesentlichen medizinische, atom- und astrophysikalische Anwendungen. Die vielversprechenden Eigenschaften dieses Detektorkonzeptes, gegenüber herkömmlichen Gasdetektoren, ergeben sich aus den Mechanismen der primären und der sekundären Gasszintillation. Daraus folgen der überlegene Verstärkungsprozess und das schnelle Zeitsignal. Als Grundlage für die in dieser Arbeit diskutierten Ergebnisse dienen die zuvor von Dangendorf und Bräuning entwickelten Konzepte und die von ihnen gebauten Prototypen. Sie sind geeignet für kleine und mittlere Photonenenergien und liefern eine gute Energie- und Zeitauflösung. Die Tests der Ortsauslese mit abbildenden, optischen Systemen zeigten erste Resultate. Ausgehend von diesen bestehenden Entwicklungen war die Motivation der Arbeit, den Aufbau an die gewünschten Anforderungen anzupassen. Für die höheren Photonenenergien werden ein dichterer Absorber, also ein höherer Gasdruck und damit verbunden neue Auslesekonzepte benötigt. Problem Ein zentrales Problem, das aufgrund dieser neuen Anforderungen auftritt, ist der Druckunterschied zwischen dem Hochdruck-Szintillator und der bei Niederdruck oder im Vakuum betriebenen UV-Auslese. Die dadurch bedingten Kräfte machen entweder besondere Stützstrukturen oder stabile - und dadurch dicke - Fenster erforderlich. In beiden Fällen geht ein Teil des Signals verloren und die Detektorauflösung nimmt ab. Es handelt sich dabei jedoch nicht um prinzipielle Probleme. Die Schwierigkeiten sind rein technischer Natur. Deshalb wurde intensiv weiter nach neuen Konzepten und Lösungsansätzen gesucht, die die Vorteile dieser überlegenen physikalischen Prozesse ausnutzen können. Lösungsansatz Das konkrete Ziel - bzw. die Aufgabenstellung - dieser Arbeit war, mit neuen Technologien, und dabei vor allem mit einem neuen Mikrostruktur-Elektroden-System, bislang bestehende technische Hürden zu überwinden (Kapitel 3). Durch die Möglichkeit, einen in das Hochdruckvolumen integrierten Photonendetektor zu bauen, werden viele der Stabilitätsprobleme gelöst. Mit der großflächigen Auslese des Szintillationslichts direkt dort, wo es entsteht, werden die Transmissionsverluste in Fenstern vermieden. Es gibt damit nur kleine raumwinkelabhängige Effekte und es wird nur ein Gasvolumen und damit kein zusätzliches System zum Evakuieren, Zirkulieren und Reinigen benötigt. Durch die Trennung der Energie- und der Ortsinformation und deren separate Auslese wird zwar die Komplexität des Detektors erhöht, die Teilsysteme können jedoch unabhängig für die jeweiligen Anforderungen optimiert werden. Grundlagen Im Rahmen dieser Arbeit wurden bereits existierende Erfahrungen aufgegriffen und in deren logischer Fortsetzung, ein, in das Szintillatorvolumen integrierter, UV-Photonendetektor entwickelt. Zunächst musste mit einer umfangreichen Recherche ermittelt werden, welche Anforderungen an einen integrierten Photonendetektor bestehen und wie ein solches System in den Aufbau eingebunden werden kann. Mit dem GEM, der sich schon in diversen anderen Gasdetektoranwendungen als universell einsetzbarer Verstärker bewährt hatte, war ein potenzielles Mikrostuktur-Elektroden-System für unsere Anwendung gefunden. Um die Einsatztauglichkeit dieser Mikrostrukturen für die neuen Applikationen zu analysieren, wurden sie im Standard-Design, unter vielen verschiedenen Betriebsparametern getestet. Dabei wurden wertvolle Erfahrungen im Umgang mit den Mikrostrukturen gesammelt. Die GEMs wurden in den typischen Detektorgasen, bei verschieden Drücken, elektrischen Spannungen und Feld-stärken studiert. Dabei wurden die Chancen, aber auch - vor allem aufgrund elektrischer Überschläge und Instabilitäten - die Grenzen des damit Erreichbaren, aufgezeigt. Mit der Herstellung der speziell für diese Anwendung entwickelten GEMs wurde die Grundlage für den stabilen Betrieb des Detektors geschaffen. Simulationsrechnungen In Kooperation mit einer italienischen Gruppe vom INFN in Cagliari haben wir, mit dem Detektor-Simulations-Programm Garfield, Berechnungen durchgeführt (Kapitel 4). Damit konnte schon vor der technischen Realisierung ein Überblick über die Betriebsbedingungen eines mehrstufigen und komplexen Systems gewonnen werden. Dazu zählen die messtechnisch erfassbaren Größen, wie z.B. die mittlere Gasverstärkung und Diffusion. Daneben konnten aber auch die Prozesse im Kleinen studiert werden. Von besonderem Interesse für die Funktion des Detektors ist dabei der Verlauf der Feldstärke in den Poren der Mikrostrukturen und den umliegenden Regionen. Dessen räumlicher Verlauf in Kombination mit den jeweiligen Gasdaten bestimmen die Elektronentransportparameter, die Gasverstärkung, die Diffusion und die Effizienz. In den Xenon-Szintillator integrierter UV-Photonen-Detektor Der UV-Photonendetektor konnte in zwei Varianten erfolgreich in ein Volumen mit dem Xenon-Gas-Szintillator integriert werden. Die Verbindung der CsI-Photokathode mit dem Elektronenverstärker wurde dabei zum einen als semitransparente dünne Schicht auf einer Quarzglasplatte vor der GEM-Folie und zum anderen als opake Variante auf der Frontseite des GEM realisiert. Bei der Auslese des Xenon-Szintillationslichts mit einer in reinem Xenon und bei hohem Druck betriebenen CsI-Photokathode, wurde Neuland betreten. Es wurde erfolgreich gezeigt, dass der integrierte Photonendetektor auf GEM Basis für die hier diskutierten Einsatzbereiche und Anforderungen funktioniert. Die Ankopplung der Photokathode an die Verstärkerstruktur und dabei vor allem der Elektronentransport von der CsI-Schicht in die Verstärkungszone, wurden im Detail untersucht. Dass die Gasverstärkung in reinem Xenon bei den beschriebe-nen Betriebsparameter überhaupt funktioniert, liegt zum einen daran, dass die optische Rückkopplung mit diesem neuen Design effektiv unterdrückt werden kann. Zum anderen konnten die Einflussparameter auf die Gasverstärkung, für den mehrstufigen GEM-Verstärkungsprozess in reinem Xenon, im Detail untersucht werden. Die gekoppelten Gas-Verstärker-Elemente wurden mit einer eigens für diese Anwendung entwickelten Versorgungsspannungsquelle betrieben, die die Folgen von elektrischen Überschlägen minimiert (Kapitel 5.1.3). Gegenüber den herkömmlichen Gasdetektoren ist es mit diesem neuartigen Aufbau möglich, den UV-Photonen-Detektor bei diesen Betriebsparametern stabil zu betreiben. Abbildende Optiken - optische und mechanische Eigenschaften Parallel zur Entwicklung dieses großflächigen Detektors zur Messung des Energiesignals und der Registrierung des primären Lichts, wurde das Konzept zur Ortsauslese via abbildender Optik weiterverfolgt. Die optischen Abbildungseigenschaften der Linsen wurde im Wellenlängenbereich des Xenon-Szintillationslichtes untersucht. In ersten Tests konnte bei kleinen Gasdrücken und somit geringen mechanischen Beanspruchungen die Ebene der Sekundär-lichterzeugung auf einen gekapselten Mikro-Kanal-Platten-Detektor abgebildet werden. Die Festigkeit der Quarzglaslinse für die Druckbeanspruchungen im hier diskutierten Detektor konnte in Zusammenarbeit mit der Fachhochschule Heilbronn - mittels Finite-Elemente-Berechnung - als ausreichend verifiziert werden. Ausblick Die beiden getrennten Systeme für Orts- und Energiemessung funktionieren unabhängig voneinander. Die Vorraussetzungen für die Kombination der Komponenten in einem gemeinsamen Aufbau sind damit geschaffen. Damit ist der Weg für die folgenden Schritte in diesem Projekt aufgezeigt. Als logische Fortsetzung dieser Arbeiten ist geplant, den integrierten Photonendetektor mit der Photokathode auf der GEM-Frontseite, zusammen mit der Ortsauslese gemeinsam aufzubauen. Von dieser Kombination profitiert das Auflösungsvermögen beider Messungen. Die Korrektur der ortsabhängigen Schwankungen in der Effizienz der Photokathode verbessert die Energieauflösung signifikant. Auf der anderen Seite kann durch das geschickte Setzen von geeigneten Bedingungen auf das Energiesignal die Ortsmessung optimiert werden. Als weiterer naheliegender Schritt auf dem Weg zum effizienten Nachweis der hochenergetischen Photonen, bietet sich der Einbau einer zusätzlichen Verstärkungsstufe zum Aufbau eines dreifach-GEM-Detektors an. Damit kann bei höheren Gasdrücken, trotz kleiner werdender maximaler Verstärkung pro GEM, eine ausreichende Gesamtverstärkung erreicht werden. Der Einsatz des Detektors in einem größeren Experiment, in Kombination mit anderen Messapparaturen, rückt somit in greifbare Nähe.
This thesis presented the measurement of antideuteron and antihelium-3 production in central AuAu collisions at V SNN = 200 GeV center-of-mass energy at RHIC. The analysis is based on STAR data, about 3 x 10 high 6 events at top 10% centrality. Within the data sample a total number of about 5000 antideuterons and 193 antihelium-3 were observed in the STARTPC at mid-rapidity. The specific energy loss measurement in the TPC provides antideuteron identification only in a small momentum window, antihelium-3 however can be identified nearly background free with almost complete momentum range coverage. Following the statistical analysis of the hadronic composition at chemical freeze-out of the fireball, the antinuclei abundances were analyzed in terms of the same statistical description. Now applied to the clusterization of the fireball, the statistical analysis yields a fireball temperature of (135+-10) MeV and chemical potential of (5+-10) MeV at kinetic freeze-out. In the same way as the hadronization, the clusterization process is phase-space dominated and clusters are born into a state of maximum entropy. The large sample of observed antihelium-3 allowed for the first time in heavy-ion physics to calculate a differential multiplicity and invariant cross section as a function of transverse momentum. As expected, the collective transverse flow in the fireball flattens the shape of the transverse momentum spectrum and leads to the high inverse slope parameter of (950+-140) MeV of the antihelium-3 spectrum. With the extracted mean transverse momentum of antihelium-3, the collective flow velocity in transverse direction could be estimated. As the average thermal velocity is small compared to the mean collective flow velocity for heavy particles, the mean transverse momentum of antihelium-3 by itself constrains the flow velocity. Here, a simple ideal-gas approximation was fitted to the distribution of the mean transverse momentum as a function of particle mass and provided direct access to the kinetic freeze-out temperature and the flow velocity. A concept, which is complementary to the combined analysis of momentum spectra and two-particle HBT correlation methods commonly used to extract these parameters, and a cross check for the statistical analysis. The upper limit for the transverse collective flow velocity from the antihelium-3 measurement alone is v flow <= (0.68+-0.06)c, whereas the ideal-gas approximation yields a temperature of (130+-40) MeV and v flow = (0.46+-0.08)c. The results indicate, that the kinetic freeze-out conditions at SPS and RHIC are very similar, except for a smaller baryon chemical potential at RHIC. The simultaneous inclusive measurement of antiprotons allowed to study the cluster production in terms of the coalescence picture. With the large momentum coverage of the antihelium-3 momentum spectrum, the coalescence parameter could be calculated as a function of transverse momentum. Due to the difference between antiproton and antihelium-3 inverse slopes, increases with increasing transverse momentum - again a direct consequence of collective transverse flow. Both B2 and B3 follow the common behavior of decreasing coalescence parameters as a function of collision energy. According to the simple thermodynamic coalescence model, this indicates an increasing freeze-out volume for higher energies and is confirmed by the interpretation of the coalescence parameters in the framework of Scheibl and Heinz. Their model includes a dynamically expanding source in a quantum mechanical description of the coalescence process and expresses the coalescence parameter as a function of the homogeneity volume V hom accessible also in two-particle HBT correlation analyzes. The values for the antideuteron and antihelium-3 results agree well with the homogeneity volume from pion-pion correlations, but do not seem to follow the same transverse mass dependence. A comparison with proton-proton correlations may clarify this point and provide an important cross check for this analysis. Compared to SPS the homogeneity volume increases nearly by a factor of two. The analysis of the antinuclei emission at RHIC allowed to study the kinetic freeze-out of the created fireball. The results show, that the temperature and mean transverse velocity in the expanding system does not change significantly, when the collision energy increases by one order of magnitude. Only the source volume, i.e. the homogeneity volume, increases. That leaves open questions for the theoreticians to the details of the system evolution from the initial hot and dense phase - the initial energy density is a factor of two to three higher at RHIC than at SPS - to the final kinetic freeze-out with similar conditions. At the same time, the results are important constraints for the theoretical descriptions. The successful implementation of the Level-3 trigger system in STAR opens the door for the measurement of very rare signals. Indeed, in the coalescence physics perspective, the first observations of anti-alpha 4 He nuclei and antihypertritons 3/Delta H will come within the reach of STAR, in addition to a high statistics sample of antihelium-3.
Die Doppelionisation von Wasserstoffmolekülen H2 durch einzelne Photonen stellt ein fundamentales und herausforderndes Problem sowohl für die experimentelle als auch für die theoretische Physik dar. In den meisten Fällen kann dabei die elektronische Bewegung von der nuklearen Dynamik entkoppelt werden (Born-Oppenheimer Näherung). Aus diesem Grund kann man auch den molekularen Fragmentationsprozess als eine Emission eines Dielektrons aus einem nuklearen Zweizentren-Coulomb-Potential beschreiben. Die vorliegende Arbeit befasst sich mit der Photodoppelionisation (PDI) von molekularem Wasserstoff durch einzelne, linear polarisierte Photonen mit einer Energie von 75 eV. Dieses Szenario wird verglichen mit der Photodoppelionisation von Heliumatomen (siehe [Bri00] für einen umfassenden Überblick). In diesem Versuch wurde die Rückstoßionenimpulsspektroskopie-Methode (COLd Target Recoil Ion Momentum Spectroscopy COLTRIMS) benutzt, um alle Fragmente der Reaktion auf ortsauflösende Vielkanalglasplatten(Multi-Channel-Plate MCP)-Detektoren mit Verzögerungsdrahtauslese (delay-line anode) abzubilden. Dabei wurden die Mikropartikel durch elektrische und magnetische Felder geführt. In einer Messung wurde das Rückstoßionenspektrometer mit gepulster Extraktionsspannung betrieben, um das Dielektron und die Stellung der molekularen Achse mit guter Impulsauflösung gleichzeitig vermessen zu können. In einer weiteren Messung kam ein neuartiges Detektorsystem mit hexagonaler Verzögerunsdrahtanode zum Einsatz, die in der Lage war, beide Elektronen, die in sehr kurzen Zeitabständen auf dem Detektor eintrafen, ohne Totzeitverluste in Koinzidenz mit den nuklearen Fragmenten ortsauflösend zu registrieren. Aus den Flugzeiten und Auftrefforten der Teilchen der beiden Datensätze konnten die Impulse des Vierteilchenendzustandes generiert werden. Dies stellt die Messung des Betragsquadrats der quantenmechanischen Wellenfunktion im Impulsraum dar. Aus diesen Größen konnten auch die azimutalen und polaren Winkelverteilungen in Referenz zum Polarisationsvektor des einfallenden Lichts bestimmt werden. Basierend auf der axialen Rückstoßnäherung konnten so zum ersten Mal hochdifferentielle Wirkungsquerschnitte (QDCS und höher) des Vierkörper-Problems für eine raumfeste Molekülachse gemessen werden. Unter Ausnutzung der Reflexions-Näherung war sogar der internukleare Abstand des Moleküls zum Zeitpunkt der Photoabsorption zugänglich. Man findet markante Übereinstimmungen mit der PDI von Heliumatomen. Das Dielektron wird vorwiegend entlang des Polarisationsvektors emittiert und koppelt an das Schwerpunktssystem (Center-of-Mass CM) der nuklearen Partikel, die in einer Coulomb-Explosion fragmentiern. Etwa 72.5 % der Anregungsenergie der beiden Elektronen geht in deren Relativbewegung. Wie bei der Ionisation von Heliumatomen bestimmt die Elektron-Elektron Wechselwirkung zusammen mit diversen Auswahlregeln (siehe [Wal00c]) die Form der polaren Winkelverteilung. In der azimutalen Ebene (die Ebene, die senkrecht zum Polarisationsvektor des Lichts angeordnet ist) erkennt man den attraktiven Einfluss des nuklearen Zweizentren-Potentials, was zu einer Abweichung von der Zylindersymmetrie um die Achse des elektrischen Feldvektors des Lichts führt, wie sie bei niedrigeren Photonenenergien vorzufinden ist (siehe [Dör98b]). In dieser Ansicht tendieren langsame Elektronen dazu, entlang der Molekülachse emittiert zu werden. Es können der sogenannte Auffülleffekt der Knotenstruktur und die vergrößerten Zwischenwinkel in der Polarwinkelverteilung der Elektronen in Form einer Zweikeulenstruktur verifiziert werden (siehe [Red97, Wig 98]). Die Ergebnisse bestätigen den Modellansatz von J. Feagin (siehe [Fea98]), der den Zusammenbruch einer atomaren Auswahlregel, die auf einem Konus wirkt, für den molekularen Fall vorhersagt. Diese Auswahlregel reduziert sich auf eine Knotenlinie, die aufgrund der endlichen Öffnungswinkel des Experiments aufgefüllt wird. Es gibt Hinweise, dass die Verringerung des elektronischen Zwischenwinkels eine Funktion der Stellung der Molekülachse ist, d.h. der kohärenten Überlagerung der beiden möglichen Endzustände mit S- und ?-Symmetrie. Die Ergebnisse der Wannier-Theorie vierter Ordnung nach T. Reddish und J. Feagin (siehe [Red99]) zeigen eine gute Übereinstimmung mit den experimentell gewonnen Daten, zumindest solange die beiden Elektronen den gleichen kinetischen Energiebetrag erhalten. Im Gegensatz dazu bewertet die hochkorrelierte 5C-Theorie nach M. Walter et al. (siehe [Wal99]) den Einfluss des attraktiven nuklearen Zweizentren-Potentials zu hoch. Vorläufige Ergebnisse einer CCC-Rechnung von A. Kheifets et al. (siehe [Khe02]) zeigen eine sehr akkurate Übereinstimmung mit den gemessenen Winkelverteilungen. Minimiert man die Elektron-Elektron Wechselwirkung, indem man eine rechtwinklige Emission der beiden Elektronen fordert (dies kommt einer Ionisation eines H2 +-Ions gleich), so findet man keine starken Fokussierungseffekte vor, wie man sie von Ionisationsprozessen von N2 und CO her kennt (siehe [Lan01, Web01b, Jah02a und Web02]). Stattdessen beobachtet man die Emission eines langsamen Elektrons auf dem nuklearen Sattelpunktspotential, wie man es nach einer halbklassischen Beschreibung erwarten kann. Zusätzlich ist eine hochstrukturierte Winkelverteilung zu beobachten, die auf höhere Drehimpulsbeiträge schliessen lässt (vergleichbar der Parametrisierung bei der PDI von Heliumatomen nach L. Malegat et al., siehe [Mal97d]). Die Verteilung ist sehr sensitiv auf die Energie der Elektronen und die Orientierung der Molekülachse, was weder angemessen durch auslaufende, ebene Wellen noch durch die 5C-Theorie beschrieben werden kann. Für diese Ereignisse erzwingen große internukleare Abstände eine Emission der Elektronen entlang des Polarisationsvektors, während für kleine Abstände die Elektronen vorwiegend rechtwinklig zur Molekülachse ausgesendet werden. Anhand dieser Tatsachen kann man auf einen merklichen Einfluss des Anfangszustands auf die Winkelverteilung der Elektronen zurückschließen. Das ganze Szenario ändert sich sobald man die Elektron-Elektron Wechselwirkung wieder "einschaltet", indem man fordert, dass die Fragmentation in einer Ebene stattfindet. Hier bestimmt die Relativbewegung der beiden Elektronen die Form der Wirkungsquerschnitte. Es zeigen sich nur geringfügige Änderungen in Abhängigkeit zum internuklearen Abstand. Es kann aber teilweise eine dreifache Keulenstruktur ausgemacht werden. Diese Substruktur ändert ihre Amplitude und Richtung als Funktion des Molekülabstandes. Eine direkte Emission entlang des Polarisationsvektors scheint dabei verboten zu sein. In dieser Darstellung zeigt das elektronische Emissionsmuster einen sehr heliumähnlichen Charakter für kleine Bindungslängen. Für größere Abstände der Kerne werden langsame Elektronen deutlich unter einem Zwischenwinkel von 180° (back-to-back-emission) gegen das schnelle Referenzelektron emittiert. Referenzen: [Bri00] J.S. Briggs et al., J. Phys. B: At. Mol. Opt. Phys., 33, (2000), S. R1 [Dör98b] R. Dörner et. al., Phys. Rev. Lett., 81, (1998), S. 5776 [Fea98] J. Feagin, J. Phys. B: At. Mol. Opt. Phys., 31, (1998), S. L729 [Jah02a] T. Jahnke et. al., Phys. Rev. Lett., 88, (2002), S. 073002 [Khe02] A. Kheifets, private Mitteilung, (2002) [Lan01] A. Landers et al., Phys. Rev. Lett., 86, (2001), S. 013002 [Mal97d] L. Malegat et al., J. Phys. B: At. Mol. Opt. Phys., 30, (1997), S. 251 [Red97] T. Reddish et al., Phys. Rev. Lett., 79, (1997), S. 2438 [Red99] T. Reddish et al., J. Phys. B: At. Mol. Opt. Phys., 32, (1999), S. 2473 [Wal00c] M. Walter et al., Phys. Rev. Lett., 85, (2000), S. 1630 [Wal99] M. Walter et al., J. Phys. B: At. Mol. Opt. Phys., 32, (1999), S. 2487 [Web01b] Th. Weber et al., J. Phys. B: At. Mol. Opt. Phys., 34, (2001), S. 3669 [Web02] Th. Weber et al., Phys. Rev. Lett., (2002), eingereicht zur Veröffentlichung [Wig98] J.P. Wightman et al., J. Phys. B: At. Mol. Opt. Phys., 31, (1998), S. 1753
Die Physik beschäftigt sich seit jeher mit der Frage nach dem Aufbau und der Struktur der Materie. Die Antworten änderten sich im Laufe der Zeit, der gegenwärtige Stand der Erkenntnis ist im sogenannten Standardmodell zusammengefasst. Dort werden die Elementarteilchen in Leptonen und Quarks unterteilt, die Wechselwirkungen zwischen ihnen beschreibt man durch vier fundamentale Kräfte: die Gravitation, die elektromagnetischen Kraft, die schwache und die starke Kernkraft. Gemäß dem Standardmodell sind Nukleonen, also Protonen und Neutronen, aus Quarks aufgebaut. Das Proton ist beispielsweise ein gebundener Zustand aus zwei up und einem down Quark. Die Nukelonen bilden ihrerseits die Atomkerne, welche die Systematik der Elemente bestimmen. Quarks treten in sechs verschiedenen Arten (flavours) auf: up, down, strange, charm, bottom und top. Freie Quarks konnten bislang nicht nachgewiesen werden, sie werden nur als Quark-Antiquark Paar (Meson) oder als Kombination aus drei Quarks (Baryon) beobachtet. Mesonen und Baryonen werden unter dem Begriff Hadronen zusammengefaßt. Die starke Kernkraft beruht letztlich auf der Wechselwirkung zwischen Quarks, diese wird durch die Quantenchromodynamik (QCD) beschrieben. Ähnlich der Glashow- Salam-Weinberg Theorie (GSW), die die elektromagnetische und die schwache Kernkraft beschreibt, ist die Quantenchromodynamik durch Austauschteilchen charakterisiert. Im Fall der GSW wurden die Photonen bzw. W± oder Z-Teilchen als Austauschteilchen identifiziert, in der QCD fungieren Gluonen als Austauschteilchen. Photonen vermitteln die elektromagnetische Kraft zwischen allen Teilchen, die elektrische Ladung tragen. Analog wirkt die Kraft, die durch den Austausch von Gluonen beschrieben wird, zwischen Teilchen, die eine Farbladung tragen. Anders als das neutrale Photon trägt das Gluon selbst Farbe und wechselwirkt daher mit anderen Teilchen, die Farbe tragen. Dieser Umstand zeigt bereits, dass in der QCD ganz andere Phänomene zu erwarten sind als in der GSW. Die Tatsache, dass Quarks nur in gebundenen Zuständen vorliegen, erschwert die direkte Beobachtung der Wechselwirkung zwischen ihnen. Ein indirekter Weg, um die Wirkungweise diese Kraft zu untersuchen, liegt in der Erzeugung hoher Kernmateriedichten und hoher Kerntemperaturen. Die Idee besteht darin, das Phasendiagramm von Kernmaterie experimentell zu bestimmen (Abbildung 1.3) und dann auf die zugrundeliegende Kraft zu schließen. Unter anderem führen die Kräfte, die zwischen den Einzelteilchen des Mediums herrschen, zu charakteristischen Phasenübergängen. Im Fall der Kernmaterie hofft man insbesondere, den Übergang von gebundenen Zuständen in eine Quark-Gluon-Plasma Phase (QGP), in der sich Quarks und Gluonen frei bewegen, zu beobachten. Zwei prominente Beispiele demonstrieren, warum die Eigenschaften dieses Materiezustandes - und ob er überhaupt existiert - auch für andere Teilgebiete der Physik von großem Interesse sind. Zum einen geht man davon aus, dass in der Frühphase des Universums, 10-12 s nach dem Urknall, die Energiedichte so hoch war, dass die Materie in einem Plasmazustand vorlag. In diesem Bild führt die Expansion des Raumes zu einer Abkühlung des Plasmas und schließlich zum Ausfrieren in Hadronen. Zum anderen zeigen viele Modellstudien, dass im Innern von Neutronensternen mit extremen Dichten zu rechnen ist. Unter Umständen werden Energiedichten erreicht, die hoch genung sind, um einen Phasenübergang in ein Quark Gluon Plasma zu erzwingen. Die Beschreibung dieser astronomischen Objekte setzt somit auch die Kenntnis der Kräfte zwischen den Quarks voraus. Der einzige Weg, dichte Kernmaterie im Labor zu erzeugen, stellen Schwerionenreaktionen dar. Wenn zwei ultrarelativistische schwere Kerne zentral kollidieren, entsteht für kurze Zeit eine Region hoher Energiedichte (Abbildung 1.1). QCD-Gitter-Rechnungen deuten darauf hin, dass die Dichte, die man in Schwerionreaktion gegenwärtig erreicht, hoch genung ist, um einen Übergang der Kernmaterie in eine Plasma-Phase zu erzwingen. Aufgrund des hohen Drucks expandiert die verdichtete, heiße Kernmaterie in longitudinaler (entlang des Strahls) und transversaler (senkrecht zum Strahl) Richtung und die Dichte nimmt ab. Vorausgesetzt am Anfang der Reaktion wurde ein Quark-Gluon-Plasma erzeugt, dann friert diese Phase in Hadronen aus (chemisches Ausfrieren), wenn Dichte und Temperatur einen kritischen Wert unterschreiten. Die erzeugten Hadronen wechselwirken zunächst noch elastisch miteinander, d.h. die Impulse der Teilchen ändern sich, die Identität der Teilchen bleibt jedoch erhalten. Schließlich enden auch diese Wechselwirkungen (thermisches Ausfrieren), und die Teilchen verlassen die Reaktionszone (Abbildung 1.4). Der Ablauf einer solchen Schwerionenreaktion dauert einige 10-23s und ihre räumliche Ausdehnung liegt in der Größenordnung von 10-15m, damit ist die Reaktion selbst nicht beobachtbar. Nur der Endzustand, also die Identitäten und Impluse der emittierten Teilchen, kann bestimmt werden. Um den Ablauf der Reaktion zu rekonstruieren, ist man daher auf Modellrechnungen angewiesen. Aufgrund dieser Modellrechnungen wurden einige Observablen vorgeschlagen, die einen Phasenübergang kennzeichnen. Neben anderen Signaturen führt ein Phasenübergang wahrscheinlich zu einer verlängerten Emissionsdauer. Dieser Effekt kann möglicherweise durch die Analyse von Zwei-Teilchen-Korrelationen sichtbar gemacht werden. Ganz allgemein stellt die Untersuchung von Teilchenkorrelationen die einzige Möglichkeit dar, die raum-zeitlichen Strukturen während des thermischen Ausfrierens experimentell zu bestimmen. Korrelationen zwischen Teilchen, die von einer hinreichend kleinen Quelle emittiert werden, haben verschiedene Ursachen. Betrachtet man beispielsweise die Häufigkeitsverteilung der Impulsdifferenz zwischen zwei elektrisch gleich geladenen Teilchen, so stellt man fest, dass Paare mit geringer Impulsdifferenz weniger häufig vorkommen, als man anhand der Ein-Teilchen Impulsverteilung vorhersagen würde. Dieser Effekt ist auf die Abstoßung zwischen zwei elektrisch gleich geladenen Teilchen zurückzuführen, die mit kleiner Impulsdifferenz emittiert wurden. Eine weniger offensichtliche Korrelation wird durch den Quantencharakter identischer Teilchen verursacht. Zwei identische Bosonen, die im Phasenraum nahe beieinander liegen, können gemäß den Prinzipien der Quantentheorie nicht unterschieden werden. Die Wellenfunktion, die diesen Zwei-Teilchen-Zustand beschreibt, muß beim Vertauschen der Teilchen erhalten bleiben. Diese Forderung führt zu einem Interferenzterm in der Zwei-Teilchen Intensitätsverteilung. Diese Verteilung ist proportional zur Wahrscheinlichkeit, ein Teilchenpaar mit der Impulsdifferenz q zu messen. Berechnet man die Impulsdifferenzverteilung von Pionenpaaren und berücksichtig nur quanten- statistische Effekte, so findet man, dass Paare mit geringem Impulsunterschied bis zu zweimal häufiger vorkommen, als man aufgrund einfacher statistischer Überlegungen erwarten würde. Um diesen Effekt experimentell sichtbar zu machen, konstruiert man die Korrelationsfunktion, die die gemessene Impulsdifferenzverteilung in Relation zu einer Untergrundverteilung setzt. Experimentell gewinnt man diese Referenzverteilung, indem Paare aus Spuren aus verschiedenen Ereignissen gebildet werden. Die Referenzverteilung entspricht damit der Verteilung, die man messen würde, wenn die Teilchen nicht der Quantenstatistik unterlägen. Die Korrelationsfunktion wird im allgemeinen durch eine Gauß-Funktion angenähert. Das Inverse der Standardabweichung dieser Funktion wird nach den Pionieren der Intensitätsinterferometrie R. Hanbury Brown und R. Twiss als HBT-Radius bezeichnet. Teilchen interferieren nur dann, wenn sie im Phasenraum nahe beieinander liegen, das heißt sowohl die Impulsdifferenz als auch der räumliche Abstand muß hinreichend klein sein. Diese Bedingung kann genutzt werden, um von der gemessenen Korrelationsfunktion, die nur auf den Impulskomponenten basiert, auf die räumliche Verteilung der Teilchenproduktion zu schließen. Eine detaillierte Betrachtung erlaubt sogar, aufgrund der gemessenen Korrelationsfunktion quantitative Aussagen über die räumlichen Aspekte der Teilchenquelle zu machen. Beispielsweise können im Rahmen eines Modells die Stärke der transversalen Expansion oder die Emissionsdauer in Relation zu den HBT-Radien gesetzt werden. In Kapitel 2 sind die Grundlagen der Teilcheninterferometrie ausführlicher dargestellt. Der eigentliche Gegenstand dieser Arbeit ist experimentelle Analyse der Zwei- Teilchen-Korrelationen in einer Schwerionenreaktion. Dazu wird zunächst in Kapitel 3 das STAR Experiment am RHIC vorgestellt, in dem die Daten aufgezeichnet wurden, die Grundlage dieser Analyse sind. Am RHIC-Beschleuniger am BNL in den USA werden AuAu Kollisionen bis zu einer Schwerpunktsenergie von Wurzel aus SNN=200 GeV erzeugt. Figur 3.1 zeigt den Beschleuniger-Ring und die vier Experimente Brahms, Phenix, Phobos und STAR. Der hier analysierte Datensatz wurde bei der Datennahme im Jahr 2000 aufgezeichnet. Zu dieser Zeit wurde am RHIC eine Schwerpunktsenergie von Wurzel aus SNN=130 GeV erreicht. Bei einer zentralen AuAu Kollision werden mehrere Tausend Teilchen produziert. Der STAR Detektor ist dafür konzipiert, hadronische Teilchen kleiner Rapidität (d.h. großer Winkel zur Strahlachse) zu messen, innerhalb der Akzeptanz werden etwa 80% der produzierten geladenen Teilchen nachgewiesen. Der schematische Aufbau des STAR Detektorsystems ist in Figur 3.2 dargestellt. Der zentrale Detektor ist eine TPC (Zeit-Projektions-Kammer). Dieser Detektor basiert darauf, dass geladene Teilchen beim Durchgang durch ein Messgas eine Spur von Ionen hinterlassen. Ein starkes elektrisches Feld driftet die Elektronen, die bei den Ionisationsprozessen freigesetzt wurden, zu einer Ausleseebene. Der Punkt, an dem die Elektronen auf der Ausleseebene ein Signal erzeugen, entspricht der Projektion des Ionisationpunktes auf die Ausleseebene. Die dritte Komponente, die den Raumpunkt der Ionisation festlegt, ist durch die Driftzeit bei bekannter Driftgeschwindigkeit gegeben. So erscheint eine Teilchenspur als eine Kette von Ionisationspunkten im Detektorgas. Ein magnetisches Feld parallel zur Strahlachse führt zu einer Ablenkung der geladenen Teilchen. Die Krümmung der Spur ist dabei umgekehrt proportional zum transversalen Impuls. Abbildung 3.6 zeigt ein typisches Ereignis mit etwa 105 Ionisationspunkten und den entsprechenden Teilchenspuren. Der spezifische Energieverlust eines Teilchens beim Durchgang durch das Messgas hängt von seinem Impuls und seiner Masse ab. Die Stärke des auf der Ausleseebene induzierten Signals erlaubt den spezifischen Energieverlust zu bestimmen. Da der Impuls durch die Krümmung der Spur bekannt ist, kann so die Masse und damit die Identität des Teilchens bestimmt werden (siehe Abbildung 3.7). In Kapitel 4 wird der Datensatz beschrieben, der als Grundlage für diese Analyse dient. Während der Datennahme werden die digitalisierten Daten der TPC auf ein Speichermedium geschrieben. Der erste Schritt bei der Rekonstruktion der Ereignisse besteht darin, die Ionisationspunkte zu lokalisieren. Dies leistet der Clusterfinder- Algorithmus, der in Kapitel 4.1.1 beschrieben ist. Die Spurpunkte werden dann durch den Tracking-Algorithmus zu Teilchenspuren verbunden. Die erreichte Effizienz, Akzeptanz und Impulsauflösung der Rekonstruktion sind in Kapitel 4.1.2 zusammengefaßt. Die Zwei-Teilchen-Korrelationen werden nur für zentrale Kollisionen betrachtet, das sind Ereignisse mit kleinem Stoßparameter. Die Multipliztät der gemessenen Spuren ist in erster Näherung ein Maß für die Zentralität des Ereignisses. Für diese Analyse werden nur die 12% zentralsten Ereignisse zugelassen. Die Selektion der Ereignisse ist in Kapitel 4.2 beschrieben. Die Auswahl der Spuren, die in der Analyse verwendet werden, ist in Kapitel 4.3 beschrieben. Es werden nur Spuren zugelassen, deren Impulse in einem Bereich hinreichend hoher Akzeptanz und Effizienz liegen. Außerdem werden die Spuren ausgewählt, die mit hoher Wahrscheinlichkeit von Pionen stammen. Eine weitere Auswahl wird auf der Paarebene getroffen. Die Korrelationsfunktion wird in einzelnen Intervallen transversalen Paarimpulses kt und Paarrapidität Yðð gebildet. Damit kann die Abhängigkeit der HBT-Radien von diesen Größen dargestellt werden. Zwei weitere Auswahlkriterien sollen die Qualität der Spurpaare garantieren. Zum einen werden solche Paare verworfen, die im Detektor zu nahe beieinander liegen. Für die HBT-Analyse sind Paare mit geringem Impulsunterschied entscheidend, ein geringer Impulsunterschied heißt notwendigerweise, dass die Spuren räumlich nicht sehr weit getrennt sind. Wenn die Spuren aber zu nahe liegen, können sie vom Detektor und von der Rekonstruktionskette nicht mehr aufgelöst werden. Damit verliert man einen Teil der Paare in der Signalverteilung, nicht aber in der Untergrundverteilung, da in diesem Fall die endliche Zwei-Spur-Auflösung keine Rolle spielt. Um die Korrelationsfunktion nicht durch einen Detektoreffekt zu verfälschen, entfernt man die Paare, die im Detektor nahe beieinander liegen, sowohl in der Signal- als auch in der Untergrundverteilung. Ein weiteres Problem stellen "gebrochene" Spuren dar. In einigen Fällen wird eine Teilchenspur von der Rekonstruktionskette nicht als Ganzes erkannt, vielmehr werden zwei Spurstücke im Dektor gefunden. Da diese Spurstücke vom selben Teilchen stammen, haben sie eine sehr geringe Impulsdifferenz. Diese Paare können anhand ihrer Topologie im Detekor erkannt werden. Wie im Fall der begrenzten Zwei-Spur-Auflösung werden sie sowohl für die Signal- als auch für die Untergrundverteilung nicht zugelassen. In Kapitel 5 werden schließlich die Ergebnisse der Korrelationsanalyse dargestellt. Die Korrelationsfunktion wird in verschiedenen Parametrisierungen betrachtet. In der einfachsten Form betrachtet man nur den Betrag des Impulsdifferenzvektors. Dieser Ansatz bedeutet aber, dass der entsprechende HBT-Radius alle Raum-Zeit Komponenten mischt und damit nur wenig Aussagekraft bezüglich der Quellfunktion besitzt. Eine differenzierte Analyse in drei unabhängigen Komponenten ermöglichen die Pratt-Bertsch (PB) und die Yano-Koonin-Podgoretskii (YKP) Parametrisierung. Die beiden Parametrisierungen unterscheiden sich in der Zerlegung des Impulsdifferenzvektors in drei unabhängige Komponenten. Im ersten Fall bezeichnet man die Komponenten als qout, qlong und qside, im zweiten Fall als qpara, qperp und q0 (Kapitel 2.7 und 2.8). Die entsprechenden Korrelationsfunktionen sind in Gleichung 2.31 bzw. 2.34 gegeben. Die jeweiligen HBT-Radien Rout, Rlong und Rside bzw. Rpara, Rperp und R0 können in Relation zu den Parametern der Quellfunktion (Gleichung 2.43) gesetzt werden. Die beiden Parametrisierungen liefern im Prinzip die gleiche Information und die beiden Sätze von HBT-Radien können in Beziehung zueinander gesetzt werden (Gleichung 2.41). Beispielsweise entspricht der HBT-Radius R0 in der YKP-Parametrisierung in erster Näherung der Emissionsdauer, während in der PB- Parametrisierung diese Größe Verhältnis von Rout zu Rside abhängt. Zusätzlich zu den Radien enthält die YKP-Parametrisierung einen Parameter ß, der erlaubt, die longitudinale Geschwindigkeit des betrachteten Quellelementes zu bestimmen. Die Abbildungen 5.7 bis 5.10 zeigen die HBT-Radien beider Parametrisierungen in Abhänigigkeit vom transversalen Paarimpuls kt und von der Paarrapidität Yðð. Die Größe der gemessenen Radien bewegt sich zwischen 3 und 7 fm. Nur der Radius R0 verschwindet in den meisten kt-Yðð Intervallen. Die anderen Radien nehmen mit steigendem kt ab und sind unabhängig von Yðð . Abbildung 5.11 demonstriert, dass die beiden Parametrisierungen -dort wo sie vergleichbar sind- konsistente Ergebnisse liefern. Eine Diskussion der Ergebnisse schließt sich in Kapitel 6 an. Die Abhänigigkeit des Parameters ß von Yðð zeigt eine starke longitudinale Expansion an. Ein ähnliches Verhalten wurde bei niedrigeren Schwerpunktsenergien beobachtet, wo man allerdings eine schwächere longitudinale Expansion erwarten würde. Die Lebensdauer der Quelle, also die Zeit vom anfänglichen Überlapp der Kerne bis zum thermischen Ausfrieren, bestimmt die kt-Abhänigigkeit des Parameters Rlong. Dieser Zusammenhang wurde von Mahklin und Sinyukow formuliert, eine Anpassung der entsprechenden Funktion an die gemessene kt Abhänigigkeit von Rlong ergibt eine Lebensdauer von etwa 8 fm/c bei einer Ausfriertemperatur von etwa 126 MeV. Entsprechende Messungen bei niedrigeren Kollisionsenergien lieferten ähnliche Resultate. Die kt-Abhängigkeit des Parameters Rside ist mit der Stärke der transversalen Expansion gemäß Gleichung 6.3 verknüpft. Da die Relation nicht eindeutig ist, muß entweder eine feste Ausfriertemperatur angenommen werden oder es werden gleichzeitig Einteilchenspektren betrachtet, um die Mehrdeutigkeit zu eliminieren. Eine vorläufige Abschätzung ergibt eine mittlere transversale Expansions- geschwindigkteit von v ungefähr gleich 0.6 und einen gemetrischen Radius von RG ungefähr gleich 7.4 fm . Auch diese Ergebnisse sind vergleichbar mit entsprechenden Resultaten bei niedrigeren Kollisionsenergien. Ein weiterer Parameter der Quellfunktion ist die Emissionsdauer. Die Pionen werden nicht zu einem festen Zeitpunkt emittiert, man geht vielmehr davon aus, dass die Zeitpunkte der letzten elastischen Wechselwirkung in der Quelle gaußförmig verteilt sind. Den Mittelwert dieser Verteilung bezeichnet man als Lebensdauer der Quelle, die Breite als Emissionsdauer. Entsprechend Gleichung 6.4 bzw. 6.5 ist die Emissionsdauer mit dem Radius R0 bzw. dem Verhältnis Rout zu Rside verbunden. Wie in Abbildung 5.8 ersichtlich verschwindet der Parameter R0 , außer im kleinsten kt Intervall. Dies entspricht in der PB-Parametrisierung der Tatsache, dass das Verhältnis Rout zu Rside bei hohen kt kleiner als eins ist. Diese Resultate sind nicht vereinbar mit herkömmlichen Modellen. Insbesondere weil eine verlängerte Emissionsdauer als Signatur für die Bildung eines Quark-Gluon-Plasmas vorgeschlagen wurde, wird dieses Ergebnis derzeit intensiv diskutiert. Die Ergebnisse dieser Analyse sind sowohl mit bereits publizierten Daten der STAR Kollaboration als auch mit Resultaten von anderen RHIC Experimenten verträglich (siehe Abbildung 6.8). In Abbildung 6.9 ist die Abhängigkeit der HBT-Radien von kt bei verschiedenen Schwerpunktsenergien dargestellt. Im Gegensatz zu vielen anderen Observablen ändern sich die HBT Radien nur geringfügig. Da man erwartet, dass die Reaktion bei hohen Energien vollkommen anders abläuft, würde man auch davon ausgehen, dass sich die Ausfrierbedingungen ändern. Dass dies nicht in den Zwei-Teilchen- Korrelationen sichtbar wird, deutet darauf hin, dass die Näherungen die notwendig sind, um die gemessenen Radien mit Modellparametern zu verbinden, nicht gültig sind. Die Systematik der HBT Parameter als Funktion der Schwerpunktsenergie enthält damit keinen direkten Hinweis, dass die kritische Energiedichte überschritten wurde, ab der die Kernmaterie in einer Plasmaphase vorliegt. Andererseits werden weder die verschwindende Emissionsdauer noch die Tatsache, dass die anderen HBT-Parameter sich nur wenig mit der Schwerpunktsenergie ändern, als Argument dafür gewertet, dass die kritische Energiedichte nicht überschritten wurde. Die Frage, ob ein Quark- Gluon-Plasma im Labor erzeugt und analysiert werden kann, bleibt damit offen. Das thermische Ausfrieren einer Pionenquelle scheint hingegen anders zu verlaufen, als bisher angenommen wurde. Systematische Studien der Korrelationsfunktion in AA Kollisionen am RHIC in Kombination mit Fortschritten im theoretischen Verständnis der Teilcheninterferometrie in Schwerionenreaktion werden in Zukunft hoffentlich erlauben, die gemessenen Radien in ein konsistentes Bild einzuordnen. In zukünftigen Experimenten am LHC werden noch weit höhere Dichten erreicht als bisher, damit sollten sich auch die Ausfrierbedingungen stark verändern. Es wird sich dann zeigen, ob die Teilcheninterferometrie das geeignete Instrument ist, um die Quellfunktion einer Schwerionenreaktion zu messen.
Die analytische Ultrazentrifuge ist ein unverzichtbares Instrument zur Charakterisierung von schwachen Protein-Protein-Wechselwirkungen und deren funktioneller oder regulatorischer Bedeutung. Eine besondere Gruppe von Untersuchungsobjekten bilden die integralen Membranproteine, die für eine Ultrazentrifugenanalyse solubilisiert, d.h. aus ihrer natürlichen, hydrophoben Umgebung in wäßriges Milieu überführt werden müssen. Diese Aufgabe wird vom Standpunkt der Erhaltung des natürlichen Proteinzustands am besten von nichtionischen Detergenzien erfüllt, wobei das biochemisch optimale Detergens von Protein zu Protein i.A. verschieden ist. Die notwendige Anwesenheit von Detergens während der Zentrifugenanalyse belastet diese andererseits, da freies wie proteingebundenes Detergens zusätzliche unbekannte Größen darstellen. Diese Unbekannten können durch experimentelle Gleichsetzung von Detergensdichte und Lösungsdichte eliminiert werden (Dichtekompensation). Die Möglichkeiten der etablierten Dichtekompensationsverfahren sind allerdings beschränkt, insbesondere Detergenzien mit hoher Dichte sind damit nicht erfaßbar - ein Mangel, der manche Untersuchung be- oder verhindert. Aus diesem Grund wurden neue Dichtekompensationsverfahren entwickelt und bestehende verbessert bzw. erweitert: zum einen die Erhöhung der Lösungsdichte durch Zusatz von Saccharose, Glyzerin oder einer Saccharose-D2O-Kombination, zum anderen die Anpassung der Detergensdichte durch Mischen von Detergenzien mit niedriger und mit hoher Dichte. Die neuen Verfahren wurden überprüft, indem ein integrales Membranprotein mit bekannten Eigenschaften, Cytochrom c-Oxidase von Paracoccus denitrificans, unter Anwendung sowohl der neuen Verfahren als auch der etablierten D2O-Methode im Sedimentationsgleichgewicht analysiert wurde. Der Vergleich der Ergebnisse zeigte zum einen die Äquivalenz der verschiedenen Methoden im Falle der Kompensation von Detergensdichten, die auf herkömmliche Weise kompensierbar sind, zum andern, daß nach Kompensation deutlich höherer Dichten das partialspezifische Volumen des Proteins zu korrigieren ist. Eine derartige Korrektur wurde nötig beim Vorhaben, den oligomeren Zustand des Cytochrom bc1-Komplexes von Paracoccus denitrificans zu bestimmen, da dieses Atmungskettenenzym nur in Gegenwart von DDM, einem Detergens mit hoher Dichte, stabil war. Die Unsicherheit, die sich aus der via Vergleich mit Cytochrom c-Oxidase durchgeführten Korrektur ergab, war nicht relevant, da sich der intakte bc1-Komplex in DDM-Lösung als einheitliche Substanz erwies und er damit ein "einfaches" Problem darstellte. Die Sedimentationsgleichgewichtsuntersuchung des Proteins unter der Bedingung der Dichtekompensation ergab nach Berücksichtigung des Korrekturterms, daß der solubilisierte, enzymatisch aktive bc1-Komplex als Dimer vorliegt. Dieses Ergebnis korreliert mit der aktuellen Vorstellung von der Funktionsweise des Enzyms, derzufolge die dimere Form für den Elektronentransfer notwendig ist. Komplizierter als der oligomere Zustand des bc1-Komplexes ist offenbar das Selbstassoziationsverhalten des Bande 3-Proteins, des Anionenaustauschers aus der menschlichen Erythrozytenmembran: Entgegen der vorherrschenden Meinung, eine in Detergenslösung vorliegende intakte Bande 3 bilde stabile Dimere, weisen die vorliegenden Ergebnisse darauf hin, daß das solubilisierte Protein aus mehreren Oligomeren besteht. So zeigen die vorhandenen Daten neben dimerer Bande 3 die Existenz von monomerem und tetramerem Protein, letztere Form vermutlich in unterschiedlichen Zuständen, und verweisen auf ein Assoziationsgleichgewicht zwischen den Oligomeren, vermutlich überlagert durch stabiles Dimer. Letzteres erscheint als "Grenzfall" eines Bande 3-Präparats, der nach langer Lagerung und/ oder nach suboptimaler Behandlung eintritt. Wegen der Komplexität des Bande 3-Verhaltens konnten die Zentrifugenuntersuchungen nur in Gegenwart von Detergenzien durchgeführt werden, deren Dichte eine Kompensation ohne Korrekturbedarf zuläßt. Darüber hinaus kamen wegen der offensichtlichen Empfindlichkeit der Bande 3 nur sehr milde Detergenzien zum Einsatz: C12E9 und Triton X-100 (reduzierte Form). Aus selbigem Grund wurde die Detergensdichte bevorzugt mit Saccharose oder Glyzerin kompensiert, deren proteinstabilisierende Wirkung bekannt ist.
Fourier-Transform Infrarot Differenz Spektroskopie ist eine Methode. die es erlaubt, selbst kleinste konformelle Änderungen in der Umgebung der katalytischen Zentren in Enzymen selektiv und mit hoher Zeitauflösung zu messen. Diese Technik wurde an Oxidasen von Paracoccus denitrificans, Thermus thermophilus und Escherichia coli angewandt, um einen Einblick in strukturelle und molekulare Prozesse der Bindung und Dynamik von Liganden am binuklearen Zentrum zu erhalten. Die pH- und Temperatur-Abhängigkeit von CO Schwingungsmoden sowie deren Verhalten nach der Photolyse konnten zeitaufgelöst untersucht und miteinander verglichen werden. Bei Temperaturen >180K war die Bestimmung von thermodynamischen Parametern wie Enthalpie-Barrieren und Arrhenius-Vorfaktoren möglich. Aus dem Verlauf der Rückbindungskinetiken ließen sich ferner Rückschlüsse über die konformelle Heterogenität der Bindung ziehen. Für Temperaturen um 140K konnte das Protein im "quasistationären" Zustand vermessen werden, da Rückreaktionen des Liganden an die Bindungsstelle des Häm a3 unterbunden waren. Trotz der strukturellen Ähnlichkeit und analoger Funktion zeigten diese typischen Oxidasen große Unterschiede sowohl im Reaktionszentrum als auch im kinetischen Verhalten des Liganden. Die kinetischen Parameter für alle untersuchten Oxidasen weichen deutlich voneinander ab und spiegeln unter anderem die Stärke der Bindung am CUB wider. Die Temperaturabhängigkeit der Populationen der CO-Konformere und die äquivalente Rückbindungs-Kinetik der unterschiedlichen Konformere in den Oxidasen aus dem thermophilen System weisen auf ein strukturelles Merkmal in der Nähe des binuklearen Zentrums hin, das den Populations-Austausch in anderen Oxidasen unterbindet. Aufgrund der pH-Abhängigkeit der entsprechenden Oxidasen kann man schließen, daß diese Eigenschaft durch eine oder mehrere protonierbare Gruppen bewirkt wird, die die unterschiedlichen Konformere in bestimmten Positionen fixiert hält. Die Rückbindungsraten des Liganden zeigen für die T. thermophilus Oxidasen eine Rückbindung erster Ordnung. was auf eine homogene Verteilung der zwei Konformer-Populationen im Enzym deutet. Hingegen zeigte die Oxidase aus P. denitrificans für die Rückbindung eine Verteilung der Reaktionsraten. Ursache dafür ist ein sehr heterogenes Ensemble an Proteinen, das minimale strukturelle Unterschiede im Konformationsraum des Reaktionszentrums aufweist. Ein weiterer Aspekt der Arbeit war die Beobachtung von Absorptionsbanden der Hämpropionate an Cytochrome c Oxidase von Paracoccus denitrificans nach CO Rückbindung. Sowohl über 13C-isotopenmarkierte Hämpropionate als auch über ortsgerichtete Mutagenese in deren unmittelbarer Umgebung konnten definierte Banden-Zuordnungen im IR-Differenzspektrum erhalten werden. Experimente am Enzym mit Mutationen an der Stelle Asp 399 zeigten, daß die strukturellen Eigenschaften des Häm a3-CuB Zentrums im wesentlichen von dieser Veränderung nicht beeinflußt werden. Jedoch war die pH-Abhängigkeit der CO Konformere hier unterbunden, was auf deren Einfluß auf eine Protonierbarkeit im Wildtyp-Enzym hinweist. Rückschlüsse anhand der Mutante Asp399Asn zeigten (über den Verlust der pH-Abhängigkeit) ganz klar, daß alle unterschiedlichen CO-Konformere funktionell intakt sind. FT-IR Messungen an einem weiteren Enzym, der isolierten Cytochrom bd Oxidase aus E. coli, zeigten bei einer Untersuchung der CO Rückbindungs-Eigenschaften bei 84K die ausschließliche Rückbindung an das Häm d. der möglichen Sauerstoff-Bindungsstelle. Die Bindungsstelle an Häm b, die zu ca. 5% ebenfalls CO bindet, kann bei diesen Temperaturen nicht wiederbesetzt werden. Im typischen Spektralbereich von 1680 bis 1760 cm hoch minus 1 konnten eindeutig die Absorptionsbanden von Asparagin- oder Glutaminsäure-Seitenketten identifiziert werden. Über einen direkten Vergleich der Spektren, die über Redox-Reaktion und CO Rückbindung erhalten wurden, konnten diese Signale als klar in der direkten Umgebung des binuklearen Zentrums lokalisiert zugeordnet werden. Eine Rolle als vorübergehender Protonen-Akzeptor/Donor auf dem Weg zur Sauerstoff-Bindungsstelle ist naheliegend.
Optoelektronische THz-Systeme finden seit 1995 Anwendung in der Bildgebung. Alle bisherigen Systeme basieren dabei auf gepulsten Femtosekunden-Laserquellen und emittieren gepulste, breitbandige THz-Strahlung. In dieser Arbeit wird erstmals ein bildgebendes optoelektronisches Dauerstrich-THz-Svstem auf Basis von Photomischern als Emitter und Detektor vorgestellt. Zur Optimierung des Systems wurden im Rahmen dieser Arbeit die einzelnen Komponenten detailliert untersucht und insbesondere ihre Wechselwirkung im Rahmen einer Systembetrachtung analysiert. Für den Laborbetrieb wurde ein Zweifarben-Ti:Saphir-Laser entwickelt, der es ermöglicht, die beiden zu mischenden nah-infraroten Frequenzen in einem Verstärkermedium zu generieren. Für das bildgebende System wurde der Laser in unidirektionaler Ringkonfiguration mit zwei sich im Laserkristall kreuzenden Resonatoren verwendet. Zur Optimierung der als THz-Emitter verwendeten Photomischer wurde die generierte THz-Leistung von schnellen Photoschaltern basierend auf bei unterschiedlichen Temperaturen gewachsenem LT-GaAs gemessen. Es zeigt sich, dass neben der Ladungsträgereinfangzeit auch die effektive Ladungsträgermobilität mit der Wachstumstemperatur variiert. Sie nimmt zu höheren Wachstumstemperaturen hin ab. Für eine gegebene THz-Zielfrequenz muss das LT-GaAs Material so gewählt werden, dass es eine optimale elektrische Effizienz aufweist. Die so optimierten Photoschalter müssen in eine resonante Antennenstruktur eingebettet werden, um eine optimale THz-Abstrahlung zu ermöglichen. Je nach Anwendung kann die Antennenstruktur entweder breitbandig (d.h. breiter Abstimmbereich) mit vergleichsweise niedriger Abstrahlungseffizienz oder schmalbandig mit hoher Abstrahlungseffizienz gewählt werden. Das Schlüsselproblem beim Entwurf effizienter Photomischer ist jedoch die Fehlanpassung zwischen der Impedanz des Photoschalters und der Eingangsimpedanz der Antenne, die nur durch die Wahl einer geeigneten Antenne verbessert werden kann. Eine der ungeklärten Fragen bei der Entwicklung von leistungsfähigen Photomischern auf LT-GaAs-Basis für Dauerstrich- und hochrepetierlichen Pulsbetrieb war bisher der Einfluss der Feldabschirmung im Photoschalter. Zur Untersuchung des lokalen Feldes und seiner Abschirmung wurde ein zeitaufgelöstes Doppelpulsexperiment durchgeführt. Das beobachtete Abschirmverhalten ist, entgegen allen bisherigen Aussagen, nicht auf die Abschirmung durch Raumladungen. sondern auf die Abschirmung durch das elektrische THz-Strahlungsfeld (Nahfeld) zurückzuführen.
Der STAR Level-3 Trigger
(2002)
Schwerionen-Collider-Experimente, wie das STAR-Experiment am RHIC (BNL) oder das geplante ALICE-Experiment am LHC (CERN) untersuchen Schwerionenkollisionen bei Schwerpunktsenergien von Wurzel aus SNN = 200 GeV (RHIC), bzw. Wurzel aus sNN = 5, 5 TeV (ALICE). In diesen Kollisionen werden mehrere tausend geladene Teilchen produziert, die in STAR und ALICE in großvolumigen TPCs gemessen werden. Das Datenvolumen erreicht dabei bis zu 10 MB (STAR) und 60 MB (ALICE) pro Ereignis. Aufgrund der hohen Luminosität der Collider könnten die Experimente zentrale Schwerionenkollisionen mit einer Rate bis zu 100 Hz bzw. 200 Hz (ALICE) untersuchen. Die dabei entstehenden Datenraten im Bereich mehrerer GB/s sind mit heutiger Technologie jedoch nicht mehr einfach zu speichern. Deshalb kann nur ein Bruchteil der zur Verfügung stehenden Ereignisse aufgezeichnet werden. Aufgrund der exponentiellen Entwicklung der CPU-Leistung wird es jedoch möglich, die Rekonstruktion von Ereignissen während der Datennahme in Echtzeit durchzuführen. Basierend auf den rekonstruierten Spuren in den Detektoren kann die Entscheidung getroffen werden, ob ein Ereignis gespeichert werden soll. Dies bedeutet, dass die begrenzte Speicherbandbreite gezielt mit Ereignissen, die eine interessierende physikalische Observable beinhalten, angereichert werden kann. Ein solches System zur Ereignisselektion wird als Level-3-Trigger oder allgemeiner als High Level Trigger bezeichnet. Am STAR-Experiment wurde erstmals in einem Schwerionenexperiment solch ein Level-3-Triggersystem aufgebaut. Es besteht aus 432 i960-CPUs, auf speziell gefertigten Receiver Boards für die paralelle Clusterrekonstruktion in der STARTPC. 52 Standard-Computer mit ALPHA- bzw. Pentium-CPUs rekonstruieren die Spuren geladener Teilchen und tre.en eine Triggerentscheidung. Dieses System ermöglicht die Echtzeit-Rekonstruktion zentraler Au-plus-Au-Kollisionen mit anschliessender Analyse durch einen Trigger-Algorithmus mit einer Rate von 40-50 Hz. Die Qualität, die mit dieser schnellen Analyse erreicht wird, kann mit der Qualität der STAR-Offline-Rekonstruktion verglichen werden. Der Level-3-Clusterfinder erreicht in Bezug auf Ortsauflösung und Rekonstruktionseffizienz dieselbe Qualität wie der Offline-Clusterfinder. Der Level-3-Trackfinder erreicht bei Rekonstruktionseffizienz und Impulsauflösung 10-20% schlechtere Werte als der Offline- Trackfinder. Die Anwendung eines Level-3-Triggers besteht in der Messung von seltenen Observablen ("rare Probes"), die ohne eine Anreicherung nicht, oder nur schwer, meßbar wären. In den Jahren 2000 und 2001 wurden erste Triggeranwendungen für das STARLevel- 3-System erprobt. In ultraperipheren Au-plus-Au-Kollisionen wurden po-Kandidaten schon im Jahr 2000 selektiert. Während der Strahlzeit des Jahres 2001 wurde das Level-3-System erstmals zum Triggern in zentralen Au-plus-Au-Kollisionen eingesetzt. Die Triggeralgorithmen beinhalteten einen Õ-Trigger, einen 3He-Trigger und einen Algorithmus zur Anreicherung von Spuren hohen Impulses in der Akzeptanz des RICH-Detektors. Das STAR Level-3-System ist in der Lage zehnmal mehr Ereignisse zu analysieren, als gespeichert werden können. Aufgrund der begrenzten Luminosität des RHIC-Beschleunigers, konnten die Level-3 Trigger erst zum Ende der Strahlzeit eingesetzt werden. Den genannten Algorithmen standen zusätzlich zu den 3 · 10 hoch 6 gespeicherten zentralen Ereignissen, 6 · 10 hoch 5 zentrale Ereignisse zur Analyse zur Verfügung. Mit diesem begrenzten Anreicherungsfaktor von 20% blieb das System hinter seinen Möglichkeiten zurück. Es konnte jedoch gezeigt werden, dass das STAR Level-3-System in der erwarteten Qualität und Stabilität funktioniert.
Die auf dem ACDM-Modell beruhenden numerischen Simulationen der gravitativen Strukturbildung sind auf Skalen M >> 10 hoch 10 M sehr erfolgreich, insbesondere konvergieren die Verfahren hinsichtlich des vorhergesagten Masseanteils der Halos an der Gesamtmasse von Galaxien. Jedoch konvergieren die Simulationen nicht bezüglich der lokalen Überdichten von CDM in den Halos, vielmehr setzt sich gravitative Strukturbildung auf immer kleinere Skalen fort. Numerisch kann keine Massen-Schwelle berechnet werden, unterhalb derer keine CDM-Strukturen mehr gravitativ gebildet werden. Die Kenntnis der lokalen Überdichten in den CDM-Wolken und die Verteilung der CDM-Wolken ist jedoch für Experimente zum direkten und indirekten Nachweis von CDM-Teilchen essentiell. Aus den lokalen Überdichten folgen für Experimente zum direkten Nachweis die einfallende Stromdichten der CDM-Teilchen und für Experimente zum indirekten Nachweis die Stromdichte der Annihilationsprodukte. Außerdem können die lokalen Überdichten als Gravitationslinsen wirken. In dieser Arbeit werden Massen Schwellen analytisch berechnet, unterhalb derer akustische Störungen in CDM nicht mehr zur gravitativen Strukturbildung beitragen können. Das Massen-Spektrum von lokalen Überdichten ist nach unten durch zwei unterschiedliche Mechanismen beschränkt: (1) Während der kinetischen Entkopplung formieren sich Nichtgleichgewichtsprozesse, die sich kollektiv als Reihungsphänomene konstituieren. Im lineare Regime sind dies die Volumenviskosität, die Scherungsviskosität und die Wärmeleitung. Die dissipativen Prozesse deponieren Energie und Impuls der akustischen Störungen in die Ebene senkrecht zur Ausbreitungsrichtung der Störungen und schmieren diese so aus. (II) Nach dem kinetischen Entkopplungsprozeß strömt CDM frei auf Geodäten. Dies ermöglicht einen Strom von Teilchen von überdichten in unterdichte Regionen, so daß die Amplituden der lokalen Überdichten weiter gedämpft werden. Die lokalen Transportkoeffizienten in (1) werden durch einen legitimen Vergleich von hydrodynamischer und kinetischer Beschreibung schwach dissipativer Prozesse gewonnen. Dissipative Prozesse induzieren eine Dämpfungsmasse Mc ungefähr gleich 10 hoch minus 9 M in SUSY-CDM und beschränken damit das Spektrum akustischer Störungen in SUSY-CDM. Freies Strömen (II) von CDM-Teilchen auf Geodäten induziert eine weitere Dämpfungsmasse M fs ungefähr gleich 10 hoch minus 6 M in SUSY-CDM, wobei das berechnete M d als Anfangswert dient. Die berechneten Schwellen liefern konsistente Schranken für numerische Simulationen, die weit unterhalb des momentanen numerischen Auflösungsvermögens liegen. Weiterhin folgt aus den Schwellen die Masse der ersten rein gravitativ gebundenen CDM-Wolken. Aus diesen bilden sich im Rahmen der hierarchischen Strukturbildung größere Substrukturen bis hin zu den heute vorhandenen CDM-Halos.
Im Rahmen dieser Arbeit wurde untersucht, inwieweit eine Bewegungsschärzung aus monokularen Bildsequenzen von Straßenverkehrsszenen und eine darauf aufbauende Hinderniserkennung mit Hilfe von statistischen oder neuronalen Methoden realisiert werden kann. Bei dem zugrunde liegenden mathematischen Modell wird angenommen, daß die Umgebung, in der sich ein Fahrzeug bewegt, im wesentlichen eben ist, was für Verkehrsequenzen in guter Näherung erfüllt ist. Im ersten Teil dieser Arbeit wurde ein statistisches Verfahren zur Bewegungsschätzung vorgestellt und diskutiert. Der erste Schritt dieses Verfahrens stellt die Generierung eines sogenannten Markantheitsbildes dar, in welchem Objektkanten und Objektecken visuell hervorgehoben werden. Für die daraus resultierende Liste von markanten Bildbereichen werden anschließend unter Verwendung einer sogenannten Verschiebungsvektorschätzung, Korrespondenzen im zeitlich folgenden Bild ermittelt. Ausgehend von dem resultierenden Verschiebungsvektorfeld, werden in dem nächsten Schritt des Verfahrens die Bewegungsgrößen ermittelt, also die Rotationsmatrix und der Translationsvektor des Fahrzeugs, beziehungsweise der Kamera. Um abschließend eine Hinderniserkennung realisieren zu können, erfolgt unter Verwendung der Bewegungsgrößen eine Bewegungskompensation der Bilddaten. Bei einer solchen Bewegungskompensation wird unter Verwendung der ermittelten Bewegungsgrößen und dem Modell der bewegten Ebene eine Rücktransformation jedes Bildpixels durchgeführt, so daß bei der Bildung eines Differenzbildes zwischen dem bewegungskompensierten Bild und dem tatsächlich aufgenommenen Bild, dreidimensionale Strukturen, die ja das Ebenenmodell verletzen, deutlich hervortreten und somit auf potentielle Hindernisse hinweisen. Es hat sich gezeigt, daß Fehlmessungen in den Verschiebungsvektoren, welche beispielsweise durch periodische Strukturen auf der Ebene auftreten können, die Bewegungsschätzung und die Hinderniserkennung empfindlich stören. Diese statistischen Ausreißer bewirken, daß trotz der Verwendung von robusten Schätzmethoden, eine stabile Hinderniserkennung nur durch die Einbeziehung von Vorwissen über die Art der Bewegung des Fahrzeugs realisiert werden kann. Weiterhin führen die Komplexität des Verfahrens und die damit verbundenen hohen Anforderungen an die Rechenleistung der eingesetzten Hardware dazu, daß die für die praktische Anwendbarkeit so wichtige Echtzeitfähigkeit des Verfahrens bisher nur für Eingangsbilder mit geringer Auflösung ermöglicht werden konnte. Speziell für die Bildverarbeitung hat sich das neue Paradigma der Zellularen Neuronalen Netzwerke als außerordentlich leistungsfähig erwiesen. Neben der extrem hohen Verarbeitungsgeschwindigkeit von CNN-basierten schaltungstechnischen Realisierungen zeichnen sie sich durch eine hohe Robustheit bei vertauschten oder fehlerhaften Eingangsdaten aus. Für nahezu jedes aktuelle Problem der Bildverarbeitung wurde bisher ein geeignetes CNN bestimmt. Auch für komplexe Aufgabenstellungen aus der Bildverarbeitung, wie beispielsweise die Texturklassifikation, die Spurverfolgung oder die Gewinnung von Tiefeninformation konnten bereits CNN-Programme implementiert und schaltungstechnisch verwirklicht werden. So konnte auch im zweiten Teil dieser Arbeit gezeigt werden, daß die einzelnen Schritte der Hinderniserkennung aus monokularen Bildsequenzen ebenfalls unter Verwendung eines CNN realisierbar sind. Es wurde demonstriert, daß für die Generierung eines Markantheitsbildes bereits ein Standard-CNN mit linearer Kopplungsfunktion und der Nachbarschaft r=1 verwendet werden kann. Das rechenaufwändige statistische Verfahren der Markantheitsbildberechnung kann somit durch einen einzigen CNN-Verarbeitungsschritt durchgeführt werden. Weiterhin wurde im Rahmen dieser Arbeit gezeigt, daß auch der folgende, rechenintensive Schritt des statistischen Verfahrens der Hinderniserkennung, nämlich die Verschiebungsvektorschätzung, mittels CNN verwirklicht werden kann. Hierzu sind CNN mit polynomialen Kopplungsfunktionen und der Nachbarschaft r=1 notwendig. Bei den durchgeführten Untersuchungen hat sich herausgestellt, daß die CNN-basierten Verarbeitungsschritte den statistischen Methoden in den Punkten Robustheit und Verarbeitungsgeschwindigkeit deutlich überlegen sind. Abschließend wurde in dieser Arbeit gezeigt, daß mit Hilfe von CNN sogar eine direkte Hinderniserkennung aus monokularen Bildsequenzen - ohne den Umweg über die Bestimmung der Verschiebungsvektoren und der Bewegungsgrößen - realisiert werden kann. In dem vorgestellten Verfahren wird nach zwei Vorverarbeitungsschritten, die Hinderniserkennung in einem einzigen Schritt unter Verwendung eines CNN mit polynomialen Zellkopplungsgewichten vom Grade D=3 und der Nachbarschaft r=2 durchgeführt. Das vorgeschlagene Verfahren führt zu einer wesentlichen Vereinfachung der Hinderniserkennung in monokularen Bildsequenzen, da die Bewegegungsschätzung aus dem statistischen Verfahren nicht länger notwendig ist. Die Umgehung der expliziten Bewegungsschätzung hat weiterhin den Vorteil, daß der Rechenaufwand stark reduziert wurde und durch den Wegfall der Verschiebungsvektorschätzung und dem damit verketteten Problem der Ausreißer, ist das vorgestellte CNN-basierte Verfahren außerdem sehr robust. Die ersten Resultate, die unter Verwendung von synthetischen und natürlichen Bildsequenzen erhalten wurden, sind überaus vielversprechend und zeigen, daß CNN ausgezeichnet zur Verarbeitung von Videosequenzen geeignet sind.
Im Rahmen der vorliegenden Arbeit wird experimentell ein oszillatorischer Hall-Strom nachgewiesen, der sich in einem impulsiv optisch angeregten Halbleiterühergitter ausbildet, sobald sich dieses in einem statischen magnetischen Feld und einem dazu senkrechten statischen elektrischen Feld befindet. Das Übergitter dient dabei als Modellsystem für ein dreidimensionales Material und ermöglicht die Beobachtung eines unter dem Begriff "kohärenter Hall-Effekt" zusammengefassten Bewegungsverhaltens der Ladungsträger, das durch eine charakteristische Frequenzabhängigkeit des oszillatorischen Hall-Stromes von den äußeren Feldern gekennzeichnet ist. Dabei wird in der vorliegenden Arbeit das spezielle Bewegungsverhalten mit Hilfe eines semiklassischen Modells hergeleitet und diskutiert. Die zentrale Aussage des Modells ist die Existenz zweier scharf voneinander abgegrenzter Bewegungsregimes, (die sich durch eine entgegengesetzte Feldabhängigkeit der Oszillationsfrequenz auszeichnen. Am Übergang zwischen diesen beiden Regimes werden alle Oszillationen aufgrund einer gegen Null gehenden Frequenz unterdriickt. Dabei lässt sich im Gegensatz zum Ortsraum der Übergang zwischen den beiden Bewegungsregimes im k-Raum einfach klarmachen. Er wird durch die Überwindung der Mini-Brillouin-Zonengrenze durch das Ladungsträgerwellenpaket markiert und bestimmt, ob die Bewegungsform Bloch-oszillationsartig oder zyklotronartig ist. Der experimentelle Nachweis des kohärenten Hall-Effektes wird durch die Anwendung einer berührungsfreien optoelektronischen Technik ermöglicht, mit deren Hilfe das emittierte elektrische Feld der kohärenten, transienten Hall-Ströme zeitaufgelöst detektiert werden kann. Da diese Technik die Messung frei propagierender Strahlung im THz-Frequenzbereich gestattet, bezeichnet man die Methode als THiz-Emissionsspektroskopie. Im Gegensatz zum klassischen Hall-Effekt stellt sich der kohärente Hall-Effekt als Manifestation der Wellennatur (der Ladungsträger dar, die sich im Festkörper durch eine periodische Dispersionsrelation äußert,. Erst. die kohärente Präparation eines Ladungsträgerensembles ermöglicht dabei (die Beobachtung der mikroskopischen Vorgänge in Form einer transienten Bewegung, die, bedingt durch ultraschnelle Streuprozesse, auf kurzen Zeitskalen von etwa 1 ps dephasiert. Die Kohärenz wird dem System dabei mittels eines kurzen Laserpulses von etwa 100 fs Dauer aufgeprägt, mit dessen Hilfe die Ladungsträger im Übergitter optisch generiert werden. Diese Vorgehensweise ist mit der experimentellen Untersuchung von Bloch-Oszillationen vergleichbar, die ebenfalls erst durch die kohärente Präparation der Ladungsträger messbar werden. Die inkohärente Bewegung der Ladungsträger in einem Kristall unter dem Einfluss eines konstanten elektrischen Feldes wird bekanntermaßen durch das Ohmsche Gesetz beschrieben analog etwa der Beschreibung der IIall-Spannung beim klassischen Hall-Effekt.. Im Rahmen der vorliegenden Arbeit gelingt der erste Nachweis des beschriebenen kohärenten Effektes und damit, der Beleg, dass es auch in dreidimensionalen Halbleitern, hier repräsentiert durch ein Übergitter, möglich ist, kohärente Signaturen des Hall-Effektes zu beobachteten. Im Gegensatz zu speziellen zweidimensionalen Strukturen, wie sie beim integralen und fraktionalen Quanten-Hall-Effekt verwendet werden, ist dies hier aufgrund des größeren Zustandsraumes und der dadurch bedeutenderen Dephasierungsprozesse nur auf sehr kurzen Zeitskalen realisierbar.
Untersuchungen zum technischen und teilchenoptischen Design kompakter Speicherringe für Ionen
(2002)
Die vorliegende Arbeit befasst sich mit der Berechnung und dem Bau von elektrostatischen Speicherringen. Eine solche Maschine kann als eine Kreuzung zwischen elektrostatischen Fallen und "klassischen" magnetischen Ringen angesehen werden. Kompakte Bauform, gute Zugänglichkeit der Elemente und vergleichsweise niedrigen Kosten werden mit hoher Flexibilität in Bezug auf mögliche Experimente kombiniert. Im 1. Kapitel werden zunächst die Unterschiede der Bewegung von Ionen in elektrostatischen und magnetischen Speicherringen untersucht. Die Massenunabhängigkeit der Teilchenbewegung bei gegebener Energie und Ladung in rein elektrostatischen Feldern erlaubt es, unterschiedlichste Ionen im Prinzip in direkter Folge in einen elektrostatischen Ring einzuschießen, ohne dass die Felder der optischen Elemente verändern werden müssen. Die Felder in den für einen Speicherring notwendigen Strahlführungskomponenten werden berechnet, die zugehörigen Bewegungsgleichungen aufgestellt und in linearer Näherung gelöst. Dabei werden zunächst die Bahnen einzelner Teilchen untersucht und dann das Strahlverhalten insgesamt durch Übergang auf einen Matrizenformalismus beschrieben. Die aus dieser Darstellung resultierenden Trajektorien stellen eine starke Vereinfachung dar. Die Untersuchung der realen Teilchenbewegung mit Einfluss von Randfeldern, Positionierungsfehlern und die Berechnung der dreidimensionalen Feldverteilung ist Gegenstand des 2. Kapitels. Ein kritischer Punkt bei der Bewegung von Teilchen in Ringbeschleunigern sind durch Feldfehler induzierten Resonanzerscheinungen. Zur Diskussion der verschiedenen möglichen Resonanzen werden im 3. Kapitel die Effekte durch zusätzliche Dipol- und Quadrupolfelder analysiert, dargestellt und schließlich anhand eines Resonanzdiagramms erläutert. In den geplanten Speicherring werden Ionen in einem einzigen Bunch, mit einer Ausdehnung von rund dem halben Ringumfang, injiziert. Ihre Lebensdauer hängt wesentlich von dem erzielbaren Vakuumenddruck ab. Die vorgesehenen Getterpumpen weisen eine sehr hohe Pumpleistung für die meisten Gase auf. Ihre Wirkungsweise wird im 4. Kapitel beschrieben und praktische Aspekte ihrer Handhabung diskutiert. Für den Betrieb eines Speicherrings ist es notwendig, die Parameter des umlaufenden Strahls zu jeder Zeit zu kennen und gegebenenfalls modifizieren zu können. Zentrales Element des Kontroll- und Diagnosesystems sind Strahlpositionsmonitore. In elektrostatischen Pickup-Elektroden induziert der Strahl beim Durchgang Spannungen über die eine Positionsbestimmung möglich ist. Die Wirkungsweise dieser Sonden wird in der zweiten Hälfte des 4. Kapitels diskutiert und Methoden zur Signalaufbereitung und -analyse beschrieben. Die allgemeinen Ergebnisse der Überlegungen zu elektrostatischen Speicherringen aus den ersten Kapiteln werden schließlich auf spezielle Fälle übertragen. Im Rahmen dieser Arbeit wurden verschiedene Entwürfe für einen elektrostatischen Speicherring angefertigt und ein Viertelringsegment zu Testzwecken entworfen und aufgebaut. Die Ergebnisse sind Inhalt des abschließenden 5. Kapitels. Mit den in dieser Arbeit vorgestellten Methoden ist es möglich, elektrostatische Speicherringe detailliert zu berechnen und an die experimentellen Rahmenbedingungen anzupassen. Sämtliche Rechnungen wurden im Hinblick auf den geplanten Bau eines Rings für Teilchen mit Energien bis 50 keV durchgeführt.
Mikroentladungen bei hohem Druck und mit Gasfluss stellen eine vielseitig nutzbare Quelle für Ionen und kalte metastabile Atome dar. In dieser Arbeit werden grundlegende Untersuchungen an dieser neuen Hochdruckentladung zur Erzeugung von metastabilen Atomen und einfachgeladenen Ionen vorgestellt. Der innovative Ansatz ist die Nutzung mikrostrukturierter Elektroden (MSE) zur Erzeugung von nichtthermischen Entladungen mit Gleichspannung. Die spezielle porenförmige Geometrie erlaubt die Erzeugung von Entladungen bei einem Druck > 1000 hPa. Die Mikroentladung produziert metastabile Atome und Ionen in einem lokalisierten Volumen durch Stöße mit energiereichen Elektronen, wobei das Neutralgas in der Entladung im Vergleich zu den Elektronen kalt ist. Außerdem kann die Entladung mit erzwungenem Gasfluss durch die Pore betrieben werden, so dass die Plasmabestandteile (neutrale/angeregte Atome, Radikale, Ionen, etc.) extrahiert werden. Mit dieser neuen Methode kann bei der adiabatischen Expansion des Gases ins Vakuum ein gerichteter Gasstrahl, mit geringer interner Temperatur, im Bereich von einigen K erzeugt werden. Die Verweildauer des Gases in der Mikropore ist < 0,1 µs, so dass auch Zustände mit kurzer Lebensdauer extrahiert werden können. Die MSE lässt sich aufgrund der kleinen Abstände im µm Bereich als Mehrschichtsystem, aus zwei metallischen Elektroden, die durch einen Isolator getrennt sind, realisieren. Dieses Grundmaterial wird mit einzelnen oder einer Vielzahl von Poren mit typischerweise 100 µm Durchmesser versehen. Mit Hilfe dieser Mikrostrukturen lassen sich stabile, nicht filamentre, homogene Entladungen mit Gleichspannung in allen Gasen als auch Gasgemischen in einem weiten Druckbereich von 600 hPa bis 4000 hPa erzeugen. Die Druckverhältnisse in der Pore lassen sich durch den Gasfluss zwischen einigen ml/min bis l/min variieren. Die Verweildauer des Gases in der Pore kann durch den Gasfluss gesteuert werden. Zur Diagnose werden die Bestandteile des Plasmas mit dem Gasstrom extrahiert und expandieren adiabatisch ins Vakuum. Der Einfluss von Vordruck, Gasfluss, Entladestrom und Gaszusammensetzung auf die Eigenschaften des Plasma-Jets konnte auf diese Weise bestimmt werden. Durch die Kühlung der Mikroentladung konnte die interne Temperatur des Targets nochmals gesenkt und die Geschwindigkeit gezielt reduziert werden. Die Messung des Geschwindigkeitsprofils, die Zusammensetzung, etc. geben einen indirekten Einblick in die komplexen Prozesse der Mikroentladung, die mit konventionellen Analysemethoden nur schwer zugnglich sind. Die gemessenen Eigenschaften der MSE- unterstützten Hochdruckentladung sind vergleichbar mit klassischen Glimmentladungen, jedoch ist die Anregungs- und Ionisationswahrscheinlichkeit aufgrund der Geometrie größer. Unter definierten Rahmenbedingungen erlaubt diese neue Technik die Erzeugung eines gerichteten Plasma-Jets bestehend aus kalten metastabilen Atomen, Ionen, etc. Basierend auf diesem Prinzip wurde eine Quelle für metastabile Heliumatome aufgebaut und mit verschiedenen Methoden analysiert. Der 23S1- Zustand wird aufgrund seiner atomaren Struktur effektiv durch die energiereichen Elektronen in der Entladung angeregt. Die Gasströmung bestimmt den Druck und die Verweildauer im aktiven Volumen. Die Untersuchungen haben gezeigt, dass mit diesem Aufbau kalte, metastabile Atomstrahlen mit einer Intensität von 6 mal 10 hoch 13 (s mal sr) hoch minus 1 und Geschwindigkeiten von 900-1800 m/s erzeugt werden können. Bei den gemessenen Dichten in der Pore von 6 mal 10 hoch 12 (cm) hoch minus 3 ist die Ausbeute durch das Quenching der metastabilen Atome beschränkt. Die Eigenschaften dieses exotischen Atomstrahls sind hinsichtlich der absoluten Geschwindigkeit und der Geschwindigkeitsverteilung identisch mit einem konventionellen Überschall-Gasstrahl. Die Qualität des Strahls, aufgrund seiner geringen internen Temperatur von einigen K, erlaubt die Trennung und Fokussierung des gewünschten Zustandes. In Kombination mit der Separationseinheit wurde die Mikroplasmaquelle zur Erzeugung eines metastabilen 2 3 S 1-Heliumtargets mit polarisiertem Elektronenspin verwendet. Bei der Separation wird durch den außermittigen Einschuss in den permanentmagnetischen Hexapol eine hervorragende räumliche Trennung der verschiedenen Zustände erreicht und die Ausdehnung des Targets im Fokus auf 1 mm hoch 2 reduziert. Die erreichte Targetdichte für den spinpolarisierten 2 3 S 1-Zustand liegt im Fokus bei 10 hoch 6 cm hoch -2. Die Charakterisierung des Strahlverlaufs als auch die Time-of-Flight-Messungen zeigen, dass es sich bei der MSE unterstützten Hochdruckentladung um eine nichtthermische Entladung mit vergleichbaren Eigenschaften wie Niederdruckglimmentladung handelt, d.h. neutrale/angeregte Atome und Elektronen sind nicht im Temperaturgleichgewicht. Die Gastemperatur wird somit in der Mikroentladung nicht erhöht. Die Messungen mit Düsentemperatur von 80 K haben dies ausnahmslos bestätigt. Mit dieser Quelle lassen sich auch feine Ionenstrahlen bei hohem Druck erzeugen. Bei erzwungener Gasströmung durch die Entladung werden die Ionen aus dem Bereich der Entladung extrahiert und können zur Diagnose der Hochdruckentladung ins Vakuum überführt werden. Die Ionenausbeute wurde für verschiedene Gase und Gasgemische in Abhängigkeit von Gasfluss, Entladestrom, Extraktionsspannung untersucht. Die Elektronenenergie reicht ausschließlich zur Produktion von einfachgeladenen Ionen bzw. Molekülen aus. Der Anteil an Metallionen zeigt deutlich, dass die Geometrie die Erzeugung von Sekundärelektronen an der Kathode unterstützt. Die Wechselwirkung der Ionen mit dem Überschall-Gasstrahl im Bereich zwischen Düse und Skimmer führt zu einer starken Energieverbreiterung. Dies kann jedoch durch eine modifizierte Extraktionsgeometrie reduziert werden, hierbei ist insbesondere auf die Raumladung im Bereich zwischen Düse und Skimmer zu achten. Die vorgestellten Messungen haben exemplarisch für Helium gezeigt, dass gerichtete, kalte, metastabile Atomstrahlen mit ausreichender Intensität für atomphysikalische Experimente erzeugt werden können. Auf Basis der grundlegenden Erkenntnisse lässt sich das spinpolarisierte Target im nächsten Schritt hinsichtlich der erreichten Ausbeute optimieren. Dazu ist es notwendig, die Bedingungen in der Expansionskammer zu verbessern, so dass die Plasmaquelle mit höherem Vordruck betrieben werden kann. In diesem Zusammenhang sollte auch der Abstand Düse Skimmer verringert und die Separationseinheit auf diese modifizierten Rahmenbedingungen angepasst werden. Durch diese Modifikation kann die Targetdichte für spinpolarisiertes, metastabiles Helium nochmals gesteigert werden. Mit der erreichten Targetdichte sind die grundlegenden Voraussetzungen für atomphysikalische Messungen an einem spinpolarisierten Target geschaffen. Durch Anpassung der Separationseinheit ist es prinzipiell auch möglich, andere exotische metastabile Targets mit polarisiertem Elektronenspin zu erzeugen.
In dieser Arbeit wurde versucht, das Phänomen des Metamagnetismus, wie es in den elektronisch hochkorrelierten Systemen auftritt und im Besonderen in CeRu2Si2, eingehender zu untersuchen. Hauptanliegen war die Rolle der Elektron-Gitter-Wechselwirkung zu analysieren. Hierzu wurde eine Messzelle konstruiert, die es ermöglichen sollte das Volumen während der Magnetfeldläufe durch das Ausüben von "passivem" uniaxialen Druck konstant zu halten. Die Experimente konnten an verschiedenen CeRu2Si2-Proben durchgeführt werden, mit stark unterschiedlichen Länge-zu-Breite-Verhältnissen. Die Messergebnisse an den zur Verfügung stehenden Chargen, den Lejay-Proben und der Onuki-Probe, sind in sich nicht schlüssig, führten doch die Magnetostriktions- und die Suszeptibilitätsmessungen unter Druck an den Lejay-Proben vermittels einer Beschreibung über die Skalierungsthese zu unterschiedlichen -Parametern. So ist über die Magnetostriktion ein Wert von =280Mbar-1 gewonnen worden und über die Suszeptibilität unter Druck resultierte letzten Endes unter Grundlage einer Kompressibilität von =0.64Mbar-1 ein Wert von =160Mbar-1. Die Onuki-Probe zeigte unterdessen eine stärkere Feldverschiebung unter Druck in den Suszeptibilitäts- sowie den realisierten Ultraschallmessungen einer longitudinalen Mode, die entlang der [110]-Richtung propagierte. Beide Messmethoden wiesen zwar ein eindeutiges Verhalten unter Druck auf, doch ist auch hier ebenfalls eine Abweichung des -Parameters gegenüber den aus der Literatur bekannten Werten von171-200Mbar-1, als auch gegenüber den ,,Lejay-Werten" festgestellt worden. So zeigte die Onuki-Probe im Rahmen einer Auswertung mit einer Kompressibilität von =0.64Mbar-1 kein schlüssiges Verhalten bei einer Zusammenschau der Suszeptibilitätsmessungen unter Druck sowie der Transformation der Magnetostriktions- auf die Magnetisierungsdaten, basierend auf Messungen der Lejay-Proben. Der erhaltene - Parameter von 250Mbar-1 steht hierbei dem Wert von 280Mbar-1 gegenüber. Diese Differenz entspricht einer Feldverschiebung von 0.7T. Kalkuliert man aus der Striktionsmessung entlang der [110]-Richtung die relative Volumenänderung, findet sich hingegen ein - Parameter von 170Mbar-1, der sich seinerseits wieder mit den Resultaten von Mignot deckt. Festzuhalten ist jedoch, dass für beide Proben ein erhöhter Grüneisenparameter aus den Experimenten mit ,,passivem Druck" gefunden wurde. Kann man das über die unterschiedlichen -Parameter deduzierte Verhalten beider Proben unter Druck noch auf eine eventuelle Probenqualität zurückführen, so bleibt immer noch die Tatsache kritisch, dass die experimentell bestimmten -Werte hier größer als die in der Literatur veröffentlichten und nicht alleine aus einem abweichenden Kompressibilitätswert zu erklären sind. Trotzdem ist ein wichtiges Ergebnis erzielt worden. An der Probe mit dem für uniaxialen Druck günstigen geometrischen Abmessungen wurde die Zwangsbedingung des konstanten Volumens verifiziert. Dies geschah durch ein von G.Bruls neu entwickeltes Dilatationsmessverfahren auf Ultraschallbasis. Es wurde durch eine Unterdrückung des Gitterfreiheitsgrades gezeigt, dass der Metamagnetismus intrinsischer Natur ist, wie es theoretische Überlegungen mit Hilfe des Skalierungsansatzes prognostizierten. Das kritische Feld ist jedoch im Gegensatz zum frei expandierenden System zu höheren Feldern verschoben und der Metamagnetismus wesentlich schwächer ausgebildet. Wodurch sich in der Diskussion um die Rolle des Gitters bei der Prägnanz des metamagnetischen Überganges deutlich dessen Relevanz abzeichnet. Ist aus der Skalierungsthese eine Beschreibung der physikalischen Vorgänge mit einem Parameter hinreichend, so bedingte, wie zuvor erwähnt, eine Adaption der Skalierungsthese auf die durchgeführten ,,passiven Druckexperimente" die Einführung eines gegenüber dem thermischen Grüneisenparameter erhöhten, renormalisierten Grüneisenparameters. Diese eventuelle druckbedingte Renormierung kann aber auch ursächlich als Erhöhung des magnetischen Grüneisenparameters gewertet werden, die als Indiz eines im Magnetfeld anwachsenden Sommerfeld-Wilson-Verhältnisses gedeuted wird. Abschließend wurde ein theoretisches Modell vorgestellt, das den metamagnetischen Übergang auf das Feldverhalten der hybridisierten Quasiteilchenbänder mit erhöhter Zustandsdichte zurückführt. Das Maximum in der Suszeptibilität ist dabei die Folge eines levelcrossings des spinup-Bandes mit der Fermikante, das von einem Abwandern der itineranten Elektronen in das obere spinup-Band begleitet wird. Als wichtig für die naturgemäße Beschreibung des Metamagnetismus in CeRu2Si2 hat sich hierbei die Berücksichtigung der Anisotropie der Hybridisierungswechselwirkung, sowie die durch das Kristallfeld bedingte korrekte Grundzustandswellenfunktion erwiesen. Mit diesem Modell gelingt auch eine Reproduktion des phänomenologisch gefundenen Skalierungsverhaltens mit dem die Magnetostriktionsdaten auf die Magnetisierungsdaten transformiert werden.
Ziel dieser Arbeit ist die Herstellung und Charakterisierung von Zn-Mg-SE-Legierungen (SE = Y, Ho, Er, Dy, Tb, Gd), um Informationen über Struktur, Stabilisierung und physikalische Eigenschaften der quasikristallinen Phasen dieses Systems zu erhalten. Die Quasikristalle dieses Systems unterscheiden sich von Quasikristallen anderer Legierungen, die meist Al als Hauptkomponente enthalten. Es konnten bis zu 275 mm3 große Einkristalle der flächenzentriert ikosaedrischen Phase in den Systemen Zn-Mg-Y und Zn-Mg-Ho gezüchtet werden. Außerdem wurden MgZn2- und hexagonale A-Zn70Mg14Y16-Einkristalle hergestellt, deren Existenzbereiche im Phasendiagramm benachbart zu dem der ikosaedrischen Phase liegen. Um polykristalline Proben herzustellen, die unterschiedliche quasikristalline oder verwandte Strukturen als Hauptphase enthalten, wurden verschiedene Herstellungsverfahren getestet und verwendet. So konnte zum Beispiel erstmalig eine Probe hergestellt werden, die dekagonales ZnMgY als Hauptphase enthält. Zudem wurde eine neue kubische (R-Phase) bzw. hexagonale (M-Phase) und eine neue hochgeordnete primitiv ikosaedrische Phase im System Zn-Mg-Er entdeckt, synthetisiert und charakterisiert. Bei Untersuchungen dieser selbst gefertigten Proben konnten Erkenntnisse über magnetische Eigenschaften, elastische Konstanten, optische Leitfähigkeit, Leerstellenverteilung, Oberflächenbeschaffenheit, Diffusionsmechanismen und die Erstarrungsgeschichte der flächenzentriert ikosaedrischen Zn-Mg-SE-Quasikristalle gewonnen werden. Durch vergleichende Messungen an kristallinen Zn-Mg-SE-Legierungen lassen sich die für Quasikristalle spezifischen Effekte identifizieren. Die im Rahmen dieser Arbeit hergestellten und charakterisierten Proben sind aktuell Gegenstand weiterer Untersuchungen. Mit Hilfe von Beugungsexperimenten konnte gezeigt werden, dass die kubische R-Phase strukturell nahe mit der ikosaedrischen Phase im System Zn-Mg-SE verwandt ist. Die R- Phase ist bei Raumtemperatur nicht stabil und bildet die rhomboedrische M-Phase. Es konnte ein Strukturmodell für die R-Phase entwickelt werden, in dem keine ikosaedrischen Cluster als Strukturelement verwirklicht sind. Auch in der hexagonalen A-Phase konnten solche Strukturelemente nicht gefunden werden. Die Resultate dieser Arbeit legen nahe, dass die Struktur der Zn-Mg-SE-Quasikristalle, im Gegensatz zu Quasikristallen anderer Systeme, nicht auf großen ikosaedrischen Clustern basiert. Damit ist gezeigt, dass große ikosaedrische Cluster zur Bildung von Quasikristallen nicht notwendig sind. Messungen an den Proben zeigen, dass sich dadurch auch einige der physikalischen Eigenschaften, zum Beispiel die optische Leitfähigkeit, von Quasikristallen mit Clustern unterscheiden. Keine Unterschiede konnten beim Diffusionsverhalten und bei mechanischen Eigenschaften festgestellt werden. Hier gleichen die Zn-Mg-SE-Quasikristalle anderen strukturell komplexen Legierungen oder Quasikristallen anderer Legierungssysteme.
Im Rahmen dieser Promotionsarbeit wurden fünf verschiedene Experimente mit der Schwerionen-Mikrosonde der GSI durchgeführt. Vier dieser Experimente waren erfolgreich, bei einem Experiment wurden nicht die erhofften Ergebnisse erzielt. Alle Experimente haben Ziele und Fragestellungen verfolgt, die vornehmlich mit einer Ionen-Mikrosonde bearbeitet werden können. Es wurde gezeigt, dass durch die Anwendung fein fokussierter Ionenstrahlen physikalische und technische Probleme im Mikrometerbereich sehr effizient und erfolgreich aufgeklärt werden können. Die hohe örtliche Auflösung der Mikrosonde in Verbindung mit den bekannten auf Ionenstrahlen basierenden Analysemethoden ermöglicht den Zugriff auf Informationen, die auf anderem Wege gar nicht oder nur schwer zugänglich sind. Das erste der fünf Experimente an der Mikrosonde untersuchte die Eigenschaften von polykristallinem CVD Diamant, bei der Verwendung dieses Materials als Detektor für Schwerionen. Der große Nachteil dieses Detektormaterials ist die geringe Fähigkeit, im Detektor erzeugte Ladungsträger verlustfrei zu den Elektroden zu transportieren, um sie dort zu sammeln. Häufig werden bei diesem Transportprozess vom Entstehungsor t der Ladungsträger zu den Elektroden über 90 % der ursprünglich vorhandenen Ladungsträger von Ladungsträgerfallen im Diamantmaterial eingefangen. Es bestand der starke Verdacht, dass diese Fallen vorwiegend in den Korngrenzen zwischen den Diamanteinkrista llen lokalisiert sind. Aus diesem Verdacht begründete sich die Hoffnung, dass die Einkristalle im CVD Diamant ein wesentlich besseres Ladungssammlungsverhalten zeigen würden. Da die Ionenmikrosonde einen Ionenmikrostrahl mit einem lateralen Fokusdurchmesser von ca. 0,5 µm über eine Targetfläche von 1 x 1 mm² rastern kann und dabei Punkt für Punkt die Reaktion des Targetmaterials nachweisen kann, ist sie das geeignete Werkzeug zur Untersuchung von Ladungssammlungsprozessen im Bereich der Einkristalle und der Korngrenzen. Bei der Auswertung der Ergebnisse des Experiments ist aufgefallen, dass man für das CVD Diamantmaterial innerhalb der Ionenbestrahlung zwei verschiedene Zustände unterscheiden muss. Ein unbestrahlter CVD Diamant verhält sich in Bezug auf die Ladungssammlungs- eigenschaften wesentlich anders als ein bestrahlter CVD Diamant, der schon eine gewisse Ionendosis akkumuliert hat. Beim unbestrahlten Diamant ist zu beobachten, dass sowohl in den Einkristallen als auch in den Korngrenzen sehr effektive Ladungsträge rfallen existieren. Die generelle Aussage, dass Diamanteinkristalle eine bessere Ladungssammlung zeigen, kann hier nicht bestätigt werden. Es konnte aber gezeigt werden, dass es, im etwa 300 x 350 µm großen Scannfeld, Bereiche mit sehr guten Ladungssammlungseigenschaften (Effizienz über 90 % im Maximum der Verteilung) gibt und in unmittelbarer Nähe Bereiche mit geringster Ladungssammlungs- effizienz (etwa 8 % im Maximum der Verteilung) existieren. Es konnte nicht geklärt werden, ob diese Bereiche aus Einkristallen bestehen oder sich über Korngrenzen ausdehnen. Die beobachtete 90%ige Ladungssammlungseffizienz ist jedoch ein eindeutiger Nachweis der Möglichkeit, die Detektoreigenschaften dieses Materials wesentlich verbessern zu können, wenn es gelingt, die Besonderheiten dieses hocheffizienten Bereichs aufzuklären. CVD Diamantdetektoren, die schon eine gewisse Ionendosis akkumuliert haben, werden auch als gepumpte Detektoren bezeichnet. Das Pumpen des Detektors kann dabei auch durch andere Formen der Energiezufuhr, beispielsweise mit Hilfe eines Lasers erfolgen, wichtig ist nur, dass eine große Zahl der Ladungsträgerfallen mit Ladungsträgern gefüllt sind. Da diese Fallen im CDV Diamant relativ tief sind, werden gefüllte Fallen nicht schnell entleert und sie stören, so lange sie gefüllt sind, die Ladungssammlung nicht mehr. Die Ladungs- sammlungseffizienz gepumpter Diamantdetektoren verbessert sich sehr stark im Vergleich zum ungepumpten Material. Das Maximum der Verteilung des Ladungssammlungsspektrums verschob sich von etwa 15 % Effizienz beim ungepumpten Detektor zu mehr als 50 % Effizienz beim gepumpten Detektor gemittelt über das gesamte Scannfeld. Bei der Betrachtung des Einflusses der Korngrenzen im gepumpten Material konnte festgestellt werden, dass die Einkristalle nun tatsächlich wesentlich weniger zum Verlust der Ladungsträger beitragen als die Korngrenzen. Die Korngrenzen zeichneten sich beim gepumpten CVD Diamant deutlich als dominante Bereiche des Ladungsträgerverlustes ab. Somit haben wir die bestehende Vermutung über den dominierenden Ladungsträgereinfang in den Korngrenzen für den gepumpten CVD Diamanten bestätigen können, beim ungepumpten Material hingegen verwerfen müssen. Eine weitere Aufklärung der Unterschiede zwischen den beiden Zuständen wür de hier zu einem besseren Verständnis der Vorgänge führen. Zudem wurde am CVD Diamant eine Hochdosisbestrahlung vorgenommen, bei der bestimmt werden sollte ab, welcher Ionendosis das Material soweit geschädigt ist, dass eine Trennung der Detektorsignale von den Rauschsignalen nicht mehr möglich ist. Für einen 8,3 MeV/u 12C-Strahl war diese Trennung ab einer Dosis von 8,0 x 1013 Ionen/cm² nicht mehr möglich, was bedeutet, dass der Detektor hier seine Verwendbarkeit verliert. Eine weitere Gruppe von drei Experimenten befasste sich mit der Wirkung von schnellen, schweren Ionen auf Halbleiterbauelemente. Diese anwendungsorientierten Experimente sollten Ursachen für das Fehlverhalten mikroelektronischer Bauelemente bei Ionentreffern an bestimmten Orten und zu bestimmten Zeitpunkten untersuchen, beziehungsweise Grundlagen für die theoretische Betrachtung der Vorgänge liefern. Beim ersten der drei Experimente wurde das Auftreten von Single Event Upsets in Verbindung mit Single Event Latchups in SRAM Bausteinen untersucht. Die Latchups werden bei den üblichen Testverfahren durch einen Spannungsabfall an einem externen Widerstand in der Versorgungsleitung erkannt. Mit Hilfe der Mikrosonde wurde nachgewiesen, dass diese Methode der Latchupdetektion unzureichend sein kann. Da die internen Versorgungsleitungen in der Halbleiterstruktur selber Widerstände bilden, kann der Latchup am äußeren Widerstand unter bestimmten Bedingungen nicht erkannt werden. Hier spielt die Länge der integrierten Versorgungsleitung eine wesentliche Rolle. Die bild- gebenden Verfahren der Mikrosonde bei der simultanen Messung von Latchups und Upsets können hier Latchups entdecken, die im üblichen Testverfahren nicht erkennbar waren. Das zweite dieser drei Experimente hatte das Ziel, die Upsetempfindlichkeit einer getakteten CMOS- Struktur im Bereich der Schaltflanken zu bestimmen. Hierzu wurden die Schaltzeit- punkte des ICs mit dem vom UNILAC gelieferten Ionenstrahl synchronisiert. Einzelne Ionen trafen den Schaltkreis nur innerhalb eines Zeitfensters von 2 nsec um die Schaltflanke. Da der getaktete integrierte Schaltkreis im Bereich der Schaltflanken besonders empfindlich auf die vom Ion erzeugten zusätzlichen Ladungsträger reagiert, sollten die Upsetwahrscheinlichkeiten innerhalb des Schaltprozesses mit möglichst hoher zeitlicher Auflösung vermessen werden. Die Bestimmung der Trefferzeitpunkte mit einer zeitlichen Genauigkeit von 1 ns oder besser brachte jedoch eine Vielzahl von Problemen mit sich, die letztlich dazu führten, dass dieses Experiment nicht erfolgreich abgeschlossen werden konnte. Auf Grund seiner hohen technischen Bedeutung wurde es in dieser Arbeit aber beschrieben und sollte nach der Verbesserung der Treffererkennung erneut durchgeführt werden. Es wäre das erste Experiment, in dem die Empfindlichkeit einer CMOS- Struktur gegen Ionenstrahlen mit hoher örtlicher und zeitlicher Auflösung gemessen wird. Das dritte Experiment dieser Serie befasste sich mit der für theoretische Vorhersagen wichtigen Größe des elektronischen Durchmessers der Ionenspur. Aus der vom Schwerion erzeugten Spur breitet sich eine elektronische Stoßkaskade aus. Diese freien Ladungsträger können ungewollte Schaltvorgänge in integrierten Schalkreisen auslösen. Da die Integrationsdichte in modernen Baugruppen immer höher wird, kann die vom Ion erzeugte Spur aus freien Ladungsträgern mehrere Transistoren beeinflussen. Die Ausdehnung dieser Spur kann nicht mehr als vernachlässigbare Größe eingestuft werden. Um den Durchmesser der Spur zu bestimmen, wurde ein fein fokussierter 5,9 MeV/u Nickel-Strahl über eine Probe aus Mikrostreifen gerastert, und die in den Streifen gesammelten Ladungssignale wurden gemessen. Trotz einiger Probleme mit der kapazitiven Kopplung von Signalen zwischen den Streifen und dem Substrat und de n Streifen untereinander konnte der Durchmesser der elektronischen Spur bei diesem Test zu etwa 1,2 µm bestimmt werden. Es sollte der Versuch unternommen werden, diesen ersten experimentellen Wert durch weitere verfeinerte Messungen zu bestätigen und vor allem sollte versucht werden, das Dichteprofil der Elektronen in der Ionenspur mit dieser Technik zu bestimmen. Diese Informationen wären von großem Wert für theoretische Modelle zur Empfindlichkeit von integrierten Elektroniken gegen die Effekte einzelner Ionen. Im fünften und letzten Experiment dieser Arbeit wurde die Ionen-Mikrosonde als Werkzeug zur Strukturierung eines Hochtemperatur Dünnfilm Supraleiters eingesetzt. In der sogenannten Shubnikov-Phase können magnetische Flussquanten in den Supraleiter eindringen, obwohl der Zustand der Supraleitung noch vorhanden ist. Diese Flussquanten können durch säulenartige korrelierte Defekte im Supraleiter gebunden werden. Die Spuren schwerer Ionen bilden solche kolumnaren Defekte, die mit Hilfe der Mikrosonde aufgeprägt werden können. Da bei dieser Strukturierung eine hohe Defektdichte erforderlich war, konnte aus Zeitgründen eine Strukturierung mit dem schreibenden Ionenstrahl nicht realisiert werden. Stattdessen wurde eine Schlitzmaske verwendet, die mit Hilfe der Mikrosonde verkleinert auf der Oberfläche des Supraleiters abgebildet wurde. Auf diese Weise wur de dem Supraleiter eine Defektstruktur aus Stegen, die in einem bestimmten Winkel orientiert waren, aufgeprägt. An dem so erzeugten Supraleiter wurden dann an der Universität Mainz die elektrischen Transporteigenschaften des Materials unter dem Einfluss eines gepinnten magnetischen Feldes gemessen. Da die erwarteten Effekte aus dem Pinning der magnetischen Flussquanten erst dann eine messbare Größe annehmen, wenn dem Supraleiter Defektstrukturen in der Größenordnung von einigen µm aufgeprägt werden, ist auch hier die Ionen-Mirkrosonde das einzige verfügbare Instrument für diese Aufgabe. Mit dieser Arbeit wurde deutlich gemacht, dass eine Ionen-Mikrosonde ein vielseitig einsetzbares Instrument ist, das vor allem aufgrund der hohen Bedeutung von miniaturisierten Systemen in der modernen Forschung und Technik ein hohes Verwendungspotential besitzt. Alle hier vorgestellten Experimente wären ohne den Einsatz der Mikrosonde nicht durchführbar gewesen. Neben diesen Experimenten werden an der GSI noch eine Reihe weiterer Experimenten zum Beispiel im Bereich der Biophysik bearbeitet, die ihrerseits von der einzigartigen Möglichkeit der µm-genauen Platzierung schwerer Ionen profitieren.
In dieser Arbeit wurde ein relativistisches Punktkopplungsmodell und seine Anwendbarkeit auf Probleme in der Kernstrukturphysik untersucht. Der Ansatz ist in der Kernstrukturphysik recht neu. Aus diesem Grund war es ein wichtiges Ziel festzustellen, wie gut sich das Modell zur Beschreibung von Grundzuständen von Kernen eignet. Während sich Modelle wie das Relativistic-Mean-Field-Modell mit Mesonenaustausch und Hartree-Fock-Rechnungen mit Skyrme-Kräften in vielen detaillierten Untersuchungen bewährt haben, musste dies für das relativistische Punktkopplungsmodell erst gezeigt werden. Als erster Schritt war eine sorgfältige Anpassung der Kopplungskonstanten des Modells erforderlich. Um möglichst einen optimalen Satz an Parametern zu erhalten, wurden verschiedene Optimierungsverfahren getestet und angewandt. Die Parameter der effektiven Mean-Field-Modelle sind untereinander stark korreliert. Zusammen mit der Nichtlinearität der Modelle führt diese Tatsache auf die Existenz vieler lokaler Minima der zu minimierenden x2-Funktion, was eine flexible Anpassungsmethode erfordert. Als besonders fruchtbar erwies sich eine Kombination aus der Methode Bevington-Curved-Step mit dem Monte-Carlo-Algorithmus simulated annea/ing. Durch die Anpassung der Kraft PC-F1 an experimentelle Daten in einem x2-Fit ist es gelungen, mit dem Punktkopplungsmodell eine Vorhersagekraft zu erreichen, die der etablierter RMF-FR- und SHF-Modelle gleicht. Dies ist nicht selbstverständlich, da die Modelle eine deutlich unterschiedliche Dichteabhängigkeit der Potenziale besitzen. Weiterhin haben wir gesehen, dass die Anpassungsprozedur der Parameter eine komplizierte Aufgabe darstellt und noch in mancher Hinsicht ausgearbeitet und verbessert werden kann. Das Punktkopplungsmodell mit der Kraft PC-F1 verhält sich für viele Observablen sehr ähnlich wie das RMF-FR-Modell. Dies betrifft die Beschreibung der bulk properties von symmetrischer Kernmaterie, Neutronenmaterie, Bindungsenergien, Spin-Bahn-Aufspaltungen, Observablen des nuklearen Formfaktors, Deformationseigenschaften von Magnesium-Isotopen, die Spaltbarriere von 240Pu sowie die Vorhersage der Schalenstruktur von überschweren Elementen. Dabei werden aber insbesondere Radien besser beschrieben als mit den RMF-FR-Kräften. Oberflächendicken werden, im Einklang mit dem RMF-FR-Modell, als zu klein vorhergesagt. Deutliche Unterschiede treten bei Deformationsenergien einiger Kerne auf (sie sind größer als beim RMF-FR-Modell und oft kleiner als die von dem SHF-Modell vorhergesagten) sowie bei Dichtefluktuationen in Kernen. Die vektoriellen Dichten der Nukleonen oszillieren nicht so stark wie die des RMF-Modells mit Mesonenaustausch, was auf die fehlende Faltung der nukleonischen Dichten zurückgeführt werden kann. Im Vergleich zum Skyrme-Hartree-Fock-Modell ergeben sich deutliche Unterschiede in der Beschreibung von symmetrischer Kernmaterie und Neutronenmaterie. Relativistische Modelle sagen eine höhere Sättigungsdichte und Bindungsenergie vorher. Die vorhergesagte Asymmetrieenergie ist deutlich größer als die Werte des SHF- bzw. Liquid-Drop-Modells. Die Beschreibung von Neutronenmaterie weicht stark von modernen Rechnungen [Fri8 1] und den Vorhersagen von Hartree-Fock-Rechnungen mit der Skyrme-Kraft SLy6 ab. Die Vorhersagen zu überschweren Kernen stimmen in Bezug auf magische Zahlen mit anderen relativistischen Modellen überein: Der doppelt-magische, überschwere Kern besitzt Z = 120 Protonen und N = 172 Neutronen. Im Einklang mit anderen selbstkonsistenten Vorhersagen zeigt seine Baryonendichte eine Semi-Blasenstruktur. Die Spaltbarrieren der Kerne 292 120 und 298 114 sind von ähnlicher Größenordnung wie die von anderen untersuchten RMF-Kräften. Die Lage des isomeren Zustandes im symmetrischen Spaltpfad liegt beim RMF-PC-Modell sehr tief, was auf eine geringe Oberflächenenergie schließen lässt. Die deutlichen Unterschiede zu den Vorhersagen von Hartree-Fock-Rechnungen mit Skyrme-Kräften zeigen, dass sich gewisse Eigenschaften der Modelle besonders stark bei überschweren Elementen auswirken. Überschwere Elemente sind ein sensitives Testfeld für die Modelle. Hier bedarf es dringender Untersuchungen, um längerfristig zuverlässige Vorhersagen machen zu können. Besonders in den Rechnungen von Bindungsenergien in Isotopen- und Isotonenketten sowie für Neutronenmaterie zeigt das Punktkopplungsmodell Schwächen im isovektoriellen Kanal der effektiven Wechselwirkung, die denen des RMF-FR-Modells ähneln. Dies bestätigt den Verdacht, dass dieser Kanal modifiziert werden muss. Deshalb wurden mehrere Varianten des RMF-PC-Modells mit Erweiterungen im isovektoriellen Kanal getestet. Ein interessantes Ergebnis der Untersuchungen zu den erweiterten Parametersätzen des Punktkopplungsmodells ist, dass sich eine Anpassung zusätzlicher Terme im isovektoriellen Kanal der Wechselwirkung mit den in dieser Arbeit verwendeten Fitstrategien nicht bewerkstelligen lässt. Andererseits zeigen die Modelle gerade in dieser Hinsicht noch unverstandene Schwächen. Dies zeigt, dass in der Zukunft eine Erweiterung der Fitstrategie wichtig wird. Kerne mit großem Isospin und z.B. Neutronenmaterie könnten hier Verwendung finden. Neue experimentelle Daten zu exotischen Kernen werden hierbei von großem Nutzen sein. Untersuchungen zur Natürlichkeit der angepassten Kopplungskonstanten mit Hilfe der naiven dimensionalen Analyse haben gezeigt, dass die Kraft PC-F1 dieses Kriterium erfüllt. Dies ist besonders interessant, da bei dieser Kraft alle Kopplungskonstanten frei im Fit variierbar waren. Die Kopplungskonstanten des Modells bzw. die korrespondierenden Terme absorbieren auch Vielkörpereffekte, weshalb es interessant ist, dass dieses Kriterium anwendbar ist. Parametersätze für erweiterte Punktkopplungsmodelle erfüllen bisher nicht das Kriterium der Natürlichkeit, was noch einmal ihre ungenügende Fixierungsmöglichkeit in den verwendeten Fitstrategien unterstreicht. Die Struktur des relativistischen Punktkopplungsmodells ermöglicht es, die Austauschterme der 4-, 6- und 8-Fermionen-Terme als direkte Terme umzuschreiben. Diese Möglichkeit ebnet den Weg für relativistische Hartree-Fock-Rechnungen für endliche Kerne, die numerisch kaum aufwendiger sind als die Rechnungen mit der Hartree-Version des Modells. Dabei bedürfen die Ableitungsterme gesonderter Behandlung. Allerdings muss dazu auch der Modellansatz erneut überdacht werden: das Pion bzw. die dazu korrespondierenden Terme sollten Bestandteil dieser Formulierung sein und durch die Austauschterme Beiträge zu den mittleren Potenzialen liefern. Relativistische Hartree-Fock-Rechnungen mit dem Punktkopplungsmodell werden es ermöglichen, den Zusammenhang zwischen relativistischen und nichtrelativistischen Hartree-Fock-Modellen systematisch und im Detail zu studieren. Längerfristig können diese Studien zu einer quantitativen Verbesserung der Modelle und damit einhergehend zu ihrem klaren Verständnis führen. Die mikroskopische und selbstkonsistente Beschreibung von Atomkernen ist eine faszinierende und spannende Herausforderung, sie anzunehmen war Ziel und Aufgabe dieser Arbeit.
In dieser Arbeit werden mit Hilfe von Röntgenstreuung Polymere untersucht, die auf molekularer Ebene eine lamellenartige Schichtstruktur aufweisen. Diese Ordnung wird bei hohen Temperaturen zerstört, das Polymer wandelt sich in eine homogene Schmelze um. Ziel dieser Arbeit ist es, die Ursachen dieser Phasenumwandlung, d.h. ihre treibenden Kräfte zu erforschen. Hierzu werden mehrere Polymere verschiedener Zusammensetzung untersucht und der Einfluss von mechanischem "Stress" auf die Phasenumwandlung überprüft. Die untersuchte Polymerklasse ist ein sogenanntes Diblockcopolymer , d.h. die Polymermoleküle bestehen aus jeweils zwei linearen Polymerkettenstücken verschiedener Polymersorten (hier: {\em Polystyrol} und {\em Polybutadien}), die "Kopf an Kopf" miteinander verbunden sind. Durch diese molekulare Verbindung ist eine Auftrennung auf makroskopischem Massstab, etwa vergleichbar der Entmischung von "Ol und Wasser, nicht möglich. Mikroskopisch kann das Polymer durch eine günstige Ausrichtung der Moleküle zueinander die Kontakte zwischen den Polystyrol- und Polybutadien-Teilketten minimieren. Diese Abnahme der Gesamt-Wechselwirkungsenergie führt zum Aufbau einer lamellaren Struktur und bedeutet gleichzeitig eine Absenkung der Entropie. Bei Erhöhung der Temperatur kann der entropische Beitrag zur freien Energie dominant werden, d.h. die Ordnung wird zerstört. Die Experimente wurden am Max-Planck-Institut für Polymerforschung in Mainz unter Betreuung von Herrn Prof. Dr. Manfred Stamm (inzwischen an der Universität Dresden) durchgeführt. Dort wurden die Polymere synthetisiert und eine vorhandene Röntgenkleinwinkelstreuanlage für die hier vorgestellten Messungen genutzt. Weiterhin wurde eine Scherapparatur so umgebaut, dass die gleichzeitige Messung von Scherung und Röntgenkleinwinkelstreuung im Time-Slicing-Verfahren möglich war. Im Rahmen dieser Arbeit wurde ein Röntgendetektor entwickelt, der die korrelierte Datenerfassung von Scherung und Röntgenstreuung im Zeitmassstab deutlich unter einer Sekunde ermöglicht. Die hier vorgestellten Experimente gliedern sich zum einen in statische Röntgenmessungen an verschiedenen Polymersystemen, welche die Temperaturabhängigkeit der inneren, molekularen Struktur untersucht, bei der Umwandlung von der lamellenartigen Schichtstruktur zur homogenen Schmelze und umgekehrt. Hierbei zeigen sich keine Hystereseeffekte und eine gute Übereinstimmung mit {\em MC-CMA}-Simulationen. Die einzelne Polymerkette wird beim Phasenübergang leicht gestreckt. Die beobachteten Phänomene werden durch feldtheoretische Modelle nicht vollständig wiedergegeben. Zum anderen wird der Einfluss von mechanischem "Stress" in Form einer oszillatorischen Verscherung auf diese Umwandlung und bei Temperaturen nahe dieser Umwandlung untersucht. Der anisotrope Aufbau der lamellenartigen Schichtstruktur bewirkt ein stark nichtlineares mechanisches Verhalten des Polymers, das mit dem Aufbau einer Vorzugsorientierung der Lamellen zur Richtung der Verscherung einher geht. Die Kinetik dieser Orientierungsphänomene wurde mit Hilfe der Röntgenkleinwinkelstreuung während der mechanischen Beanspruchung gemessen. Es ergibt sich innerhalb der Messungenauigkeit von 1-2\,K keine Erhöhung der Umwandlungstemperatur. Abhängig von den Scherparametern zeigen sich knapp unterhalb der Umwandlungstemperatur unterschiedliche Vorzugsorientierungen, deren zeitliche Abfolge irreversibel ist. Für das Auftreten der verschiedenen Vorzugsorientierungen zum Scherfeld werden verschiedene Parameter auf unterschiedlichen Größenskalen verantwortlich gemacht. Das komplexe Zusammenwirken dieser strukturellen Details kann durch die mechanische Beanspruchung "getestet" werden. Der Aufbau einer langreichweitigen Ordnung wird durch die externen Kräfte beschleunigt.