Refine
Year of publication
Document Type
- Article (1903)
- Preprint (1278)
- Doctoral Thesis (596)
- Conference Proceeding (248)
- diplomthesis (101)
- Bachelor Thesis (75)
- Master's Thesis (61)
- Contribution to a Periodical (46)
- Book (33)
- Diploma Thesis (33)
Has Fulltext
- yes (4465) (remove)
Keywords
- Kollisionen schwerer Ionen (47)
- heavy ion collisions (44)
- LHC (25)
- Quark-Gluon-Plasma (25)
- Heavy Ion Experiments (20)
- equation of state (19)
- quark-gluon plasma (19)
- BESIII (17)
- Relativistic heavy-ion collisions (16)
- QCD (15)
Institute
- Physik (4465) (remove)
Z-boson production in p–Pb collisions at √sNN = 8.16 TeV and Pb–Pb collisions at √sNN = 5.02 TeV
(2021)
Measurement of Z-boson production in p-Pb collisions at sNN−−−√=8.16 TeV and Pb-Pb collisions at sNN−−−√=5.02 TeV is reported. It is performed in the dimuon decay channel, through the detection of muons with pseudorapidity −4<ημ<−2.5 and transverse momentum pμT>20 GeV/c in the laboratory frame. The invariant yield and nuclear modification factor are measured for opposite-sign dimuons with invariant mass 60<mμμ<120 GeVc2 and rapidity 2.5<yμμcms<4. They are presented as a function of rapidity and, for the Pb-Pb collisions, of centrality as well. The results are compared with theoretical calculations, both with and without nuclear modifications to the Parton Distribution Functions (PDFs). In p-Pb collisions the center-of-mass frame is boosted with respect to the laboratory frame, and the measurements cover the backward (−4.46<yμμcms<−2.96) and forward (2.03<yμμcms<3.53) rapidity regions. For the p-Pb collisions, the results are consistent within experimental and theoretical uncertainties with calculations that include both free-nucleon and nuclear-modified PDFs. For the Pb-Pb collisions, a 3.4σ deviation is seen in the integrated yield between the data and calculations based on the free-nucleon PDFs, while good agreement is found once nuclear modifications are considered.
Z-boson production in p–Pb collisions at √sNN = 8.16 TeV and Pb–Pb collisions at √sNN = 5.02 TeV
(2020)
Measurement of Z-boson production in p-Pb collisions at sNN−−−√=8.16 TeV and Pb-Pb collisions at sNN−−−√=5.02 TeV is reported. It is performed in the dimuon decay channel, through the detection of muons with pseudorapidity −4<ημ<−2.5 and transverse momentum pμT>20 GeV/c in the laboratory frame. The invariant yield and nuclear modification factor are measured for opposite-sign dimuons with invariant mass 60<mμμ<120 GeVc2 and rapidity 2.5<yμμcms<4. They are presented as a function of rapidity and, for the Pb-Pb collisions, of centrality as well. The results are compared with theoretical calculations, both with and without nuclear modifications to the Parton Distribution Functions (PDFs). In p-Pb collisions the center-of-mass frame is boosted with respect to the laboratory frame, and the measurements cover the backward (−4.46<yμμcms<−2.96) and forward (2.03<yμμcms<3.53) rapidity regions. For the p-Pb collisions, the results are consistent within experimental and theoretical uncertainties with calculations that include both free-nucleon and nuclear-modified PDFs. For the Pb-Pb collisions, a 3.4σ deviation is seen in the integrated yield between the data and calculations based on the free-nucleon PDFs, while good agreement is found once nuclear modifications are considered.
Z-boson production in p-Pb collisions at √sNN = 8.16 TeV and Pb-Pb collisions at √sNN = 5.02 TeV
(2020)
Measurement of Z-boson production in p-Pb collisions at sNN−−−√ = 8.16 TeV and Pb-Pb collisions at sNN−−−√ = 5.02 TeV is reported. It is performed in the dimuon decay channel, through the detection of muons with pseudorapidity −4 < ημ < −2.5 and transverse momentum pμT > 20 GeV/c in the laboratory frame. The invariant yield and nuclear modification factor are measured for opposite-sign dimuons with invariant mass 60 < mμμ < 120 GeV/c2 and rapidity 2.5 < yμμcms < 4. They are presented as a function of rapidity and, for the Pb-Pb collisions, of centrality as well. The results are compared with theoretical calculations, both with and without nuclear modifications to the Parton Distribution Functions (PDFs). In p-Pb collisions the center-of-mass frame is boosted with respect to the laboratory frame, and the measurements cover the backward (−4.46 < yμμcms < −2.96) and forward (2.03 < yμμcms < 3.53) rapidity regions. For the p-Pb collisions, the results are consistent within experimental and theoretical uncertainties with calculations that include both free-nucleon and nuclear-modified PDFs. For the Pb-Pb collisions, a 3.4σ deviation is seen in the integrated yield between the data and calculations based on the free-nucleon PDFs, while good agreement is found once nuclear modifications are considered.
Im Zentrum dieser Arbeit stehen die Überstrukturphasen des Yb-Cu-Systems. Als Ausgangspunkt für die Kristallzüchtung wird die kongruent schmelzende Verbindung YbCu4:5 gewählt. Um einen genauen Einblick in das Erstarrungsverhalten dieser Phase zu erhalten, werden zunächst im Bereich zwischen 17.3 und 22.4 at-% Yb eine Reihe von DSC-Messungen durchgeführt. Die Ergebnisse lassen sich nur bedingt mit den in der Literatur veröffentlichten Phasendiagrammen (Moffat [Mo92] bzw. Massalski [Ma90] und Giovannini et al. [Gi08]) vereinbaren. Zwar kann eine kongruent schmelzende Phase der Zusammensetzung YbCu4:5 nachgewiesen werden, die Messungen deuten aber die Existenz zusätzlicher Verbindungen an, die allerdings mit Hilfe der EDX-Analyse nicht weiter spezifiziert werden können. Um diese Phasen genauer zu analysieren, werden Einkristallzüchtungsversuche nach der Bridgman-Methode im Bereich zwischen 19 und 19.2 at-% Yb durchgeführt und mittels Einkristallbeugungsmethoden (SC-XRD und SAED) charakterisiert. Auf diese Weise können neben YbCu4:5 die bisher noch unbekannten berstrukturphasen YbCu4:4 und YbCu4:25 nachgewiesen werden, deren Schmelztemperaturen mittels DSC-Untersuchungen zu 934(2)°C und 931(3)°C bestimmt werden. Die Entdeckung der beiden Verbindungen bestätigt die von Cerný et al. [Ce03] bisher nur theoretisch vorhergesagte Existenz der Überstrukturphasen SECux (x=4.4 und 4.25) für das Yb-Cu-System. Mit Hilfe von Polarisations- und Rasterelektronenmikroskopie und unter Anwendung der Laue-Methode wird das Wachstumsverhalten dieser Überstrukturphasen analysiert. Man beobachtet ein Schichtwachstum, wobei sich die Schichten parallel zur a- und b-Richtung ausbilden und in c-Richtung gestapelt vorliegen. Da eine zuverlässige Unterscheidung der YbCux-Verbindungen nur mit Hilfe von Einkristallbeugungsmethoden gelingt, wird im Rahmen dieser Arbeit untersucht, inwiefern eine Charakterisierung mittels Pulverdiffraktometrie möglich ist. Die Messungen mit Synchrotronstrahlung am ESRF in Grenoble erlauben eine eindeutige Unterscheidung der Überstrukturphasen allerdings nicht. Die Analyse des an das Überstrukturgebiet angrenzenden Zusammensetzungsbereichs von 12.5 bis 17.24 at-% Yb bestätigt die Existenz der Verbindung YbCu6:5, eine kupferärmere Phase der Zusammensetzung YbCu5 kann in den DSC-Experimenten nicht nachgewiesen werden. Die Messungen belegen die Existenz einer Phasenbreite von YbCu6:0+x mit 0 <= x <= 0:5 ist, was im Gegensatz zu dem von Giovannini et al. [Gi08] publizierten Phasendiagramm steht. SC-XRD-Aufnahmen an nach der Bridgman-Methode gezüchteten Einkristallen der Zusammensetzung YbCu6:31(9) untermauern das von Hornstra und Buschow [Ho72] gefundene Strukturmodell. Die Verschiebungen der Atompositionen bedingt durch den im Gegensatz zur YbCu5-Verbindung erhöhten Kupferanteil werden mit Hilfe der gemessenen und berechneten Paarverteilungsfunktion nachvollzogen. Phasendiagrammuntersuchungen und Einkristallzüchtungsergebnisse für weitere SE-Cu-Systeme (SE =Ho, Gd) bestätigen die Existenz der Verbindung HoCu4:5 und erhärten den Verdacht sowohl in diesem als auch in den anderen Systemen noch weitere Überstrukturphasen finden zu können.
Vortrag gehalten am 12. Januar 2005 in Frankfurt am Main, am Physikalischen Verein, anläßlich der Verleihung des Philipp-Siedler-Wissenschaftspreises an Dipl.-Phys. Christine Meurer, als Anerkennung für ihre Diplomarbeit "Xi- und Xi+ Produktion in Pb+Pb Stößen bei 40 A GeV am CERN SPS" (urn:nbn:de:hebis:30-13740). Am CERN, dem Europäischen Kernforschungszentrum, werden Bleiatomkerne auf nahezu Lichtgeschwindigkeit beschleunigt und zur Kollision gebracht. Dabei wird die Materie in einer Art Feuerball extrem verdichtet und erhitzt. Unter diesen Bedingungen brechen die Bestandteile der Atomkerne, die Nukleonen, auf und der Blick auf die eigentlichen Bausteine der Materie, die Quarks, wird möglich. Nach der Kollision expandiert der Feuerball und viele neue Teilchen, darunter auch die sogenannten seltsamen Teilchen, entstehen. Ihre Besonderheiten werden im Vortrag diskutiert: Ergebnisse zur Produktion des seltsamen Xi- -Teilchens in Pb+Pb-Stößen bei einer Energie von 40 A GeV werden vorgestellt. Aus dem transversalen Massenspektrum bei mittlerer Rapidität erhält man einen inversen Steigungsparamenter von T Xi- = (210±11±21)MeV . Die Integration des Rapiditätsspektrums liefert eine totale Anzahl der s im gesamten Phasenraum von (2.41 ± 0.15 ± 0.24) Teilchen pro Kollision. Desweiteren wird die Anregungsfunktion des Xi- -Hyperons sowie seine Zentralitätsabhänigkeit bei 40 A GeV diskutiert.
In den modernen Schwerionenexperimenten möchte man den Zustand der Materie unter extremen Bedingungen, wie sie in der frühen Phase unseres Kosmos herrschten, physikalisch untersuchen. Bei hoher Temperatur und Materiedichte wird ein Zustand postuliert, in dem Quarks, die unter den heute in der Natur vorkommenden Bedingungen auf Grund des Confinements in Hadronen gebunden sind, als quasi freie Teilchen existieren können. Eine spezielle Observable, die man dabei betrachtet, ist die Seltsamkeit. Aus früheren Messungen weiss man, dass die relative Häufigkeit einfach seltsamer Teilchen bei Kern-Kern-Reaktion gegenüber Proton-Proton-Reaktionen erhöht ist und eine andere Energieabhängigkeit zeigt. Zudem ist die Seltsamkeitsproduktion auch abhängig von der Systemgröße. Das kanonische, statistische Modell nach Redlich und Tounsi [7] sagt einen zunächst steilen Anstieg der Produktion von seltsamen Teilchen mit wachsender Systemgröße voraus, der aber bei großen Systemen immer flacher wird. Diese Diplomarbeit beschäftigt sich mit der Xi- und Xi+-Produktion in Blei-Blei-Stößen bei 40 A GeV. Bei dieser Analyse wird die Xi -Multiplizität in Abhängigkeit von der Kollisionszentralität und damit der Systemgröße untersucht. Zusätzlich wird die Xi- -Produktion in zentralen Blei-Blei-Stößen bei 40 A GeV mit Messungen bei anderen Energien verglichen und damit ihre Energieabhängigkeit der Xi- -Produktion untersucht. Die verwendeten Daten wurden während einer Strahlzeit im Herbst 1999 vom Experiment NA49 am SPS am CERN aufgenommen. Es wurden zwei Datensätze mit 7%igem Anteil am totalen Wirkungsquerschnitt und zwei Datensätze mit minimaler Einschränkung (minimum bias) durch den Trigger verwendet. Für die Analyse wurden aus diesen Daten 387.616 minimum bias und 577.605 zentrale Ereignisse ausgewählt. Die minimum bias Daten werden in verschiedene Zentralitätsklassen eingeteilt. Die Xi- (Xi+)-Hyperonen werden von NA49 nicht direkt detektiert. Stattdessen werden Kandidaten aus den Tochterteilchen (Lambda (Antilambda) und Pi - (Pi+)) des schwachen Zerfalls rekonstruiert. Die Häufigkeit der Hyperonen wird dann mit Hilfe statistischer Methoden extrahiert. Diese Methode liefert nicht nur die gewünschten Kandidaten sondern auch einen großen kombinatorischen Untergrund, den man durch geeignete, geometrische Einschränkungen reduzieren kann. Dazu wird eine Signifikanzstudie für die entsprechenden geometrischen Größen durchgeführt und auf diese Weise die besten Einschränkungsbedinungen gefunden. Da das NA49-Experiment auf Grund seiner Geometrie nicht den kompletten Phasenraum erfassen kann und die Effizienz, mit der Teilchen detektiert werden, begrenzt muss auf diese Effekte korrigiert werden. Um diese Korrektur zu bestimmen führt eine Simulation durch. Man simuliert Xi- -Hyperonen und überprüft, wie viele mit gleichen Verfahren, das man zur Datenbestimmung verwendet, in jedem Phasenraumbereich wiedergefunden werden können. Unter Verwendung dieser Korrektur erhält man die Transversalimpulsspektren bei mittlerer Rapidität für Xi- in vier verschiedenen Zentralitätsklassen. Aus diesen Spektren lässt sich die Anzahl der Xi- -Hyperonen bei mittlerer Rapidität pro Kollision ermitteln. Sie steigt von 0,12+-0,01 bei peripheren Stößen auf 1,23+-0,07 zu zentralen Stößen hin an. Zudem kann man aus der Steigung der pt-Spektren den Temperaturparameter T berechnen. Dieser bewegt sich im Bereich von 226 bis 292 MeV, zeigt aber keine eindeutige Zentralitätsabhängigkeit.....
First results on the production of Xi- and Anti-xi hyperons in Pb+Pb interactions at 40 A GeV are presented. The Anti-xi/Xi- ratio at midrapidity is studied as a function of collision centrality. The ratio shows no significant centrality dependence within statistical errors; it ranges from 0.07 to 0.15. The Anti-xi/Xi- ratio for central Pb+Pb collisions increases strongly with the collision energy.
Results of the production of Xi and Xi-bar hyperons in central Pb+Pb interactions at 158 GeV/c per nucleon are presented. This analysis utilises a global reconstruction procedure, which allows a measurement of 4pi integrated yields to be made for the first time. Inverse slope paramters, which are determined from an exponential fit to the transverse mass spectra, are shown. Central rapidity densities are found to be 1.49 +- 0.08 and 0.33 +- 0.04 per event per unit of rapidity for Xi and Xi-bar respectively. Yields integrated to full phase space are 4.12 +- 0.02 and 0.77 +- 0.04 for Xi and Xi-bar. The ratio of Xi-bar/Xi at mid-rapidity is 0.22 +- 0.03.
We report measurements of Xi and Xi-bar hyperon absolute yields as a function of rapidity in 158 GeV/c Pb+Pb collisions. At midrapidity, dN/dy = 2.29 +/- 0.12 for Xi, and 0.52 +/- 0.05 for Xi-bar, leading to the ratio of Xi-bar/Xi = 0.23 +/- 0.03. Inverse slope parameters fitted to the measured transverse mass spectra are of the order of 300 MeV near mid-rapidity. The estimated total yield of Xi particles in Pb+Pb central interactions amounts to 7.4 +/- 1.0 per collision. Comparison to Xi production in properly scaled p+p reactions at the same energy reveals a dramatic enhancement (about one order of magnitude) of Xi production in Pb+Pb central collisions over elementary hadron interactions.
W±-boson production in p–Pb collisions at √sNN = 8.16 TeV and Pb–Pb collisions at √sNN = 5.02 TeV
(2022)
The production of the W± bosons measured in p−Pb collisions at a centre-of-mass energy per nucleon−nucleon collision sNN−−−−√=8.16 TeV and Pb−Pb collisions at sNN−−−−√=5.02 TeV with ALICE at the LHC is presented. The W± bosons are measured via their muonic decay channel, with the muon reconstructed in the pseudorapidity region −4<ημlab<−2.5 with transverse momentum pμT>10 GeV/c. While in Pb−Pb collisions the measurements are performed in the forward (2.5<yμcms<4) rapidity region, in p−Pb collisions, where the centre-of-mass frame is boosted with respect to the laboratory frame, the measurements are performed in the backward (−4.46<yμcms<−2.96) and forward (2.03<yμcms<3.53) rapidity regions. The W− and W+ production cross sections, lepton-charge asymmetry, and nuclear modification factors are evaluated as a function of the muon rapidity. In order to study the production as a function of the p−Pb collision centrality, the production cross sections of the W− and W+ bosons are combined and normalised to the average number of binary nucleon−nucleon collision ⟨Ncoll⟩. In Pb−Pb collisions, the same measurements are presented as a function of the collision centrality. Study of the binary scaling of the W±-boson cross sections in p−Pb and Pb−Pb collisions is also reported. The results are compared with perturbative QCD (pQCD) calculations, with and without nuclear modifications of the Parton Distribution Functions (PDFs), as well as with available data at the LHC. Significant deviations from the theory expectations are found in the two collision systems, indicating that the measurements can provide additional constraints for the determination of nuclear PDF (nPDFs) and in particular of the light-quark distributions.
W±-boson production in p–Pb collisions at √sNN = 8.16 TeV and Pb–Pb collisions at √sNN = 5.02 TeV
(2022)
The production of the W± bosons measured in p−Pb collisions at a centre-of-mass energy per nucleon−nucleon collision sNN−−−−√=8.16 TeV and Pb−Pb collisions at sNN−−−−√=5.02 TeV with ALICE at the LHC is presented. The W± bosons are measured via their muonic decay channel, with the muon reconstructed in the pseudorapidity region −4<ημlab<−2.5 with transverse momentum pμT>10 GeV/c. While in Pb−Pb collisions the measurements are performed in the forward (2.5<yμcms<4) rapidity region, in p−Pb collisions, where the centre-of-mass frame is boosted with respect to the laboratory frame, the measurements are performed in the backward (−4.46<yμcms<−2.96) and forward (2.03<yμcms<3.53) rapidity regions. The W− and W+ production cross sections, lepton-charge asymmetry, and nuclear modification factors are evaluated as a function of the muon rapidity. In order to study the production as a function of the p−Pb collision centrality, the production cross sections of the W− and W+ bosons are combined and normalised to the average number of binary nucleon−nucleon collision ⟨Ncoll⟩. In Pb−Pb collisions, the same measurements are presented as a function of the collision centrality. Study of the binary scaling of the W±-boson cross sections in p−Pb and Pb−Pb collisions is also reported. The results are compared with perturbative QCD (pQCD) calculations, with and without nuclear modifications of the Parton Distribution Functions (PDFs), as well as with available data at the LHC. Significant deviations from the theory expectations are found in the two collision systems, indicating that the measurements can provide additional constraints for the determination of nuclear PDF (nPDFs) and in particular of the light-quark distributions.
W±-boson production in p–Pb collisions at √sNN = 8.16 TeV and Pb–Pb collisions at √sNN = 5.02 TeV
(2023)
The production of the W± bosons measured in p−Pb collisions at a centre-of-mass energy per nucleon−nucleon collision sNN−−−−√=8.16 TeV and Pb−Pb collisions at √sNN=5.02 TeV with ALICE at the LHC is presented. The W± bosons are measured via their muonic decay channel, with the muon reconstructed in the pseudorapidity region −4<ημlab<−2.5 with transverse momentum pμT>10 GeV/c. While in Pb−Pb collisions the measurements are performed in the forward (2.5<yμcms<4) rapidity region, in p−Pb collisions, where the centre-of-mass frame is boosted with respect to the laboratory frame, the measurements are performed in the backward (−4.46<yμcms<−2.96) and forward (2.03<yμcms<3.53) rapidity regions. The W− and W+ production cross sections, lepton-charge asymmetry, and nuclear modification factors are evaluated as a function of the muon rapidity. In order to study the production as a function of the p−Pb collision centrality, the production cross sections of the W− and W+ bosons are combined and normalised to the average number of binary nucleon−nucleon collision ⟨Ncoll⟩. In Pb−Pb collisions, the same measurements are presented as a function of the collision centrality. Study of the binary scaling of the W±-boson cross sections in p−Pb and Pb−Pb collisions is also reported. The results are compared with perturbative QCD (pQCD) calculations, with and without nuclear modifications of the Parton Distribution Functions (PDFs), as well as with available data at the LHC. Significant deviations from the theory expectations are found in the two collision systems, indicating that the measurements can provide additional constraints for the determination of nuclear PDF (nPDFs) and in particular of the light-quark distributions.
W±-boson production in p–Pb collisions at √sNN = 8.16 TeV and Pb–Pb collisions at √sNN = 5.02 TeV
(2023)
The production of the W± bosons measured in p–Pb collisions at a centreof-mass energy per nucleon–nucleon collision √sNN = 8.16 TeV and Pb–Pb collisions at √sNN = 5.02 TeV with ALICE at the LHC is presented. The W± bosons are measured via their muonic decay channel, with the muon reconstructed in the pseudorapidity region −4 < ηµ lab < −2.5 with transverse momentum p µ T > 10 GeV/c. While in Pb–Pb collisions the measurements are performed in the forward (2.5 < yµ cms < 4) rapidity region, in p–Pb collisions, where the centre-of-mass frame is boosted with respect to the laboratory frame, the measurements are performed in the backward (−4.46 < yµ cms < −2.96) and forward (2.03 < yµ cms < 3.53) rapidity regions. The W− and W+ production cross sections, leptoncharge asymmetry, and nuclear modification factors are evaluated as a function of the muon rapidity. In order to study the production as a function of the p–Pb collision centrality, the production cross sections of the W− and W+ bosons are combined and normalised to the average number of binary nucleon–nucleon collision hNcolli. In Pb–Pb collisions, the same measurements are presented as a function of the collision centrality. Study of the binary scaling of the W±-boson cross sections in p–Pb and Pb–Pb collisions is also reported. The results are compared with perturbative QCD calculations, with and without nuclear modifications of the Parton Distribution Functions (PDFs), as well as with available data at the LHC. Significant deviations from the theory expectations are found in the two collision systems, indicating that the measurements can provide additional constraints for the determination of nuclear PDFs and in particular of the light-quark distributions.
Focused electron beam induced deposition (FEBID) is a direct-write nanofabrication technique able to pattern three-dimensional magnetic nanostructures at resolutions comparable to the characteristic magnetic length scales. FEBID is thus a powerful tool for 3D nanomagnetism which enables unique fundamental studies involving complex 3D geometries, as well as nano-prototyping and specialized applications compatible with low throughputs. In this focused review, we discuss recent developments of this technique for applications in 3D nanomagnetism, namely the substantial progress on FEBID computational methods, and new routes followed to tune the magnetic properties of ferromagnetic FEBID materials. We also review a selection of recent works involving FEBID 3D nanostructures in areas such as scanning probe microscopy sensing, magnetic frustration phenomena, curvilinear magnetism, magnonics and fluxonics, offering a wide perspective of the important role FEBID is likely to have in the coming years in the study of new phenomena involving 3D magnetic nanostructures.
Das Hauptziel der vorliegenden Arbeit war es, die energieabhängigen Wirkungsquerschnitte von (γ,n)-Reaktionen für 169Tm, 170Yb, 176Yb und 130Te mittels der Photoaktivierungsmethode zu bestimmen.
Dazu wurden zunächst die Effizienzen der verwendeten Detektoren mithilfe von Simulationen korrigiert, da die verwendeten Targets eine ausgedehnte Geometrie aufweisen im Gegensatz zu den punktförmigen Eichquellen. Es hat sich herausgestellt, dass mit den Simulationen die Effizienzen der MCA-Detektoren energieabhängig korrigiert werden konnten, da die Simulationen die Form der gemessenen Effizienzen gut reproduzieren konnten. Bei den Effizienzen der LEPS-Detektoren hingegen konnte keine energieabhäangige Korrektur vorgenommen werden, da die LEPS-Detektoren aufgrund des geringen Abstandes zu den Detektoren hohe Summeneffekte zeigten. Im Rahmen dieser Arbeit konnten diese Summeneffekte jedoch nicht korrigiert bzw. berücksichtigt werden.
Chern numbers can be calculated within a frame of vortex fields related to phase conventions of a wave function. In a band protected by gaps the Chern number is equivalent to the total number of flux carrying vortices. In the presence of topological defects like Dirac cones this method becomes problematic, in particular if they lack a well-defined winding number. We develop a scheme to include topological defects into the vortex field frame. A winding number is determined by the behavior of the phase in reciprocal space when encircling the defect's contact point. To address the possible lack of a winding number we utilize a more general concept of winding vectors. We demonstrate the usefulness of this ansatz on Dirac cones generated from bands of the Hofstadter model.
Chern numbers can be calculated within a frame of vortex fields related to phase conventions of a wave function. In a band protected by gaps the Chern number is equivalent to the total number of flux carrying vortices. In the presence of topological defects like Dirac cones this method becomes problematic, in particular if they lack a well-defined winding number. We develop a scheme to include topological defects into the vortex field frame. A winding number is determined by the behavior of the phase in reciprocal space when encircling the defect's contact point. To address the possible lack of a winding number we utilize a more general concept of winding vectors. We demonstrate the usefulness of this ansatz on Dirac cones generated from bands of the Hofstadter model.
Chern numbers can be calculated within a frame of vortex fields related to phase conventions of a wave function. In a band protected by gaps the Chern number is equivalent to the total number of flux carrying vortices. In the presence of topological defects like Dirac cones this method becomes problematic, in particular if they lack a well-defined winding number. We develop a scheme to include topological defects into the vortex field frame. A winding number is determined by the behavior of the phase in reciprocal space when encircling the defect's contact point. To address the possible lack of a winding number we utilize a more general concept of winding vectors. We demonstrate the usefulness of this ansatz on Dirac cones generated from bands of the Hofstadter model.
Wilhelm H. Kegel : Nachruf
(2019)
We study the Wigner function for massive spin-1/2 fermions in electromagnetic fields. The Wigner function is analytically solved in five cases when electromagnetic fields are constants. For a general space-time dependent field configuration, we use the method of semi-classical expansion and solved the Wigner function at linear order in the Planck's constant. At the same order, we obtained a generalized Boltzmann equation for particle distribution, and a generalized BMT equation for spin polarization. Using the Wigner function, we calculated some physical quantities in a thermal equilibrium system.
Welche Art Strahlung geht vom Handy und von Relaisstationen aus? Wie kann sie auf den Menschen wirken, welche Wirkmechanismen werden ausgelöst? Welche Vorschriften und Grenzwerte gibt es? Wohl kaum ein Thema wurde in den vergangenen Jahren in Medien und in Öffentlichkeit so heiß und kontrovers diskutiert wie das "Strahlenrisiko" durch Mobilfunkanlagen, Mobiltelefone und schnurlose Telefone. Insbesondere, wenn Relaisstationen für mobile Kommunikationseinrichtungen in Verbindung mit dem neuen UMTS-Netz eingerichtet werden, beobachtet man oft erbitterte Konfrontationen zwischen Betreibern und Gegnern, die manchmal zu merkwürdigen Entwicklungen führen; so wurde beispielsweise die Antenne auf einem Kirchendach als Kreuz getarnt. Oft nutzen auch erklärte Gegner von Relaisanlagen am Wohnort beruflich oder privat ihr Handy.
canning tunneling microscopy (STM) is perhaps the most promising way to detect the superconducting gap size and structure in the canonical unconventional superconductor Sr2RuO4 directly. However, in many cases, researchers have reported being unable to detect the gap at all in simple STM conductance measurements. Recently, an investigation of this issue on various local topographic structures on a Sr-terminated surface found that superconducting spectra appeared only in the region of small nanoscale canyons, corresponding to the removal of one RuO surface layer. Here, we analyze the electronic structure of various possible surface structures using first principles methods, and argue that bulk conditions favorable for superconductivity can be achieved when removal of the RuO layer suppresses the RuO4 octahedral rotation locally. We further propose alternative terminations to the most frequently reported Sr termination where superconductivity surfaces should be observed.
Behavior is characterized by sequences of goal oriented conducts, such as food uptake, socializing and resting. Classically, one would define for each task a corresponding satisfaction level, with the agent engaging, at a given time, in the activity having the lowest satisfaction level. Alternatively, one may consider that the agent follows the overarching objective to generate sequences of distinct activities. To achieve a balanced distribution of activities would then be the primary goal, and not to master a specific task. In this setting the agent would show two types of behaviors, task-oriented and task-searching phases, with the latter interseeding the former. We study the emergence of autonomous task switching for the case of a simulated robot arm. Grasping one of several moving objects corresponds in this setting to a specific activity. Overall, the arm should follow a given object temporarily and then move away, in order to search for a new target and reengage. We show that this behavior can be generated robustly when modeling the arm as an adaptive dynamical system. The dissipation function is in this approach time dependent. The arm is in a dissipative state when searching for a nearby object, dissipating energy on approach. Once close, the dissipation function starts to increase, with the eventual sign change implying that the arm will take up energy and wander off. The resulting explorative state ends when the dissipation function becomes again negative and the arm selects a new target. We believe that our approach may be generalized to generate self-organized sequences of activities in general.
What is the magnetic field distribution for the equation of state of magnetized neutron stars?
(2017)
In this Letter, we report a realistic calculation of the magnetic field profile for the equation of state inside strongly magnetized neutron stars. Unlike previous estimates, which are widely used in the literature, we find that magnetic fields increase relatively slowly with increasing baryon chemical potential (or baryon density) of magnetized matter. More precisely, the increase is polynomial instead of exponential, as previously assumed. Through the analysis of several different realistic models for the microscopic description of stellar matter (including hadronic, hybrid and quark models) combined with general relativistic solutions endowed with a poloidal magnetic field obtained by solving Einstein–Maxwell's field equations in a self-consistent way, we generate a phenomenological fit for the magnetic field distribution in the stellar polar direction to be used as input in microscopic calculations.
We explain how fluctuations of ratios can constrain and falsify the statistical model of particle production in heavy ion collisions, using K/p fluctuations as an example. We define an observable capable of determining which statistical model, if any, governs freeze-out in ultrarelativistic heavy ion collisions. We calculate this observable for K/p fluctuations, and show that it should be the same for RHIC and LHC energies, as well as independent of centrality, if the Grand-Canonical statistical model is an appropriate description and chemical equilibrium applies. We describe variations of this scaling for deviations from this scenario, such as light quark chemical non-equilibrium, strange quark over-saturation and local conservation (canonical ensemble) for strange quarks. We also introduce a similar observable capable, together with the published K*/K measurement, of ascertaining if an interacting hadron gas phase governs the system between thermal and chemical freeze-out, and of ascertaining its duration and impact on hadronic chemistry.
Weltweit arbeiten Astrophysiker noch immer mit einer Theorie, die bereits vor rund 100 Jahren aufgestellt wurde – die Einstein’sche Relativitätstheorie. Nahezu jeder hat den genialen Kopf dahinter vor Augen: Albert Einstein. Was aber ist der von Einstein prognostizierte gekrümmte Raum, was sind schwarze Löcher und Neutronensterne und wer sind die Menschen, die auf diesen Gebieten forschen? Luciano Rezzolla, seit Oktober 2013 Professor für Theoretische Astrophysik an der Goethe-Universität sowie Leiter einer Arbeitsgruppe am Max-Planck-Institut für Gravitationsphysik in Potsdam, ist einer dieser Forscher.
Ein Laserblitz von unvorstellbarer Intensität pulverisiert im Labor ein Molekül. Wachsam zeichnen die Instrumente die Flugbahn und Geschwindigkeit jedes Bruchstücks auf. Physiker gewinnen daraus hochpräzise Informationen über die Molekülstruktur. Auch links- und rechtshändige Formen lassen sich unterscheiden.
Nichtinvasive Detektoren für ortsaufgelöste Strahlprofilmessungen gewinnen mit zunehmenden Strahlströmen und -energien immer mehr an Bedeutung. An der Universität Frankfurt im Institut für Angewandte Physik (IAP) wird ein “Figure Eight”-förmiger magnetostatischer Speichering mit Stellarator-Konfiguration (F8SR) entwickelt. Einige Aspekte der Strahldynamik in einem solchen Ring können mit einem experimentellen Aufbau am IAP untersucht werden. Die Herausforderung bei der Entwicklung eines Detektors an einem (F8SR) liegt auf der einen Seite darin den Strahl nichtinvasiv zu detektieren, und andererseits müssen magnetisch unempfindliche Komponenten für den Detektor ausgewählt werden. Dabei sollte der Detektor so flexibel sein, dass der Strahl entlang der Flugbahn transversal gemessen werden kann. In dieser Arbeit geht es um einen Detektor mit radial um den Strahl angeordneten Photodioden, mit deren Hilfe die strahlinduzierte Fluoreszenz detektiert wird und mit einem geeigneten Rekonstruktionsverfahren, Strahlposition und den Strahldurchmesser ermittelt werden kann. Die Messungen werden mit einem weiteren schon erprobten Detektor - einem Szintillationsschirm verglichen.
Die vorliegende Dissertation behandelt das Thema der Wechselstromleitfähigkeit nano-granularer Metalle, welche mit Hilfe der fokussierten elektronenstrahlinduzierten Direktabscheidung (FEBID) hergestellt wurden, sowie der dielektrischen Relaxation in metall-organischen Gerüstverbindungen (MOFs). Sie war eingebettet in das interdisziplinäre Projekt „Dielectric and Ferroelectric Surface-Mounted Metal-Organic Frameworks (SURMOFs) as Sensor Devices“ im Rahmen des DPG-Schwerpunktsprogramms „Coordination Networks: Building Blocks for Functional Systems“ (SPP 1928, COORNETs). Dabei verfolgt sie ein Sensorkonzept zur selektiven Detektion von Analytgasen. Der zentrale Erfolg der Arbeit besteht dabei in neuen Erkenntnissen über die Wechselstromleitfähigkeit nano-granularer Pt(C)-FEBID-Deponate. Die hierbei gewonnen Erkenntnisse können in Zukunft einen weiteren Baustein in der theoretischen Beschreibung dieses grundlegend interessanten und für sensorische Anwendungen wichtigen Teilgebiets der Festkörperphysik darstellen.
Accurate spectroscopy of highly-charged high-Z ions in a storage ring is demonstrated to be feasible by the use of specially adapted crystal optics. The method has been applied for the measurement of the 1s Lamb shift in hydrogen-like gold (Au+78) in a storage ring through spectroscopy of the Lyman x-rays. This measurement represents the first result obtained for a high-Z element using high-resolution wavelength-dispersive spectroscopy in the hard x-ray regime, paving the way for sensitivity to higher- order QED effects.
The colour-singlet axial-vector vertex plays a pivotal role in understanding dynamical chiral symmetry breaking and numerous hadronic weak interactions, yet scant model-independent information is available. We therefore use longitudinal and transverse Ward–Green–Takahashi (WGT) identities, together with kinematic constraints, in order to ameliorate this situation and expose novel features of the axial vertex: amongst them, Ward-like identities for elements in the transverse piece of the vertex, which complement and shed new light on identities determined previously for components in its longitudinal part. Such algebraic results are verified via solutions of the Bethe–Salpeter equation for the axial vertex obtained using two materially different kernels for the relevant Dyson–Schwinger equations. The solutions also provide insights that suggest a practical Ansatz for the axial-vector vertex.
Walter Greiner: in memoriam
(2017)
Walter Greiner (29 October 1935 - 6 October 2016) was a German theoretical physicist. His scientific research interests include the thematic areas of atomic physics, heavy ion physics, nuclear physics, elementary particle physics (particularly quantum electrodynamics and quantum chromodynamics). He is most known in Germany for his series of books in theoretical physics, but he is also well known around the world. Greiner was born on October 29, 1935, in Neuenbau, Sonnenberg, Germany. He studied physics at the University of Frankfurt (Goethe University in Frankfurt Am Main), receiving in this institution a BSci in physics and a Master’s degree in 1960 with a thesis on plasma-reactors, and a PhD in 1961 at the University of Freiburg under Hans Marshal, with a thesis on the nuclear polarization in μμ-mesic atoms. During the period of 1962 to 1964 he was assistant professor at the University of Maryland, followed by a position as research associate at the University of Freiburg, in 1964. Starting in 1965, he became a full professor at the Institute for Theoretical Physics at Goethe University until 2003. Greiner has been a visiting professor to many universities and laboratories, including Florida State University, the University of Virginia, the University of California, the University of Melbourne, Vanderbilt University, Yale University, Oak Ridge National Laboratory and Los Alamos National Laboratory. In 2003, with Wolf Singer, he was the founding Director of the Frankfurt Institute for Advanced Studies (FIAS), and gave lectures and seminars in elementary particle physics. He died on October 6, 2016 at the age of 80.
Walter Greiner was an excellent teacher, researcher, friend. And he was a great supporter of the series of events known by the acronyms IWARA - International Workshop on Astronomy and Relativistic Astrophysics, STARS - Caribbean Symposium on Cosmology, Gravitation, Nuclear and Astroparticle Physics, and SMFNS - International Symposium on Strong Electromagnetic Fields and Neutron Stars. Walter Greiner left us. But his memory will remain always alive among us who have had the privilege of knowing him and enjoy his wisdom and joy of living.
The W and Z boson production was measured via the muonic decay channel in proton-lead collisions at sNN−−−√=5.02 TeV at the Large Hadron Collider with the ALICE detector. The measurement covers backward (−4.46<ycms<−2.96) and forward (2.03<ycms<3.53) rapidity regions, corresponding to Pb-going and p-going directions, respectively. The Z-boson production cross section, with dimuon invariant mass of 60<mμμ<120 GeV/c2 and muon transverse momentum (pμT) larger than 20 GeV/c, is measured. The production cross section and charge asymmetry of muons from W-boson decays with pμT>10 GeV/c are determined. The results are compared to theoretical calculations both with and without including the nuclear modification of the parton distribution functions. The W-boson production is also studied as a function of the collision centrality: the cross section of muons from W-boson decays is found to scale with the average number of binary nucleon-nucleon collisions within uncertainties.
The W and Z boson production was measured via the muonic decay channel in proton-lead collisions at sNN−−−√=5.02 TeV at the Large Hadron Collider with the ALICE detector. The measurement covers backward (−4.46<ycms<−2.96) and forward (2.03<ycms<3.53) rapidity regions, corresponding to Pb-going and p-going directions, respectively. The Z-boson production cross section, with dimuon invariant mass of 60<mμμ<120 GeV/c2 and muon transverse momentum (pμT) larger than 20 GeV/c, is measured. The production cross section and charge asymmetry of muons from W-boson decays with pμT>10 GeV/c are determined. The results are compared to theoretical calculations both with and without including the nuclear modification of the parton distribution functions. The W-boson production is also studied as a function of the collision centrality: the cross section of muons from W-boson decays is found to scale with the average number of binary nucleon-nucleon collisions within uncertainties.
The W and Z boson production was measured via the muonic decay channel in proton-lead collisions at sNN−−−√=5.02 TeV at the Large Hadron Collider with the ALICE detector. The measurement covers backward (−4.46<ycms<−2.96) and forward (2.03<ycms<3.53) rapidity regions, corresponding to Pb-going and p-going directions, respectively. The Z-boson production cross section, with dimuon invariant mass of 60<mμμ<120 GeV/c2 and muon transverse momentum (pμT) larger than 20 GeV/c, is measured. The production cross section and charge asymmetry of muons from W-boson decays with pμT>10 GeV/c are determined. The results are compared to theoretical calculations both with and without including the nuclear modification of the parton distribution functions. The W-boson production is also studied as a function of the collision centrality: the cross section of muons from W-boson decays is found to scale with the average number of binary nucleon-nucleon collisions within uncertainties.
Im Kapitel 1 "Einleitung" wird aufgezeigt, wie die rasante technologische Entwicklung der Mikroelektronik nicht nur die Mikroskopie vorantreibt, sondern auch anderen, neuen Verfahren, wie z. B. dem Laser Scanning Mikroskop, zum Durchbruch verhilft. Damit verbunden ist ein Bedarf an neuen, geeigneten Messverfahren. Dazu stellt diese Arbeit ein neues, im Rahmen einer linearen Näherung arbeitendes, dreidimensionales Messverfahren vor, und demonstriert es am Beispiel des Lichtmikroskops im Hellfelddurchlichtbetrieb, wobei hier die 3. Dimension durch die Aufnahme einer Fokusserie entsteht. Im Kapitel 2 "Modellbildung" wird zuerst ein detailliertes, physikalisches Modell des experimentellen Aufbaus gebildet, um darauf aufbauend ein dreidimensionales, system-theoretisches Modell anzufertigen, anhand dessen das neue Messverfahren erarbeitet werden kann. Dabei wird auch die Berechnung der dreidimensionalen Übertragungsfunktionen des Lichtmikroskops für die drei Fälle absorbierende Objekte, Phasenobjekte und transparente Selbstleuchter beschrieben. Innerhalb des Kapitels 3 "Messverfahren" werden im Kapitel 3.1 zunächst die bekannten Verfahren skizziert. Anschließend, dies ist der Kern der Arbeit, wird im Kapitel 3.2 das neue Messverfahren beschrieben. Es verwendet als Anregung zweidimensionales Rauschen, hier ein Rauschen um eine Ebene senkrecht zur optischen Achse. Das Verfahren wird zunächst für absorbierende Objekte, anschließend auch für Phasenobjekte ausgearbeitet, und dabei experimentell demonstriert. Von zentraler Beutung ist, dass das neue Messverfahren in der Lage ist, auch die Phase der dreidimensionalen Übertragungsfunktion aus den Bildern der Rauschanregung zu berechnen, falls die Übertragung durch die Aufnahmeeinheit gewisse, häufig bei einem vernachlässigbaren Fehler vorliegende, Symmetrieeigenschaften besitzt. Es werden verschiedene Fälle von Symmetrieeigenschaften berücksichtigt, um unterschiedliche experimentelle Gegebenheiten und die drei Fälle absorbierende Objekte, Phasenobjekte und transparente Selbstleuchter abzudecken. Das Kapitel 4 "Messungen" vergleicht die mit dem neuen Messverfahren, mit einem bekannten Messverfahren und durch Berechnung ermittelten Übertragungseigenschaften auch bei Modifikationen des Strahlengangs durch Einfügen von Zentralblenden in die Pupille des Objektivs und in die Pupille des Kondensors. Die auf unterschiedlichen Wegen ermittelten Übertragungseigenschaften werden miteinander verglichen. Der Vergleich veranschaulicht die Leistungsfähigkeit des neuen Messverfahrens. Das Kapitel 5 "Die Bildgewinnung" stellt verschiedene, mehr oder weniger bekannte Ansätze zur Nutzung des vorgestellten Messverfahrens zusammen, darunter vor allem auch die Wiener-Inversfilterung.
Mit dieser Arbeit wurde gezeigt, wie sich Störung und Kopplung auf ein System zwei gekoppelter Resonatoren auswirkt. Das Einfahren des Tauchkolbens birgt die Möglichkeit die Eigenfrequenzen des Systems zu verändern und die Feldverteilungen anzupassen. Ein Tauchkolben auf der anderen Seite des Resonators wäre für die Anschauung der Störung praktisch gewesen, hätte jedoch keine weiteren Erkenntnisse geliefert.
Es ist möglich mit zwei verschiedenen eingekoppelten Frequenzen eine Schwebung im Resonator zu erzeugen. Dies könnte theoretisch für eine Hochfrequenzstrahlablenkung nützlich sein. Mit einer speziell auf Strahlablenkung optimierten Resonatorgeometrie gilt es dies praktisch zu überprüfen.
Nach einer kurzen Einführung in die Theorie der Volterra-Systeme wurden in dieser Arbeit zunächst Verfahren zur Bestimmung von Volterra-Kernen als Kenngrößen für Volterra-Systeme zur Modellierung nichtlinearer Systeme analysiert. Im Vordergrund stand zunächst ein Verfahren basierend auf der Messung der Kreuzkumulanten-Spektren höherer Ordnung von Ein- und Ausgangssignal eines nichtlinearen Systems, wobei als Systemanregung ein stationärer, mittelwertfreier Gaußscher Zufallsprozeß angenommen wurde. Die Analyse der untersuchten Differenzengleichung zeigt, daß zur präzisen Bestimmung der Kernfunktionen bis zur dritten Systemordnung mehr als eine Million Ein- und Ausgangswerte notwendig sind. Vergleichend dazu wurde der Volterra-RLSAlgorithmus betrachtet, der eine rechenzeiteffiziente Bestimmung der Volterra-Kerne zuläßt und kein bestimmtes Eingangssignal erfordert. Beim Volterra-RLS-Algorithmus wurde zunächst die zur Bestimmung derartiger Systemkenngrößen erforderliche Anzahl der Ein- und Ausgangswerte festgestellt. Hierbei wurde u.a. auch ein gedämpftes Pendel als Modellsystem betrachtet. Die Ergebnisse zeigen, daß eine genaue Bestimmung der Volterra-Kerne mit dem Volterra-RLS-Algorithmus schon anhand von etwa 1500 Ein- und Ausgangswerten möglich ist. Anschließend wurde eine spezielle Klasse von Volterra-Systemen, die in lineare Teilsysteme zerlegbar sind, untersucht. Der Volterra-Kern eines solchen Systems, das ausschließlich aus linearen, zeitinvarianten Systemen aufgebaut ist, kann bei Kenntnis von deren Impulsantworten direkt bestimmt werden. Ihre Struktur führt zu einer deutlich verminderten Rechenkomplexität bei der Berechnung der Systemantwort des dargestellten Volterra-Systems. Wie in der Arbeit gezeigt, reichen für eine präzise Messung der Volterra-Kerne, die mit einem Gradientenverfahren bestimmt wurden, bei diesen Systemen bereits ungefähr 1000 Ausgangswerte aus. Außerdem ist die Realisierung eines Systems höherer Ordnung aus Systemen niedrigerer Ordnung relativ einfach möglich. Bei umfangreichen Untersuchungen wurde eine Identifikation nichtlinearer Systeme mit unterschiedlich ausgeprägten Nichtlinearitäten vorgenommen. Als Beispiel ist in dieser Arbeit der Fall diskutiert, bei dem Lösungen der Duffing-Gleichung herangezogen wurden. Dabei wurden Volterra-Systeme bis zur fünften Ordnung zugrundegelegt; eine präzise Approximation gelang in allen Fällen. Schließlich wurde noch festgestellt, inwieweit die Möglichkeit besteht, nach einer Bestimmung, d.h. anhand eines numerisch vorliegenden Kerns, daraus Systemparameter zu extrahieren. Dazu wurde eine spezielle OTA-C Integratorschaltung betrachtet; als Eingangssignale wurden Ein- und Zweitonsignale verwendet und anschließend die Bestimmung der Kerne homogener Systeme vorgenommen. Anhand dieser Resultate konnten der Widerstand R0 und die Kapazität C des OTA-C Integrators mit hoher Genauigkeit ermittelt werden. Die Untersuchungen haben gezeigt, daß eine Identifikation mit den aus linearen Systemen implementierten Volterra-Systemen zu geringeren relativen, mittleren quadratischen Fehlern führt als bei Verwendung der aus der allgemeinen Definition hervorgehenden Systeme. Neben der Verringerung der Rechenkomplexität konnte somit auch eine erhöhte Approximationsgüte festgestellt werden. Aufgrund dieses Befundes wurden derartige Volterra-Systeme für die besondere Fragestellung zur Epilepsieforschung eingesetzt, zu denen diese Arbeit beitragen sollte. Die Prädiktion von EEG-Signalen bei Epilepsie stand dabei im Vordergrund der Betrachtungen. Als erstes wurde der Prädiktionsgewinn sowohl in Abhängigkeit von der Systemordnung als auch in Abhängigkeit von der System- und Filterlänge ermittelt. Im Hinblick auf eine Realisierung in der Praxis wurde die Filterlänge nur zwischen L = 2 bis L = 10 variiert. Diese Untersuchungen haben gezeigt, daß Messungen dabei mit größerer Filterlänge als L = 4 zu keinen weiteren nennenswerten Verbesserungen der Resultate führten. Nach erfolgter Prädiktion wurde der zeitliche Verlauf des Prädiktionsgewinns auf Veränderungen vor oder zu Beginn eines epileptischen Anfalls untersucht. Die Kurvenverläufe der Prädiktionsgewinne der homogenen Systeme zweiter und dritter Ordnung zeigen keine signifikanten Veränderungen vor einem Anfall. Demgegenüber lassen die Kurvenverläufe der Prädiktionsgewinne der homogenen Systeme erster Ordnung und der inhomogenen Systeme dritter Ordnung zu Beginn eines Anfalls einen deutlichen Anstieg erkennen. Weiterhin deuten diese Ergebnisse daraufhin, daß eine genauere Lokalisierung des fokalen Bereichs basierend auf dem Prädiktionsgewinn möglich erscheint. Zu weiteren Untersuchungen wurden die Kerne der Systeme herangezogen und der zeitliche Verlauf des sogenannten nichtlinearen Anteils dm(i) näher betrachtet. Diese Ergebnisse lassen keine signifikanten Änderungen erkennen. Dementgegen stehen die Resultate für Langzeitregistrierungen von EEG-Signalen. Bei einer Analyse der zu einer längerenMeßreihe gehörigen Daten eines 19-jährigen männlichen Patienten wurde festgestellt, daß der Prädiktionsgewinnmeistens kurz vor den epileptischen Anfällen unter denMittelwert des anfallsfreien Zustands abfällt. Änderungen der Kurvenverläufe des Prädiktionsgewinns kurz vor epileptischen Anfällen weisen erkennbar spezifische Merkmale auf, die möglicherweise als Vorboten eines epileptischen Anfalls angesehen werden könnten
The role of nonequilibrium and quantal effects in fast nucleus-nucleus collisions is studied via the Vlasov-Uehling-Uhlenbeck theory which includes the nuclear mean field dynamics, two-body collisions, and Pauli blocking. The intranuclear cascade model, where the dynamics is governed by independent NN collisions, and the Vlasov equation, where the nuclear mean field determines the collision dynamics, are also studied as reference cases. The Vlasov equation (no collision term) yields single particle distribution functions which–after the reaction–are only slightly modified in momentum space; even in central collisions, transparency is predicted. This is in agreement with the predictions of the quantal time-dependent Hartree-Fock method. In contrast, large momentum transfer is obtained when the Uehling-Uhlenbeck collision term is incorporated; then the final momentum distribution is nearly spherically symmetric in the center of mass and a well-equilibrated nuclear system is formed: the nuclei stop each other; the translational kinetic energy is transformed into randomized microscopic motion. The Vlasov-Uehling-Uhlenbeck theory is supplemented with a phase space coalescence model of fragment formation. Calculated proton spectra compare well with recent data for Ar(42, 92, and 137 MeV/nucleon) + Ca. Also the total yields of medium mass fragments are well reproduced in the present approach. The mean field dynamics without two-body collisions, on the other hand, exhibits forward peaked proton distributions, in contrast to the data. The cascade approach underpredicts the yields of low energy protons by more than an order of magnitude.
The way we perceive the visual world depends crucially on the state of the observer. In the present study we show that what we are holding in working memory (WM) can bias the way we perceive ambiguous structure from motion stimuli. Holding in memory the percept of an unambiguously rotating sphere influenced the perceived direction of motion of an ambiguously rotating sphere presented shortly thereafter. In particular, we found a systematic difference between congruent dominance periods where the perceived direction of the ambiguous stimulus corresponded to the direction of the unambiguous one and incongruent dominance periods. Congruent dominance periods were more frequent when participants memorized the speed of the unambiguous sphere for delayed discrimination than when they performed an immediate judgment on a change in its speed. The analysis of dominance time-course showed that a sustained tendency to perceive the same direction of motion as the prior stimulus emerged only in the WM condition, whereas in the attention condition perceptual dominance dropped to chance levels at the end of the trial. The results are explained in terms of a direct involvement of early visual areas in the active representation of visual motion in WM.
Proton spectra have been calculated for the reaction 12C(85 MeV/nucleon) + 197Au using a three-dimensional hydrodynamical model with viscosity and thermal conductivity and final thermal breakup. The theoretical results are compared to recent data. It is shown that the predicted flow effects are not observable as a result of the impact parameter averaging inherent in the inclusive proton spectra. In contrast, angular distributions of medium mass nuclei (A>3) in nearly central collisions can provide signatures for flow effects.
We investigate viscous effects on the dynamical evolution of QCD matter during the first-order phase transition, which may happen in heavy-ion collisions. We first obtain the first-order phase transition line in the QCD phase diagram under the Gibbs condition by using the MIT bag model and the hadron resonance gas model for the equation of state of partons and hadrons. The viscous pressure, which corresponds to the friction in the energy balance, is then derived from the energy and net baryon number conservation during the phase transition. We find that the viscous pressure relates to the thermodynamic change of the two-phase state and thus affects the timescale of the phase transition. Numerical results are presented for demonstrations.
Viscous hydrodynamic calculations of high energy heavy-ion collisions (Nb-Nb and Au-Au) from 200 to 800 MeV/nucleon are presented. The resulting baryon rapidity distributions, the in-plane transverse momentum transfer (bounce-off), and the azimuthal dependence of the midrapidity particles (off-plane squeeze out) compare well with Plastic Ball data. We find that the considered observables are sensitive both to the nuclear equation of state and to the nuclear shear viscosity η. Transverse momentum distributions indicate a high shear viscosity (η≊60 MeV/fm2 c) in the compression zone, in agreement with nuclear matter estimates. The bulk viscosity ζ influences only the entropy production during the expansion stage; collective observables like flow and dN/dY do not depend strongly on ζ. The recently observed off-plane (φ=90°) squeeze-out, which is found in the triple-differential rapidity distribution, exhibits the strongest sensitivity to the nuclear equation of state. It is demonstrated that for very central collisions, b=1 fm, the squeeze-out is visible even in the double-differential cross section. This is experimentally accessible by studying azimuthally symmetric events, as confirmed recently by data of the European 4π detector collaboration at Gesellchaft für Schwerionforschung Darmstadt.
Virtual photon polarization and dilepton anisotropy in relativistic nucleus–nucleus collisions
(2018)
The polarization of virtual photons produced in relativistic nucleus–nucleus collisions provides information on the conditions in the emitting medium. In a hydrodynamic framework, the resulting angular anisotropy of the dilepton final state depends on the flow as well as on the transverse momentum and invariant mass of the photon. We illustrate these effects in dilepton production from quark–antiquark annihilation in the QGP phase and π+π− annihilation in the hadronic phase for a static medium in global equilibrium and for a longitudinally expanding system.
Vibrational energy transfer (VET) is emerging as key mechanism for protein functions, possibly playing an important role for energy dissipation, allosteric regulation, and enzyme catalysis. A deep understanding of VET is required to elucidate its role in such processes. Ultrafast VIS-pump/IR-probe spectroscopy can detect pathways of VET in proteins. However, the requirement of having a VET donor and a VET sensor installed simultaneously limits the possible target proteins and sites; to increase their number we compare six IR labels regarding their utility as VET sensors. We compare these labels in terms of their FTIR, and VET signature in VET donor-sensor dipeptides in different solvents. Furthermore, we incorporated four of these labels in PDZ3 to assess their capabilities in more complex systems. Our results show that different IR labels can be used interchangeably, allowing for free choice of the right label depending on the system under investigation and the methods available.
Im Rahmen des FAIR Projekts sollen in den Ringbeschleunigern SIS18 und SIS100 Ionenstrahlen mit höchster Intensität beschleunigt werden. Um die Raumladungsgrenze zu erhöhen, werden dazu Ionen mit mittleren Ladungszuständen verwendet. Diese haben aber größere Wirkungsquerschnitte für Umladung in Wechselwirkungen mit im Strahlvakuum vorhandenen Restgasteilchen als hochgeladene Ionen. Kommt es zu Strahlverlusten, lösen die verlorenen Ionen am Auftreffort weitere Restgasteilchen von den Wänden des Strahlrohrs und erhöhen so lokal die Restgasdichte. Die Qualität des Vakuums ist deshalb für einen stabilen Strahlbetrieb essentiell.
Im SIS100 kommen kryogene Vakuumkammern zum Einsatz, deren Wände als Kryosorptionspumpen für Wasserstoff und Helium dienen und alle schwereren Restgaskomponenten durch Kryokondensation binden können. Um die Vorhersagegenauigkeit des abteilungsinternen Programms „StrahlSim“ zur Simulation des dynamischen Vakuums zu verbessern, wurden im Rahmen dieser Arbeit das Saugvermögen und die Pumpkapazität für Wasserstoff auf einer Edelstahloberfläche untersucht.
Dazu wurde ein UHV Teststand entwickelt und aufgebaut. Dieser besteht aus einem warmen Diagnoseteil, mit dem der Gasfluss in und aus dem kalten Teil überwacht werden kann. Im kalten Teil befindet sich eine kleine Kammer mit Edelstahlwänden, für die verschiedene Temperaturen zwischen 7 und 31 K eingestellt werden können. Diese Kammer repräsentiert ein kleines Stück kryogenes Strahlrohr. Bei verschiedenen Temperaturen und Oberflächenbelegungen wurden dort jeweils das Saugvermögen und der sich einstellende Gleichgewichtsdruck im Bereich von 4E-11 bis 2E-7 mbar gemessen. Die Gleichgewichtsdrücke bei einer bestimmten Temperatur bei wachsender Oberflächenbelegung werden als Adsorptionsisotherme bezeichnet. Sie ergeben sich aus dem Gleichgewicht von thermisch desorbierenden Teilchen und deren Readsorption. Die kalte Kammer wird umgeben von einem Kryostaten, bestehend aus thermischem Schild und Außentank. Für diesen wurde die thermische Auslegung durchgeführt, die Konstruktion erfolgte extern.
Aus dem gemessenen Saugvermögen konnte die Haftwahrscheinlichkeit berechnet werden. Sie stellte sich als im Rahmen der Messgenauigkeit als unabhängig von Belegung und Temperatur heraus. Ihr Wert liegt nahe 1 mit einer Unsicherheit bis 0,1. Da sämtliche Oberflächen in den kryogenen Bereichen als Pumpen wirken, ist dieser Wert mehr als ausreichend um die für den stabilen Strahlbetrieb nötigen Vakuumbedingungen zu erreichen und stabil zu halten.
Die Isothermen hingegen sind stark von der Temperatur abhängig. Über 18 K liegen die Gleichgewichtsdrücke bereits bei minimalen Oberflächenbelegungen in für den Strahlbetrieb nicht tolerierbaren Bereichen. Mit sinkender Temperatur können die Oberflächen immer mehr Gas aufnehmen. Doch auch bei den tiefsten vermessenen Temperaturen zwischen 7 und 8 K ist ein stabiler Strahlbetrieb nur bei Belegungen von deutlich unter einer halben Monolage, etwa 5E14 Wasserstoffmoleküle pro cm², möglich.
Diese Ergebnisse wurden in StrahlSim implementiert. Zunächst wurde der Code für die Simulation von teilweise kryogenen Beschleunigern angepasst. Die wichtigste Änderung war die Einführung von thermischer Transpiration. Sie bewirkt, dass die Restgasteilchendichte an Kalt-Warm-Übergängen auf der kalten Seite erhöht ist. Mit dieser Änderung und den implementierten Ergebnissen aus den Messungen wurden Simulationen für das SIS100 durchgeführt. Mit den Isothermen konnten die bei verschiedenen Temperaturen und Bedeckungen zu erwartenden Durchschnittsdichten berechnet werden, die wiederum bestimmend für die Strahlverluste sind. Des Weiteren wurde ein mehrwöchiger Dauerbetrieb simuliert. Es zeigt sich zunächst eine Verschlechterung der Vakuumbedingungen auf Grund der langsamen Sättigung der Oberflächen. Diese verlangsamt sich aber immer mehr und stabilisiert sich bevor zu hohe Restgasdichten auftreten. Im schlechtesten Fall sind die kryogenen Oberflächen so weit gesättigt, dass sie genauso viele Gasteilchen thermisch desorbieren wie sie adsorbieren, sie also praktisch passiv sind. Auch dann wäre die Gleichgewichtsdichte im Beschleuniger noch tief genug, um Verluste durch Umladung hinreichend niedrig zu halten.
Als problematisch könnten sich hingegen dynamische Temperaturerhöhungen der Kammerwände erweisen. In diesem Fall stellt sich praktisch verzögerungsfrei der durch die neue Isotherme definierte Gleichgewichtsdruck ein, der auch bei wenigen Kelvin Temperaturunterschied bereits um mehrere Größenordnungen höher liegen kann. Sind Temperaturerhöhungen während des Betriebs zu erwarten, sollten die Oberflächen so frei wie möglich von Wasserstoff gehalten werden. Dazu kann man sich eben diesen Effekt zunutze machen: Durch temporäres Anwärmen der Oberflächen unmittelbar vor dem Strahlbetrieb können die Oberflächen schnell von Wasserstoff befreit werden, der dann von lokalisierten Pumpen aus dem System entfernt werden kann.
In dieser Arbeit wurde der langsame Neutroneneinfang (s-Prozess) mit dem Nukleosynthese-Programm NETZ simuliert. Ziel solcher Programme ist es, die solare Häufigkeitsverteilung zu reproduzieren.
Der s-Prozess dient der Synthese von Elementen schwerer als Eisen und ereignet sich in astrophysikalischen Szenarien mit relativ geringen Neutronendichten. Dadurch sind die Neutroneneinfangzeiten meist größer als die Betazerfallszeiten und der Prozesspfad folgt dem Stabilitätstal in der Nuklidkarte. Aus diesem Grund sind die Reaktionsraten gut messbar und es steht ein umfangreiches Daten-Netzwerk zur Verfügung, welches in die Simulationen einfließen kann.
Man unterschiedet zwischen der schwachen- und der Hauptkomponente des s-Prozesses. Die schwache Komponente findet in massereichen Sternen (M > 8M⊙) beim Helium-Kernbrennen und Kohlenstoff-Schalenbrennen statt. Bei Temperaturen über 2.5 × 108 K wird die Reaktion 22Ne(α ,n)25Mg aktiviert, welche Neutronen liefert, die von der Eisensaat eingefangen werden. Bei einer mittleren Neutronendichte von 106/cm3 reicht die Neutronenbestrahlung jedoch nicht aus, um den Synthesefluss über die abgeschlossene Neutronenschale bei N = 50 hinweg zu treiben. Folglich werden nur Isotope zwischen Eisen und Yttrium (56 < A < 90) aufgebaut.
Schwerere Isotope (90 ≤ A ≤ 208) werden dagegen in der Hauptkomponente synthetisiert. Diese findet in thermisch pulsierenden AGB-Sternen statt, in denen während des Helium-Schalenbrennens Neutronen hauptsächlich über die Reaktion 13C(α ,n)16O zur Verfügung gestellt werden.
Am Ende der jeweiligen Brennphasen gibt es einen Anstieg von Temperatur und Neutronendichte, welche jedoch nicht die globale Häufigkeitsverteilung, wohl aber Verzweigungspunkte beeinflussen können. An diesen Punkten liegen die Neutroneneinfang- und Betazerfallszeiten in der gleichen Größenordnung, sodass der s-Prozesspfad aufspaltet.
Hinzu kommt, dass unter stellaren Bedingungen die Reaktionsraten starken Änderungen unterworfen sein können. Bei hohen Temperaturen und Dichten befinden sich die Kerne in angeregten Zuständen, die wie auch der Grundzustand Neutronen einfangen oder radioaktiv zerfallen können, jedoch bei veränderten Raten. Dieser Sachverhalt kann einen Einfluss auf die Häufigkeitsverteilung haben.
Das umfangreiche Reaktionsnetzwerk des s-Prozesses kann schnell und mit guter Genauigkeit mit dem Programm NETZ berechnet werden. Dabei muss dem Programm ein Neutronenpuls - der zeitliche Verlauf von Neutronendichte und Temperatur - vorgegeben werden. Ziel dieser Arbeit war es, einen geeigneten solchen Puls zu finden, um die bisherigen Ergebnisse von NETZ zu optimieren. Außerdem wurde eine Aktualisierung der Reaktionsraten und solaren Häufigkeitsverteilung durchgeführt.
Die neuen Neutronenpulse für die schwache- und Hauptkomponente liefern eine Verbesserung in der Übereinstimmung von berechneter und solarer Häufigkeit. Dabei konnte für die Hauptkomponente sowohl ein Profil mit einem rechteckigen als auch mit einem exponentiellen Verlauf der Neutronendichte gefunden werden.
Darüber hinaus bietet NETZ die Möglichkeit, den Einfluss veränderter Reaktionsraten auf die Häufigkeitsverteilung abzuschätzen. Dazu steht inzwischen auch ein Online-Interface zur Verfügung. Dies ist besonders interessant, wenn es neue Messungen z.B. für Neutroneneinfangreaktionen gibt und man die Relevanz für den s-Prozess bestimmen möchte. So konnte in dieser Arbeit die Bedeutung der kürzlich neu gemessenen Raten für 63,65Cu(n,γ) und 69,71Ga(n,γ) beurteilt werden.
With the increasing energies and intensities of heavy-ion accelerator facilities, the problem of an excessive activation of the accelerator components caused by beam losses becomes more and more important. Numerical experiments using Monte Carlo transport codes are performed in order to assess the levels of activation. The heavy-ion versions of the codes were released approximately a decade ago, therefore the verification is needed to be sure that they give reasonable results. Present work is focused on obtaining the experimental data on activation of the targets by heavy-ion beams. Several experiments were performed at GSI Helmholtzzentrum für Schwerionenforschung. The interaction of nitrogen, argon and uranium beams with aluminum targets, as well as interaction of nitrogen and argon beams with copper targets was studied. After the irradiation of the targets by different ion beams from the SIS18 synchrotron at GSI, the γ-spectroscopy analysis was done: the γ-spectra of the residual activity were measured, the radioactive nuclides were identified, their amount and depth distribution were detected. The obtained experimental results were compared with the results of the Monte Carlo simulations using FLUKA, MARS and SHIELD. The discrepancies and agreements between experiment and simulations are pointed out. The origin of discrepancies is discussed. Obtained results allow for a better verification of the Monte Carlo transport codes, and also provide information for their further development. The necessity of the activation studies for accelerator applications is discussed. The limits of applicability of the heavy-ion beam-loss criteria were studied using the FLUKA code. FLUKA-simulations were done to determine the most preferable from the radiation protection point of view materials for use in accelerator components.
In dieser Arbeit wurde gezeigt, ob Simulation und Messung der realen Struktur übereinstimmen. Dazu wurde mit Hilfe der Störkörpermessmethode über die Phasenverschiebung die elektrische Feldverteilung einer IH-Struktur bestimmt (unter Variation der Tunerhöhe). Die Feldverteilung von Simulation und Messung sind im Kurvenverlauf gleich, allerdings ist die Stärke der Simulationsfelder um einen Faktor 1,1 – 1,2 größer...
Das CBM-Experiment konzentriert sich auf die Untersuchung der Eigenschaften des Quark-Gluon-Plasmas bei hohen Netto-Baryonendichten und moderaten Temperaturen. An der zukünftigen Beschleunigeranlage FAIR an der GSI findet das Experiment, neben vielen anderen Experimenten, ihren Platz. Der TRD ist, neben dem RICH, STS und TOF, einer der zentralen Detektoren im CBM-Experiment. Der TRD nutzt dabei den physikalischen Effekt der Übergangsstrahlung, die durch ein geladenes Teilchen beim Durchqueren einer Grenze zweier Medien mit unterschiedlichen Dielektrizitätskonstanten mit einer gewissen Wahrscheinlichkeit entsteht, um Elektronen von Pionen trennen zu können. Im Jahr 2017 wurde an der DESY 4 TRD-Prototypen in einer Teststrahlzeit getestet. Dabei handelt es sich um große TRD-Module mit den Maßen 95 · 95 cm2 , was dem finalen Design sehr nahe kommt. Die Untersuchung der DESY-Daten in Kapitel 5 brachte große Problematiken in den Daten zum Vorschein. Die Hauptprobleme der DESY-Daten sind: 1) Bug des SPADIC-Chips 2.0, bei der FN-Trigger zeitlich verschoben wurden; 2) schwache und suboptimale Trigger-Bedingung, wodurch sehr viel Rauschen aufgenommen wurde. Die Daten müssen für weitere Auswertung aufbereitet werden, wobei sehr viel Information und Statistik verloren geht, da einige Daten durch diverse Probleme nicht mehr rekonstruierbar sind. Kapitel 6 beschäftigt sich mit der Simulation der Detektorantwort und geht genauer auf die einzelnen Schritte, die zur Simulation des vom SPADIC erzeugten Pulses benötigt werden, ein. Am Ende werden Ergebnisse aus beiden Datensätzen miteinander verglichen. Um einen optimalen Vergleich zu gewähren, wird die Simulation bestmöglich an die Einstellungen in der Teststrahlzeit angepasst. Hauptsächlich geht es um die Erhöhung des Gasgains und der Verschiebung der Peaking-Zeit des Pulses. Im Allgemeinen können wir in der Simulation einige Effekte, die auch in den DESY-Daten vorkommen, nachsimulieren. Wir erhalten zum Teil sehr unterschiedliche Ergebnisse in der Simulation, deren Richtigkeit nicht verifiziert werden kann, da die Daten aufgrund der Probleme unzuverlässig werden. Durch die Analyse der DESY-Daten konnten wir die Problematik in den Daten besser verstehen. Eine sinnvolle Anpassung der Simulation wird durch die Unzuverlässigkeit der DESY-Daten unmöglich. Für die Optimierung der Simulation müsste man einen Vergleich mit neueren, zuverlässigeren Daten aus zukünftigen Teststrahlzeiten nehmen.
In high-energy nuclear collisions, heavy quark potential at finite temperature controls the quarkonium suppression. Including the relaxation of the medium induced by the relative velocity between quarkonia and the deconfined expanding matter, the Debye screening is reduced and the quarkonium dissociation takes place at a higher temperature. As a consequence of the velocity-dependent dissociation temperature, the quarkonium suppression at high transverse momentum is significantly weakened in high-energy nuclear collisions at RHIC and LHC.
Dilepton production in heavy-ion collisions at top SPS energy is investigated within a coarse-graining approach that combines an underlying microscopic evolution of the nuclear reaction with the application of medium-modified spectral functions. Extracting local energy and baryon density for a grid of small space-time cells and going to each cell’s rest frame enables to determine local temperature and chemical potential by application of an equation of state. This allows for the calculation of thermal dilepton emission. We apply and compare two different spectral functions for the ρ: A hadronic many-body calculation and an approach that uses empirical scattering amplitudes. Quantitatively good agreement of the model calculations with the data from the NA60 collaboration is achieved for both spectral functions, but in detail the hadronic many-body approach leads to a better description, especially of the broadening around the pole mass of the ρ and for the low-mass excess. We further show that the presence of a pion chemical potential significantly influences the dilepton yield.
As a first step towards a realistic phenomenological description of vector and axial-vector mesons in nuclear matter, we calculate the spectral functions of the ρ and the a1 meson in a chiral baryon-meson model as a low-energy effective realization of QCD, taking into account the effects of fluctuations from scalar mesons, nucleons, and vector mesons within the functional renormalization group (FRG) approach. The phase diagram of the effective hadronic theory exhibits a nuclear liquid-gas phase transition as well as a chiral phase transition at a higher baryon-chemical potential. The in-medium ρ and a1 spectral functions are calculated by using the previously introduced analytically-continued FRG (aFRG) method. Our results show strong modifications of the spectral functions—in particular near the critical endpoints of both phase transitions—which may well be of relevance for electromagnetic rates in heavy-ion collisions or neutrino emissivities in neutron-star merger events.
We present a method that enables the identification and analysis of conformational Markovian transition states from atomistic or coarse-grained molecular dynamics (MD) trajectories. Our algorithm is presented by using both analytical models and examples from MD simulations of the benchmark system helix-forming peptide Ala5, and of larger, biomedically important systems: the 15-lipoxygenase-2 enzyme (15-LOX-2), the epidermal growth factor receptor (EGFR) protein, and the Mga2 fungal transcription factor. The analysis of 15-LOX-2 uses data generated exclusively from biased umbrella sampling simulations carried out at the hybrid ab initio density functional theory (DFT) quantum mechanics/molecular mechanics (QM/MM) level of theory. In all cases, our method automatically identifies the corresponding transition states and metastable conformations in a variationally optimal way, with the input of a set of relevant coordinates, by accurately reproducing the intrinsic slowest relaxation rate of each system. Our approach offers a general yet easy-to-implement analysis method that provides unique insight into the molecular mechanism and the rare but crucial (i.e., rate-limiting) transition states occurring along conformational transition paths in complex dynamical systems such as molecular trajectories.
With the use of the cranking formula, the coordinate-dependent mass parameters of the kinetic-energy operator in fission processes and heavy-ion collisions are calculated in the two-center oscillator model. It is shown that the reduced mass and also the classical moment of inertia are obtained for large separations of the fragments. For small separations, however, the mass parameter for the motion of the centers of mass of the fragments is larger than the reduced mass by an order of magnitude.
Vanadium and Manganese Carbonyls as Precursors in Electron-Induced and Thermal Deposition Processes
(2022)
The material composition and electrical properties of nanostructures obtained from focused electron beam-induced deposition (FEBID) using manganese and vanadium carbonyl precursors have been investigated. The composition of the FEBID deposits has been compared with thin films derived by the thermal decomposition of the same precursors in chemical vapor deposition (CVD). FEBID of V(CO)6 gives access to a material with a V/C ratio of 0.63–0.86, while in CVD a lower carbon content with V/C ratios of 1.1–1.3 is obtained. Microstructural characterization reveals for V-based materials derived from both deposition techniques crystallites of a cubic phase that can be associated with VC1−xOx. In addition, the electrical transport measurements of direct-write VC1−xOx show moderate resistivity values of 0.8–1.2 × 103 µΩ·cm, a negligible influence of contact resistances and signatures of a granular metal in the temperature-dependent conductivity. Mn-based deposits obtained from Mn2(CO)10 contain ~40 at% Mn for FEBID and a slightly higher metal percentage for CVD. Exclusively insulating material has been observed in FEBID deposits as deduced from electrical conductivity measurements. In addition, strong tendencies for postgrowth oxidation have to be considered.
The quantum van der Waals (QvdW) extension of the ideal hadron resonance gas (HRG) model which includes the attractive and repulsive interactions between baryons – the QvdW-HRG model – is applied to study the behavior of the baryon number related susceptibilities in the crossover temperature region. Inclusion of the QvdW interactions leads to a qualitatively different behavior of susceptibilities, in many cases resembling lattice QCD simulations. It is shown that for some observables, in particular for χBQ11/χB2, effects of the QvdW interactions essentially cancel out. It is found that the inclusion of the finite resonance widths leads to an improved description of χB2, but it also leads to a worse description of χBQ11/χB2, as compared to the lattice data. On the other hand, inclusion of the extra, unconfirmed baryons into the hadron list leads to a simultaneous improvement in the description of both observables.
Conventional cluster and virial expansions are generalized to momentum dependent interparticle potentials. The model with Lorentz contracted hard core potentials is considered, e.g. as hadron gas model. A Van der Waals-type model with a temperature dependent excluded volume is derived. Lorentz contraction effects at given temperature are stronger for light particles and make their effective excluded volume smaller than that of heavy ones.
We present results of hard X-ray angle-resolved photoemission spectroscopy and photoemission diffraction measurements performed on high-quality single crystals of the valence transition compound EuPd2Si2 for temperatures 25~K ≤ T ≤ 300~K. At low temperatures we observe a Eu 4f valence v=2.5, % occupation number n=6.5, which decreases to v=2.1 for temperatures above the valence transition around TV≈160~K. The experimental valence numbers resulting from an evaluation of the Eu(III)/Eu(II) 3d core levels, are used for calculating band structures using density functional theory. The valence transition significantly changes the band structure as determined by angle-resolved photoemission spectroscopy. In particular, the Eu 5d valence bands are shifted to lower binding energies with increasing Eu 4f occupancy. To a lesser extent, bands derived from the Si 3p and Pd 4d orbitals are also affected. This observation suggests a partial charge transfer between Eu and Pd/Si sites. Comparison with {\it ab-initio} theory shows a good agreement with experiment, in particular concerning the unequal band shift with increasing Eu 4f occupancy.
A calculation of the vacuum-polarization contribution to the hyperfine splitting for hydrogenlike atoms is presented. The extended nuclear charge distribution is taken into account. For the experimentally interesting case 209Bi82+ we predict a delta-lambda- -1.6 nm shift for the transition wavelength of the ground-state hyperfine splitting.
UrQMD at RHIC energies
(1999)
Results are presented from a search for the decays D0 -> K min pi plus and D0 bar -> K plus pi min in a sample of 3.8x10^6 central Pb-Pb events collected with a beam energy of 158A GeV by NA49 at the CERN SPS. No signal is observed. An upper limit on D0 production is derived and compared to predictions from several models.
HADES is a fixed target experiment using SIS18 heavy-ion beams. It investigates the microscopic properties of matter formed in heavy-ion, proton and pion - induced reactions in the 1-3.5 GeV/u energy regime. In 2014 HADES used a secondary pion beam produced by interaction between high-intensity nitrogen primary beam and a beryllium target. In these conditions beam losses, generated by slow extraction and beam transport to the experimental area, led to activation of the beam line elements and triggered radiation alarms. The primary beam intensity had to be reduced and the beam optics modified in order to keep radiation levels within the allowed limits. Similar beam conditions are requested by HADES experiment for upcoming run in 2018 and in the following years. Therefore, a number of measures have been proposed to improve beam transmission and quality. These measures are: additional shielding, additional beam instrumentation, modification of beam optics and increase of vacuum chambers' apertures in critical locations. The optics study and preliminary results of FLUKA simulations for optimization of location of loss detectors are presented.
We report on the status of ongoing investigations aiming at locating the deconfinement critical point with standard Wilson fermions and Nf = 2 flavors towards the continuum limit (standard Columbia plot); locating the tricritical masses at imaginary chemical potential with unimproved staggered fermions at Nf = 2 (extended Columbia plot); identifying the order of the chiral phase transition at μ = 0 for Nf = 2 via extrapolation from non integer Nf (alternative Columbia plot).
The proton drip-line nucleus 17Ne is investigated experimentally in order to determine its two-proton halo character. A fully exclusive measurement of the 17Ne(p, 2p)16F∗ →15O+p quasi-free one-proton knockout reaction has been performed at GSI at around 500 MeV/nucleon beam energy. All particles resulting from the scattering process have been detected. The relevant reconstructed quantities are the angles of the two protons scattered in quasi-elastic kinematics, the decay of 16F into 15O (including γ decays from excited states) and a proton, as well as the 15O+p relative-energy spectrum and the 16F momentum distributions. The latter two quantities allow an independent and consistent determination of the fractions of l = 0 and l = 2 motion of the valence protons in 17Ne. With a resulting relatively small l = 0 component of only around 35(3)%, it is concluded that 17Ne exhibits a rather modest halo character only. The quantitative agreement of the two values deduced from the energy spectrum and the momentum distributions supports the theoretical treatment of the calculation of momentum distributions after quasi-free knockout reactions at high energies by taking into account distortions based on the Glauber theory. Moreover, the experimental data allow the separation of valence-proton knockout and knockout from the 15O core. The latter process contributes with 11.8(3.1) mb around 40% to the total proton-knockout cross section of 30.3(2.3) mb, which explains previously reported contradicting conclusions derived from inclusive cross sections.
One of the key challenges for nuclear physics today is to understand from first principles the effective interaction between hadrons with different quark content. First successes have been achieved using techniques that solve the dynamics of quarks and gluons on discrete space-time lattices. Experimentally, the dynamics of the strong interaction have been studied by scattering hadrons off each other. Such scattering experiments are difficult or impossible for unstable hadrons and so high-quality measurements exist only for hadrons containing up and down quarks. Here we demonstrate that measuring correlations in the momentum space between hadron pairs produced in ultrarelativistic proton-proton collisions at the CERN Large Hadron Collider (LHC) provides a precise method with which to obtain the missing information on the interaction dynamics between any pair of unstable hadrons. Specifically, we discuss the case of the interaction of baryons containing strange quarks (hyperons). We demonstrate how, using precision measurements of p-omega baryon correlations, the effect of the strong interaction for this hadron-hadron pair can be studied with precision similar to, and compared with, predictions from lattice calculations. The large number of hyperons identified in proton-proton collisions at the LHC, together with an accurate modelling of the small (approximately one femtometre) inter-particle distance and exact predictions for the correlation functions, enables a detailed determination of the short-range part of the nucleon-hyperon interaction.
One of the key challenges for nuclear physics today is to understand from first principles the effective interaction between hadrons with different quark content. First successes have been achieved using techniques that solve the dynamics of quarks and gluons on discrete space-time lattices1,2. Experimentally, the dynamics of the strong interaction have been studied by scattering hadrons off each other. Such scattering experiments are difficult or impossible for unstable hadrons3,4,5,6 and so high-quality measurements exist only for hadrons containing up and down quarks7. Here we demonstrate that measuring correlations in the momentum space between hadron pairs8,9,10,11,12 produced in ultrarelativistic proton–proton collisions at the CERN Large Hadron Collider (LHC) provides a precise method with which to obtain the missing information on the interaction dynamics between any pair of unstable hadrons. Specifically, we discuss the case of the interaction of baryons containing strange quarks (hyperons). We demonstrate how, using precision measurements of proton–omega baryon correlations, the effect of the strong interaction for this hadron–hadron pair can be studied with precision similar to, and compared with, predictions from lattice calculations13,14. The large number of hyperons identified in proton–proton collisions at the LHC, together with accurate modelling15 of the small (approximately one femtometre) inter-particle distance and exact predictions for the correlation functions, enables a detailed determination of the short-range part of the nucleon-hyperon interaction.
Properties of dense quark matter in and out of chemical equilibrium are studied within the SU(3) Nambu Jona-Lasinio model. In addition to the 4 fermion scalar and vector terms the model includes also the 6 fermion flavour mixing interaction. First we study a novel form of deconfined matter, meso-matter, which is composed of equal number of quarks and antiquarks. It can be thought of as a strongly compressed meson gas where mesons are melted into their elementary constituents, quarks and antiquarks. Strongly bound states in this quark antiquark matter are predicted for all flavour combinations of qq pairs. The maximum binding energy reaches up to 180 MeV per qq pair for mixtures with about 70% of strange (s¯s) pairs. Equilibrated baryon rich quark matter with various flavour compositions is also studied. In this case only shallow bound states appear in systems with a significant admixture(about 40%) of strange quarks (strangelets). Their binding energies are quite sensitive to the relative strengths of scalar and vector interactions. The common property of all these bound states is that they appear at high particle densities when the chiral symmetry is nearly restored. Thermal properties of meso-matter as well as chemically equilibrated strange quark matter are also investigated. Possible decay modes of these bound states are discussed.
Untersuchungen zur zerstörungsfreien Emittanzmessung an einem negativen Wasserstoffionenstrahl
(2007)
Die Arbeit beschäftigte sich sowohl theoretisch wie auch praktisch mit einem neuartigen Konzept zur Strahldiagnose — der zerstörungsfreien Emittanzmessung für negative Ionenstrahlen. Bei H¯ Strahlen kann auf mechanische Bauteile verzichtet werden, wenn bei einem kleinen Teil der H¯ Ionen das zusätzliche, nur mit 0,754 eV schwach gebundene Elektron durch Photodetachment abgelöst wird. Die neutralisierten H¯ Ionen können magnetisch oder elektrostatisch von den Elektronen und den verbliebenen H¯ Ionen separiert werden. Insbesonders die Neutralteilchen bieten sich zur Bestimmung der Phasenraumverteilung des Ionenstrahls an, da der Impulsübertrag bei der Photoneutralisation für die vorliegende Anwendung vernachlässigbar ist. Die Detektion des Divergenzwinkels kann durch einen Szintillator mit einer CCD–Kamera erfasst werden. Ein Modell zur Berechnung der Anzahl der neutralisierten Teilchen ist unter der Annahme homogener Dichteverteilungen entwickelt worden, um Aussagen zu den Anforderungen an Lasersystem und Detektor zu machen. Dabei zeigt sich die besondere Eignung des Meßverfahrens für Strahlstöme und Strahlparameter, wie sie typischerweise nach einem RFQ vorliegen. Da im Gegensatz zur Schlitz–Schlitz Emittanzmessung wird hier die Winkeldetektion mit einem ortsauflösenden Szintillator durchgeführt. Daraus ergibt sich als neues Verfahren eine Schlitz–Punkt Abbildung. Im Vergleich zum Schlitz–Schlitz Messprinzip können damit mehr Informationen über die Phasenraumverteilung gewonnen werden. Um diese neue Abbildungsfunktion zu untersuchen, ist eine Methode zur Simulation der Winkeldetektion entwickelt worden. In den Simulationen ist angenommen worden, daß der Schlitz bzw. Laser analog zur Messung einer yy´ Emittanz entlang der y–Achse durch den Ionenstrahl gefahren wird, die ausgeschnittene Teilchenverteilung ist bis zum Ort des Szintillators transportiert worden. Dabei sind etliche Zusammenhänge der Abbildungsfunktion zwischen den 2dim Phasenraumprojektionen yy´ , xx´ und der Verteilung der neutralisierten Ionen auf dem Teilchendetektor aufgezeigt worden. Dabei läßt sich nachweisen, daß die Aberrationen aus der anderen transversalen Ebene (x–Ebene) die Verteilungsfunktion mit beeinflusst. Für die experimentellen Untersuchung der Photodetachment Strahldiagnose wurde eine Beamline aus Ionenquelle mit Dumpingsystem, differentiellem Pumptank und Linsensystem aufgebaut. Dabei wurde bei einer vorhandenen H¯ Quelle der Strom von anfänglich 70 mycroA auf 2,5 mA gesteigert. Das Dumpingsystem erwies sich als sehr effektiv und lenkte bis zur Nachweisgrenze alle zusätzlich extrahierten Elektronen aus dem Strahl aus. Die Komponenten und der gesamte Aufbau zur Photodetachment Strahldiagnose schließen den Dipol bzw. die Konstruktion der Vakuumkammer zur Ladungsseparation, die Auswahl eines geeigneten Szintillators und die Bestimmung der Laserstrahlparameter und dessen Strahlwegs mit ein. Bei den Experimenten zur Photoneutralisation konnte eindeutig das Meßsignal dem Photodetachment zugeordnet werden. Auch die Linearität des Szintillators konnte eindeutig gezeigt werden. Ebenfalls konnte die Beeinflussung der Einzellinsen auf den Ionenstrahl an Hand neutralisierter Teilchen gezeigt werden: Bei Vergrößerung der Brechkraft wurde der zunächst große Strahldruchmesser mit einem Intensitätsmaximum im Strahlkern zu einer hohlstrahlähnlichen Verteilung mit einem Peak in der Strahlmitte und am Strahlrand fokussiert. Bei weiterer Steigerung der Linsenspannung ließ sich die Intensität im Strahlrand wieder reduzieren. Durch die Veränderung der y–Position wurden Winkelprofile mit den zuvor gemessenen Schlitz–Schlitz Emittanzfiguren verglichen. Dabei konnte der Divergenzwinkel und auch die Lage des Strahlkerns im Rahmen der Meßgenauigkeit sehr gut wiedergegeben werden. Andererseits zeigten sich deutliche Unterschiede bei der Auswertung der Intensitäten. Dies ist zum Teil auf die schlechte Wiedergabe eines Holhlstrahls durch eine zweidimensionale Phasenraumprojektion yy´ zu erklären. Außerdem ist der Ionenstrahl durch die kleine Bauhöhe der Magnetkammer kollimiert worden, was den Strahl im Vergleich zu den vorherigen Schlitz–Schlitz Emittanzmessungen nachhaltig beeinflusst hat. Dagegen wiesen im direkten Vergleich, nämlich der zweidimensionalen, „wahren“ Ortsverteilung des Ionenstrahls am Szintillator mit den aufaddierten Neutralteilchen–Verteilungen, beide Verteilungen sehr ähnliche Muster auf. Die Messungen sind fast ausnahmslos an stark aberrationsbehafteten Ionenstrahlen durchgeführt worden. Dabei konnte die in den Simulationen der Abbildungseigenschaften gefundenen geschlossenen, achtförmigen Verteilungen unter Berücksichtigung der begrenzten Nachweisempfindlichkeit des Detektors sehr gut nachvollzogen werden.
Es wurde für Protonen- und Deuteronenbeschleuniger unter Extrembedingungen (hoher Ionenstrom, Dauerstrichbetrieb, Niedrigenergieabschnitt) ein Vergleich zwischen der konventionellen RFQ-Alvarez-DTL-Kombination und einer erstmals am IAP für diese Zwecke entwickelten RFQ-H-DTL-kombination durchgeführt. Insbesondere die Auslegung der Teilchendynamik von HF-Driftröhrenlinearbeschleunigern und RFQ's für leichte Ionen unter Miteinbeziehung der Raumladung und der Forderung nach Dauerstrichbetrieb sind Thema der vorliegenden Arbeit. Die vorgestellten Beschleuniger müssen extrem hohen Anforderungen an Transmission (Stromverlustrate << 3 µ A/m nach dem RFQ), Stabilität (stetige Strahldynamik bei Strahlfehlanpassung und Berücksichtigung von mechanischen und optischen Toleranzen), Anlagensicherheit ("Hands-on-Kriterium") und -zuverlässigkeit (Anlagenverfügbarkeit > 80 %) bei hoher HF-Effizienz (optimierte Shuntimpedanzen, Laufzeitfaktoren und Oberflächenstromdichten) genügen. Es wurden exemplarisch im Rahmen von zwei aktuellen Hochstromprojekten mit Dauerstrichbetrieb teilchendynamische DTL-Entwürfe für den mittleren Energiebereich (0.1 = ß = 0.34) durchgeführt: einmal für das ADS/XADS Projekt (Hier: 40 mA, 350/700 MHz 24 MW, Protonen, CW) und als extremes Beispiel das IFMIF Projekt (125 mA, 175 MHz, 5 MW, Deuteronen, CW). Da IFMIF hinsichtlich Transmissionseffizienz und Strahlstrom in Verbindung mit einem 100 %-Tastverhältnis wohl einzigartig ist, mussten besonders intensive Anstrengungen für den Test der Robustheit des teilchendynamische Entwurfs der DTL-Strukturen unternommen werden. Hierzu wurde der gesamte Injektorpart vom Eingang des Referenz Four-Vane-RFQ bei 0.1 MeV bis zum Ausgang des DTL bei 40 MeV als ganzes simuliert, unter Einbeziehung von optischen, HF- und mechanischen Toleranzen. Diese Rechnungen machten deutlich, dass die Einbringung einer kompakten Strahltransportstrecke (MEBT) zwischen RFQ und DTL notwendig ist, um den Strahl transversal und longitudinal ohne Teilchenverluste an den nachfolgenden DTL anzupassen. Man gewinnt dadurch auch zusätzliche Möglichkeiten für Strahljustierung und -diagnose. Infolgedessen gehört ein MEBT mittlerweile zum Referenz-Design, welches einen 175 MHz Four-Vane-RFQ als Vorbeschleuniger vorsieht und nach dem MEBT einen 175 MHz Alvarez-DTL mit FoDo-Fokussierschema. Die Designkriterien für IFMIF gelten uneingeschränkt auch für das ADS/XADS Projekt und infolgedessen wurde ebenfalls erstmals eine Auslegung des Mittelenergieabschnitts des ADS/XADS-Beschleunigers, der unmittelbar nach dem 350 MHz RFQ bei 5 MeV anfängt und bis ~ 100 MeV reicht, mit der neuen supraleitende CH-Struktur unternommen. Der Hochenergiebereich von 100 MeV bis 600 MeV wird im Referenzentwurf mit den bereits bewährten supraleitenden elliptischen Kavitäten mit einer Resonanzfrequenz von 700 MHz abgedeckt [ADS]. Die umfangreichen Untersuchungen inklusive Toleranzabschätzungen ergaben, dass eine Kette von zehn supraleitenden CH-Resonatoren mit Zwischentankfokussierung (Ausnahme das Modul 1) für diese Anwendung bestens geeignet ist. Des weiteren ergab sich, dass ein Frequenzsprung auf 700 MHz nach dem 6-ten CH-Modul bei einer Energie von ~ 56 MeV die Beschleunigungs- und HF-Effizienz erhöht. Außerdem wird dadurch der Strahl ideal an den Hochenergieabschnitt angepasst. Im Rahmen dieser Arbeit wurden neue Driftröhrenlinearbeschleunigerstrukturen vorgestellt (normal leitender IH-DTL, supraleitender CH-DTL), die für bis zu 10 MW Strahlleistung, 125 mA Strahlstrom und höchsten Tastverhältnissen geeignet sind. Ferner konnte durch geschickte Wahl der Strukturparameter und Arbeitspunkte eine gute Teilchendynamik mit einem moderaten Emittanzwachstum erzielt werden: Strahltransport und -beschleunigung ohne Teilchenverluste, starke transversale und longitudinale Fokussierung, große Aperturfaktoren und höchste HF-Effizienz sind gleichzeitig erreichbar. Somit stellen die neuen H-Moden Driftföhrenbeschleuniger vor allen Dingen in der supraleitenden Ausführung (CH-DTL) eine tragfähige Basis für alle weiteren geplanten Hochintensitätsbeschleunigeranlagen dar.
Die Dissertation betrachtet zunächst die Anatomie der Lautentstehung und die Historie von Untersuchungen zu Sprechtraktakustik (u.a. Ibn Sina, Hook, Mical, Kratzenstein, Kempelen, Faber, Wheatstone, Helmholz, Riesz, Dunn, Chiba, Kajiyama, Kelly, Lochbaum, Saito, Itakura, Burg ) und geht insbesondere auf das Rohrmodell zu Beschreibung der Vokaltraktakustik ein.
Mittels Finiter-Differenzen wird die Aksutik der Sprechens dann dreidimensional beschrieben, und die zuätzlich auftretenden Effekte betrachtet. Fur die sich beim Sprechen schnell bewegende Mundhöhle wird ein Verfahren entwickelt und untersucht, mittels Sprachsignalen durch inverse Filterung und MRT-Aufnahmen die räumliche Konfiguration zu bestimmen. Für den Nasaltrakt wurden dreidimensional abbildende Verfahren aus der medizinischen Diagnostik verglichen (MRT und CT), und anhand eines Computer-Tomographischen Datensatzes die akustischen Vorgänge dreidimensional bestimmt.
A model for the quantum yield of the coloration caused by UV-light in spiropyran layers is described. This model allows to calculate the sensitivity of layers having different compositions. The mechanism concerning the stability of the coloration is essentially clarified. Calculations of the stability for layers of different compositions are possible by a model describing the mechanism approximately.
Gegenstand der Untersuchungen dieser Arbeit ist der Einfangprozess der radiativen Rekombination gewesen. Dabei ist zwischen dem Einfang in die inneren Schalen, K- und L- Schale, und dem Einfang in die äußeren Schalen unterschieden worden. Für die inneren Schalen ist neben dem Einfang in nacktes auch die Untersuchung des Einfangs in wasserstoffartiges Uran möglich gewesen. Es hat sich herausgestellt, dass die experimentellen Ergebnisse fur den Einfang in die inneren Schalen von U92+ gut mit den theoretischen Erwartungen übereinstimmen. Dagegen haben sich für den Einfang in U91+ leichte Abweichungen bei Einfang in die K- Schale gezeigt. Was diese Abweichung verursacht hat, konnte nicht geklärt werden. In Uran koppeln die Elektronen der innersten Schalen aufgrund der Größe der Kernladung über jj- Kopplung, weswegen die Wechselwirkung der Elektronen untereinander keine wesentliche Rolle spielen sollte. Dennoch scheint das bereits in der K- Schale vorhandene Elektron die Einfangwahrscheinlichkeit eines zweiten Elektrons zu vermindern. Das Verhältnis U92+/U91+ entspricht nicht dem erwarteten Wert von nahezu 2, sondern ist mit 2,28 etwas größer. Bisherige, jedoch bei hohen Energien durchgefuhrte, Experimente haben in guter Übereinstimmung mit den theoretischen Vorhersagen gestanden. Daraus lässt sich schließen, dass dieser Effekt erst bei sehr kleinen Stoßenergien auftritt, wie sie im Kuhler vorliegen. An dieser Stelle sei auch daran erinnert, dass der Stoß zwischen Elektron und Ion senkrecht erfolgt und somit der Detektor die emittierten Photonen unter 90 Grad beobachtet. Dies ist gerade der Winkel unter dem der Wirkungsquerschnitt maximal ist. Im Gegensatz dazu zeigen die Daten für die L- Schale in beiden Fällen im Bereich ihrer Fehlerbalken die gleichen Ergebnisse. Dies ist nicht verwunderlich, da aufgrund der hohen Kernladungszahl von Uran ein Elektron in der K- Schale keinen bedeutenden Abschirmeffekt für die L- Schale verursacht. Daher bleiben die Einfangszustände für den Einfang in die L- Schale im Gegensatz zum Einfang in die K- Schale bei U91+ nahezu identisch. Beim Vergleich der experimentellen Daten mit einer nichtrelativistischen und relativistischen Theorie ist sowohl für die Verhältnisse der K-RR Linie mit den beiden L-RR Linien als auch bei den L-RR Linien untereinander stets eine bessere Übereinstimmung mit der relativistischen Theorie gezeigt worden. Dabei sei daraufhingewiesen, dass die Werte dieser beiden Theorien deutlich voneinander abweichen. Wähhrend die nichtrelativistische Theorie für das Verhältnis K-RR/L-RRj=1=2 beispielsweise einen Wert von 2,12 voraussagt, ergibt die vollständig relativistische Theorie einen Wert von 1,41. Der experimentelle Wert von 1,23 +- 0,03 zeigt nun eine deutlich bessere Übereinstimmung mit der relativistischen Theorie. Daraus kann geschlossen werden, dass auch bei Stoßenergien nahe null für die tiefstliegenden Zustände relativistische Effekte vorhanden sind, die in den Rechnungen berücksichtigt werden müssen. Die Untersuchung des Einfangs in die äußeren Schalen hat dagegen weniger Übereinstimmende Ergebnisse gebracht. Zwar hat sich gezeigt, dass die Form der experimentellen Spektren durch verzögerte Lyman alpha Übergänge erklärt werden kann, allerdings ist die Intensität der niederenergetischen Ausläufer in der Simulationen nicht erreicht worden. Rechnungen mit verschiedenen Anfangszuständen haben gezeigt, dass durch die Hinzunahme von Zuständen mit höherer Hauptquantenzahl n die Zahl der verspäteten Ereignisse erhöht werden kann. Jedoch nicht in dem Maße, dass eine Wiedergabe der experimentellen Spektren möglich würde. Rechnungen mit unterschiedlichen Bedingungen haben gezeigt, dass auch Zustände mit kleinen Übergangswahrscheinlichkeiten Einfluß auf die zeitliche Entwicklung der Kaskaden haben. Dagegen wird die Kaskade durch Ausschluss von Zuständen mit einem Verzweigungsverhältnis kleiner als 1% kaum beeinflußtt. Weiterhin macht es keinen Unterschied ob die Wegstrecke mit Schrittweiten von 1x10 exp (-14) oder 1x10 exp (-11) gerechnet wird. Größere Zeitschritte führen zu Abweichungen. In einem weiteren Teil der Auswertung sind die l- Zustände untersucht worden, die zu den verspäteten Ereignissen beitragen. Dabei hat sich herausgestellt, dass die Zustände um l = n/3 den Hauptbeitrag zu den verspäteten Übergängen leisten. Bei den Yrastkaskaden lässt sich ein deutlicher Anstieg im Bereich von 30 ns beobachten, jedoch ist ihr Anteil im Vergleich zu den l = n/3 Zuständen deutlich geringer. Ihr Einfluss auf das Spektrum würde sich erst zu noch späteren Zeitpunkten bemerkbar machen. Der Beitrag verzögerter Ereignisse zu den Ausläufern der Lyman alpha - Linien ist nur aufgrund der relativistischen Raumwinkeltransformation verstärkt zu erkennen. Die effektiv vorhandene Intensität dieser verzögerten Ereignisse wird über die Raumwinkelkorrektur um ein Vielfaches erhöht. Tatsächlich folgt aus der Kaskadenrechnung ein Anteil verzögerter Übergänge an der gesamten Emission von nur 0,1 %, während er unter Berücksichtigung der Detektorgeometrie (Raumwinkelkorrektur für einen Beobachtungswinkel von 0 Grad) 4,6 % beträgt. Allerdings macht der im Experiment gemesse Anteil der verzögerten Emission 73,9 % der Gesamtemission aus. Er liegt also mehr als eine Größenordnung über dem Anteil, der sich aus der Kaskadenrechnung mit anschließender Simulation der Detektorgeometrie ergibt. Mit der momentanen Theorie ist es nicht möglich, die experimentellen Ergebnisse zu reproduzieren. Dies kann daran liegen, dass die Anfangsbesetzung gerade in den hohen Zuständen zu gering angesetzt wird. Da diese erst nach einigen Nanosekunden zu den Lyman alpha Übergängen beitragen, könnte eine höhere Anfangsbesetzung dieser Zustände zu einer Verstärkung der Linien beitragen. Es ist bisher noch nicht gelungen, eine Aussage darüber zu treffen, wodurch diese Ratenüberhöhung zustande kommt und welche physikalischen Aspekte dabei eine Rolle spielen. Möglicherweise ist die Verwendung der Stobbe-Theorie zur Berechnung der Rekombinationsraten freier Elektronen in hohe Rydbergzustände nicht richtig, weil es wegen der äußeren Felder im Kühler keine wirklich freien Elektronen in hohen Zuständen gibt. Zur detaillierteren Untersuchung dieses Phänomens hat im September 2004 die Gruppe um M. Pajek ein Experiment am Elektronenkühler durchgeführt [66]. Als Projektilionen sind wieder nackte Uranionen verwendet worden, allerdings bei einer Energie von 23 MeV. Detektoren sind unter 0 Grad und 180 Grad montiert worden. Während des Messzyklusses ist die Kühlerspannung variiert worden, um die Elektronen einmal schneller und einmal langsamer als die Ionen fliegen zu lassen. Auf diese Art und Weise sollte herausgefunden werden, ob bei Relativenergien ungleich null ebenfalls eine Ratenüberhöhung auftritt. Erwartet wird, dass dies aufgrund der höheren Relativenergie nicht der Fall ist. Eine Auswertung der Daten liegt derzeit noch nicht vor.
Im Rahmen dieser Arbeit sind Experimente zur Bestimmung der 1s Lamb-Verschiebung in wasserstoffartigen Schwerionen und zur Bestimmung des Innerschalenübergangs 2 3P2 --> 2 3S1 in heliumartigen Schwerionen durchgeführt worden. Diese Untersuchungen sind interessant, da es sich hierbei um die Überprüfung der Quantenelektrodynamik im Bereich sehr starker Coulombfelder handelt. Neben den reinen QED-Effekten spielen in diesen schweren Systemen auch relativistische Effekte eine immer bedeutendere Rolle. Es ist erstmals gelungen, eine direkte Messung des Innerschalenübergangs 2 3P2 --> 2 3S1 in einem schweren Z-System durchzuführen. Während in bisherigen Experimenten lediglich leichtere Ionen bis zu einer Kernladungszahl Z = 54 untersucht wurden, sind wir mit unserem Experiment an U90+-Ionen in den Bereich schwerer Systeme vorgedrungen. Zur Energiebestimmung sind am Gastarget des Experimentier-speicherrings (ESR) ein Kristallspektrometer unter einem Beobachtungswinkel von 90° und ein einfacher planarer Germaniumdetektor unter einem Winkel von 35° aufgebaut worden. Das Kristallspektrometer ermöglicht eine hohe Energieauflösung, während der Germaniumdetektor einen breiten Energiebereich abdeckt und somit eine eindeutige Identifizierung der Übergänge ermöglicht. Ein Fit des aufgenommenen Energiespektrums mit einer Simulation zeigt, wie gut die theoretischen Vorhersagen die Übergangsdynamik in diesem Zwei-Elektronen-System beschreiben. Der Innerschalenübergang kann eindeutig von benachbarten Übergängen unterschieden werden. Mit dem Kristallspektro-meter ergibt sich eine Übergangsenergie von 4510,31 ± 0,51 eV, mit dem Germanium-detektor 4509,6 ± 1,5 eV. Beide stimmen gut mit den theoretischen Vorhersagen überein. Durch den geringen Fehler von 0,51 eV stellt diese Messung auch im Vergleich mit den vorhergehenden Experimenten in leichten Systemen eine der genauesten Messungen des Innerschalenübergangs in He-artigen Ionen dar. Zusätzlich dazu kann die Differenz der Innerschalenübergangsenergie von Li-artigem und He-artigem Uran ermittelt werden: 50,94 ± 0,45 eV. Mit dieser Genauigkeit ist unser Experiment empfindlich auf die Zwei-Elektronen-QED und ermöglicht erstmal eine experimentelle Überprüfung dieses Beitrags, der von Kozhedub et al. mit 1,18 eV angegeben wird. Zur Untersuchung der 1s Lamb-Verschiebung von wasserstoffartigen Schwerionen sind bereits eine Vielzahl an Experimenten durchgeführt worden, mit einer maximalen Genauigkeit von 4,6 eV. Die theoretische Auswertung von Korrekturtermen höherer Ordnung erfordert jedoch neue experimentelle Methoden, mit denen sich Genauigkeiten auf dem Niveau von 1 eV und besser erzielen lassen. Dazu hat es ein Nachfolge-experiment zur bisher genauesten Messung der 1s Lamb-Verschiebung in U91+ und des Zwei-Elektronen-Beitrags zum Grundzustand in U90+ am Elektronenkühler gegeben. Hierzu ist das Experiment bei einer niedrigeren Strahlenergie durchgeführt worden. Dabei hat sich allerdings gezeigt, Ionenstrahlen mit einer Energie unterhalb von 20MeV/u besitzen zu kurze Lebensdauern, da bei den niedrigeren Energien die Rekombinationsverluste mit dem Restgas sehr hoch werden und der Ionenstrahl aus technischen Gründen noch einmal umgebuncht werden muss, wobei zusätzlich Zeit und Intensität verloren gehen. Als weiterer Schritt auf dem Weg zu höherer Präzision ist eine Kombination aus einem hochauflösenden Kristallspektrometer (FOCAL) und einem neuartigen orts- und energieauflösenden 2dimensionalen Germaniumdetektor getestet worden. Mit diesem Detektor ist es möglich, mehrere Reflexe gleichzeitig zu messen und somit die Effizienz des Experimentes deutlich zu steigern. Allerdings ist die maximale Energieauflösung bisher über die 250 µm Streifenbreite des Detektors definiert, das entspricht etwas weniger als 200 eV. Tests mit Kalibrationsquellen und das Verfahren des Detektors entlang der Dispersionsachse haben jedoch gezeigt, dass eine Auflösung kleiner als ein Streifen erreichbar ist. Dadurch soll eine Genauigkeit von 1 eV erreicht werden. Die Bewegung der Detektoren, die bei der letzten Strahlzeit einen erheblichen systematischen Fehler verursacht hat, kann mit neuen Detektorplattformen und kontinuierlicher Stickstofffüllung deutlich reduziert werden. Bei den alternativen Methoden Mikrokalorimeter und Absorptionskantenspektroskopie scheinen Mikrokalorimeter eine vielversprechend Entwicklung zu sein, da sie sowohl eine hohe Energieauflösung bieten als auch einen breiten Energiebereich abdecken. Dagegen beinhaltet die Absorptionskantenspektroskopie im Vergleich zu den anderen Methoden zu große systematische Fehler. Aus den Ergebnissen des Experimentes zum Innerschalenübergang und des FOCAL-Commissioning-Experimentes zeigt sich, wie erfolgsversprechend der Einsatz von Kristallspektrometern auf dem Weg zu neuen hochpräzisen Experimenten ist.
Die vorliegende Arbeit hat das Ziel, Plasmen koaxialer Beschleuniger in Hinblick auf die Erzeugung hoher Elektronendichten sowie als intensive UV/VUV-Backlighterquelle zu untersuchen. Hierzu wurde zunächst die Geometrie eines einzelnen Beschleunigers charakterisiert und optimiert, um die bestmöglichen Voraussetzungen für die anschließend durchgeführten Untersuchungen zur Kollision und Kompression der erzeugten Plasmen zu schaffen.
Das Funktionsprinzip des verwendeten Plasmabeschleunigers basiert auf einer Lorentzkraft, die aus dem Stromfluss zwischen zwei koaxial angeordneten Elektroden und dem damit verbundenen Magnetfeld resultiert. Da weder Stromdichte noch Magnetfeld homogen sind, wirkt auch die Lorentzkraft inhomogen auf die Plasmaschicht. Unter Einbeziehung von Simulationen wurde der Abstand zwischen den Elektroden auf 2,5 mm gesetzt, sodass die Ausprägung dieser Inhomogenität möglichst gering gehalten wird. Um ein Pinchen des Plasmas am Ende der Elektroden zu vermeiden haben die Elektroden im Gegensatz zu Plasma Focus Devices die gleiche Länge. Der mit 130 nH niederinduktive elektrische Aufbau ermöglicht die zur Ausbildung einer Plasmaschicht erforderlichen Stromanstiegsraten in der Größenordnung von 10^11 A/s.
Die Messung der Geschwindigkeit der Plasmaschicht erfolgte mit einem Array aus sechs Dioden, die gleichzeitig die Geschwindigkeitsabnahme im Rezipienten dokumentieren. Zusätzlich wurden die Messungen mit Kameraaufnahmen verglichen. Bei einer Elektrodenlänge von 100 mm konnten mit dem verwendeten Heliumgas Schichtgeschwindigkeiten von bis zu (79,49 ± 7,98) km/s erreicht werden. Die Untersuchung von Elektroden mit 200 mm Länge verfolgte das Ziel, durch die größere Beschleunigungszeit höhere Geschwindigkeiten und kinetische Energien der austretenden Plasmaschicht zu erreichen. Es zeigte sich jedoch, dass es hierbei zur Ausbildung einer zweiten Entladung und einer damit verbundenen Abbremsung des Initialplasmas kommt. Die Untersuchungen ergaben, dass die optimale Elektrodenlänge dadurch gegeben ist, dass der Austritt des Plasmas aus dem Beschleuniger zum Zeitpunkt des ersten Stromnulldurchgangs erfolgt. Für die Berechnung der optimalen Elektrodenlänge wurde ein Skalierungsgesetz gefunden, die auf experimentellen Ergebnissen und Simulationen basiert.
Mit spektroskopische Messungen der Stark-Verbreiterung der Hβ-Linie konnte die Elektronendichte des Plasmas zeit- und ortsintegriert bestimmt werden. Die hierbei erzielte Maximaldichte von (6,83 ± 0,83) · 10^15 cm^-3 wurde bei 9 kV und 70 mbar gemessen. Die nach der Boltzmann-Methode zeit- und ortsintegriert bestimmten Elektronentemperaturen bewegt sich bei etwa 1 eV.
Nach ausreichender Charakterisierung des Einzelbeschleunigers wurde das Experiment um einen zweiten, baugleichen Plasmabeschleuniger erweitert, um die planare Kollision zweier Plasmen zu untersuchen. Die maximal gemessene Elektronendichte von n max e = (1,36 ± 0,21) · 10^16 cm^-3 bei 9 kV und 70 mbar stellt im Vergleich zum Einzelplasma eine Steigerung um einen Faktor von 2,48 dar und ist mit einer Temperaturerhöhung einhergehend. Diese Elektronendichteerhöhung lässt sich nicht durch einfaches Durchdringen der Schichten erklären. Vielmehr muss es in der Kollisionszone zu Wechselwirkungsprozesse in Form von Kompression, zur Erzeugung neuer Ladungsträger oder der Kombination aus beidem kommen.
Das Spektrum im UV/VUV-Bereich weist Linien von ab 85 nm auf. Dies stellt eine Verbesserung gegenüber dem Einzelbeschleuniger dar, bei dem die hochenergetischste Spektrallinie erst bei 97 nm gemessen wurde. In der Kollisionskonfiguration mit einem Beschleunigerabstand von 30 mm steigt die integrierte Gesamtintensität des Spektrums bis 300 nm zudem um einen Faktor von etwa 5,2.
Als Alternative zur Plasmakollision wurde die Kompression des Plasmas des Einzelbeschleunigers durch unterschiedliche Trichtergeometrien untersucht. Die untersuchten Trichter der ersten und zweiten Generation unterscheiden sich im Wesentlichen im Durchmesser der kleineren Öffnung. Dieser wurde basierend auf Simulationen von 5 mm auf 0,5 mm reduziert. Die Dichtediagnostik der ersten Trichtergeneration erfolgte hierbei über Hα-Linie, da die Verbreiterung der Hβ-Linie zu stark und daher nicht mehr anwendbar war. Die Auswertung der Halbwertsbreiten der Hα-Linie führt zu Elektronendichten in der Größenordnung von bis zu 1018 cm−3 bei Spannungen von 9 kV. Diese Steigerung um 1,5 bis 2,5 Größenordnungen im Vergleich zum Einzelbeschleuniger ist deutlich höher als das Verhältnis der Flächen des initialen Plasmas bzw. dem Ende des Trichters von etwa acht.
Der Trichter mit verringerter Öffnung wurde bei 5 kV und 5 mbar vermessen, um die mechanische Belastung durch den hohen Druck gering zu halten. Die Bestimmung der Elektronendichte erfolgte durch die Verbreiterung der Kupferlinie bei 479,4 nm nach den quadratischen Stark-Effekt. Trotz der im Vergleich zur ersten Trichtergeneration reduzierten Entladungsenergie und verringertem Druck sind die gemessenen Elektronendichten ebenfalls bei bis zu 10^18 cm^-3.
Durch die Kompression des Plasmas weist das Spektrum im UV/VUV-Bereich bereits Linien ab Wellenlängen etwa 53 nm auf, wobei es unter Berücksichtigung der Transmissionsgrenze von Helium bei 50 nm denkbar ist, dass das Plasma noch niedrigere Wellenlängen emittiert.
Aufgrund der gesammelten Ergebnisse lässt sich festhalten, dass sich die Elektronendichte sowohl durch die Kollision zweier Plasmen als auch durch die Kompression in Trichtergeometrien steigern lässt. Der Verdichtungseffekt der Trichterkompression ist hierbei um ein vielfaches höher, als bei der Plasmakollision. Dies spiegelt sich auch im UV/VUV-Spektrum wider. Beide Versuchsanordnungen eignen sich als Linienstrahler, allerdings weist das Spektrum der Trichterkompression Linien deutlich höherer Anregungszustände auf.
Die im Rahmen dieser Arbeit gewonnen Meßergebnisse zeigen, daß bei geringem Restgasdruck der Einsatz einer GPL zur Fokussierung eines hochperveanten Ionenstrahles niedriger Strahlenergie Vorteile gegenüber konventionellen Linsensystemen bietet. Neben einer kostengünstigen Realisation ist wesentlich die bei unterschiedlichen Linsenparametern hohe Linearität der Linsenfelder (und die damit verbunden geringen Aberrationen) bei gleichzeitig starker Fokussierung zu nennen. Auch die geringe Baulänge, vor allem im Vergleich zu den wegen der FODO-Struktur bei Quadrupolen i. a. notwendigen Tripletts, kann gerade bei de- bzw. teilkompensiertem Transport einen Vorteil darstellen. Die im zweiten Kapitel vorgestellten Arbeiten zur theoretischen Beschreibung des nichtneutralen Plasmas der GPL haben gezeigt, daß bei Berücksichtigung der Verlustmechanismen (longitudinal und radial) die Beschreibung der Elektronenverteilung in der Linse die Meßergebnisse wesentlich besser widerspiegelt als in der klassischen Theorie Gabors, die nur einen idealisierten Zustand maximaler Elektronendichte beschreibt. Die Integration der Verluste in die Simulation ist für den longitudinalen Verlustkanal gelungen. Die radialen Verluste entziehen sich bisher aufgrund der Komplexität der Vorgänge bei der Diffusion einer hinreichend genauen Beschreibung. Dies liegt vor allem an einer sehr schwierigen Abschätzung der hierbei dominierenden Heiz- bzw. Kühlprozesse im Linsenplasma. ...
Untersuchungen zum technischen und teilchenoptischen Design kompakter Speicherringe für Ionen
(2002)
Die vorliegende Arbeit befasst sich mit der Berechnung und dem Bau von elektrostatischen Speicherringen. Eine solche Maschine kann als eine Kreuzung zwischen elektrostatischen Fallen und "klassischen" magnetischen Ringen angesehen werden. Kompakte Bauform, gute Zugänglichkeit der Elemente und vergleichsweise niedrigen Kosten werden mit hoher Flexibilität in Bezug auf mögliche Experimente kombiniert. Im 1. Kapitel werden zunächst die Unterschiede der Bewegung von Ionen in elektrostatischen und magnetischen Speicherringen untersucht. Die Massenunabhängigkeit der Teilchenbewegung bei gegebener Energie und Ladung in rein elektrostatischen Feldern erlaubt es, unterschiedlichste Ionen im Prinzip in direkter Folge in einen elektrostatischen Ring einzuschießen, ohne dass die Felder der optischen Elemente verändern werden müssen. Die Felder in den für einen Speicherring notwendigen Strahlführungskomponenten werden berechnet, die zugehörigen Bewegungsgleichungen aufgestellt und in linearer Näherung gelöst. Dabei werden zunächst die Bahnen einzelner Teilchen untersucht und dann das Strahlverhalten insgesamt durch Übergang auf einen Matrizenformalismus beschrieben. Die aus dieser Darstellung resultierenden Trajektorien stellen eine starke Vereinfachung dar. Die Untersuchung der realen Teilchenbewegung mit Einfluss von Randfeldern, Positionierungsfehlern und die Berechnung der dreidimensionalen Feldverteilung ist Gegenstand des 2. Kapitels. Ein kritischer Punkt bei der Bewegung von Teilchen in Ringbeschleunigern sind durch Feldfehler induzierten Resonanzerscheinungen. Zur Diskussion der verschiedenen möglichen Resonanzen werden im 3. Kapitel die Effekte durch zusätzliche Dipol- und Quadrupolfelder analysiert, dargestellt und schließlich anhand eines Resonanzdiagramms erläutert. In den geplanten Speicherring werden Ionen in einem einzigen Bunch, mit einer Ausdehnung von rund dem halben Ringumfang, injiziert. Ihre Lebensdauer hängt wesentlich von dem erzielbaren Vakuumenddruck ab. Die vorgesehenen Getterpumpen weisen eine sehr hohe Pumpleistung für die meisten Gase auf. Ihre Wirkungsweise wird im 4. Kapitel beschrieben und praktische Aspekte ihrer Handhabung diskutiert. Für den Betrieb eines Speicherrings ist es notwendig, die Parameter des umlaufenden Strahls zu jeder Zeit zu kennen und gegebenenfalls modifizieren zu können. Zentrales Element des Kontroll- und Diagnosesystems sind Strahlpositionsmonitore. In elektrostatischen Pickup-Elektroden induziert der Strahl beim Durchgang Spannungen über die eine Positionsbestimmung möglich ist. Die Wirkungsweise dieser Sonden wird in der zweiten Hälfte des 4. Kapitels diskutiert und Methoden zur Signalaufbereitung und -analyse beschrieben. Die allgemeinen Ergebnisse der Überlegungen zu elektrostatischen Speicherringen aus den ersten Kapiteln werden schließlich auf spezielle Fälle übertragen. Im Rahmen dieser Arbeit wurden verschiedene Entwürfe für einen elektrostatischen Speicherring angefertigt und ein Viertelringsegment zu Testzwecken entworfen und aufgebaut. Die Ergebnisse sind Inhalt des abschließenden 5. Kapitels. Mit den in dieser Arbeit vorgestellten Methoden ist es möglich, elektrostatische Speicherringe detailliert zu berechnen und an die experimentellen Rahmenbedingungen anzupassen. Sämtliche Rechnungen wurden im Hinblick auf den geplanten Bau eines Rings für Teilchen mit Energien bis 50 keV durchgeführt.
Mit dem Dileptonenspektrometer HADES sollen Dielektronen aus Kern - Kern - Stößen in einem hadronischen Untergrund bei hohen Multiplizitäten untersucht werden. Die Ereignisrate von 106 pro Sekunde erfordert eine Auslese der Detektoren innerhalb von 10 mikrosek. Die erwarteten hohen Multiplizitäten führen zu einer hohen Granularität der Detektoren und damit auch der Ausleseelektronik. Durch die Verwendung mehrere Triggerstufen wird eine Aufteilung des Auslesesystems auf mehrere Stufen notwendig. Für die Auslese von ~ 26.000 Driftzellen in 24 Driftkammermodulen wurde ein an die Anforderungen des Detektorsystems angepaßtes Auslesekonzept entwickelt. Analoge Signalaufbereitung und Messung der Driftzeit werden direkt am Detektor auf zwei miteinander kombinierten Karten untergebracht. Die nötige Integrationsdichte im Digitalisierungsteil wird durch die Verwendung eines speziellen Zeitmeßverfahrens (TDC) erreicht, das auf Signallaufzeiten in Halbleiterschaltungen basiert. Im gleichen Chip befindet sich auch eine Datenübertragungseinheit, die in der Lage ist die Daten mit der erforderlichen Geschwindigkeit zu transferieren. Durch zwei weitere Module mit Speicher zum Puffern der Ereignisdaten wird den Anforderungen des Triggerkonzeptes Rechnung getragen. Dem verwendete Zeitmeßverfahren (Ringoszillator) ist eine Abhängigkeit der Zeitauflösung von Temperatur und Versorgungsspannung inherent. Ausführliche Messungen im Rahmen dieser Arbeit zeigen, daß die relativen Abhängigkeiten mit 0,2 Promille jedoch in einem Bereich liegen, in dem sie durch geeignete Maßnahmen kontrolliert werden können. Dazu zählen die regelmäßige Kalibrierung, sowie die Messung und Überwachung von Temperatur und Versorgungsspannung. Die Leistungsaufnahme des Auslesesystems liegt mit 5kW (total) noch um ca. einen Faktor zwei über den Spezifikationen. Sowohl die Tests des TDC Zeitmeßteils, als auch die Simulationen zeigen die Realisierbarkeit des Systems. Dies konnte auch durch Simulationen des gesamten Auslesesystems im Rahmen einer Projektstudie zum Triggerkonzept an der Universität Giessen nachgewiesen werden. Ein abschließender Funktionstest der Ausleseelektronik mit dem TDC an der Prototypdriftkammer im Labor ist gegenwärtig in Vorbereitung. Zur endgültigen Realisierung der Ausleseelektronik bedarf es noch der Reduzierung des Platzbedarfes sowie der Leistungsaufnahme. Zur Reduktion der Größe des Motherboardes wird eine mehrlagige Platine entwickelt. Für die Anbringung der Daughterboards ist eine platzsparende Geometrie vorgesehen. Die Reduktion der Leistungsaufnahme wird hauptsächlich durch neuere Entwicklungen bei den Daughterboards möglich. Auch die Verwendbarkeit des im Rahmen eines anderen Projektes entwickelten SAM - Modules als Konzentrator für die Driftkammerauslese ist zu untersuchen. Da diese Karte auch einen DSP enthält, ist entsprechende Software erforderlich. Die Segmentierung des modularen Spektrometersystems erlaubt den endgültigen Aufbau in mehreren Schritten. Vorgesehen ist, zunächst nur einzelne Segmente oder einzelne Ebenen der Driftkammern aufzubauen, und das komplette System erst zu einem spätern Zeitpunkt in Betrieb zu nehmen. Einzelne Komponenten können durch Neuentwicklungen ersetzt werden.
Das Ziel der vorliegenden Arbeit war der Einbau, die Inbetriebnahme, die Abstimmung und der Test eines Strahlmatchingsystems in eine Zweistrahl-RFQ-Beschleunigerstruktur. Dieses Strahlmatchingsystem wurde entwickelt, um die Beschleunigereinheit des Frankfurter Funneling-Experimentes besser an die nachfolgende HF-Deflektoreinheit anzupassen und um zu zeigen, dass ein Strahlmatching innerhalb der RFQ-Beschleunigerstruktur möglich ist. Des Weiteren wurden die zum Versuch gehörigen Ionenquellen modifiziert, um eine bessere Anpassung der Strahlherstellung an die Beschleunigerstruktur zu erreichen. Die Spannungsverteilung in der Beschleunigerstruktur selbst wurde durch weitergehende Tuningmaßnahmen verbessert, um die Teilchenverluste weiter zu minimieren Mit dem Funnelingexperiment soll experimentell geprüft werden, ob eine Strahlstromerhöhung durch das Zusammenführen mehrerer Ionenstrahlen verschiedener Ionenquellen möglich ist. Solch ein System ist für einige Zukunftsprojekte (HIDIF, SNS-Ausbau, ESS, u.ä.), die große Strahlströme benötigen, die nicht aus nur einer Ionenquelle extrahiert werden können, erforderlich. Das in dieser Arbeit behandelte Strahlmatching ist für das Experiment notwendig, da zu große Teilchenverluste in der Funnelsektion entstanden und somit eine bessere Anpassung des Strahls an den HF-Deflektor erforderlich wurde. Es konnte gezeigt werden, dass die hier verwendete Art der Strahlfokussierung auch in eine komplizierte RFQ-Beschleunigerstruktur integrierbar ist, in der zwei Strahlkanäle auf der gleichen Stützen-Bodenplatten-Konstruktion aufgebaut sind. Die Verlängerung der Endelektroden und die Integration einer Strahlanpassung haben einen positiven Einfluss auf die Transsmission innerhalb des Beschleunigers und verbessern die Transmission durch den Deflektor. Es konnten Energiemessungen und zeitaufgelöste Faradaytassenmessungen der Teilchenbunche sowie zeitaufgelöst Makropulse mit der Faradaytasse gemessen werden. Floureszensschirmmessungen zeigten, dass die beiden Teilchenstrahlen auf eine neue gemeinsame Strahlachse gebogen wurden. Die Energiemessung zeigte, dass die Simulationen mit RFQSIM sehr genau die Endenergie der Teilchen berechnen konnte. Im Strahlkreuzungspunkt hinter dem Zweistrahl-RFQ-Beschleuniger konnten nahezu identische Teilchenbunche erzeugt werden. Diese Teilchenbunche wiesen zudem die in vorherigen Simulationen errechneten Charakteristika auf, in denen eine transversale und eine longitudinale Fokussierung gegenüber dem ungematchten Strahl simuliert wurden. Es konnte auch eine weitere Strahlradiusreduzierung gemessen werden, die auf eine exaktere Justierung der Elektroden zurückzuführen ist. Die Phasenfokussierung konnte verbessert werden, indem die Elektrodenspannung besser an die Strahlmatchingsektion angepasst wurde. Hierzu mussten auch die Einschussparameter der Strahlen in die Beschleuniger angepasst werden, damit die Transmission der Beschleuniger sich nicht verschlechterte. Insgesamt konnte mit den durchgeführten Experimenten erstmals demonstriert werden, dass zwei Strahlen in einem RFQ-Beschleuniger auf einen Punkt hinter dem Beschleuniger angepasst werden können und die Spannungsverteilung in solch einer Struktur durch Tuningmaßnahmen abstimmbar ist. Es konnte erstmals demonstriert werden das über 90% der Teilchen beider Strahlen, bei guten Strahleigenschaften, auf eine neue gemeinsame Strahlachse abgelenkt (gefunnelt) wurden.
Die Dokumente enthalten jeweils die gleiche Arbeit, allerdings in drei unterschiedlichen Varianten, die sich in der Qualität der Bilder und damit in der Filegröße unterscheiden: * Bilder in voller Druckqualität (8,2 MB): DissWFOM1.pdf (Dokument1) * Photos in reduzierter Auflösung (3,1 MB): DissWFOM2.pdf (Dokument2) * Photos und Zeichnungen in red. Auflösung (1,4 MB): DissWFOM3.pdf (Dokument3)
Untersuchungen zu mikrowellenfokussierenden Beschleunigerstrukturen für zukünftige lineare Collider
(1993)
Zur Erforschung immer kleinerer Strukturen der Materie benötigt die Elementarteilchenphysik Teilchenstrahlen höchster Energie. Gegenwärtig sind das Higgs-Boson und das Top-Quarks‘ die Objekte des größten physikalischen Interesses. Das sog. “Top” ist das sechste und bisher noch nicht nachgewiesene Mitglied der Quark-Familie. Seine Masse wird unterhalb von etwa 180GeV vermutet. Das Higgs-Boson spielt im sog. Standardmodell der Elementarteilchen eine wichtige Rolle. Seine Masse wird ebenfalls im Bereich zwischen 100 und 200GeV vermutet. Es gibt eine gute Chance, das Top am Protonen- Antiprotonen-Beschleuniger TEVATRON des Fermilab in Chicago nachzuweisen. Seine physikalischen Eigenschaften lassen sich aber erst an zukünfligen Beschleunigem mit höherer Energie bestimmen. Gegenwärtig werden daher mehrere verschiedene Beschleunigerkonzepte erwogen oder sind bereits in Planung bzw. im Bau. Das Spektrum reicht dabei von Protonen-Antiprotonen- bis zu Elektronen-Positronen-Maschinen. Ein vielversprechender Ansatz zur Erzeugung der benötigten Teilchenenergien ist der lineare Elektronen-Positronen-Collider, im folgenden immer als linearer Collider bezeichnet. Das Verhältnis von Meßsignal zu Hintergrund ist bei e+-e-Kollisionen besser als bei Protonen-Kollisionen. Es entstehen keine Partonen, wodurch die zur Verfugung stehende Energie effektiver genutzt werden kann [ 11. Weiterhin ist der lineare Collider im Vergleich zu einer zirkularen Maschine gleicher Endenergie und Luminosität auf lange Sicht kostengünstiger, da keine zusätzliche Hf-Leistung zur Kompensation von Synchrotronstrahlungsverlusten nötig ist. Die für die Experimente erforderliche hohe Luminosität bedingt Teilchenstrahlen von niedrigster Emittanz und geringster Energieverschmierung sowohl innerhalb eines einzelnen Teilchenpaketes als auch zwischen den Bunchen selbst [2]. Zur Erhaltung der Strahlqualität über die volle Lange des Beschleunigers ist es deshalb notwendig, ein akkurates Strahlführungssystem zu entwickeln, das es gestattet, auftretenden Strahlinstabilitäten wirksam zu begegnen. Grund der Instabilitäten sind elektromagnetische Felder, sogenannte Wake- oder Kielwellenfelder, die die Teilchen bei der Durchquerung des Beschleunigers selbst anfachen. Die Teilchenpakete werden dadurch radial von der Achse abgelenkt, sie werden verformt und erfahren eine Impulsverschmierung. Transversale Einzelbunch-Instabilitäten (SBBU, Single Bunch Beam Breakup) kann man durch die Einführung einer Energieverschmierung innerhalb eines Teilchenpakets bekämpfen; in Verbindung mit einer äußeren Strahlführung erreicht man eine Bedämpfung der Instabilität [3]. Als Alternative oder Ergänzung zu äußeren Fokussierungsmaßnahmen erscheint es deshalb interessant, inwieweit man durch geeignete Modifikationen an den Beschleunigerstrukturen die Hochfrequenzfelder selbst zur Erzeugung der benötigten Fokussierung heranziehen kann. Da es sehr schwierig ist, die für das Experiment geforderte Luminosität mit einem einzelnen Bunch zu erzeugen, muß man mehrere Teilchenpakete in kurzem Abstand durch den Beschleuniger schicken. Jetzt erfährt aber jeder Bunch die aufsummierten Wakefelder der ihm vorausfliegenden Teilchenpakete. Um zu verhindern, daß die transversale Strahlablage inakzeptabel groß wird, müssen Maßnahmen zur Kontrolle dieser Vielteilchen-Instabilitäten (MBBU, Multibunch Beam Breakup) getroffen werden. Das bedeutet, die Güten dieser als Long-Range-Wakes bezeichneten Störmoden müssen, je nach Collider, durch konstruktive Maßnahmen auf Werte in der Größenordnung von zehn abgesenkt werden. Die vorliegende Arbeit befaßt sich mit theoretischen Anwendungsmöglichkeiten von hochfrequenzfokussierenden Beschleunigerstrukturen in linearen Collidem bei Einzel- und Multibunch-Betrieb. In Kap. 2 wird eine kurze Einführung in die Problematik von Höchstenergiebeschleunigem gegeben. Anschließend werden in Kap. 3 Irisstrukturen und ihre Kenngrößen behandelt. Kap. 4 gibt eine Einführung in das Wakefeld-Konzept. Es wird untersucht, welche Resonatormoden für den Strahl gefährlich sind; die Wakepotentiale werden mit Resonatorkenngrößen in Verbindung gebracht. In Kap. 5 schließt sich eine Betrachtung zum SBBU an. Es wird untersucht, inwieweit Irisstrukturen und Rechteckblendenstrukturen (MWQ-Strukturen) zur direkten Hochfrequenzfokussierung eingesetzt werden können. Die Eigenschaften einer MWQ-Struktur werden vermessen und mit theoretischen Vorhersagen verglichen. Beispiele fiir hypothetische Collider in verschiedenen Frequenzbereichen werden diskutiert. Im anschließenden Kap. 6 wird der Mechanismus des MBBU erläutert und Möglichkeiten zur Bedämpfung insbesondere von MWQ-Strukturen im Multibunch-Betrieb untersucht. Meßergebnisse an Modellstrukturen werden vorgestellt und am Beispiel von einem S- und X-Band- Collider diskutiert.
Im Rahmen dieser Arbeit wurden neue Ansätze zur Optimierung eines Alvarez Beschleunigers für Schwerionen untersucht. Dabei dient die Alvarez-Sektion des GSI UNILAC als Untersuchungsfeld, da für den Injektionsbetrieb für FAIR eine Erneuerung dieser Sektion erforderlich ist. Dies wird durch einen neuen und optimierten Alvarez-Beschleuniger gewährleistet, wobei Effizienz und Feldstabilität sowie hohe Verfügbarkeit eine wichtige Rolle spielen. Dazu wurden im Rahmen dieser Arbeit wichtige Simulationsrechnungen durchgeführt, ein Messaufbau zum experimentellen Test eines neuartigen Konzepts zur Feld-Stabilisierung ausgelegt, in Betrieb genommen und anhand von Messungen an einem speziell dafür entwickelten Resonatormodell verifiziert.
Ziel dieser Arbeit war es die experimentelle Demonstration des neuen Konzepts zur Feldstabilisierung eines Resonators. Es sollte geprüft werden, ob die zuvor durchgeführten Simulationen die realen Felder hinreichend zuverlässig vorhersagen. Diese experimentelle Prüfung ist angesichts der sehr hohen Baukosten eines realen Resonators von mehreren Millionen Euro unerlässlich. Vor Beginn dieser Arbeit war ein geeigneter Messaufbau, d.h. im Wesentlichen ein dediziertes Resonator-Modell, nicht verfügbar. Es galt ein Modell zu entwickeln, dessen Geometrie seht gut durch Simulationen modelliert werden kann, dessen Aufbau es aber trotzdem gestattet, eben diese Geometrie lokal zu variieren, um den angestrebten Effekt der Feld-Stabilisierung zu erreichen.
Aufgrund von Fertigungs- sowie Justage-Toleranzen gibt es Störungen der Feldhomogenität auf der Strahl- bzw. Resonatorachse. Die Feldhomogenität quantifiziert die Fluktuationen der tatsächlichen Feldstärke bezüglich des Idealwertes. Ein perfekt homogenes Feld weist keine Abweichungen auf. Bei einer lokalen Störung ist die Feldveränderung am Ort der Störung maximal und verringert sich mit dem Abstand von dieser. Es entsteht eine Verkippung des Feldes. Die Feldverkippung ist definiert als die durch die Störung verursachte Feldabweichung normiert auf die ungestörte Feldverteilung sowie auf die damit verbundene Änderung der Modenfrequenz. Letztere wird mit Tauchkolben kompensiert; die Feldhomogenität allerdings kann nicht wieder hergestellt werden. Die Feldhomogenität muss durch eine andere Maßnahme sichergestellt werden. Bei Alvarez-Kavitäten mit einem Tankradius R < 0,4m werden „post-coupler“ eingesetzt. Post-coupler sind dünne zylinderförmige Kupferstangen die seitlich an die Driftröhren herangefahren werden und an die Resonanzmode des Beschleunigers koppeln. Gleichzeitig wird die Sensibilität auf Störungen im Tank verringert, sodass die homogene Feldverteilung auch bei Störungen gut erhalten bleibt. Bei Beschleunigerstrukturen mit größeren Tankradien werden die post-coupler zu lang und erfordern einen zu großen Aufwand in der Konstruktion. In dieser Arbeit wurde eine alternative Methode für die Stabilisierung der Feldverteilung untersucht, welche die Winkelposition der Driftröhrenstützen nutzt.
Der in dieser Arbeit realisierte Resonator erlaubt die freie Einstellung der Winkel der Stützen sowie die exakte Justage der Driftröhren auf der Strahlachse. Es wurde ein Aluminium-Modell im Maßstab 1:3 zum realen Alvarez-Resonator gebaut. Dieser hatte zunächst eine Länge von ∼ 525mm und neun Driftröhren. Das Modell ist mit einem Profil der Geschwindigkeit der zu beschleunigenden Ionen ausgestattet, sodass die Driftröhren sowie die Spaltabstände entlang des Resonators länger werden. Mittels Simulationen wurden diverse Stützenkonfigurationen ausgewählt, die in den Messungen getestet wurden.
Mit dem Modell konnte gezeigt werden, dass bei bestimmten Stützenanordnungen die nächst höheren Moden weiter von der Betriebsmode entfernt werden können. Die besten Ergebnisse lieferte die Stützenkonfiguration mit fünf nach unten und vier nach oben orientierten Stützenpaaren (V-Stützen-Konfiguration 5+4). Hier liegt die nächst höhere Mode in den Messungen um mehr als 160MHz von der Grundfrequenz (326,7MHz) entfernt (Vergleich originale V-Stützen-Konfiguration: nächste Mode liegt 88MHz von der Grundmode entfernt). Wichtig ist die Eigenschaft der Modenseparation vor allem für den realen Einsatz der Kavität, da hier die Moden nur um wenige MHz voneinander entfernt liegen und dies zu Störungen im Betrieb des Resonators bei hoher HF-Leistung führen kann. Bei ungenügender Modenseparation wird die eingekoppelte HF-Leistung vom Resonator reflektiert. Mitunter können die erforderlichen Felder der Betriebsmode nicht erzeugt werden.
Im Falle einer Feldverkippung stimmt die reale Ionengeschwindigkeit entlang des Tanks nicht mehr mit der bei der Auslegung angenommenen überein. Das führt zu einer Verringerung der longitudinalen Strahlqualität bezüglich der erreichbaren Energieschärfe.
Zur systematischen Prüfung der Methode zur Feldstabilisierung wurden definierte Störungen in den Tank eingebaut. Die erste Driftröhre wurde jeweils um 1, 2 und 3mm verlängert. Da die Zahl der Zellen zu gering war für die statistisch signifikante Feldverkippungs-Messung, musste das Modell auf 21 Spalte erweitert werden. Die besten Ergebnisse bzgl. Feld-Stabilisierung lieferte die V-Stützen-Konfiguration 7+7+6. Hier bleibt das Feld trotz Störstelle homogen. Die Feldverkippung kann auf weniger als die Hälfte derjenigen der originalen V-Stützen-Konfiguration reduziert werden. Für den Fall der originalen Stützenkonfiguration erzeugt die oben beschriebene Störung eine Abweichung der Feldhomogenität von ±28%. Mit der in dieser Arbeit optimierten Stützenkonfiguration verändert sich die Feldhomogenität nur um ±9%.
Die Methode zur Feldstabilisierung mit einer optimierten Stützenanordnung ohne den Einsatz von post-couplern konnte am Modell gezeigt werden. Weiterhin wurde eine bessere Effizienz mit Zunahme der Tanklänge verifiziert. Im realen Alvarez-Tank wird die Anzahl der Spalte um einen Faktor 3 größer sein. Damit ergeben sich durch die erhöhte Anzahl zur Verfügung stehenden Stützen zusätzliche Konfigurationen, um eine Feldhomogenität von besser als ±1% zu gewährleisten.
Auf der Basis dieser Untersuchungen ist bei GSI der Bau einer zunächst ca. 2m langen Sektion des neuen Alvarez-DTL mit 11 Driftröhren vorgesehen. Dabei werden Flansche für verschiedene Stützenkonfigurationen integriert. Ziel ist es hierbei die Konstruktion, die Produktion, die Feldabstimmung sowie den Betrieb bei nominalen FAIR-Parametern zu testen. Sind die Tests erfolgreich, kommt diese Sektion bei der ersten Serie für den neuen Beschleuniger zum Einsatz.
Untersuchungen von evolutionären Algorithmen zum Training neuronaler Netze in der Sprachverarbeitung
(1997)
Im Rahmen der vorliegenden Diplomarbeit wurde die Leistungsfähigkeit von evolutionären Algorithmen zum Training von RNN untersucht und mit gradientenbasierten Trainingsalgorithmen verglichen. Die Zielsetzung war dabei im besonderen die Prüfung der Verwendbarkeit in der Sprachverarbeitung, speziell der Spracherkennung. Zunächst wurde anhand eines Prädiktionsproblems die prinzipielle Leistungsfähigkeit von EA untersucht, indem ein MLP mit unterschiedlichen evolutionären Algorithmen trainiert wurde. Verschiedene Varianten von GA und ES sind an diesem Beispiel getestet und miteinander verglichen worden. Im Rahmen der Untersuchungen an GA stellte sich heraus, daß eine Mindestgenauigkeit der Quantisierung zur Lösung erforderlich ist. Es zeigt sich, daß die Genauigkeit der Approximation mit abnehmendem Quantisierungsfehler besser wird. Damit ist eine Behandlung dieses Problems mit grob quantisierten Gewichten nachteilig. Demgegenüber profitiert ES sowohl in der Approximationsgenauigkeit, als auch in der Konvergenzgeschwindigkeit von der direkten Darstellung der Objektvariablen als reelle Zahlen. Weiterhin zeigte sich bei ES, daß die Genauigkeit einer Lösung auch von der Populationsgröße abhängig ist, da mit wachsender Populationsgröße der Parameterraum besser abgetastet werden kann. Im Vergleich mit ES benötigten GA längere Konvergenzzeiten und bedingten zudem aufgrund der Codierung und Decodierung einen höheren Rechenaufwand als ES, so daß die Untersuchungen an RNN nur mit ES durchgeführt wurden. Zunächst wurde mit dem Latching-Problem eine, in der Komplexität eng begrenzte, Klassifikationsaufgabe mit Zeitabhängigkeiten untersucht. Die zur Verfügung gestellte Information war bei diesem Beispiel sehr gering, da der Fehler nur am Ende einer Mustersequenz berechnet wurde. Es stellte sich heraus, daß selbst bei dieser sehr einfachen Aufgabenstellung die gradientenbasierten Verfahren nach dem Überschreiten einer maximalen Mustersequenzlänge T keine Lösung finden konnten. Im Gegensatz dazu war ES in der Lage, das Problem für alle gemessenen Variationen des Parameters T zu lösen. Erst wenn während des Trainings dem Gradientenverfahren zusätzliche Informationen durch Fehlereinspeisung zur Verfügung gestellt wurde, hatte der BPTT-Algorithmus die selbe Leistungsfähigkeit. Als weiteres Experiment mit Zeitabhängigkeiten wurde das Automaton-Problem un- tersucht, welches mittels eines RNN gelöst werden sollte. Bei diesem Problem wurde besonderer Wert auf die Untersuchung des Konvergenzverhaltens bei Änderungen der Parameter von ES gelegt. Die Untersuchungen ergaben, daß die einzelnen Parameter in komplexer Weise miteinander interagieren und nur eine gute Abstimmung aller Parameter aufeinander eine befriedigende Leistung in Bezug auf Konvergenzgeschwindigkeit und Klassifikationsergebnis erbringt. Wie bei dem Latching-Problem wurde der Fehler nur am Ende einer Mustersequenz berechnet. Dies bewirkt, daß der BPTT-Algorithmus bereits bei Sequenzlängen von T = 27 nicht mehr in der Lage ist, die Zeitabhängigkeiten in dem Gradienten zu repräsentieren. Mit ES dagegen konnten RNN trainiert werden, die in der Lage sind, Sequenzlängen bis zu T = 41 richtig zu klassifizieren. Die Untersuchungen bestätigen, daß der beschränkende Faktor in erster Linie der Trainingsalgorithmus und nicht das Netzwerksparadigma ist. Die Simulationsexperimente mit zeitnormierten Sprachdaten zeigen, daß mit ES prinzipiell höhere Erkennungsleistungen als mit dem gradientenbasierten Algorithmus des BPTT erzielt werden können. Jedoch nimmt schon bei der Klassifikation der Zahlwörter Zwei und Drei die Klassifikationsleistung mit zunehmender Sequenzlänge ab. Es erfordert eine drastische Vergrößerung der Populationsgröße, um zumindest gleich gute Ergebnisse zu erzielen. Zusätzliche Tests am Automaton-Problem stützen diese Aussage. Jedoch steigt der Rechenaufwand durch Vergrößerung der Populationsgröße so stark an, daß bei nicht zeitnormierten Sprachdaten ES mit adäquater Populationsgröße nicht mehr simulierbar waren. In den Untersuchungen an dem Vokabular mit sechs Wörtern wurde der Fehler für jeden anliegenden Merkmalsvektor berechnet und im Gradienten bzw. zur Bewertung bei ES im Training verwendet. In diesen Messungen erbringen beide Algorithmen nahezu identische Klassifikationsergebnisse. Insgesamt verhindert der drastisch ansteigende Rechenaufwand bei den Sprachdaten die Verarbeitung von größeren Vokabularien und langen Wörtern durch ES. Aus der Beschränkung der Populationsgröße durch die vorhandene Rechnerkapazität resultierte eine nichtoptimale Anpassung von Selektionsdruck, Mutationsrate und Populationsverteilung im Suchraum. Insbesondere erweist sich die globale Anpassung der Strategieparameter bei den vergrößerten Populationen als problematisch. Weitere Untersuchungen an ES mit Strategien zur Selbstadaption dieser Parameter bieten sich daher für zukünftige Forschung an.
In dieser Arbeit wurde die grundsätzliche Funktionsweise und die Eigenschaften von photokonduktiven CW-Thz-Emittern dargestellt. In diesem Rahmen wurde der Prozess des Photomischens und die Funktionsweise und Eigenschaften von Antennen auf Halbleitersubstraten untersucht. Um das erwartete frequenzabhängige Emissionsverhalten zu überprüfen wurde ein Messplatz zur Durchführung von Vergleichsmessungen diverser Emitter aufgebaut. Desweiteren wurde ein Fourier-Transform-Interferometer zur frequenzaufgelösten Detektion im THz-Bereich entwickelt. Zur Charakterisierung der Emitter wurde die emittierte Leistung in Abhängigkeit der Frequenz gemessen. Als abstrahlende Strukturen wurden Dipol- und Patch-Antennen verwendet. Dabei wurde gezeigt, daß eine Einschränkung der Bandbreite eine Verstärkung der Emission in dem verbleibenden Frequenzbereich ergibt. Dies wird bei Dipolantennen durch eine Filterstruktur oder allgemein durch Verwendung einer stark resonanten Antennenstruktur wie der Patchantenne erreicht. Es wurde gezeigt, daß die Einbeziehung der zu höheren Frequenzen abfallenden Leistung des Photomischers notwendig für eine Beschreibung der Resonanzkurve ist. Dadurch verschiebt sich das Maximum der Abstrahlung und liegt im Falle des Dipols nicht mehr bei der Anregung nah der Wellenlänge die gleich der Dipollänge ist. Allerdings wurde auch gezeigt, daß dies nicht für eine Beschreibung der Resonanzkurve ausreicht, und daß zur korrekten Modellierung die Übertragung der Leistung von Photomischer auf die Antenne eingefügt werden muß. Diese ist stark von dem komplexen Widerstand des Photoschalters abhängig. Die Resonanzcharakteristik von Patch-Antennen konnte durch die Berechnung der TMModen eines dreidimensionalen mit einem Dielektrikum gefüllten Resonators erklärt werden. Dieser besitzt aber so viele mögliche Moden, daß schon kleine geometrische Veränderungen die Resonanzfrequenz verändern können. Somit ist die Berechnung der Resonanzfrequenz sehr schwierig, und die praktische Einsetzbarkeit der gezeigten Patch-Antennen gering. Allerdings ist bei Patchantennen anders als bei Dipolen die Quelle der Emission, in diesem Fall der Resonator aus Polyamid, unabhängig vom Substrat auf dem sich die Antenne befindet. Dies macht ein Aufbringen auf ein für die Emission optimales Substrat oder einen Spiegel möglich. Die berechnete Resonanzfrequenz der Filterstruktur in der Zuleitung ist auch die tatsächliche Resonanzfrequenz des Dipols. Hier ist eine Vorhersage und somit ein funktionierendes Design relativ leicht zu erreichen. Allerdings wurde die durch die Filterstruktur in der Zuleitung gewählte Resonanzfrequenz fälschlicherweise für eine Anregung mit der vollen Wellenlänge gewählt und liegt wie die vergleichende Messung mit identischem Dipol ohne Filterstruktur zeigt, nicht im Emissionsmaximum des Emitters. Für zukünftige Designs muß eine detaillierte Berechnung oder eine Messung des Emissionsmaximums des Dipols ohne Verwendung eines Filters vorangehen, um die Resonanzfrequenz des Filters auf dieses Maximum zu legen. Um eine bestimmte Frequenz zu erreichen muß also erst der Dipol ohne Filter so gewählt werden, daß dessen Emissionsmaximum bereits bei der gewünschten Frequenz liegt, um dann die Emission mit Hilfe eines Filters zu verstärken. Ebenfalls muß in der Zukunft um die Anwendbarkeit zu erhöhen, die bolometrische Detektion durch photokonduktive oder elektrooptische Detektion ersetzt werden.
Untersuchungen des elektrischen und magnetischen Feldes in den NA49-TPCs mit Hilfe von Laserspuren
(1997)
Das Experiment NA49 am Europäischen Zentrum für Teilchenphysik (CERN) in Genf dient der Erforschung von relativistischen Schwerionenkollisionen. Dieses Feld der Kernphysik hatte seine Anfänge erst in den 70er Jahren am BEVALAC in Berkeley und untersucht zur Zeit Schwerionenstöße von einigen hundert MeV/Nukleon bis 200 GeV/Nukleon. Nach den heuteüblichen Experimenten mit festem Target sollen in der Zukunft Colliderexperimente mit Schwerionen neue Energiebereiche erschließen. Während die Experimente dadurch erleichtert werden, daß sie zumeist auf bestehende Beschleunigeranlagen aus der Hochenergiephysik zurückgreifen können, ist die theoretische Beschreibung relativistischer Schwerionenstöße ausgesprochen problematisch. Vom Verständnis dieser Reaktionsmechanismen erhoff t man sich aber einen Zugang zur starken Wechselwirkung bei niedrigen Impulsüberträgen, insbesondere in ausgedehnten Systemen.