Refine
Year of publication
Document Type
- Article (19)
- Preprint (3)
- Working Paper (2)
- Diploma Thesis (1)
Has Fulltext
- yes (25)
Is part of the Bibliography
- no (25)
Keywords
- LHC (4)
- ALICE (2)
- 900 GeV (1)
- ALICE experiment (1)
- Active middle ear implants (1)
- Arbeitslosigkeit (1)
- Armut (1)
- Auditory system (1)
- B cells (1)
- B-cell antigen receptor (1)
Institute
In a collective treatment the energies of the giant resonances are given by the boundary conditions at the nuclear surface, which is subject to vibration in spherical nuclei. The general form of the coupling between these two collective motions is given by angular-momentum and parity conservation. The coupling constants are completely determined within the hydrodynamical model. In the present treatment the influence of the surface vibrations on the total photon-absorption cross section is calculated. It turns out that in most of the spherical nuclei this interaction leads to a pronounced structure in the cross section. The agreement with the experiments in medium-heavy nuclei is striking; many of the experimental characteristics are reproduced by the present calculations. In some nuclei, however, there seem to be indications of single-particle excitations which are not yet contained in this work.
Photoinduced electron transfer from organic dye molecules to semiconductor nanoparticles is the first and most important reaction step for the mechanism in the so called “wet solar cells” [1]. The time scale between the photoexcitation of the dye and the electron injection into the conduction band of the
semiconductor colloid varies from a few tens of femtoseconds to nanoseconds, depending on the specific electron transfer parameters of the system, e.g., electronic coupling or free energy values of donor and acceptor molecules [2–10]. We show that visible pump/ white light probe is a very efficient tool to investigate the electron injection reaction allowing to observe simultaneously the relaxation of the excited dye, the injection process of the electron, the cooling of the injected electron and the charge recombination reaction.
Ziel dieser Arbeit war es, ein System zu entwickeln, mit dem Sätze von Reduktionsdiagrammen auf ihre Vollständigkeit überprüft werden können. Das System sollte in der puren, funktionalen Programmiersprache Haskell realisiert werden und speziell auf einen nichtdeterministischen Kalkül mit Konstruktoren, einem case-Konstrukt und einem rekursiven let- Ausdruck (letrec) ausgerichtet sein. Dazu wurde in Kapitel 2 der lambda-Kalkül und funktionale Programmiersprachen eingeführt, um die Entwicklung der Kalküle lambda-nd und lambda-nd,rec zu motivieren. Die Basis-Kalküle lambda-nd und lamda-nd,rec wurden in Kapitel 3 bezüglich ihrer Sprachdefinition und Reduktionsregeln vorgestellt. Die Implementierung der beiden Kalküle und der Parser für die verwendete Kernsprache wurden ebenso angegeben wie die Mechanismen zur Markierung und Reduktion der Terme. Die Unterscheidung eines reduzierbaren Terms in NO- und internen Redex, sowie deren Erkennung wurde in diesem Kapitel besonders herausgestellt, da sie die Grundlage für die zu validierenden Reduktionsdiagramme darstellt. Damit ist der Grundstock für diese Arbeit gelegt worden. In Kapitel 4 haben wir kurz Methoden vorgestellt, die lamda-Kalkülen und deren Derivate eine Bedeutung zuzumessen versuchen, um Programme oder Terme miteinander vergleichen zu können. Also nicht nur ihre Termstruktur, sondern ihr Verhalten zu vergleichen. Dabei ist festgestellt worden, daß für nichtdeterministische Kalküle nur eine Methode verfügbar ist, und zwar die der kontextuellen Äquivalenz. Da wir gängige Programmtransformationen dahingehend überprüfen wollten, ob sie der kontextuellen Äquivalenz genügen, also nicht die Auswertung oder das Ergebnis derselben verändern, haben wir ein Kontext-Lemma vorgestellt. Mit Hilfe des Kontext-Lemmas ist es uns möglich gewesen, die Gültigkeit von Beweisen in Reduktionskontexten auf beliebige Kontexte auszudehnen. Für die eigentlichen Beweise werden Reduktionsdiagramme benötigt, die Reduktionsfolgen in verschiedener Weise umstellen. Wir haben die Reduktionsdiagramme ebenfalls in Kapitel 4 definiert. Die Reduktionsdiagramme müssen an jeder Stelle einer Reduktionsfolge anwendbar sein, da sonst die Äquivalenz-Beweise nicht möglich sind. D. h. es müßte bewiesen werden, daß mindestens ein Reduktionsdiagramm einer definierten Menge von Reduktionsdiagrammen für jeden Term und jede seiner Reduktionsfolgen anwendbar ist. Der naive Weg wäre, alle Terme und seine Reduktionsfolgen dahingehend zu überprüfen. Da dies jedoch nicht möglich ist, haben wir uns dazu entschlossen so viele Terme wie möglich zu untersuchen, nicht um die Vollständigkeit der Diagramme zu beweisen, sondern um zu zeigen, daß auf viele verschiedenartige Terme Reduktionsdiagramme erfolgreich angewendet werden können. Die Generierung der Terme haben wir in Kapitel 5 ausführlich dargestellt. In Kapitel 6 haben wir die Sprache zur Darstellung von Reduktionsdiagrammen und die Implementierung der Diagramm-Validierung beschrieben. Weiterhin haben wir ein Verfahren vorgestellt, mit dem wir fehlende Diagramme für Terme suchen und meist auch finden können. Das gesamte System haben wir so aufgebaut, daß eine große Menge an Termen generiert wird, für die Diagramme anwendbar sein müssen. Wenn keines der Diagramme auf einen Term anwendbar ist, also nicht validiert werden kann, dann wird ein passendes Diagramm gesucht. Mit Hilfe des entwickelten Systems Jonah sind in Kapitel 7 verschiedene Programmtransformationen dahingehend überprüft worden, ob die angegebenen Reduktionsdiagramme für große Mengen von Termen gültig sind. Dabei ist als Ergebnis herausgekommen, daß ein vollständiger Satz an Reduktionsdiagrammen für die (cp)-Reduktion nur sehr schwer zu finden ist. Selbst neu hinzugefügte Transformationen, die dabei helfen sollten, die Schwierigkeiten zu umgehen, konnten nicht verwendet werden, da es uns ebenfalls nicht möglich gewesen ist, für sie vollständige Diagrammsätze zu finden. Daraufhin haben wir den Basis-Kalkül zweimal erweitert, um die Schwierigkeiten der (cp)-Diagramme in den Griff zu bekommen. Aber auch diese Ansätze haben kein zufriedenstellendes Ergebnis geliefert. Als positives Ergebnis dieser Arbeit kann aber festgestellt werden, daß das System Jonah bei der Entwicklung nichtdeterministischer Kalküle auf Basis von lambda-Kalkülen eine sehr gute Hilfestellung sein kann, auch wenn es nicht zum vollständigen Beweis der Gültigkeit von Reduktionsdiagrammen dienen kann.
Künstlicher Traubenwicklerbefall : eine neue Möglichkeit zur Prüfung von Insektiziden im Weinbau
(2006)
Bei der Prüfung von Insektiziden gegen die Traubenwickler Lobesia botrana DEN. & SCHIFF. und Eupoecilia ambiguella HBN. (Lepidoptera: Tortricidae) im Freiland ist ein ausreichender Befall mit den Schadinsekten notwendig, um statistisch auswertbare Ergebnisse zu erzielen. Dem steht jedoch ein jährlich stark wechselnder Befallsdruck und ein oft stark geklusterter Befall, selbst innerhalb einer eng umgrenzten Rebanlage, entgegen. Hinzu kommen erhebliche Probleme mit dem richtigen Timing der Behandlung, bedingt durch eine sehr lange Flugzeit der Traubenwicklerarten, was häufig zu einer geringen Effizienz und schlechten Vergleichbarkeit der Mittel führt. Für die Entwicklung von Insektiziden bedingen diese Voraussetzungen eine große Anzahl von Versuchen, die mit hohen Kosten verbunden sind Abhilfe kann für viele Fragestellungen ein künstlich erzeugter Befall geben. Die Methode soll hier kurz vorgestellt und die Anwendung exemplarisch an Versuchen mit beiden Traubenwicklerarten dargestellt werden.
Psoriasis vulgaris is a common and chronic inflammatory skin disease which has the potential to significantly reduce the quality of life in severely affected patients. The incidence of psoriasis in Western industrialized countries ranges from 1.5 to 2%. Despite the large variety of treatment options available, patient surveys have revealed insufficient satisfaction with the efficacy of available treatments and a high rate of medication non-compliance. To optimize the treatment of psoriasis in Germany, the Deutsche Dermatologische Gesellschaft and the Berufsverband Deutscher Dermatologen (BVDD) have initiated a project to develop evidence-based guidelines for the management of psoriasis. The guidelines focus on induction therapy in cases of mild, moderate, and severe plaque-type psoriasis in adults. The short version of the guidelines reported here consist of a series of therapeutic recommendations that are based on a systematic literature search and subsequent discussion with experts in the field; they have been approved by a team of dermatology experts. In addition to the therapeutic recommendations provided in this short version, the full version of the guidelines includes information on contraindications, adverse events, drug interactions, practicality, and costs as well as detailed information on how best to apply the treatments described (for full version, please see Nast et al., JDDG, Suppl 2:S1–S126, 2006; or http://www.psoriasis-leitlinie.de).
The first measurement of two-pion Bose–Einstein correlations in central Pb–Pb collisions at √sNN=2.76 TeV at the Large Hadron Collider is presented. We observe a growing trend with energy now not only for the longitudinal and the outward but also for the sideward pion source radius. The pion homogeneity volume and the decoupling time are significantly larger than those measured at RHIC.
Inclusive transverse momentum spectra of primary charged particles in Pb–Pb collisions at √sNN=2.76 TeV have been measured by the ALICE Collaboration at the LHC. The data are presented for central and peripheral collisions, corresponding to 0–5% and 70–80% of the hadronic Pb–Pb cross section. The measured charged particle spectra in |η|<0.8 and 0.3<pT<20 GeV/c are compared to the expectation in pp collisions at the same sNN, scaled by the number of underlying nucleon–nucleon collisions. The comparison is expressed in terms of the nuclear modification factor RAA. The result indicates only weak medium effects (RAA≈0.7) in peripheral collisions. In central collisions, RAA reaches a minimum of about 0.14 at pT=6–7 GeV/c and increases significantly at larger pT. The measured suppression of high-pT particles is stronger than that observed at lower collision energies, indicating that a very dense medium is formed in central Pb–Pb collisions at the LHC.
The inclusive charged particle transverse momentum distribution is measured in proton–proton collisions at s=900 GeV at the LHC using the ALICE detector. The measurement is performed in the central pseudorapidity region (|η|<0.8) over the transverse momentum range 0.15<pT<10 GeV/c. The correlation between transverse momentum and particle multiplicity is also studied. Results are presented for inelastic (INEL) and non-single-diffractive (NSD) events. The average transverse momentum for |η|<0.8 is 〈pT〉INEL=0.483±0.001 (stat.)±0.007 (syst.) GeV/c and 〈pT〉NSD=0.489±0.001 (stat.)±0.007 (syst.) GeV/c, respectively. The data exhibit a slightly larger 〈pT〉 than measurements in wider pseudorapidity intervals. The results are compared to simulations with the Monte Carlo event generators PYTHIA and PHOJET.
Rapidity and transverse momentum dependence of inclusive J/ψ production in pp collisions at √s=7 TeV
(2011)
The ALICE experiment at the LHC has studied inclusive J/ψ production at central and forward rapidities in pp collisions at √s=7 TeV. In this Letter, we report on the first results obtained detecting the J/ψ through the dilepton decay into e+e− and μ+μ− pairs in the rapidity ranges |y|<0.9 and 2.5<y<4, respectively, and with acceptance down to zero pT. In the dielectron channel the analysis was carried out on a data sample corresponding to an integrated luminosity Lint=5.6 nb−1 and the number of signal events is NJ/ψ=352±32(stat.)±28(syst.); the corresponding figures in the dimuon channel are Lint=15.6 nb−1 and NJ/ψ=1924±77(stat.)±144(syst.). The measured production cross sections are σJ/ψ(|y|<0.9)=10.7±1.0(stat.)±1.6(syst.)−2.3+1.6(syst.pol.)μb and σJ/ψ(2.5<y<4)=6.31±0.25(stat.)±0.76(syst.)−1.96+0.95(syst.pol.)μb. The differential cross sections, in transverse momentum and rapidity, of the J/ψ were also measured.
Harmonic decomposition of two particle angular correlations in Pb–Pb collisions at √sNN=2.76 TeV
(2012)
Angular correlations between unidentified charged trigger (t) and associated (a) particles are measured by the ALICE experiment in Pb–Pb collisions at √sNN=2.76 TeV for transverse momenta 0.25<pTt,a<15 GeV/c, where pTt>pTa. The shapes of the pair correlation distributions are studied in a variety of collision centrality classes between 0 and 50% of the total hadronic cross section for particles in the pseudorapidity interval |η|<1.0. Distributions in relative azimuth Δϕ≡ϕt−ϕa are analyzed for |Δη|≡|ηt−ηa|>0.8, and are referred to as “long-range correlations”. Fourier components VnΔ≡〈cos(nΔϕ)〉 are extracted from the long-range azimuthal correlation functions. If particle pairs are correlated to one another through their individual correlation to a common symmetry plane, then the pair anisotropy VnΔ(pTt,pTa) is fully described in terms of single-particle anisotropies vn(pT) as VnΔ(pTt,pTa)=vn(pTt)vn(pTa). This expectation is tested for 1⩽n⩽5 by applying a global fit of all VnΔ(pTt,pTa) to obtain the best values vn{GF}(pT). It is found that for 2⩽n⩽5, the fit agrees well with data up to pTa∼3–4 GeV/c, with a trend of increasing deviation as pTt and pTa are increased or as collisions become more peripheral. This suggests that no pair correlation harmonic can be described over the full 0.25<pT<15 GeV/c range using a single vn(pT) curve; such a description is however approximately possible for 2⩽n⩽5 when pTa<4 GeV/c. For the n=1 harmonic, however, a single v1(pT) curve is not obtained even within the reduced range pTa<4 GeV/c.