Refine
Year of publication
Document Type
- Article (19)
- Preprint (3)
- Working Paper (2)
- Diploma Thesis (1)
Has Fulltext
- yes (25)
Is part of the Bibliography
- no (25)
Keywords
- LHC (4)
- ALICE (2)
- 900 GeV (1)
- ALICE experiment (1)
- Active middle ear implants (1)
- Arbeitslosigkeit (1)
- Armut (1)
- Auditory system (1)
- B cells (1)
- B-cell antigen receptor (1)
Institute
In a collective treatment the energies of the giant resonances are given by the boundary conditions at the nuclear surface, which is subject to vibration in spherical nuclei. The general form of the coupling between these two collective motions is given by angular-momentum and parity conservation. The coupling constants are completely determined within the hydrodynamical model. In the present treatment the influence of the surface vibrations on the total photon-absorption cross section is calculated. It turns out that in most of the spherical nuclei this interaction leads to a pronounced structure in the cross section. The agreement with the experiments in medium-heavy nuclei is striking; many of the experimental characteristics are reproduced by the present calculations. In some nuclei, however, there seem to be indications of single-particle excitations which are not yet contained in this work.
Nowadays, several options are available to treat patients with conductive or mixed hearing loss. Whenever surgical intervention is not possible or contra-indicated, and amplification by a conventional hearing device (e.g., behind-the-ear device) is not feasible, then implantable hearing devices are an indispensable next option. Implantable bone-conduction devices and middle-ear implants have advantages but also limitations concerning complexity/invasiveness of the surgery, medical complications, and effectiveness. To counsel the patient, the clinician should have a good overview of the options with regard to safety and reliability as well as unequivocal technical performance data. The present consensus document is the outcome of an extensive iterative process including ENT specialists, audiologists, health-policy scientists, and representatives/technicians of the main companies in this field. This document should provide a first framework for procedures and technical characterization to enhance effective communication between these stakeholders, improving health care.
Epigenetic neural glioblastoma enhances synaptic integration and predicts therapeutic vulnerability
(2023)
Neural-tumor interactions drive glioma growth as evidenced in preclinical models, but clinical validation is nascent. We present an epigenetically defined neural signature of glioblastoma that independently affects patients survival. We use reference signatures of neural cells to deconvolve tumor DNA and classify samples into low- or high-neural tumors. High-neural glioblastomas exhibit hypomethylated CpG sites and upregulation of genes associated with synaptic integration. Single-cell transcriptomic analysis reveals high abundance of stem cell-like malignant cells classified as oligodendrocyte precursor and neural precursor cell-like in high-neural glioblastoma. High-neural glioblastoma cells engender neuron-to-glioma synapse formation in vitro and in vivo and show an unfavorable survival after xenografting. In patients, a high-neural signature associates with decreased survival as well as increased functional connectivity and can be detected via DNA analytes and brain-derived neurotrophic factor in plasma. Our study presents an epigenetically defined malignant neural signature in high-grade gliomas that is prognostically relevant.
Psoriasis vulgaris is a common and chronic inflammatory skin disease which has the potential to significantly reduce the quality of life in severely affected patients. The incidence of psoriasis in Western industrialized countries ranges from 1.5 to 2%. Despite the large variety of treatment options available, patient surveys have revealed insufficient satisfaction with the efficacy of available treatments and a high rate of medication non-compliance. To optimize the treatment of psoriasis in Germany, the Deutsche Dermatologische Gesellschaft and the Berufsverband Deutscher Dermatologen (BVDD) have initiated a project to develop evidence-based guidelines for the management of psoriasis. The guidelines focus on induction therapy in cases of mild, moderate, and severe plaque-type psoriasis in adults. The short version of the guidelines reported here consist of a series of therapeutic recommendations that are based on a systematic literature search and subsequent discussion with experts in the field; they have been approved by a team of dermatology experts. In addition to the therapeutic recommendations provided in this short version, the full version of the guidelines includes information on contraindications, adverse events, drug interactions, practicality, and costs as well as detailed information on how best to apply the treatments described (for full version, please see Nast et al., JDDG, Suppl 2:S1–S126, 2006; or http://www.psoriasis-leitlinie.de).
Harmonic decomposition of two particle angular correlations in Pb–Pb collisions at √sNN=2.76 TeV
(2012)
Angular correlations between unidentified charged trigger (t) and associated (a) particles are measured by the ALICE experiment in Pb–Pb collisions at √sNN=2.76 TeV for transverse momenta 0.25<pTt,a<15 GeV/c, where pTt>pTa. The shapes of the pair correlation distributions are studied in a variety of collision centrality classes between 0 and 50% of the total hadronic cross section for particles in the pseudorapidity interval |η|<1.0. Distributions in relative azimuth Δϕ≡ϕt−ϕa are analyzed for |Δη|≡|ηt−ηa|>0.8, and are referred to as “long-range correlations”. Fourier components VnΔ≡〈cos(nΔϕ)〉 are extracted from the long-range azimuthal correlation functions. If particle pairs are correlated to one another through their individual correlation to a common symmetry plane, then the pair anisotropy VnΔ(pTt,pTa) is fully described in terms of single-particle anisotropies vn(pT) as VnΔ(pTt,pTa)=vn(pTt)vn(pTa). This expectation is tested for 1⩽n⩽5 by applying a global fit of all VnΔ(pTt,pTa) to obtain the best values vn{GF}(pT). It is found that for 2⩽n⩽5, the fit agrees well with data up to pTa∼3–4 GeV/c, with a trend of increasing deviation as pTt and pTa are increased or as collisions become more peripheral. This suggests that no pair correlation harmonic can be described over the full 0.25<pT<15 GeV/c range using a single vn(pT) curve; such a description is however approximately possible for 2⩽n⩽5 when pTa<4 GeV/c. For the n=1 harmonic, however, a single v1(pT) curve is not obtained even within the reduced range pTa<4 GeV/c.
Heavy flavour decay muon production at forward rapidity in proton–proton collisions at √s=7 TeV
(2012)
The production of muons from heavy flavour decays is measured at forward rapidity in proton–proton collisions at √s=7 TeV collected with the ALICE experiment at the LHC. The analysis is carried out on a data sample corresponding to an integrated luminosity Lint=16.5 nb−1. The transverse momentum and rapidity differential production cross sections of muons from heavy flavour decays are measured in the rapidity range 2.5<y<4, over the transverse momentum range 2<pt<12 GeV/c. The results are compared to predictions based on perturbative QCD calculations.
The ALICE Collaboration has measured inclusive J/ψ production in pp collisions at a center-of-mass energy √s=2.76 TeV at the LHC. The results presented in this Letter refer to the rapidity ranges |y|<0.9 and 2.5<y<4 and have been obtained by measuring the electron and muon pair decay channels, respectively. The integrated luminosities for the two channels are Linte=1.1 nb−1 and Lintμ=19.9 nb−1, and the corresponding signal statistics are NJ/ψe+e−=59±14 and NJ/ψμ+μ−=1364±53. We present dσJ/ψ/dy for the two rapidity regions under study and, for the forward-y range, d2σJ/ψ/dydpt in the transverse momentum domain 0<pt<8 GeV/c. The results are compared with previously published results at s=7 TeV and with theoretical calculations.
The ALICE Collaboration reports the measurement of the relative J/ψ yield as a function of charged particle pseudorapidity density dNch/dη in pp collisions at √s=7 TeV at the LHC. J/ψ particles are detected for pt>0, in the rapidity interval |y|<0.9 via decay into e+e−, and in the interval 2.5<y<4.0 via decay into μ+μ− pairs. An approximately linear increase of the J/ψ yields normalized to their event average (dNJ/ψ/dy)/〈dNJ/ψ/dy〉 with (dNch/dη)/〈dNch/dη〉 is observed in both rapidity ranges, where dNch/dη is measured within |η|<1 and pt>0. In the highest multiplicity interval with 〈dNch/dη(bin)〉=24.1, corresponding to four times the minimum bias multiplicity density, an enhancement relative to the minimum bias J/ψ yield by a factor of about 5 at 2.5<y<4 (8 at |y|<0.9) is observed.
Ziel dieser Arbeit war es, ein System zu entwickeln, mit dem Sätze von Reduktionsdiagrammen auf ihre Vollständigkeit überprüft werden können. Das System sollte in der puren, funktionalen Programmiersprache Haskell realisiert werden und speziell auf einen nichtdeterministischen Kalkül mit Konstruktoren, einem case-Konstrukt und einem rekursiven let- Ausdruck (letrec) ausgerichtet sein. Dazu wurde in Kapitel 2 der lambda-Kalkül und funktionale Programmiersprachen eingeführt, um die Entwicklung der Kalküle lambda-nd und lambda-nd,rec zu motivieren. Die Basis-Kalküle lambda-nd und lamda-nd,rec wurden in Kapitel 3 bezüglich ihrer Sprachdefinition und Reduktionsregeln vorgestellt. Die Implementierung der beiden Kalküle und der Parser für die verwendete Kernsprache wurden ebenso angegeben wie die Mechanismen zur Markierung und Reduktion der Terme. Die Unterscheidung eines reduzierbaren Terms in NO- und internen Redex, sowie deren Erkennung wurde in diesem Kapitel besonders herausgestellt, da sie die Grundlage für die zu validierenden Reduktionsdiagramme darstellt. Damit ist der Grundstock für diese Arbeit gelegt worden. In Kapitel 4 haben wir kurz Methoden vorgestellt, die lamda-Kalkülen und deren Derivate eine Bedeutung zuzumessen versuchen, um Programme oder Terme miteinander vergleichen zu können. Also nicht nur ihre Termstruktur, sondern ihr Verhalten zu vergleichen. Dabei ist festgestellt worden, daß für nichtdeterministische Kalküle nur eine Methode verfügbar ist, und zwar die der kontextuellen Äquivalenz. Da wir gängige Programmtransformationen dahingehend überprüfen wollten, ob sie der kontextuellen Äquivalenz genügen, also nicht die Auswertung oder das Ergebnis derselben verändern, haben wir ein Kontext-Lemma vorgestellt. Mit Hilfe des Kontext-Lemmas ist es uns möglich gewesen, die Gültigkeit von Beweisen in Reduktionskontexten auf beliebige Kontexte auszudehnen. Für die eigentlichen Beweise werden Reduktionsdiagramme benötigt, die Reduktionsfolgen in verschiedener Weise umstellen. Wir haben die Reduktionsdiagramme ebenfalls in Kapitel 4 definiert. Die Reduktionsdiagramme müssen an jeder Stelle einer Reduktionsfolge anwendbar sein, da sonst die Äquivalenz-Beweise nicht möglich sind. D. h. es müßte bewiesen werden, daß mindestens ein Reduktionsdiagramm einer definierten Menge von Reduktionsdiagrammen für jeden Term und jede seiner Reduktionsfolgen anwendbar ist. Der naive Weg wäre, alle Terme und seine Reduktionsfolgen dahingehend zu überprüfen. Da dies jedoch nicht möglich ist, haben wir uns dazu entschlossen so viele Terme wie möglich zu untersuchen, nicht um die Vollständigkeit der Diagramme zu beweisen, sondern um zu zeigen, daß auf viele verschiedenartige Terme Reduktionsdiagramme erfolgreich angewendet werden können. Die Generierung der Terme haben wir in Kapitel 5 ausführlich dargestellt. In Kapitel 6 haben wir die Sprache zur Darstellung von Reduktionsdiagrammen und die Implementierung der Diagramm-Validierung beschrieben. Weiterhin haben wir ein Verfahren vorgestellt, mit dem wir fehlende Diagramme für Terme suchen und meist auch finden können. Das gesamte System haben wir so aufgebaut, daß eine große Menge an Termen generiert wird, für die Diagramme anwendbar sein müssen. Wenn keines der Diagramme auf einen Term anwendbar ist, also nicht validiert werden kann, dann wird ein passendes Diagramm gesucht. Mit Hilfe des entwickelten Systems Jonah sind in Kapitel 7 verschiedene Programmtransformationen dahingehend überprüft worden, ob die angegebenen Reduktionsdiagramme für große Mengen von Termen gültig sind. Dabei ist als Ergebnis herausgekommen, daß ein vollständiger Satz an Reduktionsdiagrammen für die (cp)-Reduktion nur sehr schwer zu finden ist. Selbst neu hinzugefügte Transformationen, die dabei helfen sollten, die Schwierigkeiten zu umgehen, konnten nicht verwendet werden, da es uns ebenfalls nicht möglich gewesen ist, für sie vollständige Diagrammsätze zu finden. Daraufhin haben wir den Basis-Kalkül zweimal erweitert, um die Schwierigkeiten der (cp)-Diagramme in den Griff zu bekommen. Aber auch diese Ansätze haben kein zufriedenstellendes Ergebnis geliefert. Als positives Ergebnis dieser Arbeit kann aber festgestellt werden, daß das System Jonah bei der Entwicklung nichtdeterministischer Kalküle auf Basis von lambda-Kalkülen eine sehr gute Hilfestellung sein kann, auch wenn es nicht zum vollständigen Beweis der Gültigkeit von Reduktionsdiagrammen dienen kann.