Refine
Year of publication
Document Type
- Article (19)
- Preprint (12)
- Working Paper (6)
- Contribution to a Periodical (4)
- Book (2)
- Part of a Book (1)
Language
- English (27)
- German (16)
- Portuguese (1)
Has Fulltext
- yes (44)
Is part of the Bibliography
- no (44)
Keywords
- Normative Ordnungen (2)
- Bewegungserziehung (1)
- Bodensee (1)
- Bodensee-Gebiet (1)
- Cognitive impairment (1)
- Communication (1)
- Crime (1)
- Criminal Law (1)
- Digitalisierung (1)
- Echo-Räume (1)
Institute
- Frankfurt Institute for Advanced Studies (FIAS) (17)
- Informatik (17)
- Physik (17)
- Rechtswissenschaft (13)
- Exzellenzcluster Die Herausbildung normativer Ordnungen (7)
- Präsidium (6)
- Medizin (3)
- Geowissenschaften (2)
- Gesellschaftswissenschaften (2)
- Sportwissenschaften (2)
- Center for Financial Studies (CFS) (1)
- House of Finance (HoF) (1)
- Philosophie (1)
- Sonderforschungsbereiche / Forschungskollegs (1)
- Sustainable Architecture for Finance in Europe (SAFE) (1)
- Wirtschaftswissenschaften (1)
The first measurement of ϕ-meson production in p-Pb collisions at a nucleon-nucleon centre-of-mass energy sNN−−−√ = 5.02 TeV has been performed with the ALICE apparatus at the LHC. The ϕ-mesons have been identified in the dimuon decay channel in the transverse momentum (pT) range 1<pT<7 GeV/c, both in the p-going (2.03<y<3.53) and the Pb-going (−4.46<y<−2.96) directions, where y stands for the rapidity in the nucleon-nucleon centre-of-mass. Differential cross sections as a function of transverse momentum and rapidity are presented. The forward-backward asymmetry for ϕ-meson production is measured for 2.96<|y|<3.53, resulting in a factor ∼0.5 with no significant pT dependence within the uncertainties. The pT dependence of the ϕ nuclear modification factor RpPb exhibits an enhancement up to a factor 1.6 at pT = 3-4 GeV/c in the Pb-going direction. The pT dependence of the ϕ-meson cross section in pp collisions at s√ = 2.76 TeV, which is used to determine a reference for the p-Pb results, is also presented here for 1<pT<5 GeV/c and 2.5<y<4.
We report on results obtained with the Event Shape Engineering technique applied to Pb-Pb collisions at sNN−−−√=2.76 TeV. By selecting events in the same centrality interval, but with very different average flow, different initial state conditions can be studied. We find the effect of the event-shape selection on the elliptic flow coefficient v2 to be almost independent of transverse momentum pT, as expected if this effect is due to fluctuations in the initial geometry of the system. Charged hadron, pion, kaon, and proton transverse momentum distributions are found to be harder in events with higher-than-average elliptic flow, indicating an interplay between radial and elliptic flow.
Transverse momentum (pT) spectra of pions, kaons, and protons up to pT=20 GeV/c have been measured in Pb-Pb collisions at sNN−−−√=2.76 TeV using the ALICE detector for six different centrality classes covering 0-80%. The proton-to-pion and the kaon-to-pion ratios both show a distinct peak at pT≈3 GeV/c in central Pb-Pb collisions that decreases towards more peripheral collisions. For pT>10 GeV/c, the nuclear modification factor is found to be the same for all three particle species in each centrality interval within systematic uncertainties of 10-20%. This suggests there is no direct interplay between the energy loss in the medium and the particle species composition in the hard core of the quenched jet. For pT<10 GeV/c, the data provide important constraints for models aimed at describing the transition from soft to hard physics.
Transverse momentum (pT) spectra of pions, kaons, and protons up to pT=20 GeV/c have been measured in Pb-Pb collisions at sNN−−−√=2.76 TeV using the ALICE detector for six different centrality classes covering 0-80%. The proton-to-pion and the kaon-to-pion ratios both show a distinct peak at pT≈3 GeV/c in central Pb-Pb collisions that decreases towards more peripheral collisions. For pT>10 GeV/c, the nuclear modification factor is found to be the same for all three particle species in each centrality interval within systematic uncertainties of 10-20%. This suggests there is no direct interplay between the energy loss in the medium and the particle species composition in the hard core of the quenched jet. For pT<10 GeV/c, the data provide important constraints for models aimed at describing the transition from soft to hard physics.
The first study of ϕ-meson production in p-Pb collisions at forward and backward rapidity, at a nucleon-nucleon centre-of-mass energy sNN−−−√=5.02~TeV, has been performed with the ALICE apparatus at the LHC. The ϕ-mesons have been identified in the dimuon decay channel in the transverse momentum (pT) range 1<pT<7 GeV/c, both in the p-going (2.03<y<3.53) and the Pb-going (−4.46<y<−2.96) directions, where y stands for the rapidity in the nucleon-nucleon centre-of-mass, the integrated luminosity amounting to 5.01±0.19~nb−1 and 5.81±0.20~nb−1, respectively, for the two data samples. Differential cross sections as a function of transverse momentum and rapidity are presented. The forward-backward ratio for ϕ-meson production is measured for 2.96<|y|<3.53, resulting in a ratio ∼0.5 with no significant pT dependence within the uncertainties. The pT dependence of the ϕ nuclear modification factor RpPb exhibits an enhancement up to a factor 1.6 at pT = 3-4 GeV/c in the Pb-going direction. The pT dependence of the ϕ-meson cross section in pp collisions at s√ = 2.76 TeV, which is used to determine a reference for the p-Pb results, is also presented here for 1<pT<5 GeV/c and 2.5<y<4 for a 78±3~nb−1 integrated luminosity sample.
The first study of ϕ-meson production in p-Pb collisions at forward and backward rapidity, at a nucleon-nucleon centre-of-mass energy sNN−−−√=5.02~TeV, has been performed with the ALICE apparatus at the LHC. The ϕ-mesons have been identified in the dimuon decay channel in the transverse momentum (pT) range 1<pT<7 GeV/c, both in the p-going (2.03<y<3.53) and the Pb-going (−4.46<y<−2.96) directions, where y stands for the rapidity in the nucleon-nucleon centre-of-mass, the integrated luminosity amounting to 5.01±0.19~nb−1 and 5.81±0.20~nb−1, respectively, for the two data samples. Differential cross sections as a function of transverse momentum and rapidity are presented. The forward-backward ratio for ϕ-meson production is measured for 2.96<|y|<3.53, resulting in a ratio ∼0.5 with no significant pT dependence within the uncertainties. The pT dependence of the ϕ nuclear modification factor RpPb exhibits an enhancement up to a factor 1.6 at pT = 3-4 GeV/c in the Pb-going direction. The pT dependence of the ϕ-meson cross section in pp collisions at s√ = 2.76 TeV, which is used to determine a reference for the p-Pb results, is also presented here for 1<pT<5 GeV/c and 2.5<y<4 for a 78±3~nb−1 integrated luminosity sample.
Two-particle angular correlations between trigger particles in the forward pseudorapidity range (2.5<|η|<4.0) and associated particles in the central range (|η|<1.0) are measured with the ALICE detector in p-Pb collisions at a nucleon-nucleon centre-of-mass energy of 5.02 TeV. The trigger particles are reconstructed using the muon spectrometer, and the associated particles by the central barrel tracking detectors. In high-multiplicity events, the double-ridge structure, previously discovered in two-particle angular correlations at midrapidity, is found to persist to the pseudorapidity ranges studied in this Letter. The second-order Fourier coefficients for muons in high-multiplicity events are extracted after jet-like correlations from low-multiplicity events have been subtracted. The coefficients are found to have a similar transverse momentum (pT) dependence in p-going (p-Pb) and Pb-going (Pb-p) configurations, with the Pb-going coefficients larger by about 16±6%, rather independent of pT within the uncertainties of the measurement. The data are compared with calculations using the AMPT model, which predicts a different pT and η dependence than observed in the data. The results are sensitive to the parent particle v2 and composition of reconstructed muon tracks, where the contribution from heavy flavour decays are expected to dominate at pT>2 GeV/c.
Two-particle angular correlations between trigger particles in the forward pseudorapidity range (2.5<|η|<4.0) and associated particles in the central range (|η|<1.0) are measured with the ALICE detector in p-Pb collisions at a nucleon-nucleon centre-of-mass energy of 5.02 TeV. The trigger particles are reconstructed using the muon spectrometer, and the associated particles by the central barrel tracking detectors. In high-multiplicity events, the double-ridge structure, previously discovered in two-particle angular correlations at midrapidity, is found to persist to the pseudorapidity ranges studied in this Letter. The second-order Fourier coefficients for muons in high-multiplicity events are extracted after jet-like correlations from low-multiplicity events have been subtracted. The coefficients are found to have a similar transverse momentum (pT) dependence in p-going (p-Pb) and Pb-going (Pb-p) configurations, with the Pb-going coefficients larger by about 16±6%, rather independent of pT within the uncertainties of the measurement. The data are compared with calculations using the AMPT model, which predicts a different pT and η dependence than observed in the data. The results are sensitive to the parent particle v2 and composition of reconstructed muon tracks, where the contribution from heavy flavour decays are expected to dominate at pT>2 GeV/c.
Two-particle angular correlations between trigger particles in the forward pseudorapidity range (2.5<|η|<4.0) and associated particles in the central range (|η|<1.0) are measured with the ALICE detector in p-Pb collisions at a nucleon-nucleon centre-of-mass energy of 5.02 TeV. The trigger particles are reconstructed using the muon spectrometer, and the associated particles by the central barrel tracking detectors. In high-multiplicity events, the double-ridge structure, previously discovered in two-particle angular correlations at midrapidity, is found to persist to the pseudorapidity ranges studied in this Letter. The second-order Fourier coefficients for muons in high-multiplicity events are extracted after jet-like correlations from low-multiplicity events have been subtracted. The coefficients are found to have a similar transverse momentum (pT) dependence in p-going (p-Pb) and Pb-going (Pb-p) configurations, with the Pb-going coefficients larger by about 16±6%, rather independent of pT within the uncertainties of the measurement. The data are compared with calculations using the AMPT model, which predicts a different pT and η dependence than observed in the data. The results are sensitive to the parent particle v2 and composition of reconstructed muon tracks, where the contribution from heavy flavour decays are expected to dominate at pT>2 GeV/c.
Two-particle angular correlations between trigger particles in the forward pseudorapidity range (2.5<|η|<4.0) and associated particles in the central range (|η|<1.0) are measured with the ALICE detector in p-Pb collisions at a nucleon-nucleon centre-of-mass energy of 5.02 TeV. The trigger particles are reconstructed using the muon spectrometer, and the associated particles by the central barrel tracking detectors. In high-multiplicity events, the double-ridge structure, previously discovered in two-particle angular correlations at midrapidity, is found to persist to the pseudorapidity ranges studied in this Letter. The second-order Fourier coefficients for muons in high-multiplicity events are extracted after jet-like correlations from low-multiplicity events have been subtracted. The coefficients are found to have a similar transverse momentum (pT) dependence in p-going (p-Pb) and Pb-going (Pb-p) configurations, with the Pb-going coefficients larger by about 16±6%, rather independent of pT within the uncertainties of the measurement. The data are compared with calculations using the AMPT model, which predicts a different pT and η dependence than observed in the data. The results are sensitive to the parent particle v2 and composition of reconstructed muon tracks, where the contribution from heavy flavour decays are expected to dominate at pT>2 GeV/c.
We have has performed the first measurement of the coherent ψ(2S) photo-production cross section in ultra-peripheral Pb-Pb collisions at the LHC. This charmonium excited state is reconstructed via the ψ(2S) →l+l− and ψ(2S) → J/ψπ+π− decays, where the J/ψ decays into two leptons. The analysis is based on an event sample corresponding to an integrated luminosity of about 22 μb−1. The cross section for coherent ψ(2S) production in the rapidity interval −0.9<y<0.9 is dσcohψ(2S)/dy=0.83±0.19(stat+syst) mb. The ψ(2S) to J/ψ coherent cross section ratio is 0.34+0.08−0.07(stat+syst). The obtained results are compared to predictions from theoretical models.
We have has performed the first measurement of the coherent ψ(2S) photo-production cross section in ultra-peripheral Pb-Pb collisions at the LHC. This charmonium excited state is reconstructed via the ψ(2S) →l+l− and ψ(2S) → J/ψπ+π− decays, where the J/ψ decays into two leptons. The analysis is based on an event sample corresponding to an integrated luminosity of about 22 μb−1. The cross section for coherent ψ(2S) production in the rapidity interval −0.9<y<0.9 is dσcohψ(2S)/dy=0.83±0.19(stat+syst) mb. The ψ(2S) to J/ψ coherent cross section ratio is 0.34+0.08−0.07(stat+syst). The obtained results are compared to predictions from theoretical models.
The production of J/ψ and ψ(2S) was measured with the ALICE detector in Pb-Pb collisions at the LHC. The measurement was performed at forward rapidity (2.5<y<4) down to zero transverse momentum (pT) in the dimuon decay channel. Inclusive J/ψ yields were extracted in different centrality classes and the centrality dependence of the average pT is presented. The J/ψ suppression, quantified with the nuclear modification factor (RAA), was studied as a function of centrality, transverse momentum and rapidity. Comparisons with similar measurements at lower collision energy and theoretical models indicate that the J/ψ production is the result of an interplay between color screening and recombination mechanisms in a deconfined partonic medium, or at its hadronization. Results on the ψ(2S) suppression are provided via the ratio of ψ(2S) over J/ψ measured in pp and Pb-Pb collisions.
We present a measurement of inclusive J/ψ production in p-Pb collisions at sNN−−−√ = 5.02 TeV as a function of the centrality of the collision, as estimated from the energy deposited in the Zero Degree Calorimeters. The measurement is performed with the ALICE detector down to zero transverse momentum, pT, in the backward (−4.46<ycms<−2.96) and forward (2.03<ycms<3.53) rapidity intervals in the dimuon decay channel and in the mid-rapidity region (−1.37<ycms<0.43) in the dielectron decay channel. The backward and forward rapidity intervals correspond to the Pb-going and p-going direction, respectively. The pT-differential J/ψ production cross section at backward and forward rapidity is measured for several centrality classes, together with the corresponding average pT and p2T values. The nuclear modification factor, QpPb, is presented as a function of centrality for the three rapidity intervals, and, additionally, at backward and forward rapidity, as a function of pT for several centrality classes. At mid- and forward rapidity, the J/ψ yield is suppressed up to 40% compared to that in pp interactions scaled by the number of binary collisions. The degree of suppression increases towards central p-Pb collisions at forward rapidity, and with decreasing pT of the J/ψ. At backward rapidity, the QpPb is compatible with unity within the total uncertainties, with an increasing trend from peripheral to central p-Pb collisions.
Transverse momentum (pT) spectra of pions, kaons, and protons up to pT=20 GeV/c have been measured in Pb-Pb collisions at sNN−−−√=2.76 TeV using the ALICE detector for six different centrality classes covering 0-80%. The proton-to-pion and the kaon-to-pion ratios both show a distinct peak at pT≈3 GeV/c in central Pb-Pb collisions that decreases towards more peripheral collisions. For pT>10 GeV/c, the nuclear modification factor is found to be the same for all three particle species in each centrality interval within systematic uncertainties of 10-20%. This suggests there is no direct interplay between the energy loss in the medium and the particle species composition in the hard core of the quenched jet. For pT<10 GeV/c, the data provide important constraints for models aimed at describing the transition from soft to hard physics.
Transverse momentum (pT) spectra of pions, kaons, and protons up to pT=20 GeV/c have been measured in Pb-Pb collisions at sNN−−−√=2.76 TeV using the ALICE detector for six different centrality classes covering 0-80%. The proton-to-pion and the kaon-to-pion ratios both show a distinct peak at pT≈3 GeV/c in central Pb-Pb collisions that decreases towards more peripheral collisions. For pT>10 GeV/c, the nuclear modification factor is found to be the same for all three particle species in each centrality interval within systematic uncertainties of 10-20%. This suggests there is no direct interplay between the energy loss in the medium and the particle species composition in the hard core of the quenched jet. For pT<10 GeV/c, the data provide important constraints for models aimed at describing the transition from soft to hard physics.
Eine fachübergreifende Zusammenarbeit von Fachleuten aus den Bereichen Makrophyten, Makrozoobenthos und Ornithologie hat am Bodensee zum ersten Mal das Beziehungsgefüge zwischen limnischen Nahrungsressourcen der Flachwasserzone und deren Hauptprädatoren, den Wasservögeln, aufgezeigt und die hohe Dynamik in diesem Ökosystem beleuchtet. Hierfür wurden bei dieser Untersuchung Stellen am Bodensee ausgewählt, die geeignet waren, um den Einfluss der Wasservögel auf Makrophyten beziehungsweise auf Dreikantmuscheln (Dreissena polymorpha PALLAS) zu untersuchen. Wasservögel wurden in halbmo-natlichem Abstand zwischen September und März quantifiziert und deren Aktivität abge-schätzt. Diese Erfassung wurde tags und nachts mit einem Infrarotgerät oder einem Restlichtverstärker durchgeführt. Die Beprobung von Makrophyten erfolgte über das gesamte Winterhalbjahr in 3 Tiefenstufen (-1, -1,5 und -2 m) bezogen auf die Mittelwasserlinie (MW, Pegel Konstanz = 361 cm) und wurde am Bodensee zum ersten Mal durchge-führt. Die Characeen-Vegetation im flacheren Litoralbereich des Zeller Sees war bis Dezember schon stark von Wasservögeln genutzt worden, während die tieferen Zonen erst nach der Vereisungsperiode im Februar und März abgeweidet wurden. Ferner zeigte die zum Ende des Winters noch vorhandene Biomasse in Fraßschutzkäfigen, dass der Seneszenzpro-zess am Biomasseverlust offensichtlich nur einen geringen Anteil hat. Bis in -2 m Wasser-tiefe wurde die vorhandene Characeen-Biomasse von den Wasservögeln fast vollständig als Nahrungsressource genutzt. In Iznang verknappten die Ressourcen in -1 m Tiefe frü-her als in Gundholzen. Die Vögel wichen aber nicht nach Gundholzen aus, wo noch genügend Nahrung in dieser Tiefenstufe vorhanden war, sondern sie erschlossen zunächst am selben Ort die tieferen Bereiche. Dies belegt eine Bevorzugung bestimmter Nahrungsgründe. Während der Untersuchungen im Dezem-ber 2001 wurden hier 10.000 Kolbenenten festgestellt, die wesentlich zur Reduktion der dortigen Chara-Bestände beitrugen. Aber im Gegensatz zu den Kolbenenten, die im Februar zahlenmäßig gering vertreten waren, schöpften die Blässhühner die aufgrund des gefallenen Wasserstandes leicht erreichbaren Chara-Rasen noch weiter ab. Die limnologischen Untersuchungen der Dreikantmuscheln erfolgten in vier Tiefenstufen (-1, -3, -7 und -11 m) unter dem Mittleren Niedrigwasserstand (MNW, Pegel Konstanz = 264 cm). Die Probennahmen fanden an allen Stellen vor (September), während (Januar) und nach der Prädation (März) durch Wasservögel statt.
Die zunehmende Durchdringung nahezu aller Lebensbereiche der Gesellschaft mit neuen digitalen Technologien, insbesondere mit künstlicher Intelligenz, hat zur Entstehung von smarten Ordnungen geführt. Darunter werden Ordnungen verstanden, die darauf ausgerichtet sind, durch intelligentes Design und mit Hilfe algorithmischer Operationen Abweichungen von ihren Normen zu minimieren oder ganz unmöglich zu machen. Der Beitrag erläutert einige Beispiele smarter Ordnungen und zeigt auf, dass zumindest im Grundsatz zwischen einer algorithmisch optimierten, normadressatenorientierten Prävention und einer adressatensubstituierenden Präemption abweichenden Verhaltens durch digitale Technologien unterschieden werden kann. Den Schwerpunkt des Beitrags bildet sodann die Frage ob und, gegebenenfalls, in welchem Sinne, smarte Ordnungen überhaupt noch normative Ordnungen sind. Im Verlauf der Analyse zeigt sich, dass Rechtsordnungen und andere normative Ordnungen zwar das Ziel einer effektiven Durchsetzung ihrer Normen verfolgen, aber nicht das Ideal vollständiger Nicht-Abweichung. Es wird deutlich, dass es zu den wesentlichen Aspekten normativer Ordnungen gehört, dass sie an Personen adressiert sind, die sie sich als autonome und zugleich fehlbare Personen zu eigen machen müssen und dabei unvermeidlich über die faktische Freiheit zur Normabweichung verfügen. Smarte Ordnungen hingegen erfüllen diese Kriterien nicht oder nur in geringem Maße. Letztlich sind sie nur in einem schwachen Sinne normativ, soweit die in technischen Prozessen implementierte Normativität für die Betroffenen noch präsent ist. In dem Maße jedoch, wie Normativität und ihre technische Realisation sich vermischen, bis ihre erfahrbare Präsenz abnimmt, verlieren sie ihren normativen Charakter.
O 11 de setembro acelerou o desenvolvimento de uma arquitetura transnacional de segurança que intervém profundamente nas liberdades civis individuais, tanto nos direitos básicos dos cidadãos dos Estados como nos direitos humanos dos cidadãos mundiais. O artigo delineia essa arquitetura, mostra como ela dissolve as categorias jurídicas tradicionais que preservam a liberdade e discute por que hoje se aceita amplamente a prioridade da segurança sobre a liberdade.
Theorien des Rechtspluralismus treten überwiegend mit dem Anspruch auf, eine zutreffendere Beschreibung der Wirklichkeit normativer Ordnungen, namentlich der Rechtsordnung, einer Gesellschaft zu geben. Demnach geht das Recht aus vielerlei und verschiedenartigen Quellen hervor, es gibt eine Pluralität von rechtssetzenden Akteuren, Rechtsnormen verschiedener Herkunft überlappen sich in demselben sozialen Feld. Während diese Beschreibung auf historische Gesellschaften bis zur Epoche zentralisierter Nationalstaaten schon immer zutraf, sprechen viele Indizien dafür, dass auch die Entwicklung transnationalen und globalen Rechts zu einem neuen Rechtspluralismus geführt hat. Wer dagegen die Konzeption eines zentral gesetzten, hierarchisch geordneten, universalen und einheitlichen Rechts für einen Fortschritt gegenüber dem Zustand des Rechtspluralismus hält, müsste diesen kritisieren und überwinden wollen. Gegen diese Kritik wendet sich der normative Rechtspluralismus. Dafür wird vor allem seine höhere Responsivität gegenüber verschiedenartigen Rationalitäten einer komplexen Weltgesellschaft ins Feld geführt. Der Beitrag diskutiert verschiedene Varianten des normativen Rechtspluralismus und versucht zu zeigen, dass keine von ihnen ohne die Unterstellung eines gemeinsamen rechtlichen Sinnhorizontes auskommt.
Expressivist theories of punishment, according to which a penal sanction articulates or expresses a certain meaning to the offender, to the victim and to society, become more and more prominent among the traditional theories of punishment as retribution or deterrence. What these theories have in common is the idea that the conveyance of the meaning is in need of a communicative action, and that the penal sanction is such a communicative act. This article argues that pure communicative theories of punishment face great difficulties in generating any justification for hard treatment. One challenge is that certain types of sanctions – in particularly, hard treatment – restrict the communicative opportunities of the incarcerated individual; which generates a paradox, in that it turns punishment into a communicative action of non-communication. Beyond that, moreover, all practices of hard treatment potentially become unnecessary, if expressing the moral message of censure constitutes a kind of action in itself, and as such, itself a treatment of the offender, embedded in a communicative relationship between offender, victim and society; such that we may be able to think of the history of punishment as a development where hard treatment becomes more and more unnecessary for the conveyance of the message.
Die Zukunft der Freiheit
(2020)
Im Zentrum des Beitrags steht die Frage, ob und wie sich Freiheit verändert, wenn wir uns in Echo-Räumen bewegen, also in digitalen sozialen Netzwerken und in digitalen Welten, die aus den Vorhersagedaten des eigenen Verhaltens zusammengesetzt sind. Beide Varianten digitaler Welten werden als Bestätigungswelten charakterisiert, in denen der Nutzer sich in relevanten Aspekten seines Selbst nicht nur spiegelt, sondern immer wieder bestätigt und anerkannt sieht und auch andere bestätigt und anerkennt. Der Aufsatz verdeutlicht, dass es für die Frage der Freiheit in solchen Bestätigungswelten nicht nur darauf ankommt, ob wir nach den jeweils eigenen Gründen handeln oder nach Regeln, die wir gemeinsam mit anderen akzeptieren können. Denn solche Ansätze beruhen auf der unausgesprochenen Prämisse eines statischen Selbst, eine so verstandene Freiheit wäre eine statische Freiheit. Dem wird ein Verständnis von Freiheit als dynamischer Prozess gegenübergestellt, zu dem es gehört, die eigenen Gründe zu ändern. Dazu muss sich das Selbst von diesen Gründen aber erst einmal distanzieren und sich zu sich selbst verhalten können, was die Erfahrung von Widerspruch und Widerstand voraussetzt. Komplementär zu diesem Widerspruch ist es zudem auf Vertrauen angewiesen, um die Herausforderungen der Freiheit anzunehmen. Es wird gezeigt, dass sich beide Aspekte, die Freiheit als Risiko des Widerspruchs und das für die Freiheit notwendige komplementäre Vertrauen, in den digitalen Bestätigungswelten verflüchtigen.
Beim Exzellenzcluster „Normative Ordnungen“ eruiert man mit Hochdruck Möglichkeiten, wie es auch nach dem Ausscheiden aus der Exzellenzstrategie weitergehen kann. Das Land Hessen und die Goethe-Universität haben bereits ihre Unterstützung signalisiert, eine Liste von renommierten Forschern aus der ganzen Welt fordert die Weiterführung der international geschätzten Institution. Der UniReport konnte mit den beiden Sprechern des Clusters, Prof. Rainer Forst und Prof. Klaus Günther, direkt im Anschluss an die Jahreskonferenz des Clusters ein Gespräch über momentane Stimmungen und Perspektiven im Haus „Normative Ordnungen“ auf dem Campus Westend führen.
Die Herausbildung normativer Ordnungen : zur Idee eines interdisziplinären Forschungsprogramms
(2010)
Ein geistes- und sozialwissenschaftliches Forschungsprogramm betritt mit der These, dass wir in einer Zeit tiefgreifender sozialer Veränderungen leben, kein Neuland. Ein thematischer Fokus auf die Frage der Herausbildung normativer Ordnungen mit Bezug auf die entsprechenden Verschiebungen, Umbrüche und Konflikte in verschiedenen Gesellschaften und auf transnationaler Ebene bringt dagegen etwas Neues und Wichtiges ans Licht. Das ist jedenfalls unsere Überzeugung.
Das Werk von Jürgen Habermas ragt einsam aus der Theorielandschaft unserer Tage heraus, denn ihm ist es auf einzigartige Weise gelungen, eine einheitliche Theorie in der Vielzahl der disziplinären Stimmen der Philosophie und der Sozial- und Rechtswissenschaften zu schaffen: die Theorie des Diskurses. Sie hat auf all diesen Gebieten innovativ und paradigmenbildend gewirkt, was sich nicht zuletzt daran zeigt, wie stark seine Erkenntnisse auf neuere Forschungsprogramme wirken. Ein Beispiel hierfür ist der Frankfurter Exzellenzcluster »Herausbildung normativer Ordnungen«, der seit Herbst 2007 von der Deutschen Forschungsgemeinschaft gefördert wird und unter anderem neun neue Professuren an der Goethe-Universität geschaffen und besetzt hat. In mehr als 30 Forschungsprojekten arbeiten Wissenschaftlerinnen und Wissenschaftler zu unterschiedlichen Fragestellungen der Veränderung gesellschaftlicher Ordnungen.
Rechtssoziologie am Institut für Sozialforschung Im Mittelpunkt des aktuellen Forschungsprogramms des Frankfurter Instituts für Sozialforschung stehen die Paradoxien und Ambivalenzen der kapitalistischen Modernisierung. Grund legend hierfür ist die Beobachtung, dass sich fortschrittliche soziale Prozesse im Nachhinein unter den Bedingungen einer gewandelten Moderne in ihr Gegenteil verkehren können. Mit dieser These beschäftigt sich auch der Forschungsschwerpunkt »Politische Öffentlichkeit und Recht«. Mit Bezugnahme auf die gegenwärtige Rechtsentwicklung interessiert vor allem die Frage, ob und wie das Recht auf Veränderungen im Verhältnis von Individuum und Gesellschaft und auf die fortschreitende Individualisierung reagiert. Auch interessiert, wie die Rechtsentwicklung im Alltagsverständnis wahrgenommen wird. Antworten auf diese Fragestellungen werden derzeit aus den Ergebnissen des DFG-Projekts »Die Zuschreibung von Verantwortung in den Rechtsmeinungen von Bürgerinnen und Bürgern« wie auch aus der fortlaufenden Diskussion über »Verantwortung und Gerechtigkeit« im Arbeitskreis Rechtssoziologie gewonnen. Im Rahmen des Forschungsprojektes unter der Projektleitung von Prof. Dr. Klaus Günther und Prof. Dr. Axel Honneth wurden in 45 qualitativen, Leitfaden-gestützten Einzelinterviews Befragte um ihre Urteile zu drei vorgegebenen Rechtsfällen gebeten. Der Arbeitskreis Rechtssoziologie beschäftigt sich vor allem mit den in vielen gesellschaftlichen Lebensbereichen häufig aufgestellten Postulaten der Eigen- oder Selbstverantwortung; dabei soll untersucht werden, welche Konzepte einer verantwortlich handelnden Person damit einhergehen und in welchem Verhältnis sie zu den gesellschaftlichen Bedingungen verantwortlichen Handelns stehen. Die Ergebnisse der Diskussionen und des empirischen Projektes sollen ein Fundament für eine normative Theorie liefern, die Kriterien für eine gerechtfertigte Verteilung von Verantwortung in der Gesellschaft begründen soll.
Im Naturschutz hat es in Sachsen-Anhalt nach 1989 neue Impulse gegeben, was sich beispielsweise in der Ausweisung bzw. einstweiligen Sichersteilung zahlreicher Schutzgebiete ausdrückt (Buschner 1992). So wurde auch das Selketal zunächst auf einer Fläche von 3200 ha einstweilig sichergestellt. Der rechtliche Rahmen (Bundes- und Landesnaturschutzgesetze) dieser im Sinne des Naturschutzes positiven Aktivitäten sieht aber bisher die Ausweisung von Schutzgebieten nur fakultativ vor.
Significant reductions in stratospheric ozone occur inside the polar vortices each spring when chlorine radicals produced by heterogeneous reactions on cold particle surfaces in winter destroy ozone mainly in two catalytic cycles, the ClO dimer cycle and the ClO/BrO cycle. Chlorofluorocarbons (CFCs), which are responsible for most of the chlorine currently present in the stratosphere, have been banned by the Montreal Protocol and its amendments, and the ozone layer is predicted to recover to 1980 levels within the next few decades. During the same period, however, climate change is expected to alter the temperature, circulation patterns and chemical composition in the stratosphere, and possible geo-engineering ventures to mitigate climate change may lead to additional changes. To realistically predict the response of the ozone layer to such influences requires the correct representation of all relevant processes. The European project RECONCILE has comprehensively addressed remaining questions in the context of polar ozone depletion, with the objective to quantify the rates of some of the most relevant, yet still uncertain physical and chemical processes. To this end RECONCILE used a broad approach of laboratory experiments, two field missions in the Arctic winter 2009/10 employing the high altitude research aircraft M55-Geophysica and an extensive match ozone sonde campaign, as well as microphysical and chemical transport modelling and data assimilation. Some of the main outcomes of RECONCILE are as follows: (1) vortex meteorology: the 2009/10 Arctic winter was unusually cold at stratospheric levels during the six-week period from mid-December 2009 until the end of January 2010, with reduced transport and mixing across the polar vortex edge; polar vortex stability and how it is influenced by dynamic processes in the troposphere has led to unprecedented, synoptic-scale stratospheric regions with temperatures below the frost point; in these regions stratospheric ice clouds have been observed, extending over >106km2 during more than 3 weeks. (2) Particle microphysics: heterogeneous nucleation of nitric acid trihydrate (NAT) particles in the absence of ice has been unambiguously demonstrated; conversely, the synoptic scale ice clouds also appear to nucleate heterogeneously; a variety of possible heterogeneous nuclei has been characterised by chemical analysis of the non-volatile fraction of the background aerosol; substantial formation of solid particles and denitrification via their sedimentation has been observed and model parameterizations have been improved. (3) Chemistry: strong evidence has been found for significant chlorine activation not only on polar stratospheric clouds (PSCs) but also on cold binary aerosol; laboratory experiments and field data on the ClOOCl photolysis rate and other kinetic parameters have been shown to be consistent with an adequate degree of certainty; no evidence has been found that would support the existence of yet unknown chemical mechanisms making a significant contribution to polar ozone loss. (4) Global modelling: results from process studies have been implemented in a prognostic chemistry climate model (CCM); simulations with improved parameterisations of processes relevant for polar ozone depletion are evaluated against satellite data and other long term records using data assimilation and detrended fluctuation analysis. Finally, measurements and process studies within RECONCILE were also applied to the winter 2010/11, when special meteorological conditions led to the highest chemical ozone loss ever observed in the Arctic. In addition to quantifying the 2010/11 ozone loss and to understand its causes including possible connections to climate change, its impacts were addressed, such as changes in surface ultraviolet (UV) radiation in the densely populated northern mid-latitudes.
The international research project RECONCILE has addressed central questions regarding polar ozone depletion, with the objective to quantify some of the most relevant yet still uncertain physical and chemical processes and thereby improve prognostic modelling capabilities to realistically predict the response of the ozone layer to climate change. This overview paper outlines the scope and the general approach of RECONCILE, and it provides a summary of observations and modelling in 2010 and 2011 that have generated an in many respects unprecedented dataset to study processes in the Arctic winter stratosphere. Principally, it summarises important outcomes of RECONCILE including (i) better constraints and enhanced consistency on the set of parameters governing catalytic ozone destruction cycles, (ii) a better understanding of the role of cold binary aerosols in heterogeneous chlorine activation, (iii) an improved scheme of polar stratospheric cloud (PSC) processes that includes heterogeneous nucleation of nitric acid trihydrate (NAT) and ice on non-volatile background aerosol leading to better model parameterisations with respect to denitrification, and (iv) long transient simulations with a chemistry-climate model (CCM) updated based on the results of RECONCILE that better reproduce past ozone trends in Antarctica and are deemed to produce more reliable predictions of future ozone trends. The process studies and the global simulations conducted in RECONCILE show that in the Arctic, ozone depletion uncertainties in the chemical and microphysical processes are now clearly smaller than the sensitivity to dynamic variability.
Es war eine heißer, schwüler Sommerabend, als John Rawls im Hörsaal H der Frankfurter Universität einen Vortrag hielt. Er sprach leise, fast schleppend, und er hatte sich vorgenommen, den Text in einer deutschen Übersetzung vorzulesen, was für einen amerikanischen Professor ungewöhnlich war und deshalb Bewunderung verdiente. Doch war die angespannte Konzentration spürbar, die Rawls aufbringen musste, um deutscheWorte mit so wenig amerikanischer Phonetik wiemöglich zu sprechen, und der Vortrag wurde dadurch noch langsamer, die Stimme noch leiser. Außerdem funktionierte das Mikrofon nicht richtig. Deshalb wurde es ihm von seinem Übersetzer, Wilfried Hinsch, mit ausgestrecktem Arm so nahe an denMund gehalten, dass wenigstens ein paar Worte zu verstehen waren. Nach kurzer Zeit verließen die ersten Zuhörer den Hörsaal. Der ausgestreckte Arm des Helfers wurde sichtbar schwerer; Anstrengung und Hitze ließen Schweißbäche rinnen und das Oberhemd nass werden.Der Vortragwar nicht einfach. Rawls machte, wie gewohnt, keinerlei Konzessionen, sondern diktierte einen komplexen Satz nach dem anderen. Wer etwas verstehen wollte, musste von der komischen Situation absehen, alle Kräfte gegen die von der schwülen Hitze geführten Ermüdungsattacken aufbieten und sich irgendwie konzentrieren. Der einzige, der sich davon nicht beirren ließ, sondern hartnäckig Satz für Satz in den schwülen Sommerabend hämmerte, war der kleine, schmächtige, blasse, sein Gesicht hinter einer riesigen Brille verbergende, aber Respekt heischende Professor Rawls. Wenn Geist so unmittelbar präsent ist, wird eben alles andere banal. ...
Muss das Strafrecht, vor allem der Schuldbegriff, wegen aktuellen Erkenntnisse der Hirnforschung in einem neuen Licht gesehen werden? Wenn unsere Entscheidungen und Handlungen durch neurologische Prozesse vollständig kausal vorherbestimmt sind, bleibe für die Willensfreiheit kein Raum. Und wenn der Wille nicht frei ist, dann könne ein Täter für eine Straftat auch nicht verantwortlich sein; denn er hätte in der gleichen Situation nicht anders handeln, also die Straftat auch nicht unterlassen können. Wird die Freiheit der Person so fundamental in Frage gestellt, steht freilich das Recht insgesamt zur Disposition.
Normative Ordnungen legitimieren die Entstehung und Ausübung politischer Autorität, sie bilden aber auch die Grundstruktur, nach der Chancen und Lebensgüter in einer Gesellschaft verteilt werden sollen. Sie lassen sich nicht per Dekret unumstößlich fixieren, sondern leben von den dynamischen Impulsen aller Beteiligten. Solche Normen, die innerhalb einer Gesellschaft allgemeine Anerkennung beanspruchen und ihren Niederschlag zum Beispiel in Verfassungen finden können, müssen sich zudem kritisch mit der jeweiligen gesellschaftlichen Realität konfrontieren lassen. Oftmals gehen aus dieser Konfrontation neue Konflikte hervor, die zur Herausbildung einer anderen normativen Ordnung führen können. Wie bilden sich normative Ordnungen, welchen Prozessen sind sie unterworfen? Diese Fragen lassen sich unter ganz verschiedenen Gesichtspunkten betrachten: Man kann nach den ökonomischen Bedingungen fragen, nach dem Einfluss von anderen Faktoren wie den Macht- und Gewaltverhältnissen oder nach überindividuellen Mechanismen, wie sie sich in hochkomplexen Gesellschaften entwickeln und sich beispielsweise in den Eigenrationalitäten des ökonomischen oder des politischen Systems widerspiegeln, die sich unabhängig von den Absichten der Beteiligten selbst regulieren. In dem geplanten Exzellenzcluster »Die Herausbildung normativer Ordnungen« wollen wir unseren Fokus nicht so sehr auf die an diesen Prozessen beteiligten Systeme richten, sondern auf die Perspektive der Personen, die an der Herausbildung normativer Ordnungen beteiligt sind – Politiker, Richter bis zu Ehrenamtlichen bei Umweltgruppen, aber auch Bürger, die ausschließlich von ihrem Wahlrecht Gebrauch machen oder sich öffentlich engagieren. Als Akteure haben sie die Erwartung, dass normative Ordnungen ihnen gegenüber gerechtfertigt werden und dass die Rechtfertigungen sie überzeugen können. Solche Erwartungen und die Art und Weise ihrer Erfüllung lassen sich gewiss nicht von jenen anderen Faktoren trennen, aber es wäre genauso falsch, sie nur als oberflächlichen Ausdruck anonymer überindividueller Strukturen zu untersuchen. In den geplanten Projekten des Clusters sollen nicht nur historische Prozesse, sondern auch die gegenwärtigen globalen Konflikte um eine gerechte Weltordnung aus der Perspektive der agierenden Personen beleuchtet werden.
No association between Parkinson disease and autoantibodies against NMDA-type glutamate receptors
(2019)
Background: IgG-class autoantibodies to N-Methyl-D-Aspartate (NMDA)-type glutamate receptors define a novel entity of autoimmune encephalitis. Studies examining the prevalence of NMDA IgA/IgM antibodies in patients with Parkinson disease with/without dementia produced conflicting results. We measured NMDA antibodies in a large, well phenotyped sample of Parkinson patients without and with cognitive impairment (n = 296) and controls (n = 295) free of neuropsychiatric disease. Detailed phenotyping and large numbers allowed statistically meaningful correlation of antibody status with diagnostic subgroups as well as quantitative indicators of disease severity and cognitive impairment.
Methods: NMDA antibodies were analysed in the serum of patients and controls using well established validated assays. We used anti-NMDA antibody positivity as the main independent variable and correlated it with disease status and phenotypic characteristics.
Results: The frequency of NMDA IgA/IgM antibodies was lower in Parkinson patients (13%) than in controls (22%) and higher than in previous studies in both groups. NMDA IgA/IgM antibodies were neither significantly associated with diagnostic subclasses of Parkinson disease according to cognitive impairment, nor with quantitative indicators of disease severity and cognitive impairment. A positive NMDA antibody status was positively correlated with age in controls but not in Parkinson patients.
Conclusion: It is unlikely albeit not impossible that NMDA antibodies play a significant role in the pathogenesis or progression of Parkinson disease e.g. to Parkinson disease with dementia, while NMDA IgG antibodies define a separate disease of its own.
Non-standard errors
(2021)
In statistics, samples are drawn from a population in a data-generating process (DGP). Standard errors measure the uncertainty in sample estimates of population parameters. In science, evidence is generated to test hypotheses in an evidence-generating process (EGP). We claim that EGP variation across researchers adds uncertainty: non-standard errors. To study them, we let 164 teams test six hypotheses on the same sample. We find that non-standard errors are sizeable, on par with standard errors. Their size (i) co-varies only weakly with team merits, reproducibility, or peer rating, (ii) declines significantly after peer-feedback, and (iii) is underestimated by participants.
Long-range angular correlations on the near and away side in p–Pb collisions at √sNN=5.02 TeV
(2013)
Angular correlations between charged trigger and associated particles are measured by the ALICE detector in p–Pb collisions at a nucleon–nucleon centre-of-mass energy of 5.02 TeV for transverse momentum ranges within 0.5<pT,assoc<pT,trig<4 GeV/c. The correlations are measured over two units of pseudorapidity and full azimuthal angle in different intervals of event multiplicity, and expressed as associated yield per trigger particle. Two long-range ridge-like structures, one on the near side and one on the away side, are observed when the per-trigger yield obtained in low-multiplicity events is subtracted from the one in high-multiplicity events. The excess on the near-side is qualitatively similar to that recently reported by the CMS Collaboration, while the excess on the away-side is reported for the first time. The two-ridge structure projected onto azimuthal angle is quantified with the second and third Fourier coefficients as well as by near-side and away-side yields and widths. The yields on the near side and on the away side are equal within the uncertainties for all studied event multiplicity and pT bins, and the widths show no significant evolution with event multiplicity or pT. These findings suggest that the near-side ridge is accompanied by an essentially identical away-side ridge.