Refine
Year of publication
Document Type
- Article (19)
- Preprint (12)
- Working Paper (6)
- Contribution to a Periodical (4)
- Book (2)
- Part of a Book (1)
Language
- English (27)
- German (16)
- Portuguese (1)
Has Fulltext
- yes (44)
Is part of the Bibliography
- no (44)
Keywords
- Normative Ordnungen (2)
- Bewegungserziehung (1)
- Bodensee (1)
- Bodensee-Gebiet (1)
- Cognitive impairment (1)
- Communication (1)
- Crime (1)
- Criminal Law (1)
- Digitalisierung (1)
- Echo-Räume (1)
Institute
Rechtssoziologie am Institut für Sozialforschung Im Mittelpunkt des aktuellen Forschungsprogramms des Frankfurter Instituts für Sozialforschung stehen die Paradoxien und Ambivalenzen der kapitalistischen Modernisierung. Grund legend hierfür ist die Beobachtung, dass sich fortschrittliche soziale Prozesse im Nachhinein unter den Bedingungen einer gewandelten Moderne in ihr Gegenteil verkehren können. Mit dieser These beschäftigt sich auch der Forschungsschwerpunkt »Politische Öffentlichkeit und Recht«. Mit Bezugnahme auf die gegenwärtige Rechtsentwicklung interessiert vor allem die Frage, ob und wie das Recht auf Veränderungen im Verhältnis von Individuum und Gesellschaft und auf die fortschreitende Individualisierung reagiert. Auch interessiert, wie die Rechtsentwicklung im Alltagsverständnis wahrgenommen wird. Antworten auf diese Fragestellungen werden derzeit aus den Ergebnissen des DFG-Projekts »Die Zuschreibung von Verantwortung in den Rechtsmeinungen von Bürgerinnen und Bürgern« wie auch aus der fortlaufenden Diskussion über »Verantwortung und Gerechtigkeit« im Arbeitskreis Rechtssoziologie gewonnen. Im Rahmen des Forschungsprojektes unter der Projektleitung von Prof. Dr. Klaus Günther und Prof. Dr. Axel Honneth wurden in 45 qualitativen, Leitfaden-gestützten Einzelinterviews Befragte um ihre Urteile zu drei vorgegebenen Rechtsfällen gebeten. Der Arbeitskreis Rechtssoziologie beschäftigt sich vor allem mit den in vielen gesellschaftlichen Lebensbereichen häufig aufgestellten Postulaten der Eigen- oder Selbstverantwortung; dabei soll untersucht werden, welche Konzepte einer verantwortlich handelnden Person damit einhergehen und in welchem Verhältnis sie zu den gesellschaftlichen Bedingungen verantwortlichen Handelns stehen. Die Ergebnisse der Diskussionen und des empirischen Projektes sollen ein Fundament für eine normative Theorie liefern, die Kriterien für eine gerechtfertigte Verteilung von Verantwortung in der Gesellschaft begründen soll.
No association between Parkinson disease and autoantibodies against NMDA-type glutamate receptors
(2019)
Background: IgG-class autoantibodies to N-Methyl-D-Aspartate (NMDA)-type glutamate receptors define a novel entity of autoimmune encephalitis. Studies examining the prevalence of NMDA IgA/IgM antibodies in patients with Parkinson disease with/without dementia produced conflicting results. We measured NMDA antibodies in a large, well phenotyped sample of Parkinson patients without and with cognitive impairment (n = 296) and controls (n = 295) free of neuropsychiatric disease. Detailed phenotyping and large numbers allowed statistically meaningful correlation of antibody status with diagnostic subgroups as well as quantitative indicators of disease severity and cognitive impairment.
Methods: NMDA antibodies were analysed in the serum of patients and controls using well established validated assays. We used anti-NMDA antibody positivity as the main independent variable and correlated it with disease status and phenotypic characteristics.
Results: The frequency of NMDA IgA/IgM antibodies was lower in Parkinson patients (13%) than in controls (22%) and higher than in previous studies in both groups. NMDA IgA/IgM antibodies were neither significantly associated with diagnostic subclasses of Parkinson disease according to cognitive impairment, nor with quantitative indicators of disease severity and cognitive impairment. A positive NMDA antibody status was positively correlated with age in controls but not in Parkinson patients.
Conclusion: It is unlikely albeit not impossible that NMDA antibodies play a significant role in the pathogenesis or progression of Parkinson disease e.g. to Parkinson disease with dementia, while NMDA IgG antibodies define a separate disease of its own.
Non-standard errors
(2021)
In statistics, samples are drawn from a population in a data-generating process (DGP). Standard errors measure the uncertainty in sample estimates of population parameters. In science, evidence is generated to test hypotheses in an evidence-generating process (EGP). We claim that EGP variation across researchers adds uncertainty: non-standard errors. To study them, we let 164 teams test six hypotheses on the same sample. We find that non-standard errors are sizeable, on par with standard errors. Their size (i) co-varies only weakly with team merits, reproducibility, or peer rating, (ii) declines significantly after peer-feedback, and (iii) is underestimated by participants.
Theorien des Rechtspluralismus treten überwiegend mit dem Anspruch auf, eine zutreffendere Beschreibung der Wirklichkeit normativer Ordnungen, namentlich der Rechtsordnung, einer Gesellschaft zu geben. Demnach geht das Recht aus vielerlei und verschiedenartigen Quellen hervor, es gibt eine Pluralität von rechtssetzenden Akteuren, Rechtsnormen verschiedener Herkunft überlappen sich in demselben sozialen Feld. Während diese Beschreibung auf historische Gesellschaften bis zur Epoche zentralisierter Nationalstaaten schon immer zutraf, sprechen viele Indizien dafür, dass auch die Entwicklung transnationalen und globalen Rechts zu einem neuen Rechtspluralismus geführt hat. Wer dagegen die Konzeption eines zentral gesetzten, hierarchisch geordneten, universalen und einheitlichen Rechts für einen Fortschritt gegenüber dem Zustand des Rechtspluralismus hält, müsste diesen kritisieren und überwinden wollen. Gegen diese Kritik wendet sich der normative Rechtspluralismus. Dafür wird vor allem seine höhere Responsivität gegenüber verschiedenartigen Rationalitäten einer komplexen Weltgesellschaft ins Feld geführt. Der Beitrag diskutiert verschiedene Varianten des normativen Rechtspluralismus und versucht zu zeigen, dass keine von ihnen ohne die Unterstellung eines gemeinsamen rechtlichen Sinnhorizontes auskommt.
O 11 de setembro acelerou o desenvolvimento de uma arquitetura transnacional de segurança que intervém profundamente nas liberdades civis individuais, tanto nos direitos básicos dos cidadãos dos Estados como nos direitos humanos dos cidadãos mundiais. O artigo delineia essa arquitetura, mostra como ela dissolve as categorias jurídicas tradicionais que preservam a liberdade e discute por que hoje se aceita amplamente a prioridade da segurança sobre a liberdade.
Significant reductions in stratospheric ozone occur inside the polar vortices each spring when chlorine radicals produced by heterogeneous reactions on cold particle surfaces in winter destroy ozone mainly in two catalytic cycles, the ClO dimer cycle and the ClO/BrO cycle. Chlorofluorocarbons (CFCs), which are responsible for most of the chlorine currently present in the stratosphere, have been banned by the Montreal Protocol and its amendments, and the ozone layer is predicted to recover to 1980 levels within the next few decades. During the same period, however, climate change is expected to alter the temperature, circulation patterns and chemical composition in the stratosphere, and possible geo-engineering ventures to mitigate climate change may lead to additional changes. To realistically predict the response of the ozone layer to such influences requires the correct representation of all relevant processes. The European project RECONCILE has comprehensively addressed remaining questions in the context of polar ozone depletion, with the objective to quantify the rates of some of the most relevant, yet still uncertain physical and chemical processes. To this end RECONCILE used a broad approach of laboratory experiments, two field missions in the Arctic winter 2009/10 employing the high altitude research aircraft M55-Geophysica and an extensive match ozone sonde campaign, as well as microphysical and chemical transport modelling and data assimilation. Some of the main outcomes of RECONCILE are as follows: (1) vortex meteorology: the 2009/10 Arctic winter was unusually cold at stratospheric levels during the six-week period from mid-December 2009 until the end of January 2010, with reduced transport and mixing across the polar vortex edge; polar vortex stability and how it is influenced by dynamic processes in the troposphere has led to unprecedented, synoptic-scale stratospheric regions with temperatures below the frost point; in these regions stratospheric ice clouds have been observed, extending over >106km2 during more than 3 weeks. (2) Particle microphysics: heterogeneous nucleation of nitric acid trihydrate (NAT) particles in the absence of ice has been unambiguously demonstrated; conversely, the synoptic scale ice clouds also appear to nucleate heterogeneously; a variety of possible heterogeneous nuclei has been characterised by chemical analysis of the non-volatile fraction of the background aerosol; substantial formation of solid particles and denitrification via their sedimentation has been observed and model parameterizations have been improved. (3) Chemistry: strong evidence has been found for significant chlorine activation not only on polar stratospheric clouds (PSCs) but also on cold binary aerosol; laboratory experiments and field data on the ClOOCl photolysis rate and other kinetic parameters have been shown to be consistent with an adequate degree of certainty; no evidence has been found that would support the existence of yet unknown chemical mechanisms making a significant contribution to polar ozone loss. (4) Global modelling: results from process studies have been implemented in a prognostic chemistry climate model (CCM); simulations with improved parameterisations of processes relevant for polar ozone depletion are evaluated against satellite data and other long term records using data assimilation and detrended fluctuation analysis. Finally, measurements and process studies within RECONCILE were also applied to the winter 2010/11, when special meteorological conditions led to the highest chemical ozone loss ever observed in the Arctic. In addition to quantifying the 2010/11 ozone loss and to understand its causes including possible connections to climate change, its impacts were addressed, such as changes in surface ultraviolet (UV) radiation in the densely populated northern mid-latitudes.
The international research project RECONCILE has addressed central questions regarding polar ozone depletion, with the objective to quantify some of the most relevant yet still uncertain physical and chemical processes and thereby improve prognostic modelling capabilities to realistically predict the response of the ozone layer to climate change. This overview paper outlines the scope and the general approach of RECONCILE, and it provides a summary of observations and modelling in 2010 and 2011 that have generated an in many respects unprecedented dataset to study processes in the Arctic winter stratosphere. Principally, it summarises important outcomes of RECONCILE including (i) better constraints and enhanced consistency on the set of parameters governing catalytic ozone destruction cycles, (ii) a better understanding of the role of cold binary aerosols in heterogeneous chlorine activation, (iii) an improved scheme of polar stratospheric cloud (PSC) processes that includes heterogeneous nucleation of nitric acid trihydrate (NAT) and ice on non-volatile background aerosol leading to better model parameterisations with respect to denitrification, and (iv) long transient simulations with a chemistry-climate model (CCM) updated based on the results of RECONCILE that better reproduce past ozone trends in Antarctica and are deemed to produce more reliable predictions of future ozone trends. The process studies and the global simulations conducted in RECONCILE show that in the Arctic, ozone depletion uncertainties in the chemical and microphysical processes are now clearly smaller than the sensitivity to dynamic variability.
Muss das Strafrecht, vor allem der Schuldbegriff, wegen aktuellen Erkenntnisse der Hirnforschung in einem neuen Licht gesehen werden? Wenn unsere Entscheidungen und Handlungen durch neurologische Prozesse vollständig kausal vorherbestimmt sind, bleibe für die Willensfreiheit kein Raum. Und wenn der Wille nicht frei ist, dann könne ein Täter für eine Straftat auch nicht verantwortlich sein; denn er hätte in der gleichen Situation nicht anders handeln, also die Straftat auch nicht unterlassen können. Wird die Freiheit der Person so fundamental in Frage gestellt, steht freilich das Recht insgesamt zur Disposition.
Die zunehmende Durchdringung nahezu aller Lebensbereiche der Gesellschaft mit neuen digitalen Technologien, insbesondere mit künstlicher Intelligenz, hat zur Entstehung von smarten Ordnungen geführt. Darunter werden Ordnungen verstanden, die darauf ausgerichtet sind, durch intelligentes Design und mit Hilfe algorithmischer Operationen Abweichungen von ihren Normen zu minimieren oder ganz unmöglich zu machen. Der Beitrag erläutert einige Beispiele smarter Ordnungen und zeigt auf, dass zumindest im Grundsatz zwischen einer algorithmisch optimierten, normadressatenorientierten Prävention und einer adressatensubstituierenden Präemption abweichenden Verhaltens durch digitale Technologien unterschieden werden kann. Den Schwerpunkt des Beitrags bildet sodann die Frage ob und, gegebenenfalls, in welchem Sinne, smarte Ordnungen überhaupt noch normative Ordnungen sind. Im Verlauf der Analyse zeigt sich, dass Rechtsordnungen und andere normative Ordnungen zwar das Ziel einer effektiven Durchsetzung ihrer Normen verfolgen, aber nicht das Ideal vollständiger Nicht-Abweichung. Es wird deutlich, dass es zu den wesentlichen Aspekten normativer Ordnungen gehört, dass sie an Personen adressiert sind, die sie sich als autonome und zugleich fehlbare Personen zu eigen machen müssen und dabei unvermeidlich über die faktische Freiheit zur Normabweichung verfügen. Smarte Ordnungen hingegen erfüllen diese Kriterien nicht oder nur in geringem Maße. Letztlich sind sie nur in einem schwachen Sinne normativ, soweit die in technischen Prozessen implementierte Normativität für die Betroffenen noch präsent ist. In dem Maße jedoch, wie Normativität und ihre technische Realisation sich vermischen, bis ihre erfahrbare Präsenz abnimmt, verlieren sie ihren normativen Charakter.
Normative Ordnungen legitimieren die Entstehung und Ausübung politischer Autorität, sie bilden aber auch die Grundstruktur, nach der Chancen und Lebensgüter in einer Gesellschaft verteilt werden sollen. Sie lassen sich nicht per Dekret unumstößlich fixieren, sondern leben von den dynamischen Impulsen aller Beteiligten. Solche Normen, die innerhalb einer Gesellschaft allgemeine Anerkennung beanspruchen und ihren Niederschlag zum Beispiel in Verfassungen finden können, müssen sich zudem kritisch mit der jeweiligen gesellschaftlichen Realität konfrontieren lassen. Oftmals gehen aus dieser Konfrontation neue Konflikte hervor, die zur Herausbildung einer anderen normativen Ordnung führen können. Wie bilden sich normative Ordnungen, welchen Prozessen sind sie unterworfen? Diese Fragen lassen sich unter ganz verschiedenen Gesichtspunkten betrachten: Man kann nach den ökonomischen Bedingungen fragen, nach dem Einfluss von anderen Faktoren wie den Macht- und Gewaltverhältnissen oder nach überindividuellen Mechanismen, wie sie sich in hochkomplexen Gesellschaften entwickeln und sich beispielsweise in den Eigenrationalitäten des ökonomischen oder des politischen Systems widerspiegeln, die sich unabhängig von den Absichten der Beteiligten selbst regulieren. In dem geplanten Exzellenzcluster »Die Herausbildung normativer Ordnungen« wollen wir unseren Fokus nicht so sehr auf die an diesen Prozessen beteiligten Systeme richten, sondern auf die Perspektive der Personen, die an der Herausbildung normativer Ordnungen beteiligt sind – Politiker, Richter bis zu Ehrenamtlichen bei Umweltgruppen, aber auch Bürger, die ausschließlich von ihrem Wahlrecht Gebrauch machen oder sich öffentlich engagieren. Als Akteure haben sie die Erwartung, dass normative Ordnungen ihnen gegenüber gerechtfertigt werden und dass die Rechtfertigungen sie überzeugen können. Solche Erwartungen und die Art und Weise ihrer Erfüllung lassen sich gewiss nicht von jenen anderen Faktoren trennen, aber es wäre genauso falsch, sie nur als oberflächlichen Ausdruck anonymer überindividueller Strukturen zu untersuchen. In den geplanten Projekten des Clusters sollen nicht nur historische Prozesse, sondern auch die gegenwärtigen globalen Konflikte um eine gerechte Weltordnung aus der Perspektive der agierenden Personen beleuchtet werden.
Beim Exzellenzcluster „Normative Ordnungen“ eruiert man mit Hochdruck Möglichkeiten, wie es auch nach dem Ausscheiden aus der Exzellenzstrategie weitergehen kann. Das Land Hessen und die Goethe-Universität haben bereits ihre Unterstützung signalisiert, eine Liste von renommierten Forschern aus der ganzen Welt fordert die Weiterführung der international geschätzten Institution. Der UniReport konnte mit den beiden Sprechern des Clusters, Prof. Rainer Forst und Prof. Klaus Günther, direkt im Anschluss an die Jahreskonferenz des Clusters ein Gespräch über momentane Stimmungen und Perspektiven im Haus „Normative Ordnungen“ auf dem Campus Westend führen.
The first study of ϕ-meson production in p-Pb collisions at forward and backward rapidity, at a nucleon-nucleon centre-of-mass energy sNN−−−√=5.02~TeV, has been performed with the ALICE apparatus at the LHC. The ϕ-mesons have been identified in the dimuon decay channel in the transverse momentum (pT) range 1<pT<7 GeV/c, both in the p-going (2.03<y<3.53) and the Pb-going (−4.46<y<−2.96) directions, where y stands for the rapidity in the nucleon-nucleon centre-of-mass, the integrated luminosity amounting to 5.01±0.19~nb−1 and 5.81±0.20~nb−1, respectively, for the two data samples. Differential cross sections as a function of transverse momentum and rapidity are presented. The forward-backward ratio for ϕ-meson production is measured for 2.96<|y|<3.53, resulting in a ratio ∼0.5 with no significant pT dependence within the uncertainties. The pT dependence of the ϕ nuclear modification factor RpPb exhibits an enhancement up to a factor 1.6 at pT = 3-4 GeV/c in the Pb-going direction. The pT dependence of the ϕ-meson cross section in pp collisions at s√ = 2.76 TeV, which is used to determine a reference for the p-Pb results, is also presented here for 1<pT<5 GeV/c and 2.5<y<4 for a 78±3~nb−1 integrated luminosity sample.
The first measurement of ϕ-meson production in p-Pb collisions at a nucleon-nucleon centre-of-mass energy sNN−−−√ = 5.02 TeV has been performed with the ALICE apparatus at the LHC. The ϕ-mesons have been identified in the dimuon decay channel in the transverse momentum (pT) range 1<pT<7 GeV/c, both in the p-going (2.03<y<3.53) and the Pb-going (−4.46<y<−2.96) directions, where y stands for the rapidity in the nucleon-nucleon centre-of-mass. Differential cross sections as a function of transverse momentum and rapidity are presented. The forward-backward asymmetry for ϕ-meson production is measured for 2.96<|y|<3.53, resulting in a factor ∼0.5 with no significant pT dependence within the uncertainties. The pT dependence of the ϕ nuclear modification factor RpPb exhibits an enhancement up to a factor 1.6 at pT = 3-4 GeV/c in the Pb-going direction. The pT dependence of the ϕ-meson cross section in pp collisions at s√ = 2.76 TeV, which is used to determine a reference for the p-Pb results, is also presented here for 1<pT<5 GeV/c and 2.5<y<4.