Refine
Year of publication
Document Type
- Article (30905)
- Part of Periodical (11532)
- Book (8255)
- Doctoral Thesis (5683)
- Part of a Book (3940)
- Working Paper (3382)
- Review (2939)
- Contribution to a Periodical (2337)
- Preprint (1943)
- Report (1560)
Language
- German (42600)
- English (28842)
- French (1060)
- Portuguese (840)
- Spanish (309)
- Croatian (302)
- Multiple languages (258)
- Italian (197)
- mis (174)
- Turkish (168)
Has Fulltext
- yes (75074) (remove)
Keywords
- Deutsch (1076)
- Literatur (866)
- taxonomy (751)
- Deutschland (553)
- Rezension (511)
- new species (444)
- Rezeption (354)
- Frankfurt <Main> / Universität (341)
- Übersetzung (322)
- Geschichte (300)
Institute
- Medizin (7641)
- Präsidium (5137)
- Physik (4300)
- Extern (2738)
- Wirtschaftswissenschaften (2667)
- Gesellschaftswissenschaften (2368)
- Biowissenschaften (2168)
- Biochemie und Chemie (1970)
- Center for Financial Studies (CFS) (1618)
- Informatik (1602)
Die vorliegende Arbeit beschreibt die Entwicklung eines interaktionalen Simulationsmodells zum späteren Einsatz in der VR-Simulation Clasivir 2.0 (Classroom Simulator in Virtual Reality), welche in der Lehrkräftebildung eingesetzt werden soll. Das Clasivir-Simulationsmodell wurde im Rahmen eines Prototyps implementiert und zwei anderen Simulationsmodellen in einem Fragebogen entgegengestellt. Ein Simulationsmodell beschreibt im Kontext einer digitalen Schulunterrichtssimulation, wie sich SuS in der Simulation verhalten.
Die drei Simulationsmodelle wurden über zwei unterschiedliche Typen von Video-Visualisierungen, genannt Mockup-Videos, dargestellt: Zum einen über eine 2D-Darstellung aus Vogelperspektive, zum anderen über eine 3D-Darstellung, in welcher 3D-Modelle von SuS animiert wurden. Bei dem realen Simulationsmodell handelt es sich um eine Übertragung einer authentischen Videoaufzeichnung von Unterricht einer hessischen Realschule in 2D/3D-Visualisierungen. Im randomisierten Simulationsmodell führen SuS ihre Verhalten zufällig aus. Alle Modelle basieren auf zweisekündigen Intervallen. Im Falle des realen Simulationsmodells wurde dies durch Analyse aller beobachtbaren einundzwanzig SuS gewonnen, im Falle des Clasivir-Simulationsmodells wurden die Vorhersagen des Simulationsmodells übertragen. Das Simulationsmodell von Clasivir basiert auf behavior trees, stellt eine Art von künstlicher Intelligenz dar und modelliert das SuS-Verhalten größtenteils in Abhängigkeit von Lehrkrafthandlungen. Die Entwicklung des interaktionalen Simulationsmodells von Clasivir ist eine Kernkomponente dieser Arbeit. Das Simulationsmodell basiert auf empirischen Ergebnissen aus den Bereichen der Psychometrie, der pädagogischen Psychologie, der Pädagogik und Ergebnissen der Simulations-/KI-Forschung. Ziel war die Entwicklung eines Modells, das nicht nur auf normativen Vorhersagen basiert, sondern empirisch und theoretisch valide ist. Nur wenige Simulationsmodelle in Unterrichtssimulationen werden mit dieser Art von Transparenz beschrieben, was eines der Alleinstellungsmerkmale dieser Arbeit ist. Es wurden Anstrengungen unternommen die vorliegenden empirischen Ergebnisse in einen kausalen Zusammenhang zu bringen, der mathematisch modelliert wurde. Im Zentrum steht die Konzentration von SuS, welche Ein uss auf Stör-, Melde- und Antwortverhalten hat. Diese Variable wird durch andere situative und personenbezogene Variablen (im Sinne von traits) ergänzt. Wo keine direkten empirischen Ergebnisse vorlagen wurde versucht plausibles Verhalten anhand der Übertragung von Konzeptionsmodellen zu gewinnen.
Da die bisherige Verwendung der angrenzenden Begriffe rund um die Simulationsentwicklung bislang sehr inkonsistent war, wurde es notwendig diese Termini zu definieren. Hervorzuheben ist die Entwicklung einer Taxonomie digitaler Unterrichtssimulationen, die so bislang nicht existierte. Anhand dieser Taxonomie und der erarbeiteten Fachtermini wurden Simulationen in der Lehrkräftebildung auf ihre Modellierung des Simulationsmodells hin untersucht. Die Untersuchung der Simulationen simSchool und VCS war, da sie einen verwandten Ansatz zu Clasvir verfolgen, besonders ergiebig.
Nach der Generierung der Mockup-Videos wurden N=105 Studierende, N=102 davon Lehramtsstudierende, aufgefordert, in einem Online-Fragebogen zwei der Simulationsmodelle miteinander zu vergleichen. Lehramtsstudierende wurden ausgewählt, da sie die Zielgruppe der Simulation sind. Welche Modelle die Partizipantinnen verglichen, war abhängig von der Gruppe der sie zugeteilt wurden. Hierbei wurde neben den Simulationsmodellen auch die visuelle Darstellung variiert. Insbesondere wurden die Partizipantinnen darum gebeten, den Fidelitätsgrad des Simulationsmodells, also den Maßstab, wie realistisch die Partizipantinnen das Verhalten der SuS in der Simulation fanden, zu bewerten. Inferenzstatistisch bestätigte sich, dass Partizipantinnen keinen Unterschied zwischen dem realen Simulationsmodell und dem Clasivir-Simulationsmodell erkennen konnten (t=1.463, df=178.9, p=.1452), aber das randomisierte Simulationsmodell mit einer moderaten Effektstärke von d=.634 als signifikant schlechter einschätzten (t=-2.5231, df=33.581, p=.008271). Die Art der Darbietung (2D oder 3D) hatte keinen statistisch signifikanten Einfluss auf die wahrgenommene Schwierigkeit der Bewertung (z=1.2426, p=.107). Damit kann festgestellt werden, dass eine komplexe und zeitintensive 3D-Visualisierung eines Simulationsmodells bei noch nicht vorliegender Simulation nicht erforderlich ist. Das Clasivir-Simulationsmodell wird als realistisch wahrgenommen. Es kann damit empfohlen werden, es in der VR-Simulation zu verwenden.
Im Ausblick werden bereits während des Schreibens der Arbeit gemachte Entwicklungen beschrieben und Konzepte zum weiteren Einsatz der Ergebnisse entwickelt. Es wird darauf verwiesen, dass eine erste Version eines VR-Simulators entwickelt wurde (Clasivir 1.0), der jedoch rein deterministisch funktioniert und noch nicht das in dieser Arbeit entwickelte Simulationsmodell inkludiert.
Hintergrund: Mit der im Jahr 2020 aktualisierten AWMF-Leitlinie zur Versorgung mit einem Cochleaimplantat (CI) wurde erstmals der gesamte Prozess einer CI-Versorgung definiert. In der vorliegenden Studie wurden die Machbarkeit und die Ergebnisse einer sehr frühen Rehabilitationsmaßnahme (Reha) untersucht.
Methodik: Es wurden 54 Patienten in die Interventionsgruppe (IG) eingeschlossen, bei der die Reha innerhalb von 14 (maximal 28) Tagen nach der Implantation eingeleitet wurde. In eine Kontrollgruppe (KG, n = 21) wurden Patienten mit deutlich längerer Wartezeit eingeschlossen. Neben dem Beginn und der Dauer der Reha wurde das mit CI erreichte Sprachverstehen zu verschiedenen Zeitpunkten innerhalb von 12 Monaten erfasst. Zusätzlich wurde mit Fragebögen der Aufwand der Anpassung des CI-Prozessors und die Zufriedenheit der Patienten mit dem Ergebnis sowie dem Zeitpunkt des Beginns der Reha ermittelt.
Ergebnisse: Die Wartezeit zwischen Implantation und Beginn der Reha lag in der IG bei 14 Tagen und in der KG bei 106 Tagen (Mediane). Es konnten 92,6 % der Patienten der IG die Reha innerhalb von 14 Tagen antreten. Der Effekt der Reha lag in der IG bei 35 und in der KG bei 25 Prozentpunkten (Freiburger Einsilbertest). Nach 6 und 12 Monaten (M) CI-Nutzung zeigten beide Gruppen sowohl in der Testbedingung in Ruhe (IG/KG 6M: 70 %/70 %; 12M: 70 %/60 %, Freiburger Einsilbertest) als auch im Störgeräusch (IG/KG 6M: −1,1 dB SNR/–0,85 dB SNR; 12M: −0,65 dB SNR/+0,3 dB SNR, Oldenburger Satztest) vergleichbare Ergebnisse. Die mittels des Fragebogens Speech, Spatial and Qualities of Hearing Scale (SSQ) erfassten Ergebnisse für die Einschätzung der Hörqualität zeigten nach 6 Monaten eine bessere Bewertung in der IG, die sich nach 12 Monaten an die Ergebnisse der KG anglich. Die IG war mit dem Zeitpunkt des Beginns der Reha deutlich zufriedener als die KG. Alle anderen aus Fragebögen ermittelten Daten zeigten keine Unterschiede zwischen den beiden Gruppen.
Schlussfolgerung: Der sehr frühe Beginn einer stationären Reha nach Cochleaimplantation ist erfolgreich umsetzbar. Die Reha konnte innerhalb von 7 Wochen nach der Implantation abgeschlossen werden. Der Vergleich der Ergebnisse der Tests des Sprachverstehens vor und nach der Reha zeigte eine deutliche Steigerung. Somit ist ein deutlicher Reha-Effekt nachweisbar. Die Aufnahme der CI-Rehabilitation in den Katalog der Anschlussheilbehandlungen ist somit wissenschaftlich begründet und damit dringend zu empfehlen.
Raumkonstruktionen, die über Handlung und Bedeutungszuschreibungen im Kontext sozialer Medien entstehen, sind ein Fallbeispiel dafür, wie vor dem Hintergrund von Digitalität Fachinhalte re-innoviert werden müssen. Mit dem Ziel eines Beitrags zur Konzeption professionellen Lehrkräftewissens im Kontext von Digitalität werden, ausgehend von der Fragestellung, welche professionellen Fähigkeiten Lehrkräfte benötigen, um Raumkonstruktionen im Unterricht zu thematisieren, in dieser kumulativen Dissertation Raumkonstruktionen aus normativer und empirischer Perspektive als exemplarischer geographischer Fachinhalt adressiert.
Als theoretischer Rahmen dient dabei das TPACK Modell von Mishra & Koehler (2006), das professionelles Lehrkräftewissen in die Bereiche fachliches, pädagogisches und technologisches Wissen sowie deren Überschneidungsbereiche einteilt. Zunächst erfolgt eine Anwendung des Modells als Reflexionsperspektive auf Fachinhalte zur Erzeugung normativer Fähigkeitsbeschreibungen. Diese Fähigkeitsbeschreibungen fließen in die Entwicklung eines TPACK-Selbsteinschätzungsfragebogens für Lehramtsstudierende der Geographie ein. Im Rahmen der damit durchgeführten Studie (n= 364) zeigen sich auf deskriptiver Ebene vergleichsweise niedrige Selbsteinschätzungen der Bereiche inhaltlichen und fachdidaktischen Wissens. Durch die Anwendung einer konfirmatorischen Faktorenanalyse kann das TPACK Modell als zufriedenstellend für die Beschreibung der Daten identifiziert werden. Auffällig ist allerdings die niedrige Korrelation des Konstrukts technologischen Wissens mit den angrenzenden Wissensbereichen. In Bezug auf die Selbsteinschätzungen im phasen- und kontextübergreifenden Vergleich lässt sich, ausgehend von linearen Regressionsanalysen, eine tendenzielle Zunahme der selbsteingeschätzten Fähigkeiten entlang der Fachsemesterzahl ermitteln. Mittels Zweistichproben-t-Tests können außerdem höhere Selbsteinschätzungen der pädagogischen Wissensbereiche durch Studierende, die als Vertretungslehrkräfte tätig sind, festgestellt werden.
In Bezug auf die zur Thematisierung von Raumkonstruktionen im Unterricht benötigten Fähigkeiten ist zunächst die Relevanz der Förderung der Integration fachlichen, pädagogischen und fachdidaktischen Wissens hervorzuheben. Die Studie gibt darüber hinaus Hinweise auf eine niedrigere Bedeutung technologischen Wissens im Hinblick auf soziale Medien als Beispiele alltäglicher Technologien. Vor dem Hintergrund des positiven Effekts von Selbstwirksamkeitsprozessen bieten die Ergebnisse Implikationen für eine Diskussion von praktischen Erfahrungen als Aspekt professionellen Lehrkräftewissens im Sinne der Förderung einer kritisch-reflexiven Auseinandersetzung mit der Tätigkeit als Vertretungslehrkraft aus fachdidaktischer Perspektive. Insgesamt leistet die kumulative Dissertation einen Beitrag zum Diskurs um fachliche geographische Bildung im Kontext von Digitalität und zur Konzeption des professionellen Lehrkräftewissens vor diesem Hintergrund.
Detailed feedback on exercises helps learners become proficient but is time-consuming for educators and, thus, hardly scalable. This manuscript evaluates how well Generative Artificial Intelligence (AI) provides automated feedback on complex multimodal exercises requiring coding, statistics, and economic reasoning. Besides providing this technology through an easily accessible web application, this article evaluates the technology’s performance by comparing the quantitative feedback (i.e., points achieved) from Generative AI models with human expert feedback for 4,349 solutions to marketing analytics exercises. The results show that automated feedback produced by Generative AI (GPT-4) provides almost unbiased evaluations while correlating highly with (r = 0.94) and deviating only 6 % from human evaluations. GPT-4 performs best among seven Generative AI models, albeit at the highest cost. Comparing the models’ performance with costs shows that GPT-4, Mistral Large, Claude 3 Opus, and Gemini 1.0 Pro dominate three other Generative AI models (Claude 3 Sonnet, GPT-3.5, and Gemini 1.5 Pro). Expert assessment of the qualitative feedback (i.e., the AI’s textual response) indicates that it is mostly correct, sufficient, and appropriate for learners. A survey of marketing analytics learners shows that they highly recommend the app and its Generative AI feedback. An advantage of the app is its subject-agnosticism—it does not require any subject- or exercise-specific training. Thus, it is immediately usable for new exercises in marketing analytics and other subjects.
Einige Beiträge zum aktuellen ZfL-Jahresthema erinnerten zuletzt an dieser Stelle daran, dass das Begriffspaar "Aktivismus und Wissenschaft" von einem alten Spannungsverhältnis geprägt ist, welches sich gegenwärtig wieder bemerkbar macht. [...] Tatsächlich sehen sich Forschende heutzutage immer öfter dazu genötigt, den unmittelbar praktischen Mehrwert ihrer Arbeit im Namen eines vermeintlichen Aktivismus zu Markte zu tragen, nicht zuletzt, um den Empfang etwaiger Fördergelder zu rechtfertigen. [...] So drängt sich die Frage auf, worin eigentlich der kritische Zug im Verhältnis von Wissenschaft und Aktivismus liegt, wenn die institutionelle Konvergenz der Aktivismen von oben und unten zur Affirmation tendiert? [...] Möglicherweise ist es lohnenswert, Geulens Verfahren des Rückgriffs aufzunehmen und sich auf ein weiteres streitbares Beispiel aus der frühesten Geschichte des Aktivismusbegriffs zu besinnen, von dem zuweilen behauptet wird, es handele sich um die früheste Okkurenz dieses Wortes überhaupt. Die Rede ist vom sogenannten "literarischen Aktivismus", auf den auch Henning Trüper in seinem Blogbeitrag zum ZfL-Jahresthema anspielt, wenn er vom "Umfeld des Expressionismus" spricht, in dem der "Aktivismusbegriff nach dem Ersten Weltkrieg erstmals politisch Fuß fasste". Was hat es hiermit auf sich? Tatsächlich ist es so, dass Kurt Hiller (1885–1972) - deutsch-jüdischer Publizist, expressionistischer Impresario und pazifistischer Aktivist - diese Wortprägung für sich beansprucht. So soll bei einem Treffen seines Berliner Kreises anno 1914 "Literarischer Aktivismus" als Name der von ihm gegründeten, "ethisch-politischen" Bewegung beschlossen worden sein. Die Organe dieses Aktivismus waren vorrangig Periodika, allen voran die ab 1916 von Hiller und seinem Kreis herausgegebene Zeitschrift "Das Ziel: Aufrufe zu tätigem Geist", in deren Namen sich bereits eine gewisse Vorstellung von Aktivität ankündigt.
Soziodizee des Kapitalismus
(2024)
The total charm-quark production cross section per unit of rapidity dσ(cc)/dy, and the fragmentation fractions of charm quarks to different charm-hadron species f(c → hc), are measured for the first time in p–Pb collisions at √sNN = 5.02 TeV at midrapidity (−0.96 < y < 0.04 in the centre-ofmass frame) using data collected by ALICE at the CERN LHC. The results are obtained based on all the available measurements of prompt production of ground-state charm-hadron species: D0, D+,D+s, and J/ψ mesons, and Λ+cand Ξ0cbaryons. The resulting cross section is dσ(cc)/dy = 219.6±6.3 (stat.)+10.5−11.8(syst.)+7.6−2.9(extr.)±5.4 (BR)±4.6 (lumi.)±19.5 (rapidity shape) +15.0 (Ω0c) mb, which is consistent with a binary scaling of pQCD calculations from pp ollisions. The measured fragmentation fractions are compatible with those measured in pp collisions at √s = 5.02 and 13 TeV, showing an increase in the relative production rates of charm baryons with respect to charm mesons in pp and p–Pb collisions compared with e+e − and e−p collisions. The pT-integrated nuclear modification factor of charm quarks, RpPb(cc) = 0.91±0.04 (stat.) +0.08 −0.09 (syst.) +0.04 −0.03 (extr.)±0.03 (lumi.), is found to be consistent with unity and with theoretical predictions including nuclear modifications of the parton distribution functions.
This work aims to differentiate strangeness produced from hard processes (jet-like) and softer processes (underlying event) by measuring the angular correlation between a high-momentum trigger hadron (h) acting as a jet-proxy and a produced strange hadron (φ(1020) meson). Measuring h–φ correlations at midrapidity in p–Pb collisions at √sNN = 5.02 TeV as a function of event multiplicity provides insight into the microscopic origin of strangeness enhancement in small collision systems. The jet-like and the underlying-event-like strangeness production are investigated as a function of event multiplicity. They are also compared between a lower and higher momentum region. The evolution of the per-trigger yields within the near-side (aligned with the trigger hadron) and away-side (in the opposite direction of the trigger hadron) jet is studied separately, allowing for the characterization of two distinct jet-like production regimes. Furthermore, the h–φ correlations within the underlying event give access to a production regime dominated by soft production processes, which can be compared directly to the in-jet production. Comparisons between h–φ and dihadron correlations show that the observed strangeness enhancement is largely driven by the underlying event, where the φ/h ratio is significantly larger than within the jet regions. As multiplicity increases, the fraction of the total φ(1020) yield coming from jets decreases compared to the underlying event production, leading to high-multiplicity events being dominated by the increased strangeness production from the underlying event
Childhood is a period when memory consolidation and knowledge base undergo rapid changes. The present study examined short-delay (overnight) and long-delay (after a 2-week period) consolidation of new information either congruent or incongruent with prior knowledge in typically developing 6- to 8-year-old children (n = 32), 9- to 11-year-old children (n = 33), and 18- to 30-year-old young adults (YA; n = 39). Both memory accessibility (cued recall of objects) and precision (precision of object placement) of initially well-learned object–scene pairs were measured. Our results showed that overnight, memory accessibility declined similarly in all age groups; memory precision improved more in younger children (YC) compared to older children (OC) and even declined in YA. After a 2-week period, both memory accessibility and precision became worse. Specifically, while age groups showed similar decline in memory accessibility, precision decline was less in YC than in OC and YA. The accessibility and precision of congruent and incongruent information changed similarly with consolidation in all age groups. Taken together, our results showed that, for initially well-learned information, YC have robust memory consolidation, despite their overall lower mnemonic performance compared to OC and YA, which is potentially crucial for stable and precise knowledge accumulation early on in development.
February 18th 2024 marked the centenary of the birth of Evald Ilyenkov (1924–1979) - a brilliant and influential Soviet philosopher whose most important early works remained unpublished during his lifetime. Two days before Ilyenkov's 100th birthday, Russian opposition leader Alexei Navalny was found dead in a Siberian prison colony; that news overshadowed the little attention given to Ilyenkov's anniversary in Russia. The manner in which Ilyenkov's centenary and Navalny's death were treated reflects memory culture in Putin's Russia, where the legacies of Soviet Marxism are often suppressed by ultra-nationalist propaganda. Abroad, Ilyenkov's prestige has seen a remarkable rise in recent years, accompanied by translations and new scholarship in, for example, Sweden, Ukraine, Peru, Turkey, Canada and Cuba.
Wie die Literatur- und Theoriegeschichte zeigt, wurde das Dämonische im Gefolge von Goethe auf wirkmächtige Weise von den Dämonen entkoppelt. Walter Benjamin brachte vor diesem Hintergrund E. T. A. Hoffmann ins Spiel, einen Schriftsteller, dessen "fieberhafte Träume" Goethe verschmähte. Unter dem Titel "Das dämonische Berlin" sprach Benjamin im Februar 1930 in der Kinderstunde des Berliner Rundfunks über Hoffmann als Dichter der Großstadt. Obwohl das Wort "dämonisch" nur im Titel fällt, eröffnet der Vortrag eine neue Sicht auf das post-goethesche Dämonische, denn die Medialität des Dämonischen wird darin auf mehreren Ebenen reflektiert, die das Radio selbst involvieren.
Die Vormärzforschung befasste sich in der Vergangenheit vor allem mit Themen des Liberalismus, insbesondere mit juristischen Fragen und der Gründung einer verfassungsgebenden Versammlung. Dabei wurde die Kluft zwischen einem - oft akademisch geschulten - 'gehobenen Bürgertum' und der großen Mehrzahl der Menschen in Dörfern, Kleinstädten und einer sich noch vielfach als Heimarbeit etablierenden Industrie oft übersehen. Diese Arbeit wird sich auf die allmählich einsetzende Wahrnehmung dieser Mehrzahl konzentrieren, mit dem Ziel, ihr politisches Verständnis und ihren Willen zur demokratischen Partizipation zu analysieren. Hierbei geht es vornehmlich um ein "Gewahrwerden sinnlich vermittelter Gegebenheiten" und ihrer geistigen Verarbeitung. Bei diesem Prozess wird das geistig rationale 'Verständnis' der Gegebenheiten erweckt und zu einer empirisch vermittelten 'Sicht' der Dinge hingeführt. Bei solchen Sinneswahrnehmungen geht es in erster Linie um das Sehvermögen; das von den Augen Gesehene wird über Nerven an das Gehirn transportiert, wir machen uns ein 'Bild' davon, das im weiteren Verlauf zu einer 'Ansicht' oder 'Anschauung' werden kann. Ähnliches gilt für andere Sinneseinwirkungen: Das 'Gefühlte' komprimiert sich zu einem 'Gefühl', wobei neben anderen Sinneswahrnehmungen auch ein mentaler Prozess mit im Spiel ist. Von der Forschung wenig beachtet ist eine Umkehrung dieses Vorgangs: Mental Wahrgenommenes kann über die Imagination auch sinnlich anschaulich werden, ein Prozess, der vor allem in der Romantik häufig stattfand. Eine genauere Erörterung der Begriffe 'Wahrnehmung' oder 'Perzeption' ist hier nicht vorgesehen, doch wird im Kontext der dargestellten Beispiele auf weitere, vor allem literarische und philosophische Diskussionen dieser Begriffe eingegangen.
Mitigating climate change necessitates global cooperation, yet global data on individuals’ willingness to act remain scarce. In this study, we conducted a representative survey across 125 countries, interviewing nearly 130,000 individuals. Our findings reveal widespread support for climate action. Notably, 69% of the global population expresses a willingness to contribute 1% of their personal income, 86% endorse pro-climate social norms and 89% demand intensified political action. Countries facing heightened vulnerability to climate change show a particularly high willingness to contribute. Despite these encouraging statistics, we document that the world is in a state of pluralistic ignorance, wherein individuals around the globe systematically underestimate the willingness of their fellow citizens to act. This perception gap, combined with individuals showing conditionally cooperative behaviour, poses challenges to further climate action. Therefore, raising awareness about the broad global support for climate action becomes critically important in promoting a unified response to climate change.
Human feline leukaemia virus subgroup C receptor-related proteins 1 and 2 (FLVCR1 and FLVCR2) are members of the major facilitator superfamily1. Their dysfunction is linked to several clinical disorders, including PCARP, HSAN and Fowler syndrome2,3,4,5,6,7. Earlier studies concluded that FLVCR1 may function as a haem exporter8,9,10,11,12, whereas FLVCR2 was suggested to act as a haem importer13, yet conclusive biochemical and detailed molecular evidence remained elusive for the function of both transporters14,15,16. Here, we show that FLVCR1 and FLVCR2 facilitate the transport of choline and ethanolamine across the plasma membrane, using a concentration-driven substrate translocation process. Through structural and computational analyses, we have identified distinct conformational states of FLVCRs and unravelled the coordination chemistry underlying their substrate interactions. Fully conserved tryptophan and tyrosine residues form the binding pocket of both transporters and confer selectivity for choline and ethanolamine through cation–π interactions. Our findings clarify the mechanisms of choline and ethanolamine transport by FLVCR1 and FLVCR2, enhance our comprehension of disease-associated mutations that interfere with these vital processes and shed light on the conformational dynamics of these major facilitator superfamily proteins during the transport cycle.
Carbonate archives record a brief snapshot of the ambient Earth’s surface conditions at their deposition. However, the geologically reasonable extraction and interpretation of geochemical proxy data from ancient, diagenetically altered rock archives is fraught with problems. Three issues stand out: the dichotomy between petrographic and geochemical alteration; the lack of quantitative age constraints for specific diagenetic phases resulting in a poorly constrained admixture of local, basin-wide and over-regional (far-field) features; and an often insufficient understanding of the temperatures and compositions of diagenetic fluids. Here, the archive of Devonian marine limestones exposed to multiple far-field diagenetic events is used as an example to explore the above-listed issues. Methods applied include petrography, micro XRF, fluid inclusion data, clumped isotopes, δ13C and δ18O isotopes, 87Sr/86Sr ratios and quartz trace element data. Devonian limestones studied here were overprinted by two cross-cutting regional fault zones (T ≈ 230 °C) by multiple events between the Variscan Orogeny and the late Paleogene. The following processes are recorded: (i) protolith deposition and partial dolomitisation during rapid burial in the Middle/Late Devonian (T ≈ 180 °C); (ii) deep burial to ca 6.5 km and tectonic/hydrothermal overprint during the Variscan Orogeny in the Carboniferous (T ≈ 90–230 °C); (iii) rapid uplift to 1–2 km burial depth at the end of the Variscan Orogeny and hypogene karstification (T ≈ 50 to 100 °C) initiated by regional geology in the Permian/Triassic; (iv) tectonic/hydrothermal overprint during the opening of the Proto-Atlantic Ocean between the Early Jurassic and the Early Cretaceous (T ≈ 50 to 130 °C); (v) tectonic/hydrothermal overprint including renewed hypogene karstification and hydrothermal calcite cement precipitation (T ≈ 50 to 180 °C) during Alpine Orogeny between the Late Cretaceous and late Paleogene. Despite this complex series of diagenetic events, the protolith limestones largely preserved their respective Middle/Late Devonian dissolved inorganic carbon (DIC) and 87Sr/86Sr signatures. This study documents that geochemical proxy data, placed into their petrographic, paleotemperature, and local to over-regional context, significantly increases the ability to extract quantitative information from ancient carbonate rock archives. Research shown here has wider relevance for carbonate archive research in general.
Highlights
• The Munich Procedure, developed for p-XRF data, standardises coefficient corrections.
• It ensures consistent, reproducible data, benefiting specialists in various industries.
• The protocol, documented as R-Skript, enhances accuracy and transparency of p-XRF data.
• Establishing a common baseline fosters discussion and improves the overall understanding of p-XRF.
Abstract
The Munich Procedure, a protocol presented as R code and initially developed on the basis of archaeometric portable X-ray fluorescence (p-XRF) data, offers adaptability and standardisation to evaluate coefficient corrections. These corrections are derived from linear regressions calculated by comparing p-XRF values with laboratory chemical analyses of the same sample set. The versatility of this procedure allows collaboration and ensures consistent data structure. Not tied to specific instrumentation, this approach helps to universally improve the accuracy of p-XRF data, benefiting specialists in a variety of industries. By providing a common baseline for performance evaluation, it enables discussion across different applications.
Hematopoietic mutations in epigenetic regulators like DNA methyltransferase 3 alpha (DNMT3A), play a pivotal role in driving clonal hematopoiesis of indeterminate potential (CHIP), and are associated with unfavorable outcomes in patients suffering from heart failure (HF). However, the precise interactions between CHIP-mutated cells and other cardiac cell types remain unknown. Here, we identify fibroblasts as potential partners in interactions with CHIP-mutated monocytes. We used combined transcriptomic data derived from peripheral blood mononuclear cells of HF patients, both with and without CHIP, and cardiac tissue. We demonstrate that inactivation of DNMT3A in macrophages intensifies interactions with cardiac fibroblasts and increases cardiac fibrosis. DNMT3A inactivation amplifies the release of heparin-binding epidermal growth factor-like growth factor, thereby facilitating activation of cardiac fibroblasts. These findings identify a potential pathway of DNMT3A CHIP-driver mutations to the initiation and progression of HF and may also provide a compelling basis for the development of innovative anti-fibrotic strategies.
The production of K∗(892)± meson resonance is measured at midrapidity (|y|<0.5) in Pb-Pb collisions at sNN−−−√=5.02 TeV using the ALICE detector at the LHC. The resonance is reconstructed via its hadronic decay channel K∗(892)±→K0Sπ±. The transverse momentum distributions are obtained for various centrality intervals in the pT range of 0.4-16 GeV/c. The reported measurements of integrated yields, mean transverse momenta, and particle yield ratios are consistent with previous ALICE measurements for K∗(892)0. The pT-integrated yield ratio 2K∗(892)±/(K++K−) in central Pb-Pb collisions shows a significant suppression (9.3σ) relative to pp collisions. Thermal model calculations overpredict the particle yield ratio. Although both simulations consider the hadronic phase, only HRG-PCE accurately represents the measurements, whereas MUSIC+SMASH tends to overpredict them. These observations, along with the kinetic freeze-out temperatures extracted from the yields of light-flavored hadrons using the HRG-PCE model, indicate a finite hadronic phase lifetime, which increases towards central collisions. The pT-differential yield ratios 2K∗(892)±/(K++K−) and 2K∗(892)±/(π++π−) are suppressed by up to a factor of five at pT<2 GeV/c in central Pb-Pb collisions compared to pp collisions at s√= 5.02 TeV. Both particle ratios and are qualitatively consistent with expectations for rescattering effects in the hadronic phase. The nuclear modification factor shows a smooth evolution with centrality and is below unity at pT>8 GeV/c, consistent with measurements for other light-flavored hadrons. The smallest values are observed in most central collisions, indicating larger energy loss of partons traversing the dense medium.
Im Rahmen dieser Doktorarbeit werden drei Schwerpunkte behandelt: 1) Die hocheffektive Beschleunigung von Elektronen und Protonen durch die Wechselwirkung von relativistischen Laserpulsen mit Schäumen. 2) Die Erzeugung und Messung hochintensiver Betatronstrahlung von direkt laserbeschleunigten (DLA-) Elektronen. 3) Die Anwendung von DLA-Elektronen für den biologischen FLASH-Effekt mit einer rekordbrechenden Dosisrate.
Die direkte Laserbeschleunigung von Elektronen wurde durch die Wechselwirkung eines sub-ps-Laserpulses mit einer Intensität von ~ 10^19 W/cm^2 mit einem Plasma nahe kritischer Elektronendichte (NCD) untersucht. Ein sub-mm langes NCD-Plasma wurde durch Erhitzen eines Schaums mit einer niedrigen Dichte mit einem ns-Puls von 10^13-10^14 W/cm^2 erzeugt. Die Experimente wurden an der PHELIX-Anlage (Petawatt Hoch- Energie Laser für Schwerionenexperimente) in den Jahren 2019 – 2023 durchgeführt. Während der Suche nach optimalen Bedingungen für die Beschleunigung von Elektronen und Protonen wurden die Parameter des ns-Pulses variiert und verschiedene Targets verwendet. Es wurde gezeigt, dass das Plasma im Schaum gute Voraussetzungen für die Erzeugung gerichteter, ultrarelativistischer DLA-Elektronen mit Energien von bis zu 100 MeV bietet. Die Elektronen weisen eine Boltzmann-ähnliche Energieverteilung mit einer Temperatur von 10-20 MeV auf.
Optimale Bedingungen für eine effektive Beschleunigung von DLA-Elektronen wurden bei der Kombination eines CHO-Schaums mit einer Dichte von 2 mg/cm3 und einer Dicke von 300-500 µm mit einer Metallfolie erreicht. Die Gesamtladung der detektierten Elektronen mit Energien über 1,5 MeV erreichte 0,5-1 µC mit der Umwandlungseffizienz der Laserenergie von ~ 20-30%.
Außerdem wird die Beschleunigung von Protonen durch DLA-Elektronen anders verursacht als bei typischer Target Normal Sheath Acceleration (TNSA). Für die Untersuchung der lokalen Protonenenergieverteilung wurden Magnetspektrometer unter verschiedenen Winkeln zur Laserachse verwendet. Dafür wurde eine Filtermethode entwickelt, welche es ermöglicht, Spektren von Protonen mit Energien von bis zu 100 MeV zu rekonstruieren. Es wurde gezeigt, dass am PHELIX durch die Kombination von einem ~ 300-400 µm dicken CHO-Schaum mit einer Dichte von 2 mg/cm^3 und einer 10 µm dicken Au-Folie bei einer Intensität des sub-ps-Pulses von ~ 10^19 W/cm^2 und unter Verwendung eines optimierten ns-Vorpulses eine optimale Protonenbeschleunigung erreicht wurde. Es wurde ein TNSA-ähnliches Regime mit einer maximalen Cut-off-Energie von 34±0,5 MeV beobachtet. Im Vergleich dazu wurde bei der typischen TNSA unter Verwendung einer 10 µm dicken Au-Folie als Target und derselben Laserintensität eine maximale Cut-off-Energie von 24±0,5 MeV gemessen. Darüber hinaus beobachteten wir einen sehr schwachen Abfall der Protonenanzahl in Abhängigkeit von der Protonenenergie (anders als bei der typischen TNSA) und eine sehr regelmäßige Protonenstrahlverteilung in einem breiten Winkelbereich bis zu hohen Energien. Dies könnte zur Verbesserung der Qualität der Protonenradiographie von Plasmafeldern genutzt werden.
Beim DLA-Prozess (im NCD-Plasma) entsteht Betatronstrahlung durch die Oszillationen von Elektronen in quasi-statischen elektrischen und magnetischen Feldern des Plasmakanals. Um diese Strahlung zu untersuchen, wurde ein neues modifiziertes Magnetspektrometer (X-MS) konstruiert. Das X-MS ermöglicht die 1D-Auflösung mehrerer Quellen. Dank dieser Spezifikation war es möglich, Betatronstrahlung von Bremsstrahlung der ponderomotorischen Elektronen im Metallhalter zu trennen und zu messen.
Im Experiment mit einem CHO-Schaum mit einer Dichte von 2 mg/cm^3 und einer Dicke von ~ 800 µm als Target wurde die von den optimierten DLA-Elektronen erzeugte Betatronstrahlung gemessen. Bei einer Peak-Intensität des dreieckigen ns-Pulses von ~ 3·10^13 W/cm^2 und des sub-ps-Pulses von ~ 10^19 W/cm^2, welcher 4±0,5 ns gegenüber dem ns-Puls verzögert war, betrug der Halbwinkel im FWHM-Bereich des Elektronenstrahls 17±2°. Unter diesen Bedingungen war die Betatronstrahlung mit einem Halbwinkel im FWHM-Bereich von 11±2° für die Photonen mit Energien über 10 keV ebenfalls gerichtet. Die Photonenanzahl mit Energien über 10 keV wurde auf etwa 3·10^10 / 3·10^11 (gerichtete Photonen / Photonen im Halbraum entlang der Laserstrahlrichtung) abgeschätzt. Die maximale Photonenanzahl pro Raumwinkel betrug ~2·10^11 photons/sr. Die Brillanz der registrierten Betatronstrahlung erreichte ~ 2·10^20 photons/s/mm^2/mrad^2/(0.1% BW) bei 10 keV.
Die Verwendung eines Hochstromstrahls aus DLA-Elektronen für die FLASH-Strahlentherapie ermöglicht das Erreichen einer Dosis von bis zu 50-70 Gy während eines sub-ps-Laserpulses. Im Jahr 2021, während der P213-Strahlzeit am PHELIX wurde der Sauerstoffkonzentrationsabfall bei der Bestrahlung von Medien (Wasser und andere biologische Medien) mit DLA-Elektronen in Abhängigkeit von der Dosis untersucht. Die Strahlendosis wurde hierbei indirekt gemessen. Hierfür wurde eine Rekonstruktionsmethode entwickelt, die es ermöglicht, die Dosis innerhalb des „Wasser-Containers“ auf Basis von Messungen außerhalb des Containers mit einem untersuchten Medium zu ermitteln. Es wurde eine gute Übereinstimmung zwischen dem Experiment und einer Monte-Carlo-Simulation für Wasser gezeigt. Die registrierte Dosisrate erreichte einen Rekordwert von ~ 70 TGy/s.