Universitätspublikationen
Refine
Year of publication
Document Type
- Article (13522)
- Part of Periodical (3472)
- Doctoral Thesis (3308)
- Contribution to a Periodical (2163)
- Book (2063)
- Working Paper (1886)
- Preprint (1572)
- Review (1063)
- Report (909)
- Conference Proceeding (693)
Language
- English (17106)
- German (13890)
- Portuguese (231)
- Spanish (123)
- Italian (66)
- French (64)
- Multiple languages (60)
- Turkish (12)
- Ukrainian (10)
- slo (7)
Keywords
- Deutschland (132)
- COVID-19 (95)
- inflammation (93)
- Financial Institutions (90)
- ECB (67)
- Capital Markets Union (65)
- SARS-CoV-2 (63)
- Financial Markets (61)
- Adorno (58)
- Banking Union (50)
Institute
- Medizin (6590)
- Präsidium (5087)
- Physik (3415)
- Wirtschaftswissenschaften (2286)
- Gesellschaftswissenschaften (2017)
- Biowissenschaften (1752)
- Frankfurt Institute for Advanced Studies (FIAS) (1581)
- Biochemie und Chemie (1397)
- Sustainable Architecture for Finance in Europe (SAFE) (1391)
- Informatik (1381)
Background: In the Computer Tomography imaging, examinations for the diagnosis of lesions of the upper abdomen currently use water-soluble, iodinated, non-ionic contrast agents with low molecular weight. One possibility to reduce the time of the examination and X-ray exposure is to increase the injection rate. However, higher injections rates lead to increased hypersensitivity reactions and extravasation rates. Furthermore, cardiac pump function does not always allow for the transportation of such a large volume within one heartbeat. With a contrast agent of higher iodine concentration, the injection rate may be reduced without decreasing the iodine delivery rate while reducing the volume load of the heart.
Aim: to compare the performance and image quality of two injection protocols of contrast medium for multiphasic CT imaging of malignant hepatic lesions; one using Imeron 300 at an injection rate of 5 ml/ sec and the second using Imeron 400 at an injection rate of 3,7 ml/ sec, for multiphasic CT imaging of malignant hepatic lesions, in order to optimise the iodine concentration and injection rate of the contrast agent Imeron in the Multislice Spiral-CT of the upper abdomen.
Materials and methods: the current prospective, single centre, double-blinded, randomised and interindividual comparison study included 50 patients (29 males and 21 females) with a mean age of 63,3 years. Patients were randomised to one of the two injection protocols. Image evaluation included qualitative assessment (technical quality, presence of artefacts and overall contrast quality) and quantitative assessment (measuring the difference in HU between the lesion and the surrounding hepatic tissue). The difference between both protocols was tested for statistical significance using the Wilcoxon-Mann-Whitney test and the Two-Sample t-test.
Results: there was no statistically significant difference between both protocols regarding the technical quality of images, both in the AP (p = 0,46) and in the venous phase (p = 0,48). Additionally, no statistically significant difference was found regarding the presence of artefacts related to the contrast medium, both in the AP (p = 0,46) and in the venous phase (p = 0,46), as well as regarding the overall contrast quality of images both in the AP (p = 0,50) and in the venous phase (p = 0,48). Quantitative assessment showed no statistically significant difference regarding the difference in HU measurement between the hepatic lesion and the surrounding hepatic tissue, both in the AP (p = 0,36) and in the venous phase (p = 0,92).
Conclusion: in the multiphasic CT imaging of the liver, reducing the injection rate of the contrast medium Imeron from 5 ml/ sec to 3,7 ml/ sec while increasing the iodine strength of the agent from 300 to 400 mg/ml, respectively, and thus keeping the iodine injection flow rate constant, produces similar signal intensities and results in similar technical, image and overall contrast qualities..
Keywords: Contrast-medium, injection rate, iodine concentration, hepatic malignancy, multiphasic CT
Animal agriculture is responsible for at least 16.5% of global yearly CO2e (carbon dioxide equivalent) emissions (Twine 2021: 3) and thus partially causal for the corresponding climate change, and its disastrous consequences for millions (Romanello et al. 2023: 1-2). At the same time, animal agriculture restricts and damages the bodily autonomy of animals regularly (Hampton et al. 2021: 28) which could be unethical depending on the underlying ethical theory. The policy option of veganism by law is, nevertheless, rarely considered. The definitions of veganism range from an individual ethic of the abstention from consuming animal products to a political philosophy calling for the abolition of animal agriculture (Mancilla 2016: 1-3). Because veganism through the cessation of animal agriculture could be the policy solution to the aforementioned issues concerning the rights of present and future generations affected by climate change and the rights of animals, I explore arguments for and against the implementation of veganism by law.
Although a veganized agriculture would provide 52% of the required emission reductions for the 2°C target of the Paris climate accord (Eisen and Brown 2022: 6), and could allow for greater animal welfare, current policies of many governments promote the opposite. For example, 82% of the subsidies of the European Union’s Common Agricultural Policy are routed towards the production of animal products and animal feed (Kortleve et al. 2024: 1-2). Moreover, for American adults the U.S. Department of Agriculture and the U.S. Department of Health and Human Services (2020: 96) promotes the consumption of 720ml of cow milk or other dairy per day and recommends a protein intake through meat and eggs between 652 g and 936 g per week.
In this bachelor thesis I outline the current state of animal agriculture, its emissions and the associated harm towards animals and humans. The empirical findings are dissected ethically with a consequentialist approach and a deontological approach. The ethical analysis concerning the decisions of individuals is then converted into a political philosophy regarding the duties of states towards present and future generations and animals including corresponding policy implications.
The normative argument is mainly based on the example of industrialized animal agricul-ture, the area where most of the interaction between animals and humans occurs. Nevertheless, other sectors where animals are used for human consumption or entertainment are discussed in less detail, in order to analyze the arguments for veganism by law.
In short, using the recommended political argument structure of Abel et al. (2021: 6) the following hypothesis acts as the basis for the political and philosophical discussion and is revised where necessary:
Moral claims: The state should protect present and future generations and animal rights.
Empirical claims: Animal agriculture is a major contributor to climate change and its corresponding effects and violates the wellbeing of animals regularly.
Conclusion: The state should enforce veganism by law.
Jüdische Periodika im deutschsprachigen Raum : www.compactmemory.de = German Jewish Periodicals
(2013)
A Large Ion Collider Experiment (ALICE) is a high-energy physics experiment, designed to study heavy ion collisions at the European Organization for Nuclear Research (CERN)Large Hadron Collider (LHC). ALICE is built to study the fundamental properties of matter as it existed shortly after the big bang. This requires reading out millions of sensors with high frequency, enabling high statistics for physics analysis, resulting in a considerable computing demand concerning network throughput and processing power. With the ALICE Run 3 upgrade [14], requirements for a High Throughput Computing
(HTC) online processing cluster increased significantly, due to more than an order of magnitude more data than in Run 2, resulting in a processing input rate of up to 900 GB/s. Online (real-time) event reconstruction allows for the compression of the data stream to 130 GB/s, which is stored on disk for physics analysis.
This thesis presents the implementation of the ALICE Event Processing Node (EPN) compute farm, to cope with the Run 3 online computing challenges. Building a Data Centre tailored to ALICE requirements for the Run 3 and Run 4 EPN farm. Providing the operational conditions for a dynamic compute environment of a High Performance Computing (HPC) cluster, with significant load changes in a short time span, when starting or stopping a data-taking run. EPN servers provide the required computing resources for online reconstruction and data compression. The farm includes network connectivity towards First Level Processors (FLPs), requiring reliable throughput of 900 GB/s between FLPs and EPNs and connectivity from the internal InfiniBand network to the CERN Exabyte Object Storage (EOS) Ethernet network, with more than 100 GB/s.
The results of operating the EPN computing infrastructure during the first year of Run 3 LHC collisions are described in the context of the ALICE experiment. The EPN farm was delivering the expected performance for ALICE data-taking. Data Centre environmental conditions remained stable during the last more than two years, in particular during starting and stopping runs, which include significant changes in IT load. Several unforeseen external circumstances lead to increasing demands for the Online Offline System (O2). Higher data rates than anticipated required network performance to exceed the initial design specifications, for the throughput between FLPs and EPNs. In particular, the high throughput from an internal EPN InfiniBand network towards the storage Ethernet network was one of the challenges to overcome.
This bachelor thesis developed a pipeline for automatic processing of scanned hospital letters: HospLetExtractor. Hospital letters can contain valuable information about potential adverse drug reactions and useful case information relevant to pharmacovigilance. To make this data accessible, this thesis presents a pipeline consisting of image pre-processing, optical character recognition and post-processing. Pre-processing deskews the images, removes
lines and rectangles, reduces noise and applies super-resolution. For the post-processing a spell checking system was set up including a newly built word frequency dictionary for german medical terms based on a created corpus of german medical texts. Furthermore, classical and deep learning models for the classification of hospital letters were compared, in which the transformer-based models performed best. In order to train and test the models, a new
gold standard was created. By making these medical documents accessible for automatic analysis, hopefully a contribution can be made to expand the scope of pharmacovigilance.
In dieser Dissertation werden die Erfahrungen mit verschiedenen Präparationsmethoden für CH-Kavitäten beschrieben, um die Leistung der Kavitäten nach der Herstellung weiter zu steigern. Die Leistung wird anhand von zwei wichtigen HF-Parametern bewertet:
dem elektrischen Feld Ea und der intrinsischen Güte Q0. Im Gegensatz zu normalleitenden (NC) Kavitäten kann die intrinsische Güte von supraleitenden (SC) Kavitäten mit zunehmendem elektrischem Feld erheblich variieren. Das optimale Ergebnis für die Kavitätenpräparation ist die Erhöhung des maximalen elektrischen Feldes unter Beibehaltung eines höheren Q0 über die gesamte Feldspanne. Da Q0 umgekehrt proportional zu den Kavitätsverlusten ist, reduziert eine Erhöhung des Qualitätsfaktors die Kryoverluste für den Betrieb bei gegebenem Feldniveau. Die Entwicklung der Kavitätenperformanz im Verlauf dieser Arbeit dargestellt.
Die meisten SC-Kavitäten sind elliptische Strukturen, welche bei hoher Geschwindigkeit und Tastrate angewendet werden. Die Präparationsmethoden wurden daher überwiegend auf diese Strukturen angewandt und optimiert. Diese Arbeit konzentriert sich auf die Umsetzung der zuverlässigsten und vielversprechendsten Oberflächenbehandlungen mittels des ersten vom IAP entwickelten SC 360MHz CH-Prototyps. Diese Kavität wies nach 11 Jahren Lagerung eine verminderte Leistung auf, welche mit Röntgenstrahlung bei bereits niedrigen elektrischen Feldern einherging. Dies deutet auf eine unbeabsichtigte Belüftung mit normaler Luft hin, durch die Partikel eingeführt wurden, die als verstärkende Quellen von Elektronen fungierten. Außerdem musste der Leistungskoppler aufgrund einer starken Überkopplung neu ausgelegt werden.
Die Kavität wurde für 48 Stunden bei 120◦ C mittels Heizbändern in der Experimentierhalle des IAP’s ausgeheizt, was zu einer Verbesserung des Qualitätsfaktors bei niedrigen Werten und zu einer Verkürzung der für die Konditionierung von Multipacting-Barrieren erforderlichen Zeit führte. Allerdings wurde durch diese Behandlung das maximale erreichbare elektrische Feld weiter verringert. Die Verbesserung der Güte ist auf das Ausgasen der Kohlenwasserstoffe während des Backvorgangs zurückzuführen. Die negative Auswirkung auf das maximale elektrische Feld ist weniger auf das Backen selbst zurückzuführen als auf den Transport der Kavität und die verwendeten Vakuumkomponenten, die in der Versuchshalle gelagert sind.
Die beobachtete Leistungseinschränkung lässt sich hauptsächlich durch Partikel im Inneren des Resonators erklären, da Feldemission bei niedrigen Feldstärken auftrat. Eine Hochdruckspülung mit ultrareinem Wasser (HPR) ist das Standardverfahren, um nach Behandlungen, bei denen das Risiko einer Oberflächenkontamination besteht, eine hohe Reinheit der inneren Oberflächen zu erreichen. Die HPR wurde in Zusammenarbeit mit dem Helmholtz-Institut-Mainz und der Gesellschaft für Schwerionenforschung geplant und durchgeführt. Der Resonator zeigte bereits während der Messung der Q-E-Kurve eine Zunahme der transmittierten Leistung bei konstanter Vorwärtsleistung, was vor der HPR nicht der Fall war. Bei der CW-HF-Konditionierung zeigte die Kavität den höchsten Gradienten bei einem deutlich schwächeren Q-Abfall bei hohen Feldstärken.
Sowohl bei der Messung von 2008 als auch bei der beschriebenen Messung wurde die Kavität mit einer HPR-Behandlung fertiggestellt, aber für die HPR-Behandlung bei HIM in Mainz wurden einige Anpassungen vorbereitet. Der CH Prototyp verfügt über keine zusätzlichen Spülports und wurde daher mit zwei verschiedenen Düsen mit unterschiedlichen Sprühwinkeln gespült, um die erreichbaren inneren Resonatorflächen zu maximieren. Die Verwendung mehrerer Sprühwinkel könnte auch für CH-Kavitäten mit Spülöffnungen von Vorteil sein und sollte für zukünftige HPR-Anwendungen in Betracht gezogen werden.
Die Heliumbehandlung wurde am CH-Prototyp 2,5 Stunden lang durchgeführt und lieferte vielversprechende Ergebnisse in Bezug auf die Güte und die Gradientenoptimierung.
Während dieses Prozesses wurde die emittierte Röntgenstrahlung in Richtung am Arbeitsplatzs gemessen und zeigte starke zeitabhängige Fluktuationen. Dies deutete auf die Beseitigung von Partikeln hin und wurde anschließend durch einen Anstieg des elektrischen Feldes von 8,4 auf 8,7 MV/m bestätigt. Eine unerwartete Auswirkung wurde bei der Q-Steigung im mittleren bis hohen Feld festgestellt, bei der der Qualitätsfaktor im Vergleich zum HF-konditionierten Fall eine Erhöhung von 5% oberhalb von 2MV/m aufwies. Dieser systematische Anstieg wurde für diesen Beschleuniger vor der Behandlung bisher nicht beobachtet. Stickstoffgedopte Kavitäten zeigen ein ähnliches Verhalten, bei dem Wechselwirkungen innerhalb der Oxidschicht mit Änderungen der Qualitätsfaktoren korreliert sind. Da Helium ein nicht reaktives Element ist, sind mögliche Erklärungen für diesen Effekt der Sputterprozess und die Einlagerung von Helium innerhalb der Oberfläche. Eine Serie von Heliumbehandlungen ist geplant, um ein optimiertes und sicheres Rezept für CH-Kavitäten zu finden. Die Q-E-Messung nach der Abkühlung und vor der Behandlung wird auch zeigen, ob der Leistungsgewinn durch ein Aufwärmen auf Raumtemperatur beeinträchtigt wird.
Die in dieser Arbeit skizzierte Behandlungssequenz wird für CH-Kavitäten dringend empfohlen. Das Ausheizen hat sich bei der Verringerung des Multipactings and der Güteabnahme bei hohen Feldern als wirksam erwiesen und bleibt von der anschließenden HPR unbeeinflusst. In dieser Arbeit wurden keine negativen Auswirkungen der HPR auf das Multipactingverhalten festgestellt. Anschließend wird eine CW-HF-Konditionierung durchgeführt, bis keine weitere Leistungszunahme der Kavität mehr zu verzeichnen ist.
Wenn die Kavität immer noch durch Feldemission begrenzt ist, sollte eine Wiederholung der HPR-Behandlung in Betracht gezogen werden, da bei sorgfältiger Durchführung der HPR keine der bisherig gefertigten CH-Kavitäten hierdurch begrenzt war. Es ist auch anzumerken, dass die Heliumbehandlung nur an der 360MHz CH-Kavität durchgeführt wurde, als diese eine geringe Strahlung durch Feldemission aufwies. Das Risiko des Heliumprocessing an CH-Kavitäten unter starker Feldemission ist unbekannt. Es ist zu erwarten, dass die Elektronenströme und damit die Ionenbeschusslawinen zunehmen und ein größeres Risiko für die Beschädigung von der Komponenten darstellen. Nach dem derzeitigen Kenntnisstand sollte die Heliumbehandlung nur für gut vorbereitete Kavitäten mit minimaler Feldemission in Betracht gezogen werden.
Die Arbeit behandelt die Messung von Photonen mit Teilchendetektoren, die auf digitalen Silizium-Pixelsensoren basieren. Diskutiert werden zwei wesentliche Schritte in den Upgrade-Programmen des ALICE-Experiments am CERN-LHC:
1. FOCAL-Detektor-Upgrade (2027): Untersuchung der Detektorantwort des elektromagnetischen Pixel-Kalorimeters EPICAL-2 und der Form elektromagnetischer Schauer durch Teststrahl-Messungen und Monte Carlo Simulationen.
2. ALICE 3-Upgrade (2035): Simulationsstudien zum Untergrund in der Messung von Photonen mit sehr kleinem Transversalimpuls.
Teil 1: Performance des elektromagnetischen Pixel-Kalorimeters EPICAL-2
Detektordesign und Testmessungen: EPICAL-2, ein SiW-Sandwich-Design-Kalorimeter mit ALPIDE Sensoren, besitzt eine Tiefe von ca. 20 Strahlungslängen und etwa 25 Millionen Pixel. Testmessungen wurden an der Universität Utrecht (kosmische Myonen) sowie am DESY und CERN-SPS (Elektronen) durchgeführt.
Simulation und Validierung: Das EPICAL-2 wird im Simulationspaket Allpix2 implementiert, um die Testmessungen zu validieren und das Detektorverhalten zu untersuchen. Systematische Variationen bestätigen die Stabilität und Reproduzierbarkeit der Simulation.
Datenaufbereitung und Schauerprofile: Im Rahmen der Datenanalyse werden fehlerhafte Pixel ausgeschlossen, Pixel-Treffer zu Clustern gruppiert, Chips kalibriert und der Strahlwinkel korrigiert. Das longitudinale Profil elektromagnetischer Schauer zeigt, dass das Schauermaximum in der Simulation etwas tiefer liegt als in den Testdaten, was auf zusätzliches Material oder eine unvollständige Beschreibung der Schauerentwicklung in der Simulation zurückzuführen sein könnte. Das laterale Profil zeigt, dass eine Schauertrennung im Millimeter-Bereich möglich ist.
Energieantwort und -auflösung: Die nicht-lineare Energieantwort wird sowohl in Testdaten als auch in Simulationen beobachtet. Die Energieauflösung des EPICAL-2 für Cluster ist besser als für Pixeltreffer und vergleichbar mit dem analogen CALICE-Prototypen. Simulationen ohne Strahlenergie-Fluktuationen zeigen eine bessere Energieauflösung als in den Testdaten.
Teil 2: Untergrund in der Messung von Photonen in ALICE 3
Simulationssetup: Die ALICE 3-Detektorgeometrie wird in GEANT4 implementiert, um den Untergrund in der Messung weicher Photonen zu untersuchen. Simulationen mit PYTHIA und GEANT4 zeigen, dass der Untergrund hauptsächlich aus Zerfallsphotonen und Photonen aus externer Bremsstrahlung besteht.
Ergebnisse der Untergrundstudien: Der Untergrund durch Photonen aus externer Bremsstrahlung dominiert und liegt im Akzeptanzbereich des FCT um einen Faktor von 5 bis 10 über dem theoretischen Signal weicher Photonen. In der Simulation wird das Material zu 8%—14% X0 in ALICE 3 bestimmt, wobei bereits bei 5% X0 der Untergrund genauso stark ist wie das erwartete Signal.
Möglichkeiten zur Untergrundreduzierung: Untersuchungen zeigen, dass ein Elektron-Veto das Signal-zu-Untergrund-Verhältnis um den Faktor 30 verbessern und eine Materialreduktion durch ein optimiertes Strahlrohr um den Faktor 7.
Die Ergebnisse des ersten Teils dieser Arbeit demonstrieren insgesamt die gute Performance des EPICAL-2 in Bezug auf die Energiemessung und die Bestimmung der Schauerform. Darüber hinaus unterstützen sie den Einsatz digitaler Kalorimeter im FOCAL-Upgrade des ALICE-Experiments und zeigen das Potenzial der digitalen Kalorimetertechnologie für zukünftige Hochenergiephysik-Experimente.
Die Ergebnisse des zweiten Teils dieser Arbeit liefern einen wesentliche Beitrag zum geplanten ALICE 3-Upgrade. Weiterhin veranschaulichen sie, wie ein Elektron-Veto und die Reduzierung des Materials zusammen eine vielversprechende Messstrategie bilden können.
Kinder und Jugendliche beschäftigen sich gerne mit audiovisuellen, auditiven und interaktiven Medien. Das Buch gerät im Mediengeflecht zunehmend in den Hintergrund. Um für die junge Zielgruppe attraktiv zu sein, setzen Verlage auf Bücher, die Themen, Geschichten und Darstellungsweisen aus anderen Medien aufgreifen. Dazu gehören auch die sogenannten Medienbegleitbücher, die in Bezug zu einem Film, einer Serie, einem Hörspiel oder einem digitalen Spiel stehen. Diese Bücher ermöglichen Kindern aufgrund der bereits bekannten Geschichten, Charaktere und Dialoge einen erleichterten Zugang zu Literatur und locken mit besonderen Gratifikationen, die vorlagenfreie Bücher nicht zu bieten haben. Daher sind sie als Lesestoffe auch für die Leseförderung interessant.
Diese Arbeit untersucht daher, welche Stellung Medienbegleitbücher im Kinder- und Jugendbuchmarkt sowie in der Leseförderung haben. Im ersten Teil liegt der Fokus auf der Produktion und Distribution von Begleitbüchern. Mithilfe einer Recherche im Katalog der Deutschen Nationalbibliothek wurden das Marktangebot erarbeitet und Rückschlüsse auf die Entwicklung des Genres gezogen. Jahresbestsellerlisten des Buchreport geben einen Eindruck vom Verkauf der Bücher. Forschungsliteratur zum Thema Lizenzen und Kommunikationspolitik in Verlagen ergänzt den Marktüberblick durch die Perspektive von Handel und Herstellung.
Im folgenden Kapitel werden unter Zuhilfenahme von Forschungsliteratur und Studien die Potenziale der Begleitbücher geschildert. Rezensionen und Bewertungen zu Medienbegleitbüchern auf LovelyBooks und Amazon geben Aufschluss über die Einstellung der Leser*innen und Beiträge in Zeitschriften der Kinder- und Jugendliteratur zeigen die Meinung der Vermittler*innen zu Begleitbüchern.
Der letzte Abschnitt der Arbeit beschäftigt sich mit dem Einsatz der Medienbegleitbücher in der Leseförderung. Stellvertretend für Angebote in der Familie und in Kindertagesstätten wurde die Arbeit der Stiftung Lesen Mainz betrachtet. Eine Analyse der Angebote und ein Experten-Interview geben nähere Einblicke in die Einbindung von Medienbegleitbüchern. Die Didaktik-Forschung gibt Auskunft über die Integration von Medienbegleitbüchern und Medienverbünden in den Unterricht. Im Bereich der außerschulischen Leseförderung wurde der Einsatz von Medienbegleitbüchern in den Lesestunden von Mentor e.V. Mainz mit einer Online-Umfrage unter den Mentor*innen untersucht. Der Katalog der Anna Seghers Bücherei Mainz zeigt das Angebot an Medienbegleitbüchern in Büchereien auf. Der Instagram-Account der Bücherei lässt Rückschlüsse über den Einsatz von Begleitbüchern in Aktionen zu.
Zusammenfassend konnte festgehalten werden, dass Medienbegleitbücher ein wichtiges Segment des Kinder- und Jugendbuchmarktes darstellen, hohe Umsätze generieren können und für den Handel von Bedeutung sind. Aufgrund des vielfältigen Angebots und der verschiedenen Vertriebswege können viele Zielgruppen angesprochen und erreicht sowie Barrieren zum Medium Buch abgebaut werden. Obwohl die Erfahrungen von Familienangehörigen und Mentor*innen belegen, dass sich Begleitbücher positiv auf die Lesemotivation und das Leseverhalten von Kindern und Jugendlichen auswirken können, werden sie in der Leseförderung bislang eher am Rande berücksichtigt. Sie werden zwar empfohlen, aber Konzepte für und Evaluationen von Projekten fehlen. Die Potenziale der Medienbegleitbücher und ihrer Medienverbünde werden daher nicht ausgeschöpft. Medienbegleitbücher sollten zunehmend in den Fokus gerückt und als Chance wahrgenommen werden, Heranwachsende für Bücher zu begeistern und ihre Lesefreude zu wecken.
We compute the critical exponents of the O(N) model within the Functional Renormalization Group (FRG) approach. We use recent advances which are based on the observation that the FRG flow equation can be put into the form of an advection-diffusion equation. This allows to employ well-tested hydrodynamical algorithms for its solution. In this study we work in the local potential approximation (LPA) for the effective average action and put special emphasis on estimating the various sources of errors. Our results complement previous results for the critical exponents obtained within the FRG approach in LPA. Despite the limitations imposed by restricting the discussion to the LPA, the results compare favorably with those obtained via other methods.
We compute the critical exponents of the O(N) model within the Functional Renormalization Group (FRG) approach. We use recent advances which are based on the observation that the FRG flow equation can be put into the form of an advection-diffusion equation. This allows to employ well-tested hydrodynamical algorithms for its solution. In this study we work in the local potential approximation (LPA) for the effective average action and put special emphasis on estimating the various sources of errors. Our results complement previous results for the critical exponents obtained within the FRG approach in LPA. Despite the limitations imposed by restricting the discussion to the LPA, the results compare favorably with those obtained via other methods.
We reanalyze some critical exponents of the 𝑂(𝑁) model within the functional renormalization group (FRG) approach in the local potential approximation (LPA). We use recent advances which are based on the observation that the FRG flow equation in LPA can be put into the form of an advection-diffusion equation. This allows to employ well-tested hydrodynamical algorithms for its solution to better estimate various sources of errors. Our results complement previous results for the critical exponents obtained within the FRG approach in LPA and compare favorably with those obtained via other methods.
Highlights
• We propose a framework to address landscape effects on ecosystem services.
• We expect ecosystem service flows to be modulated by the amount and configuration of supply and demand areas.
• We stress the role of neutral areas in facilitating or hindering ecosystem service flows.
• Supply/demand ratios, spatial overlap, and ES characteristics need to be accounted for when assessing flows.
• We propose a research agenda with challenges to couple the effects of landscape configuration on ES flow.
Abstract
Despite advances in understanding the effects of landscape structure on ecosystem services (ES), many challenges related to these complex spatial interactions remain. In particular, the integration of landscape effects on different components of the service provision chain (supply, demand, and flow) remains poorly understood and conceptualized. Here we propose a theoretical framework to further explore how the spatial flow of ES can vary according to landscape structure (i.e. composition and configuration) emphasizing the role played by the configuration of supply, demand, and neutral areas, as well as individual characteristics of ES (e.g., service rivalry). For this, we expand the discussion on how landscape changes can affect ES flows and propose a theoretical representation of ES flows variation led by different supply-demand ratios. Additionally, we expand this discussion by integrating the potential effects of neutral areas in the landscape as well as of supply/demand spatial overlap. This novel approach links the spatial arrangement (e.g. fragmentation, network complexity, matrix resistance) usually captured by landscape metrics, and ratios of ES supply and demand areas to potential effects on spatial flows of ES. We discuss the application of this model using widely studied ES, such as pollination, pest control by natural enemies, and microclimate regulation. Finally, we propose a research agenda to connect the presented ideas with other prominent research topics that must be further developed to support landscape management targeting ES provision. The prominence of ES science calls for contributions such as this to give the scientific community the opportunity to reflect on the underlying mechanisms of ES and avoid oversimplified spatial assessments.
Die radikale Prostatektomie (RP) stellt neben der Radiatio der Prostata den Goldstandard der Lokaltherapie des lokalisierten Prostatakarzinoms (PCa) dar. Neben der Erzielung einer postoperativen Tumorfreiheit (onkologisches Ergebnis), spielen die postoperativen, funktionellen Ergebnisse (z.B. Erektionsfähigkeit, Urin-Kontinenz) nach RP für die Patienten eine zentrale Rolle. Hierbei ist vor allem die (Wieder-) Erlangung der postoperativen Kontinenz hervorzuheben, da das Ausbleiben mit einem substantiellem Verlust der Lebensqualität einhergeht und eine deutliche Einschränkung im Alltag darstellt. Verschiedene Tumor- und Patientencharakteristika (pathologisches Tumorstadium, Body Mass Index [BMI], Alter, Prostatavolumen) wurden in vorangegangenen Publikationen als Faktoren identifiziert, die Einflüsse auf die Wiedererlangung der Kontinenz nach RP haben. Interessanterweise jedoch, wurde der Einfluss von Diabetes Mellitus auf die Kontinenz-Rate zum jetzigen Stand nur unzureichend und teils mit widersprüchlichen Ergebnissen untersucht. In Anbetracht der vorbekannten protrahierten Wundheilungsverläufe sowie Mikrozirkulationsstörungen und Neuropathie bei Diabetes mellitus Patienten, hat die jetzige Studie deshalb untersucht, ob das Vorliegen von Diabetes Mellitus einen Einfluss auf die postoperative Früh-Kontinenz bei PCa-Patienten hat, die eine RP erhalten haben.
Nach Vorliegen des Ethikkomitee-Beschluss erfolgte mit Hilfe der RP-Datenbank der Klinik für Urologie, Johann Wolfgang-Goethe-Universität die Patientenidentifizierung im Zeitraum von 2018 bis 2021. Hierbei wurden Patienten in die Studienkohorte eingeschlossen bei denen Informationen bezüglich der Früh-Kontinenz (30-90 Tage postoperativ) vorlagen. Kontinenz wurde definiert als die Verwendung von keiner bzw. einer Sicherheitsvorlage innerhalb eines Zeitraums von 24 Stunden. Neben Auswertung der Kontinenz-Raten hinsichtlich des Diabetes Mellitus Status, erfolgte die Zuhilfenahme von uni- und multivariablen logistische Regressionsanalysen um den Effekt von Diabetes Mellitus auf die Kontinenz zu untersuchen. Kovariablen beinhalteten das pathologisches Tumorstadium, BMI, Alter, OP-Verfahren und Durchführung einer Nerv-Erhaltung.
Innerhalb der Studienkohorte (n=142) lag eine Diabetes Mellitus Erkrankung bei 15 Patienten (11%) vor. Mit Ausnahme eines höheren BMI (Median: 28.6 vs 26.5 m2/kg; p=0.005) bei Diabetes Mellitus Patienten, bestanden keine signifikanten Unterschiede hinsichtlich Patienten und Tumorcharakteristika zwischen den beiden Gruppen (p>0.05). Die Früh-Kontinenz Rate war bei Diabetes Mellitus Patienten geringer im Vergleich zu der restlichen Studienkohorte (33 vs 63%; p=0.03). Dieser Unterschied spiegelte sich ebenfalls in der univariablen logistischen Regressionsanalyse wider, in der Diabetes Mellitus einen signifikanten Einfluss auf die Früh-Kontinenz aufwies (Odds Ratio [OR]: 0.29, 95%-KI [95%-Konfidenz Interval]: 0.09-0.99; p=0.03). Der signifikante Einfluss von Diabetes Mellitus blieb ebenfalls in der multivariablen logistischen Regressionsanalyse fortbestehen, nachdem weitere Kovariablen berücksichtigt wurden (OR: 0.26; 95%-KI: 0.07-0.86; p=0.03). Unter Berücksichtigung der Limitationen der vorliegenden Studie (retrospektives Studiendesign, limitierte Fallzahl) lassen die Ergebnisse darauf schließen, dass das Vorliegen einer Diabetes Mellitus Erkrankung einen negativen Einfluss auf die Wiedererlangung der Kontinenz zu einem frühen Zeitpunkt nach RP hat. Die vorliegenden Ergebnisse haben für den klinischen Alltag wichtige Implikationen. Im Rahmen der Aufklärung vor RP kann der Patient bezüglich seines individuellen Risikos einer verlängerten postoperativen Inkontinenz entsprechend aufgeklärt werden, um somit die Erwartungshaltung des Patienten realitätsgetreu zu adressieren. Betrachtet man den postoperativen Verlauf, legen die vorliegenden Ergebnisse nahe, dass Diabetes mellitus Patienten aufgrund Ihrer geringeren Früh-Kontinenz Rate von einer intensivierte Beckenboden-Training zur Wiedererlangung der Kontinenz besonders profitieren könnten.
Auf der Grundlage dieser Studie sollten multizentrische Studien mit einer umfangreicheren Kohortengröße erfolgen und den Einfluss von Diabetes Mellitus nicht nur auf die Früh-Kontinenz, sondern ebenfalls auf die langfristige Kontinenz (>12 Monate) zu untersuchen
In almost all parts of the world the industrialisation grows continuously and thus, the chemical pollution of natural waters has become a major public concern. A major consequence and one of the key environmental problems we are facing today is the increasing contamination of freshwater systems with chemicals. The chemicals are detected in wastewater, surface (river) water, ground water and drinking water ubiquitously in natural waters and not only in industrialised areas. The main point sources for water pollution and the release of these synthetic organic substances of human origin, so called micropollutants (MPs), are wastewater treatment plants (WWTPs). These MPs such as pharmaceuticals, personal care products, disinfectant chemicals, chemicals used in the industry and in households, contraceptives, hormones, food additives, artificial sweeteners, pesticides, biocides, and many emerging contaminants are only incompletely removed by the existing conventional wastewater treatment technologies. The MPs end up in the water cycle and have adverse effects on wildlife aquatic ecosystems and human health even at very low concentrations. Therefore, advanced wastewater treatment (AWWT) technologies, such as ozonation, treatment with activated carbon, biofiltration, membrane bioreactors (MBRs) or exposure to ultraviolet light are investigated as options to upgrade conventional WWTPs. However, several studies show that especially the ozonation of wastewater generates diverse transformation products (TPs) with unknown properties. These TPs could be more toxic than the mother compound. Thus, a post-treatment after the ozonation process is required.
The present thesis was part of the BMBF-funded TransRisk project dealing with “the characterisation, communication, and minimisation of risks of emerging pollutants and pathogens in the water cycle”. One main objective was the investigation of conventional treated wastewater after a full-scale ozonation with four post-treatments (each non-aerated and aerated granular activated carbon (GAC) filtration and biofiltration) in comparison to a MBR treatment of raw (untreated) wastewater separately and in combination with an additional ozonation on a pilot WWTP. For this purpose, the wastewater samples were characterised with a comprehensive battery of in vitro and in vivo bioassays. The in vitro bioassays were performed to detect endocrine activities (such as (anti)estrogenic and (anti)androgenic activities), genotoxicity, and mutagenicity. The results showed a decreased estrogenic activity due to the conventional wastewater treatment as well as the ozonation, but a distinct increase of the anti-estrogenic activity and the mutagenicity in the ozonated wastewater, possibly caused by new formed TPs, that were reduced after the post-treatments whereas the GAC filtration performed better than the biofiltration. The in vivo bioassays included for example the impact of the wastewater on mortality, reproduction, development, and energy reserves of the test organisms. The in vivo on-site tests with the mudsnail Potamopyrgus antipodarum and with the amphipod Gammarus fossarum indicated a major impact of conventional treated wastewater, ozonated wastewater, and MBR treated wastewater. The flow channel experiments in the laboratory with Gammarus pulex pointed to a serious impact of an estrogenic effluent on life-history traits of the amphipod. Finally, an ozonation of the wastewater with subsequent GAC filtration represented the most promising option. In addition, chemical analyses of 40 selected MPs, so called tracer substances, performed in parallel to the in vitro and in vivo bioassays underlined this assumption.
A second main objective was the optimisation of the preparation of water and wastewater samples for ecotoxicological in vitro bioassays because common sample preparation techniques are predominantly adapted for chemical analyses. Therefore, the impact of sample filtration, long-term acidification with following neutralisation as well as the enrichment with solid phase extraction (SPE) in combination with short-term acidification were investigated using amongst others raw (untreated) wastewater, hospital wastewater, conventional treated and ozonated wastewater, surface water, and ground water. Overall, eleven in vitro bioassays were performed for the detection of endocrine activities, genotoxicity, and mutagenicity. The results show that sample filtration and acidification/neutralisation significantly affected the outcome of the bioassays especially the anti-estrogenic activity and the mutagenicity whereas the sample filtration had a minor impact than the acidification. Thus, the testing of untreated (waste)water samples is advisable because the sample is minimally processed. Furthermore, the SPE extracts showed in parts high cytotoxic effects whereby no conclusions on the results of the bioassays were possible. However, the enrichment of endocrine activity and mutagenicity was predominantly effective but depended on the used SPE cartridge and the pH value of the (waste)water samples. Based on the results the use of a Telos C18/ENV cartridge and an acidified sample is recommendable. In the end, there is a need to optimise the sample preparation for in vitro bioassays to reach their maximum outcome for the best possible assessment of the water quality.
A comprehensive study of sillenite Bi12SiO20 single-crystal properties, including elastic stiffness and piezoelectric coefficients, dielectric permittivity, thermal expansion and molar heat capacity, is presented. Brillouin-interferometry measurements (up to 27 GPa), which were performed at high pressures for the first time, and ab initio calculations based on density functional theory (up to 50 GPa) show the stability of the sillenite structure in the investigated pressure range, in agreement with previous studies. Elastic stiffness coefficients c11 and c12 are found to increase continuously with pressure while c44 increases slightly for lower pressures and remains nearly constant above 15 GPa. Heat-capacity measurements were performed with a quasi-adiabatic calorimeter employing the relaxation method between 2 K and 395 K. No phase transition could be observed in this temperature interval. Standard molar entropy, enthalpy change and Debye temperature are extracted from the data. The results are found to be roughly half of the previous values reported in the literature. The discrepancy is attributed to the overestimation of the Debye temperature which was extracted from high-temperature data. Additionally, Debye temperatures obtained from mean sound velocities derived by Voigt-Reuss averaging are in agreement with our heat-capacity results. Finally, a complete set of electromechanical coefficients was deduced from the application of resonant ultrasound spectroscopy between 103 K and 733 K. No discontinuities in the temperature dependence of the coefficients are observed. High-temperature (up to 1100 K) resonant ultrasound spectra recorded for Bi12MO20 crystals revealed strong and reversible acoustic dissipation effects at 870 K, 960 K and 550 K for M = Si, Ge and Ti, respectively. Resonances with small contributions from the elastic shear stiffness c44 and the piezoelectric stress coefficient e123 are almost unaffected by this dissipation.
Buch des Monats Juni 2024
(2024)
Kurzvorstellung der folgenden Publikation:
Die zweite deutsche Nordpolar-Expedition : officielle Mittheilungen des Bremischen Comites. - 2. Aufl.. - Braunschweig : Westermann, 1870. - 54 S., [4] Bl. : Ill. u. Kt. Enth. ausserdem: Aufruf zur Deckung der Kosten der zweiten deutschen Nordpolar-Expedition.
Buch des Monats Mai 2024
(2024)
Kurzvorstellung der folgenden Publikation:
Richter, C. F. W.: Beschreibung und illuminirte Abbildungen in- und auslaendischer Schmetterlinge : XL Stuecke / C.F.W. Richter. - Breslau : [Verlag nicht ermittelbar], 1805-1806. - 160 ungezaehlte Seiten, 40 Blaetter Tafeln : Illustrationen. Die Illustrationen sind handkolorierte Kupferstiche.
Buch des Monats April 2024
(2024)
Kurzvorstellung der folgenden Publikation:
Jagd-Album : Seiner Koeniglichen Hoheit dem Prinzen Friedrich Carl in tiefster Ehrfurcht zugeeignet / von G. Reubke nach Aquarellen von A. Rohlfs und W. Riefstahl. - Berlin : Verlag von E. Schotte & Co., [1870?]. - 1 ungezaehltes Blatt, 12 ungezaehlte Blaetter Tafeln.
Buch des Monats März 2024
(2024)
Kurzvorstellung der folgenden Publikation:
Fischbuechlein oder die Kunst: Forellen, Hechte, Asche, Barben, Barsche, Birstlinge, Alten, Rothaugen, Weisslinge etc. zu fangen : mit 8 Abbildungen / auss practischer Erfahrung zusammengestellt von einem Fisch-Freund. - Zweite verbesserte Auflage. - Augsburg : In George Jaquets Verlagsbuchhandlung, 1852. - 16 Seiten, 1 ungezaehltes gefaltetes Blatt Tafel : Illustration.
Buch des Monats Februar 2024
(2024)
How can older adults participate equally in digitisation processes across Europe, and what inclusive research strategies are needed? This Zine summarizes findings from a “Research Innovation Lab on Ageing in a Digital Age”, funded by the VolkswagenStiftung, aiming to bring together 29 docs and postdocs anchored in 26 different disciplines coming from 11 countries, at all stages of their work, to address cutting edge questions relating to ageing in a digital age. Five groups worked together over five days in Frankfurt, Germany, in July 2023 in a creative and interactive hackathon, specific to developing non-technical solutions to social issues of this topic. Moreover, four distinguished experts presented keynote speeches and proposals from various conceptual, methodological and empirical perspectives.
Buch des Monats Januar 2024
(2024)
A search for a massless dark photon 𝛾′ is conducted using 4.5 fb−1 of 𝑒+𝑒− collision data collected at center-of-mass energies between 4.600 and 4.699 GeV with the BESIII detector at BEPCII. No significant signal is observed, and the upper limit on the branching fraction ℬ(Λ+𝑐→𝑝𝛾′) is determined to be 8.0×10−5 at 90% confidence level.
A search for a massless dark photon γ′ is conducted using 4.5 fb−1 of e+e− collision data collected at center-of-mass energies between 4.600 and 4.699 GeV with the BESIII detector at BEPCII. No significant signal is observed, and the upper limit on the branching fraction B(Λ+c→pγ′) is determined to be 8.0×10−5 at 90% confidence level.
A search for a massless dark photon γ′ is conducted using 4.5 fb−1 of e+e− collision data collected at center-of-mass energies between 4.600 and 4.699 GeV with the BESIII detector at BEPCII. No significant signal is observed, and the upper limit on the branching fraction B(Λ+c→pγ′) is determined to be 8.0×10−5 at 90% confidence level.
We report the first observation of the decay Λ+c→Σ−π+π+π0, based on data obtained in e+e− annihilations with an integrated luminosity of 567~pb−1 at s√=4.6~GeV. The data were collected with the BESIII detector at the BEPCII storage rings. The absolute branching fraction B(Λ+c→Σ−π+π+π0) is determined to be (2.11±0.33(stat.)±0.14(syst.))%. In addition, an improved measurement of B(Λ+c→Σ−π+π+) is determined as (1.81±0.17(stat.)±0.09(syst.))%.
Measurement of the absolute branching fraction of the singly Cabibbo suppressed decay Λc⁺ → pη′
(2022)
The singly Cabibbo suppressed decay Λ+c→pη′ is measured using 4.5 fb−1 of e+e− collision data collected at center-of-mass energies between 4.600 and 4.699 GeV with the BESIII detector at BEPCII. Evidence for Λ+c→pη′ with a statistical significance of 3.6σ is reported with a double-tag approach. The Λ+c→pη′ absolute branching fraction is determined to be (5.62+2.46−2.04±0.26)×10−4, where the first and second uncertainties are statistical and systematic, respectively. Our result is consistent with the branching fraction obtained by the Belle collaboration within the uncertainty of 1σ.
Measurement of the absolute branching fraction of the singly Cabibbo suppressed decay Λc⁺ → pη′
(2022)
The singly Cabibbo suppressed decay Λ+c→pη′ is measured using 4.5 fb−1 of e+e− collision data collected at center-of-mass energies between 4.600 and 4.699 GeV with the BESIII detector at BEPCII. Evidence for Λ+c→pη′ with a statistical significance of 3.6σ is reported with a double-tag approach. The Λ+c→pη′ absolute branching fraction is determined to be (5.62+2.46−2.04±0.26)×10−4, where the first and second uncertainties are statistical and systematic, respectively. Our result is consistent with the branching fraction obtained by the Belle collaboration within the uncertainty of 1σ.
Measurement of the absolute branching fraction of the singly Cabibbo suppressed decay Λc⁺ → pη′
(2022)
The singly Cabibbo suppressed decay Λ+𝑐→𝑝𝜂′ is measured using 4.5 fb−1 of 𝑒+𝑒− collision data collected at center-of-mass energies between 4.600 and 4.699 GeV with the BESIII detector at BEPCII. Evidence for Λ+𝑐→𝑝𝜂′ with a statistical significance of 3.6𝜎 is reported with a double-tag approach. The Λ+𝑐→𝑝𝜂′ absolute branching fraction is determined to be (5.62+2.46−2.04±0.26)×10−4, where the first and second uncertainties are statistical and systematic, respectively. Our result is consistent with the branching fraction obtained by the Belle collaboration within the uncertainty of 1𝜎.