Filtern
Erscheinungsjahr
- 2019 (3305) (entfernen)
Dokumenttyp
- Wissenschaftlicher Artikel (1597)
- Ausgabe (Heft) zu einer Zeitschrift (400)
- Buch (Monographie) (265)
- Dissertation (211)
- Beitrag zu einer (nichtwissenschaftlichen) Zeitung oder Zeitschrift (195)
- Teil eines Buches (Kapitel) (182)
- Preprint (163)
- Rezension (141)
- Arbeitspapier (96)
- Konferenzveröffentlichung (35)
Sprache
- Englisch (1828)
- Deutsch (1314)
- Portugiesisch (67)
- Französisch (31)
- Mehrsprachig (23)
- Türkisch (16)
- Spanisch (15)
- Italienisch (5)
- Ukrainisch (4)
- mis (2)
Gehört zur Bibliographie
- nein (3305) (entfernen)
Schlagworte
- Literatur (69)
- Deutsch (61)
- taxonomy (60)
- Experiment (47)
- Sprache (33)
- new species (32)
- Literarisches Experiment (30)
- Deutsch als Fremdsprache (27)
- Geschichte (25)
- Digitalisierung (23)
Institut
- Medizin (574)
- Präsidium (346)
- Physik (291)
- Frankfurt Institute for Advanced Studies (FIAS) (189)
- Informatik (159)
- Wirtschaftswissenschaften (144)
- Biowissenschaften (117)
- Sustainable Architecture for Finance in Europe (SAFE) (106)
- Gesellschaftswissenschaften (104)
- Neuere Philologien (90)
Kleine Details und feine Unterschiede machen, wie wir alle wissen, bisweilen handfeste Gegensätze. Großflächige Konflikte entfachen sich an zunächst nebensächlichen Ereignissen und Umständen. Gerade in religiösen Fragen spielen häufig vermeintliche Nebensächlichkeiten eine zentrale Rolle oder werden zur Grundlage jahrhundertelanger Diskussionen und heftiger Auseinandersetzungen; verschiedenartigste Glaubensströmungen und dogmatische Lehren entwachsen ihnen.
Background: Many women suffer from anemia during their pregnancy. Austria, a central European country, has an instituted mandatory prenatal care system and therein two anemia screening tests (before end of week 16 and in weeks 25-28) are scheduled. Epidemiological data on the prevalence of anemia in pregnant women in Austria are missing.
Methods: We analysed data from Styria, an Austrian federal state, to determine the prevalence of anemia diagnosed in pregnant women aged 15-45 years with at least one examination in the first and second time period using the cut-off hemoglobin (Hb) concentration of 11 g/dl as recommended by the World Health Organisation (WHO). Sensitivity analyses for cut-off values with 10.5 and 7 g/dl (severe anemia) were performed. The STROBE checklist was applied for this retrospective cohort study.
Results: The study included anemia screening tests from 25,922 women during 31,429 pregnancies from 2006-2014. Anemia was diagnosed in either time period in 13.7% (95% confidence interval (CI) 13.4-14.1) of pregnancies, in the first time period in 2.2% (95% CI 2.0-2.2), and in the second time period in 13.0% (95% CI 12.6-13.4). The annual age-adjusted anemia prevalence showed no change over time. Reducing the cut-off value to 10.5 g/dl resulted in an anemia prevalence in either time period of 5.6% (95% CI 5.3-5.8). The pattern of a higher prevalence in the second time period remained unchanged. Severe anemia (Hb <7 g/dl) was diagnosed in four pregnancies (0.01%).
Conclusion: The estimated anemia prevalence of around 14% in pregnant women in Styria (Austria) is stable over the observed time window (2006-2014) and almost all are diagnosed in the second test period (in weeks 25-28). It seems that in a developed country like Austria the first examination (before week 16) is not mandatory for pregnancy care. However, in other countries where a high prevalence of anemia is common due to risk factors such as malaria and HIV, early screening in pregnancy might be very important.
Programmable hardware in the form of FPGAs found its place in various high energy physics experiments over the past few decades. These devices provide highly parallel and fully configurable data transport, data formatting, and data processing capabilities with custom interfaces, even in rigid or constrained environments. Additionally, FPGA functionalities and the number of their logic resources have grown exponentially in the last few years, making FPGAs more and more suitable for complex data processing tasks. ALICE is one of the four main experiments at the LHC and specialized in the study of heavy-ion collisions. The readout chain of the ALICE detectors makes use of FPGAs at various places. The Read-Out Receiver Cards (RORCs) are one example of FPGA-based readout hardware, building the interface between the custom detector electronics and the commercial server nodes in the data processing clusters of the Data Acquisition (DAQ) system as well as the High Level Trigger (HLT). These boards are implemented as server plug-in cards with serial optical links towards the detectors. Experimental data is received via more than 500 optical links, already partly pre-processed in the FPGAs, and pushed towards the host machines. Computer clusters consisting of a few hundred nodes collect, aggregate, compress, reconstruct, and prepare the experimental data for permanent storage and later analysis. With the end of the first LHC run period in 2012 and the start of Run 2 in 2015, the DAQ and HLT systems were renewed and several detector components were upgraded for higher data rates and event rates. Increased detector link rates and obsolete host interfaces rendered it impossible to reuse the previous RORCs in Run 2.
This thesis describes the development, integration, and maintenance of the next generation of RORCs for ALICE in Run 2. A custom hardware platform, initially developed as a joint effort between the ALICE DAQ and HLT groups in the course of this work, found its place in the Run 2 readout systems of the ALICE and ATLAS experiments. The hardware fulfills all experiment requirements, matches its target performance, and has been running stable in the production systems since the start of Run 2. Firmware and software developments for the hardware evaluation, the design of the board, the mass production hardware tests, as well as the operation of the final board in the HLT, were carried out as part of this work. 74 boards were integrated into the HLT hardware and software infrastructure, with various firmware and software developments, to provide the main experimental data input and output interface of the HLT for Run 2. The hardware cluster finder, an FPGA-based data pre-processing core from the previous generation of RORCs, was ported to the new hardware. It has been improved and extended to meet the experimental requirements throughout Run 2. The throughput of this firmware component could be doubled and the algorithm extended, providing an improved noise rejection and an increased overall mean data compression ratio compared to its previous implementation. The hardware cluster finder forms a crucial component in the HLT data reconstruction and compression scheme with a processing performance of one board equivalent to around ten server nodes for comparable processing steps in software.
The work on the firmware development, especially on the hardware cluster finder, once more demonstrated that developing and maintaining data processing algorithms with the common low-level hardware description methods is tedious and time-consuming. Therefore, a high-level synthesis (HLS) hardware description method applying dataflow computing at an algorithmic level to FPGAs was evaluated in this context. The hardware cluster finder served as an example of a typical data processing algorithm in a high energy physics readout application. The existing and highly optimized low-level implementation provided a reference for comparisons in terms of throughput and resource usage. The cluster finder algorithm could be implemented in the dataflow description with comparably little effort, providing fast development cycles, compact code and at, the same time, simplified extension and maintenance options. The performance results in terms of throughput and resource usage are comparable to the manual implementation. The dataflow environment proved to be highly valuable for design space explorations. An integration of the dataflow description into the HLT firmware and software infrastructure could be demonstrated as a proof of concept. A high-level hardware description could ease both the design space exploration, the initial development, the maintenance, and the extension of hardware algorithms for high energy physics readout applications.
HADES (High Acceptance DiElectron Spectrometer), located at GSI, is a versatile detector for precise spectroscopy of e+ e- pairs and charged hadrons produced on a fixed target in a 1 to 3.5 AGeV kinetic beam energy region. The main experimental goal is to investigate properties of dense nuclear matter created in heavy ion collisions and learn about in-medium hadron properties.
In the HADES set-up 24 Mini Drift Chambers (MDC) allow for track reconstruction and determining the particle momentum by exploiting charged particle deflection in a magnetic field. In addition, the drift chambers contribute to particle identification by measuring the energy loss. The read-out concept foresees each sensing wire to be equipped with a preamplifier, analog pulse shaper and discriminator. In the current front-end electronics, the ASD-8 ASIC comprises the above modules. Due to limitations of the current on-board time to digital converters (TDC), especially regarding higher reaction rates expected at the future FAIR facility (HADES at SIS-100), the electronics need to be replaced by new board featuring multi-hit TDCs. Whereas ASD-8 chips cannot be procured anymore, a promising replacement candidate is the PASTTREC ASIC, developed by JU Krakow, which was tested w.r.t. suitability for MDC read-out in a variety of set-ups and, where possible, in direct comparison to ASD-8.
The timing precision, being the most crucial performance parameter of the joint system of detector and read-out electronics, was assessed in two different set-ups, i.e. a cosmic muon tracking set-up and a beam test at the COSY accelerator at Juelich using a minimum ionizing proton beam.
The beam test results were reproduced and can thus be quantitatively explained in a three dimensional GARFIELD simulation of a HADES MDC drift cell. In particular, the simulation is able to describe the characteristic dependence of the time precision on the track position within the cell.
A circuit simulation (SPICE) was used to closely model the time development of a raw drift chamber pulse, measured as a response to X-rays from a 55 Fe source. The insights gained from this model were used for attributing realistic charge values to the time over threshold values measured with the read-out ASICs in a charge calibration set-up. Furthermore, a high-level circuit simulation of the PASTTREC shaper is implemented to serve as a demonstration of the effect of the individual shaping and tail cancellation stages which are present in both ASICs.
Variation in enclitic possessive constructions in Southern Italian dialects: a syntactic analysis
(2019)
This thesis investigates enclitic possessive constructions (EPCs) that are a widespread and frequently used construction among Southern Italian dialects (SIDs). In general, EPCs display the structure N-EP where the N is a (singular) kinship noun and the EP the enclitic possessive directly attached to the kinship noun. However, there is a huge variation among SIDs as well as within the system of a specific dialect. The aim of the present work is twofold. The empirical part contributes new data to this topic as well as a detailed and organized overview of (micro-) variational observations from data of different sources including for example the linguistic maps of the AIS (Atlante Italo-Svizzero). The main aspects of variation are (a) the presence or absence of an obligatory article (D – N-EP vs. N-EP), (b) the possibility of plural kinship noun-EPCs and (c) the compatibility of a specific person-EP with a specific kinship noun within a dialect. Based on the empirical findings, the syntactic part proposes a syntactic analysis for EPCs focusing on the following research questions: 1) In some dialects, singular kinship noun-EPCs display an obligatory article with the 3SG.EP. What is the reason for this article-based person split (1st and 2nd vs. 3rd)? And further, how are both structures, with and without an article, represented in the syntax, i.e. in DP and PossP? 2) In some dialects, plural kinship nouns are allowed to occur in EPCs, and in others, they are disallowed. With respect to this dichotomy, what is the role of NumP? 3) Kinship nouns are relational and express inalienability. How can this property be captured in the syntax? I argue that the article-based person split is due to the deictic properties of the possessor-persons, meaning that 1SG.EPs and 2SG.EPs need to be bound by the speaker’s coordinates in the left periphery of the clause, whereas 3SG.EPs do not. As a consequence, 1SG and 2SG EPCs move to the highest position, i.e. to D°, and 3SG EPCs can stay lower in the structure, i.e. in Poss°. Based on this dichotomy, I argue that both D° and Poss° can host EPCs. In order to capture the (im)possibility of plural kinship nouns-EPCs, I argue that NumP, as a parametrised position, can block or allow further movement of the kinship noun to Poss° (and to D°). With respect to the relational nature of kinship nouns I propose that they are base-generated within the complement position of a relator phrase (RP), and EPs in Poss°. In order to derive EPCs, the kinship nouns must move out of their position. The kinship noun lands in NumP, the position where further movement is probably blocked. If further movement is allowed, the kinship noun merges to the left of the EP, resulting in a complete EPC in Poss°. The last leg of the movement to D° depends on the presence of absence of an obligatory article. The phenomenon of EPCs displays a huge variation among SIDs and needs to be investigated from different perspectives and different linguistic areas. The present work contributes to the puzzle of EPCs new data and a syntactic analysis.
Vor der Bundestagswahl 2017 zeichnete der Bonner Politikwissenschaftler Frank Decker das Bild einer dramatischen Ausgangslage:
"Eine neue Ära der Unsicherheit und Instabilität scheint in Europa und der westlichen Welt angebrochen zu sein, die bisherige Gewissheiten in Frage stellt. Dass rechtspopulistische Parteien in Kernländern der Europäischen Union wie Frankreich oder Österreich in die Nähe der Mehrheitsfähigkeit gelangen könnten, hätte vor zwei oder drei Jahren kaum jemand für möglich gehalten – ebenso wenig wie einen Sieg des 'Nichtpolitikers' Donald Trump bei der US-amerikanischen Präsidentschaftswahl oder den von populistischen EU-Gegnern befeuerten 'Brexit' in Großbritannien."
Im Ergebnis der Bundestagswahl 2017 zogen sieben Parteien in den derzeitigen 19. Deutschen Bundestag ein. Lediglich nach seiner ersten Wahl 1949 waren mehr Parteien in den Bundestag eingezogen. Die 1962 von Ossip Kurt Flechtheim formulierte These, beim Rückgang der Parteien habe man es "nicht mit einem Intermezzo, sondern mit einem irreversiblen Trend zu tun", dürfte damit als widerlegt gelten.
Diese Anzahl an Parteien beschwor sogleich eine Angst vor "Weimar"; so waren bei der Reichstagswahl am 6. November 1932, der letzten vor der Ernennung Adolf Hitlers zum Reichskanzler, 13 Parteien in das deutsche Parlament eingezogen.
Horst Möller, der frühere Direktor des Münchener Instituts für Zeitgeschichte, sah sich angesichts der Umfragen im Vorfeld der Wahl 2017 in einem Beitrag für die Frankfurter Allgemeine zu der Frage veranlasst: "Ist Berlin schon deshalb in Gefahr, Weimar zu werden, nur weil die Zahl der im Bundestag vertretenen Parteien steigt?"
Michael Stürmer, der 1986 im "Historikerstreit" als Gegenpol zu Jürgen Habermas für eine heute erneut in der Diskussion stehende positive Besetzung der Begriffe "Patriotismus" und "Nation" geworben hatte, nahm sein Urteil zu der Frage im an Fritz René Allemann angelehnten Titel seines Beitrags "Bonn war nicht Weimar – und Berlin ist es auch nicht" vorweg. So hielt Ernst Forsthoff bereits 1950 fest, dass "das Grundgesetz wirksame Vorkehrungen getroffen hat, um verfassungsfeindliche Parteien zu unterdrücken und von der Wahlbewerbung fernzuhalten".
Als eine "Lehre aus den Weimarer Verhältnissen" gilt dennoch die explizite Sperrklausel von fünf Prozent der Gesamtstimmenzahl zur Begrenzung der Parteienanzahl, die zur Bundestagswahl 1949 bezogen auf die einzelnen Bundesländer eingeführt und 1953 auf das Bundesgebiet ausgeweitet worden war. 1956 wurde zusätzlich die Zahl der Grundmandate, die es einer Partei ermöglichen, unabhängig von der Sperrklausel in das Parlament einzuziehen, von einem auf drei erhöht.
Der hohe Stellenwert der "Sicherstellung eines 'gut geordneten' arbeitsfähigen Parlaments" wird daran deutlich, dass bei der Bundestagswahl 2017 die Nichtberücksichtigung von 2,3 Millionen Wählerstimmen, die auf nicht in den Bundestag eingezogenen "seltsamen Politikphantasten" entfielen, in Kauf genommen wurde.
In Diskrepanz hierzu stehen die Urteile des Bundesverfassungsgerichts (BVerfG), welches im November 2011 eine Fünfprozent- und im Februar 2014 eine Dreiprozenthürde für die Europawahlen als verfassungswidrig verwarf.
Auch bei Kommunalwahlen gelten solche Regelungen "heute nach der Rechtsprechung des BVerfG als unzulässig", wie zuletzt im November 2017 für Nordrhein-Westfalen bestätigt wurde.
Angesichts der Diskrepanz in der Behandlung der Kleinparteien und ausgehend von der These Ossip Kurt Flechtheims, "auch eine kleinere Partei kann das politische Leben bereichern und anregen", und beflügelt von der Voraussicht Uwe Kranenpohls und Oskar Niedermayers, dass "Klein- und Kleinstparteien in Zukunft an Bedeutung gewinnen", fragt diese Arbeit nach den Möglichkeiten und dem Willen der Kleinparteien, das Politikgeschehen zu beeinflussen, was an der Stadtverordnetenversammlung (StVV) der Stadt Frankfurt am Main untersucht wird.
Nach einer Skizze der Forschungslage wird zunächst der Untersuchungsgegenstand inhaltlich und terminologisch verortet, um eindeutig festzulegen, welchen Bereich der Parteienforschung diese Arbeit betrachtet.
Hierzu werden die untersuchten Parteien sowie die im weiteren Verlauf betrachteten als auch nicht betrachteten Forschungsaspekte genannt und aufgezeigt, wie der Parteibegriff juristisch als auch politikwissenschaftlich verstanden wird, um daraus eine Nominaldefinition für diese Arbeit abzuleiten. Anschließend werden die in der Forschung unterschiedlichen Begrifflichkeiten für kleine Parteien rezipiert und der für die Zwecke dieser Arbeit geeignete Begriff herausgearbeitet. Solche Begriffsdefinitionen sind für die sozialwissenschaftliche Forschung unerlässlich: "Sie ermöglichen die Kommunikation über Gegenstände und dienen der Klassifikation." Es folgt eine Darstellung einiger Konzepte von Parteitypologien, die auf ihre Anwendbarkeit bezüglich des Untersuchungsgegenstandes diskutiert werden.
Anschließend werden Ansätze zur Aufgabe von Parteien, Oppositionsparteien und Kleinparteien rezipiert. Ziel dieses Abschnittes der Arbeit ist es, herauszustellen, inwieweit Kleinparteien auf den Politikbetrieb Einfluss nehmen können und Forschungshypothesen für die Rolle der betrachteten Kleinparteien zu formulieren.
Im weiteren Abschnitt der Arbeit werden die betrachteten Kleinparteien knapp vorgestellt, um dem Leser eine kurze Übersicht zu geben, ohne eine vertiefende inhaltliche Analyse der Parteiprogramme anzustreben.
Im Analyseabschnitt der Arbeit werden zunächst die institutionellen Rahmenbedingungen analytisch-deskriptiv betrachtet. Dies ist notwendig, da diese rechtlichen Bedingungen die Eckpfeiler der Arbeit der Parteien vorgeben. Dem schließt eine empirische-quantitative Auswertung von Sitzungen der StVV an, in der die Arbeit der Parteien analysiert wird, sowie eine Auswertung der Wahlergebnisse der auf den betrachteten Untersuchungszeitraum folgenden Stadtverordnetenwahl, um Veränderungen der Wählerstimmen auswerten zu können.
Der Untersuchungsteil wird mit einer Auswertung der Ergebnisse und einem Versuch, die betrachteten Parteien einer Typologie zuzuordnen, abgeschlossen. Eine Verallgemeinerung der Beobachtungen mittels Inferenzstatistik wird nicht angestrebt. Daher soll auch keine allgemein gültige Aussage am Ende dieser Arbeit stehen, sondern durch Falsifikation oder Verifikation der Forschungshypothesen die Beantwortung der genau umrissenen Forschungsfrage: Haben die in der Frankfurter StVV vertretenen U-Fünf-Prozent-Parteien Einfluss auf die politische Willensbildung der Stadt?
Background: Persistent antiphospholipid antibodies (aPL) constitute the serological hallmark of the antiphospholipid syndrome (APS). Recently, various new assay technologies for the detection of aPL better suited to multiplex reaction environments than ELISAs emerged. We evaluated the diagnostic performance of such a novel line immunoassay (LIA) for the simultaneous detection of 10 different aPL.
Methods: Fifty-three APS patients and 34 healthy controls were investigated for criteria (antibodies against cardiolipin [aCL], β2-glycoprotein I [aβ2-GPI]) and non-criteria aPL (antibodies against phosphatidic acid [aPA], phosphatidyl-choline [aPC], -ethanolamine [aPE], -glycerol [aPG], -inositol [aPI], -serine [aPS], annexin V [aAnnV], prothrombin [aPT]) IgG and IgM by LIA. Criteria aPL were additionally determined with the established Alegria (ALE), AcuStar (ACU), UniCap (UNI), and AESKULISA (AES) systems and non-criteria aPL with the AES system. Diagnostic performance was evaluated with a gold standard for criteria aPL derived from the results of the four established assays via latent class analysis and with the clinical diagnosis as gold standard for non-criteria aPL.
Results: Assay performance of the LIA for criteria aPL was comparable to that of ALE, ACU, UNI, and AES. For non-criteria aPL, sensitivities of the LIA for aPA-, aPI-, aPS-IgG and aPA-IgM were significantly higher and for aPC-, aPE-, aAnnV-IgG and aPC- and aPE-IgM significantly lower than AES. Specificities did not differ significantly.
Conclusions: The LIA constitutes a valuable diagnostic tool for aPL profiling. It offers increased sensitivity for the detection of aPL against anionic phospholipids. In contrast, ELISAs exhibit strengths for the sensitive detection of aPL against neutral phospholipids.
Background: Downy mildews are the most speciose group of oomycetes and affect crops of great economic importance. So far, there is only a single deeply-sequenced downy mildew genome available, from Hyaloperonospora arabidopsidis. Further genomic resources for downy mildews are required to study their evolution, including pathogenicity effector proteins, such as RxLR effectors. Plasmopara halstedii is a devastating pathogen of sunflower and a potential pathosystem model to study downy mildews, as several Avr-genes and R-genes have been predicted and unlike Arabidopsis downy mildew, large quantities of almost contamination-free material can be obtained easily.
Results: Here a high-quality draft genome of Plasmopara halstedii is reported and analysed with respect to various aspects, including genome organisation, secondary metabolism, effector proteins and comparative genomics with other sequenced oomycetes. Interestingly, the present analyses revealed further variation of the RxLR motif, suggesting an important role of the conservation of the dEER-motif. Orthology analyses revealed the conservation of 28 RxLR-like core effectors among Phytophthora species. Only six putative RxLR-like effectors were shared by the two sequenced downy mildews, highlighting the fast and largely independent evolution of two of the three major downy mildew lineages. This is seemingly supported by phylogenomic results, in which downy mildews did not appear to be monophyletic.
Conclusions: The genome resource will be useful for developing markers for monitoring the pathogen population and might provide the basis for new approaches to fight Phytophthora and downy mildew pathogens by targeting core pathogenicity effectors.
In der vorliegenden Arbeit wurde ein neuer optischer Aufbau für das Laserlabor der Abteilung Kristallographie im FB 11 an der Goethe-Universität Frankfurt beschrieben. Mit Hilfe dieses Aufbaus konnten verschiedene spektroskopische Methoden genutzt werden, um die - von Druck und Temperatur abhängige - Phasenstabilität von Calcium- und Eisencarbonaten zu untersuchen. Mit Hilfe von Raman-Spektroskopie konnte das Phasendiagramm von Calciumcarbonat (CaCO3) teilweise neu bestimmt werden. Fluoreszenzuntersuchungen an dotierten CaCO3 Proben ergaben, dass sich Europium-dotierter Calcit zunächst in eine amorphe Form umwandelt, bevor er bei ca. 15 GPa in eine amorphe 'aragonitische' Form umgewandelt wird. Die Umwandlung ist nicht reversibel. Laserheizexperimente bei 18.5 GPa an dotiertem Siderit (FeCO3) führten zur Bildung eines neuen Hochdruck-Hochtemperatur FeCO3 -Polymorphs. Die Strukturlösung erfolgte mit Hilfe von Röntgendaten, die am Deutschen Elektronen-Synchrotron (DESY) in Hamburg gewonnen wurden. Schließlich wurde eine neue Methode zur Bestimmung von Temperaturen in Laserheizexperimenten beschrieben. Sie beruht auf der Abschwächung eines Fluoreszenzsignals durch die Temperatur, welche durch die Wechselwirkung eines Heizlasers mit der Probe erzeugt wird.
Das Wissen über die Wolkenmikrophysik und die Wechselwirkung zwischen Niederschlag und Aerosol ist ein wichtiger Baustein zur Optimierung von Klima- und Wettermodellen. Ein Großteil des Niederschlags in den mittleren Breiten fällt aus Mischphasenwolken, die aus unterkühlten Tröpfchen und Eispartikeln bestehen. Die Eispartikel bilden sich an speziellen Aerosolpartikeln, die als Eiskeime (INP) wirken können. Die Wahrscheinlichkeit eines Aerosols als Eiskeim zu wirken, nimmt mit abnehmender Temperatur und steigender Wassersättigung zu. Mineralstaubpartikel sind die häufigsten Eiskeime, die ab Temperaturen ≤−15°C aktiv sind, biologische Partikel wirken schon bei wärmeren Bedingungen. Große Wissenslücken bestehen noch bei der globalen Konzentration von Eiskeimen, inklusive deren geographischer und jahreszeitlicher Variabilität.
Im Zentrum der Experimente, die für diese Arbeit durchgeführt wurden, steht der Eiskeimzähler FRIDGE (Frankfurt Ice Deposition Freezing Experiment). Je nach Aufbau und Anwendung des Instruments werden zwei verschiedene Ansätze zur Aktivierung von Eiskeimen verfolgt. Die ursprüngliche und namensgebende Methode in Form einer Vakuum-Diffusionskammer wurde zur Untersuchung von Eisnukleation via Depositionsgefrieren (an INP_D) entwickelt (Klein et al., 2010). Danielczok (2015) nutzte einige Bestandteile des Analysegeräts, um auch Immersionsgefrieren (an INP_I) in Form von Tröpfchengefrieren à la Vali (1971) zu studieren. In der vorliegenden Arbeit wurde diese Anwendungsmöglichkeit von FRIDGE weiterentwickelt. Ein zentraler Schritt war dabei die präzise Charakterisierung des Gefrierverhaltens von Tröpfchen aus Reinstwasser ohne zusätzliches Aerosol. Die Einbeziehung dieses sogenannten Hintergrundgefrierens, das für jedes Instrument und Messverfahren spezifisch ist, ermöglichte es, die Minimaltemperatur, für die zuverlässige Ergebnisse produziert werden können, von −22°C auf −29°C herabzusetzen. Der dadurch hinzugewonnene Temperaturbereich ist für Eisnukleation in Mischphasenwolken äußerst relevant.
Beide Anwendungsmethoden wurden im Rahmen des Fifth International Workshop on Ice Nucleation – Phase 2 (FIN-02) sowie bei einer weiteren Kampagne zur Messung von Eisnukleation an Cellulosepartikeln mit über zwanzig anderen Eiskeimzählern verglichen. Mit FRIDGE als Diffusionskammer wurde für die Mehrheit der untersuchten Aerosoltypen eine zufriedenstellende Übereinstimmung mit den anderen Instrumenten beobachtet. Die Experimente mit gefrierenden Tröpfchen in FRIDGE erzielten ausnahmslos Ergebnisse, die inmitten der Werte der anderen Instrumente lagen. Die erfolgreiche Validierung – besonders der neuen Anwendungsmethode – war das erste Ziel dieser Arbeit und die notwendige Voraussetzung für die anschließenden Feldmessungen.
Atmosphärische Eiskeimkonzentrationen wurden in mehrwöchigen Feldmesskampagnen an drei sehr unterschiedlichen Orten und atmosphärischen Bedingungen untersucht: an der Hochalpinen Forschungsstation Jungfraujoch (JFJ), am Storm Peak Laboratory (SPL) in den Rocky Mountains und am Cyprus Atmospheric Observatory (CAO) in Zypern. Am JFJ wurde eine INP-Konzentration beobachtet, die um den Faktor 20 niedriger als an den anderen beiden Stationen war. Der Grund dafür war, dass sich das Jungfraujoch die meiste Zeit der Messungen in der freien Troposphäre befand. Dementsprechend waren die Bedingungen an der Station von aerosolpartikelarmer Luft mit wenigen Eiskeimen geprägt. An zwei Standorten wurde Mineralstaub als ein Parameter, der die lokale INP-Konzentration positiv beeinflusst, identifiziert. Sowohl am JFJ als auch am CAO erhöhte ferntransportierter Saharastaub die INP-Konzentration.
Die Kombination der zwei Analysemethoden, die Aerosolproben aus derselben Luft entweder in trockenem Ausgangszustand oder in Tröpfchen suspendiert untersuchen, offenbarte eine interessante Eigenschaft der INP. Es herrschte eine offensichtliche Parallelität von INP_D- und INP_I- Konzentrationen. Bei fast allen Messungen waren INP_I etwa 10-mal häufiger als INP_D. Die Aussage trifft gleichermaßen auf sehr niedrige Konzentrationen am JFJ wie auch auf hohe Konzentrationen am SPL und CAO zu. Die einzige Ausnahme bilden Cellulosepartikel. Daraus lässt sich schließen, dass INP_D und INP_I dieselben Partikel sind, die je nach Aktivierungskonditionen Eisnukleation unterschiedlich effektiv hervorrufen.
Der Protestantismus ist die Konfession des Wortes, Bilder bzw. bildliche Darstellungen als Visualisierungen von Glaubensinhalten haben deshalb per definitionem weder im Calvinismus noch im Luthertum Bedeutung. Mit dieser vereinfachten Charakterisierung, die sich im Fachpublikum ebenso wie unter interessierten Laien lange gehalten hat, setzt sich das Buch von Bridget Heal, Reformationshistorikerin an der Universität St. Andrews, in einer beeindruckenden Analyse der Entwicklungen für das Luthertum auseinander. ...
It is a rare and wonderful thing when a book of 383 pages leaves a reader wanting to read more, much more in fact. That is certainly the case with this intriguing collection of thirteen assorted essays on the Rhine economy from 1815 to the present, organized in six broad topical sections: origins, enterprises, sectors and clusters, infrastructures, transport, and environment. ...
Exploiting heterogeneity in U.S. firms' exposure to an unconventional monetary policy shock that reduced debt financing costs, I identify the impact of financing conditions on firms' toxic emissions. I find robust evidence that lower financing costs reduce toxic emissions and boost investments in emission reduction activities, especially capital-intensive pollution control activities. The effect is stronger for firms in noncompliance with environmental regulation. Examining the ability of regaining regulatory compliance by implementing pollution control activities I find that only capital-intensive activities help firms regaining compliance. These findings underscore the impact of firms' financing conditions for emissions and the environment.
"Nicht nur Geschichte, auch Geschichtsschreibung wird gemacht", stellte Carola Sachse 2014 in einem Literaturbericht fest, in dem sie die zeithistorische Menschenrechtsforschung der letzten Jahrzehnte kritisch durchleuchtete und eine große Leerstelle konstatierte. Über Frauenrechte, Menschenrechtsaktivistinnen oder Geschlechterverhältnisse fand sich wenig in diesen Studien. Angesprochen auf diese Lücke meinte ein prominenter Experte lapidar: "Man kann nicht alles machen" – eine Antwort, die Sachse mitnichten zufriedenstellte. Dass sie daraufhin mit Roman Birke den vorliegenden Sammelband zu Menschenrechten und Geschlecht konzipierte, ist vor diesem Hintergrund nur folgerichtig. Und die Ergebnisse geben ihr recht: Die Vielgestaltigkeit der Beiträge bestätigt zwar einerseits, dass man wahrlich nicht alles machen kann. Doch wird andererseits auch deutlich, dass die Kategorie Geschlecht bei der Erforschung der Menschenrechtsgeschichte nicht ausgeklammert werden darf. ...
Background and aims: Although combined antiretroviral treatment (cART) has improved overall survival of HIV infected patients, liver fibrosis and liver related-mortality still constitute major challenges in HIV positive patients. Collagen accumulates in the liver during fibrogenesis. Recent studies showed that circulating levels of extracellular matrix (ECM) fragments might reflect degree of portal hypertension and fibrosis stage in liver disease. In this study, we analyzed the correlation between liver fibrosis assessed by Fibroscan and levels of the formation and degradation markers of type III and IV collagen in HIV positive patients receiving cART.
Methods: 116 HIV positive patients (82.7% male, median age 47 years) were enrolled into the study. Liver stiffness and liver fat content were determined using a Fibroscan with integrated CAP function. We quantified ECM formation and degradation fragments of collagen III and IV: PRO-C3, PRO-C4, C3M and C4M. These fragments were measured in peripheral serum by using specific ELISAs.
Results: Fifteen (12.9%) out of the 116 HIV positive patients had relevant fibrosis with a liver stiffness ≥ 7.1 kPa, and 79 patients had relevant steatosis with a CAP value > 248 dB/m. Circulating PRO-C3 levels significantly correlated with increasing degree of liver fibrosis assessed by Fibroscan (p = 0.0005), as well as with APRI score (p = 0.015). Interestingly, circulating PRO-C3 levels were significantly correlated with bilirubin (p = 0.022), reduced platelet count (p = 0.0008) and low albumin levels (p = 0.001), suggesting the association of type III collagen deposition with impaired liver function. None of the other measured ECM components significantly correlated with fibrosis or steatosis.
Conclusion: The formation marker of type III collagen, PRO-C3 not only reflects liver fibrosis, but might also mirror liver dysfunction in HIV positive patients receiving cART. Therefore, the circulating levels of PRO-C3 might be suitable to monitor progression of liver fibrosis and deterioration of liver function in HIV positive patients receiving cART.
Die CXCR4-CXCL12-Signalachse gilt als eines der bislang am besten studierten Signalsysteme in der Hämatopoese. Allerdings stammt unser Wissen über diesen kritischen Signalweg maßgeblich aus subtraktiven Studien, wie z.B. knock-out Modellen oder pharmakologischer Inaktivierung. Zwar können aus diesen Modellen wichtige Erkenntnisse über die physiologische Rolle dieses Signalwegs abgeleitet werden, aber dennoch bleiben einige Phänomene ungeklärt. So konnte gezeigt werden, dass es sowohl bei CXCR4-Defizienz als auch bei Patienten mit dem WHIM-Syndrom (ausgelöst durch eine überaktive CXCR4-Mutante) zu einer ausgeprägten B-Zellaplasie kommt. Dies scheint intuitiv nicht vereinbar. Daher wurde in der vorliegenden Arbeit ein Modell mit einer überaktiven CXCR4- Mutante (CXCR41013/1013) hinsichtlich der (un)reifen Hämatopoese systematisch untersucht.
Zunächst wurden hämatopoetische Stamm- und Vorläuferzellen (HSPC) hinsichtlich der aberranten CXCR4-Signalweiterleitung ex vivo analysiert. Die CXCR4-Überaktivierung konnte sowohl in frühen Effekten nach Aktivierung des Rezeptors (F-Aktinpolymerisierung, Aktivierung des MAPK- Signalweges), als auch in späten, zellfunktionellen Effekten (Migrationsassay) nachgewiesen werden. Die veränderte CXCR4 Signalintegration hatte auch bereits in der Homöostase organismische Konsequenzen im Mausmodell. So konnte eine massiv vergrößerte HSPC-Population in der Milz von CXCR41013/1013-Tieren detektiert werden, im Sinne einer extramedullären Hämatopoese. Knochenmarks-HSPC aus CXCR41013/1013-Tiere zeigten ein massiv eingeschränktes (serielles) Repopulationspotenzial. Kombiniert mit der oben genannten ausgeprägten extramedullären Hämatopoese in diesen Tiere interpretieren wir diese Beobachtung als starken Hinweis auf eine dysfunktionelle Interaktion der Stammzellen mit der hämatopoetischen Stammzellnische im Knochenmark. In diesem Zusammenhang besonders interessant ist die Tatsache, dass auch ein Kompetitorknochenmark das Überleben einer Sekundärtransplantation nicht sichert. Dabei ist zu diskutieren, ob dieser Effekt durch eine effizientere Besetzung von Stammzellnischen durch CXCR41013/1013-Zellen, eine Akkumulation von CXCL12 in der Knochenmarkflüssigkeit (siehe unten) oder eventuell sogar ein vesikelabhänginger Transport von mutiertem CXCR4 in Kompetitorzellen ausgelöst wird. Ein weiteres Merkmal dieser Dysfunktion könnte ebenfalls die gezeigte Akkumulation von CXCL12 in der Knochenmarkflüssigkeit von CXCR41013/1013-Tiere darstellen. Diese Akkumulation könnte die Suppression co-transplantierter wildtypischer Hämatopoese sowie die verminderte Effizienz der G-CSF-induzierten Stammzellmobilisierung funktionell erklären. Zusätzlich konnte gezeigt werden, dass die Mobilisierung von Stammzellen aus dem Knochenmark durch einen CXCR4- Inhibitor in CXCR41013/1013-Tieren ebenfalls erheblich hinter der in Wildtypmäusen zurückbleibt.
Analog zu Patienten mit WHIM-Syndrom zeichnen sich CXCR41013/1013-Mäuse weiterhin durch eine ausgeprägte Leukopenie, insbesondere durch einen schweren B-Zell-Mangel, aus. Aus diesem Grund wurde die B-Lymphopoese und humorale Immunfunktion genauer analysiert. Eine grundsätzliche humorale Immunkompetenz von CXCR41013/1013-Tieren konnte nachgewiesen werden, jedoch ist die B-Memory-Funktion erheblich eingeschränkt. Durchflusszytometrisch und funktionell konnte eine reduzierte preB/pro-B Population im Knochenmark bei einer gleichzeitig vergrößerten preB/pro-B Population in der Milz (vgl. extramedulläre Hämatopoese) nachgewiesen werden. Ebenfalls konnten wir in dieser Zellpopulation eine stark erhöhte CXCR4-Oberflächenexpression im Vergleich zu wildtypischen Zellen nachweisen. Da diese unreifen B-Zellen keine verstärke Apoptoserate aufweisen, gehen wir derzeit davon aus, dass der Differenzierungsstopp nicht durch selektiven Zelltod, sondern durch aberrante Retention der preB/proB-Zellen in einer primitiven B-Vorläufer- Nische im Knochenmark zustande kommt, beziehungsweise durch eine gestörte Migration in differenzierende Nischen im Knochenmark. Alternativ könnte die Überdosis CXCR4-Signal differenzierenden Signalen entgegenstehen. Beide Hypothesen können das eingangs erwähnte Paradoxon bezüglich einer B-Zellaplasie in CXCR4-defizienten und CXCR4-überaktiven Zellen hinreichend erklären.
Da wird gegen Ende ein schon recht großer Anspruch formuliert: "Aus genuin historischer Sicht bieten die Ergebnisse dieser Studie Anknüpfungspunkte für ein neues Narrativ, eine neue Interpretation der spätmittelalterlichen französischen Geschichte." Und mehr noch: "Aus systematisch-komparatistischer Sicht lässt sich die Frage nach der Spezifik bzw. der Übertragbarkeit des französischen Beispielfalles unter Rückgriff auf soziologische Theorieentwürfe schließlich auch auf weitere historische Formationen jenseits der spätmittelalterlichen Epoche ausweiten" (S. 427). Hoch die Erwartungen also in der Sache und nicht ganz so hoch an Sprache und Stil. Und französische Leserinnen und Leser, an die sich das Buch sicher nicht zuletzt auch wendet, werden entzückt sein über Juwele kristallklarer Verständlichkeit und federleichter Eleganz wie: "Aus diesen Überlegungen ergibt sich zugleich, dass systematisch-komparatistische Ansätze die jeweiligen Vergleichsgegenstände unter Zugrundelegung externer Analysekategorien zuallererst konstituieren und die im einzelnen zu betrachtenden Phänomene dadurch überhaupt erst vergleich- und operationalisierbar machen müssen" (S. 438). ...
Am 19. Januar 1919 nahmen erstmals auch Frauen an den Wahlen zur Deutschen Nationalversammlung teil. Der am 10. November 1918, dem Tag nach der Abdankung des Kaisers und der Ausrufung der Republik durch Philipp Scheidemann, gebildete Rat der Volksbeauftragten erließ als eine seiner ersten Amtshandlungen ein neues Wahlgesetz. Für alle Parlamente auf kommunaler, Länder- und Reichsebene wurde das allgemeine, gleiche, direkte und geheime Wahlrecht für Männer und Frauen ab 21 Jahren dekretiert. Damit durften alle erwachsenen Deutschen wählen, unabhängig vom Geschlecht, von Besitz und Steuerleistung. Die bis dahin überall geltende Beschränkung des Wahlrechts auf Männer war damit abgeschafft und auch das in Preußen geltende Dreiklassenwahlrecht, das bis dahin die Stimmengewichtung an die Steuerleistung gekoppelt hatte. ...
Im 19. Jahrhundert war Prostitution in weiten Teilen Europas reglementiert. Die Bordelle wurden staatlich konzessioniert, die Frauen polizeilich registriert, gynäkologisch überwacht und Zwangsbehandlungen unterworfen. Im Laufe des 20. Jahrhunderts wurde diese Reglementierung der Prostitution abgeschafft.
Wie kam es zu dieser Abschaffung? Welche Gründe sprachen für ein Ende dieser Art der Prostitutionskontrolle? Und inwiefern verlief die Diskussion in unterschiedlichen Ländern parallel oder eben gerade nicht? Diese Fragen stehen im Zentrum von Malte Königs Habilitationsschrift (Univ. des Saarlandes), in der es um die Gesetzesentwicklung in Deutschland, Frankreich und Italien geht. ...
Hierarchical self-organizing systems for task-allocation in large scaled distributed architectures
(2019)
This thesis deals with the subject of autonomous, decentralized task allocation in a large scaled multi-core network. The self-organization of such interconnected systems becomes more and more important for upcoming developments. It is to be expected that the complexity of those systems becomes hardly manageable to human users. Self-organization is part of a research field of the Organic Computing initiative, which aims to find solutions for technical systems by imitating natural systems and their processes. Within this initiative, a system for task allocation in a small scaled multi-core network was already developed, researched and published. The system is called the Artificial Hormone System (AHS), since it is inspired by the endocrine system of mammals. The AHS produces a high amount of communication load in case the multi-core network is of a bigger scale.
The contribution of this thesis is two new approaches, both based on the AHS in order to cope with large scaled architectures. The major idea of those two approaches is to introduce a hierarchy into the AHS in order to reduce the produced communication load. The first and more detailed researched approach is called the Hierarchical Artificial Hormone System (HAHS), which orders the processing elements in clusters and builds an additional communication layer between them. The second approach is the Recursive Artificial Hormone System (RAHS), which also clusters the system’s processing elements and orders the clusters into a topological tree structure for communication.
Both approaches will be explained in this thesis by their principle structure as well as some optional methods. Furthermore, this thesis presents estimations for the worst case timing behavior and the worst-case communication load of the HAHS and RAHS. At last, the evaluation results of both approaches, especially in comparison to the AHS, will be shown and discussed.
Background: For the prevention of attacks of hereditary angioedema (HAE), the efficacy and safety of subcutaneous human C1-esterase inhibitor (C1-INH[SC]; HAEGARDA®, CSL Behring) was established in the 16-week COMPACT trial.
Objective: To assess the long-term safety, occurrence of angioedema attacks, and use of rescue medication with C1-INH(SC).
Methods: Open-label, randomised, parallel-arm extension of COMPACT across 11 countries. Patients with frequent angioedema attacks, either study treatment-naïve or who had completed the COMPACT trial, were randomly assigned (1:1) to 40 IU/kg or 60 IU/kg C1-INH(SC) twice per week, with conditional up-titration to optimise prophylaxis. ClinicalTrials.gov registration: NCT02316353.
Results: 126 patients with a monthly attack rate of 4.3 in 3 months prior to entry in the COMPACT program were enrolled and treated for a mean of 1·5 years; 44 patients (34·9%) had >2 years exposure. Median steady-state C1-INH functional activity increased to a maximum of 73.0% with 60 IU/kg. Incidence of adverse events was low and similar in both dose groups (11·3 and 8·5 events per patient-year for 40 IU/kg and 60 IU/kg, respectively). For 40 IU/kg and 60 IU/kg, median annualised attack rates were 1·3 and 1·0, respectively and median rescue medication use was 0.2 and 0.0 times per year, respectively. Of 23 patients receiving 60 IU/kg for >2 years, 19 (83%) were attack-free during months 25–30 of treatment.
Conclusion: In patients with frequent HAE attacks, long-term replacement therapy with C1-INH(SC) is safe and exhibits a substantial and sustained prophylactic effect, with the vast majority of patients becoming free from debilitating disease symptoms.
Nicht nur in den bronzezeitlichen Staaten Ägyptens und Anatoliens gab es blutige Kriege – etwa die berühmte Schlacht von Kadesh 1259 v.Chr. Auch die bronzezeitlichen Gesellschaften Mitteleuropas mobilisierten erhebliche Ressourcen für militärische Auseinandersetzungen. Davon zeugen archäologische Funde von Waffen und aufwendig befestigte Burganlagen, die noch heute als beeindruckende Denkmäler in der Landschaft von ursprünglicher Größe und einem Machtanspruch zeugen.
Für das direkte Bild des Schwarzen Lochs benötigten die Astronomen ein Teleskop von bisher unerreichter Präzision und Empfindlichkeit. Das Event-Horizon-Teleskop ist kein einzelnes Teleskop, sondern eine Vernetzung von acht Radioteleskopen auf der ganzen Welt an Standorten mit teilweise herausfordernden klimatischen Bedingungen: auf dem Gipfel des Mauna Kea auf Hawaii, in der Atacama-Wüste in Chile, der Antarktis, in Mexiko, Arizona und der Sierra Nevada in Südspanien. ...
Den Löwen die Freiheit? Raus aus Zirkus und Zoo? Was würde ein Löwe sagen, könnte er nur reden? Der Paläontologe Joachim Scholz meint in Anlehnung an Malraux: Man lasse den Löwen zu einem Gegenstand der Forschung werden, statt zu einem solchen der Offenbarung. Jeder Löwe hat eine eigene Persönlichkeit, kein Tier gleicht dem anderen. Scholz regt Langzeitstudien nicht nur in Zoos, sondern auch im Zirkus an. Denn in der sogenannten Freiheit könnte es Löwen schon bald nicht mehr geben.
Welche Natur, für wen und wie zu schützen? : Namibias Wildpferde im Fokus von Naturschutzkonflikten
(2019)
Sind Wildpferde in einem Nationalpark Namibias schützenswert? Die Regierung sieht keinen Anlass, das Überleben der Tiere zu sichern. Nichtregierungsorganisationen (NGO) und lokale Gruppen wollen die Wildpferde dagegen bewahren – als Teil des lokalen Ökosystems und des kulturellen Erbes. Das Beispiel zeigt die Vielschichtigkeit von Konflikten um Natur- und Artenschutz.
Die Schlagzeilen verdeutlichen: Wölfe lösen beim Menschen gleichermaßen Angst und Faszination aus. Das Raubtier wird bei Nutztierhaltern, Jägern, Naturschützern und Politikern kontrovers diskutiert. Die Wolfspopulation wächst in Deutschland zurzeit um etwa 30 Prozent pro Jahr und die Anzahl der vom Wolf gerissenen Tiere nimmt zu. Das »Rotkäppchen-Syndrom« ist tief in unseren Wertevorstellungen verankert. Doch was ist dran am Mythos "böser Wolf"?
Die Psychologie unterscheidet interpersonelle Konflikte – also Konflikte zwischen verschiedenen Personen – von intrapsychischen Konflikten – also Konflikten, die sich innerhalb einer Person abspielen. Psychotherapeutisch behandelt werden können Konflikte, wenn alle Konfliktparteien anwesend sind und angesprochen werden können. Insofern kann die Psychoanalyse einzelner Personen vor allem bei intrapsychischen Konflikten helfen, die nach unserem Verständnis psychischen Problemen und Störungen zugrunde liegen. Interpersonelle Konflikte können von Psychotherapeuten in Paar- oder Familientherapien angegangen werden.
Der Schriftsteller Georg Büchner gilt bis heute als ein glühender Revolutionär und unerbittlicher Kämpfer für Wahrheit und Gerechtigkeit: Seine Texte thematisieren formal und inhaltlich gesellschaftliche Konflikte, die zeitlos erscheinen und doch ihre Gegenwart genau in den Blick nehmen. An der Goethe-Universität forscht der Germanist Prof. Roland Borgards zu Büchner.
Herr Professor Clark, wie gelingt es Ihnen, derart effizient "mit der Zeit zu tanzen", um einen Ausdruck aus Ihrem aktuellen Buch "Von Zeit und Macht" zu benutzen? Sie sind Hochschullehrer, Moderator von Geschichtssendungen im deutschen Fernsehen und Bestsellerautor. Verwenden Sie eine bestimmte Methode des Zeitmanagements? ...
"Wir sehen uns vor Gericht!" – Oft eskalieren Konflikte zu einem Rechtsstreit, ohne dass die Beteiligten nachgedacht haben, ob dies der beste Weg ist. Im Verhältnis zwischen Bürger und Staat gibt es wenig zu überlegen: Binnen Monatsfrist muss klagen, wer eine Entscheidung der Verwaltung nicht bestandskräftig werden lassen will. Dabei ist ein Rechtsstreit manchmal langwierig und oft teuer. Das Urteil am Ende des Instanzenzuges kann schließlich "Steine statt Brot" bedeuten, selbst wenn der Rechtsstreit gewonnen ist. Seit Langem etablieren sich daher "alternative" Konfliktlösungsverfahren, allen voran die Mediation: Die Konfliktparteien erarbeiten freiwillig und selbstbestimmt eine von ihnen akzeptierte, interessenorientierte Lösung, indem sie kooperativ verhandeln mit einem Mediator an ihrer Seite, einem neutralen und allparteilichen Dritten.
Wie eine Gerichtslandschaft entsteht, kann man selten in der Geschichte beobachten – Gerichte sind einfach da, man kann sehen, was es gibt, weiß aber nicht, weshalb es gerade diese gibt. Das ist in der Antike nicht anders als in der Neuzeit, die zwar Organisationsstatuten kennt wie in Deutschland das Gerichtsverfassungsgesetz von 1877, doch diese bauen meist auf älteren Strukturen auf.
Die Gerichte sind überlastet, außergerichtliche Wege der Konfliktlösung haben Konjunktur. Doch sind diese Wege tatsächlich so neu und so modern, wie sie uns erscheinen? Das Verbundprojekt "Außergerichtliche und gerichtliche Konfliktlösung" ist dieser Frage grundlegend nachgegangen. Die von 2012 bis 2015 vom Land als LOEWE-Schwerpunkt geförderte Initiative sollte strukturelles Wissen zur Konfliktlösung hervorbringen.
Auch die Hochschule ist kein konfliktfreier Ort – im Gegenteil: Wissenschaftlicher Fortschritt wird oft gerade dadurch erreicht, dass sich Ideen und Theorien aneinander reiben – und manchmal auch die Köpfe. Doch leider ist nicht jeder Konflikt konstruktiv. Damit Konflikte nicht zerstörerisch wirken und die Kontrahenten wieder zu einem respektvollen Umgang miteinander finden, gibt es an der Goethe-Universität verschiedene Instanzen der Konfliktschlichtung und -bewältigung. Neben Anlaufstellen wie dem Gleichstellungsbüro oder der Psychologischen Beratungsstelle vermitteln Ombudspersonen im Konfliktfall als neutrale Mediatorinnen und Mediatoren. ...
Radikalisierung als individuelles und gesellschaftliches Phänomen Extreme politische Ansichten haben Konjunktur. Auf beiden Seiten des politischen Spektrums, aber auch in religiösen Milieus radikalisieren sich Positionen und stellen demokratische Werte und Institutionen infrage. Mit diesen Phänomenen hat sich das vom Bundesministerium für Bildung und Forschung geförderte Projekt "Gesellschaft Extrem. Radikalisierung und Deradikalisierung in Deutschland" befasst. ...
"Gewalt erzeugt Gegengewalt, hat man dir das nicht erklärt?" So heißt es im Refrain eines bekannten Punkrock-Songs. Diese Aussage mag für die affektive Interaktion im unmittelbaren Kontext gewaltsamer Handlungen bisweilen zutreffen. Vor der zeitverzögert einsetzenden Gegengewalt steht indessen die Verarbeitung der ersten Handlung: das Sprechen über den Konflikt und vor allem die Frage nach der Ursache, nach der Intention und der Legitimität des Gewaltaktes. Die daraus resultierenden Deutungen können langfristige Folgen nach sich ziehen. Nicht nur Stunden und Tage, sondern Jahrhunderte, ja Jahrtausende kann ein einziges Gewaltereignis immer wieder im Fokus von Erzählungen stehen und prägend für Generationen und Nationen sein. ...
Internationale Gerichte sollen Konflikte zwischen Staaten befrieden. Dass es dabei nicht immer nur um das Völkerrecht geht, zeigt der Streit zwischen den USA und dem Iran. Die gegenwärtige US-Regierung lehnt den Internationalen Gerichtshof als politisch gelenkt ab – und schadet sich damit vor allem selbst.
Eine Ausstellung im Frankfurter Museum Angewandte Kunst hat im Frühjahr 2019 für Diskussionen gesorgt. Darf man Hijab und Burka aus einem überwiegend ästhetischen Blickwinkel betrachten? Werden die muslimischen Bekleidungsvorschriften auf diese Weise nicht verharmlost? Schon vor der Eröffnung der Schau "Contemporary Muslim Fashions" haben diese Fragen die Medien beschäftigt. ...
Immer mehr Menschen fühlen sich in ihrer Existenz bedroht – selbst im Globalen Norden. Zugleich wird der politische Streit auf nationaler wie internationaler Bühne unversöhnlicher. Hängen diese beiden Beobachtungen zusammen und wenn ja, wie? Dieser Frage geht der Soziologe Thomas Scheffer in seinem Beitrag nach.
Ich würde sagen, dass Individuen mal die Contenance verlieren, sich im Ton vergreifen, das kann vorkommen. Und natürlich gibt es Frustrationspotenzial und Irritationen, die auch mal ausgesprochen werden müssen. Das kann die Ebene des sachorientierten Austauschs von Argumenten durchaus verlassen. Jede Demokratie sollte das aushalten können. Aber ich würde nicht behaupten, dass Hasstiraden gerade im Netz, Trolling und Ähnliches, eine Form des produktiven Streits wären, die Bindekraft erzeugen würde. Im Gegenteil: Wenn sich das ausbreitet und systematisch wird, wirkt es zersetzend für den gesellschaftlichen Zusammenhalt. ...
Hintergrund: Die Therapie des elektrischen Sturms (ES), d.h. ≥3 ICD-Therapieabgaben wegen ventrikulärer Tachyarrhythmien (VT) innerhalb von 24 Stunden, besteht in der Beseitigung potenzieller reversibler Ursachen, der Gabe von Antiarrhythmika oder der Katheterablation (CA).
Ziel der Untersuchung war es, die unterschiedlichen Therapien des ES in Bezug auf Erfolg und Sicherheit zu analysieren.
Methoden: Alle ICD-Patienten, die zwischen 2000 und 2015 mit ES am Cardioangiologischen Centrum Bethanien behandelt wurden, wurden in die retrospektive Analyse eingeschlossen. Mittels elektronischer Datenbanksuche wurden potenzielle Patienten identifiziert und anhand der Krankenakte und der ICD-Auslesungen selektiert.
Neben demographischen Parametern wurden die prozeduralen Variablen der Ablationen analysiert. Alle CA wurden mit Hilfe eines 3D-Mappingsystems durchgeführt. Der Erfolg der CA wurde definiert als Nicht-Induzierbarkeit von VT durch programmierte Elektrostimulation von RVA und RVOT mit 2 Basiszykluslängen (510/440ms) und Ankopplung von bis zu 3 Extrastimuli bis zur jeweiligen Refraktärzeit.
Die Patienten wurden alle 6 Monate untersucht und der ICD-Speicher ausgelesen.
Der primäre Endpunkt war das ereignisfreie Überleben ohne adäquate ICD-Interventionen oder ES in einem Zeitraum von 12 Monaten nach Therapie des ES.
Ergebnisse: Insgesamt wurden 87 Patienten (mittleres Alter 71±9,6 Jahre; 89% männlich; LVEF 34,1%±13,3%) eingeschlossen, davon 58 konservativ und 29 per CA behandelt.
Die ICD-Implantation der Patienten in der CA-Gruppe lag länger zurück als die in der konservativen Gruppe (1868 Tage vs. 905 Tage; p = 0,0009).
Die CA war bei 26 Patienten (3 Therapieversager der kons. Gruppe einbezogen) erfolgreich. Dabei wurden im Mittel 2,6±1,8 VT abladiert. Hierzu war in 16,2% ein epikardiales Vorgehen notwendig. Die Prozeduren dauerten 153±47,5 min.
In der konservativen Gruppe hatten 15 (25,9%) Patienten eine reversible Ursache für den ES (Ischämie, Elektrolytstörung), außerdem wurden 34 (58,6%) mit Antiarrhythmika behandelt, davon 28 (48,3%) mit Amiodaron.
Der primäre Endpunkt wurde von 19 (32,8%) Patienten der konservativen und 13 (44,8%) der CA Gruppe erreicht (p = 0,35).
Es ergaben sich ebenfalls keine Unterschiede bzgl. der einzelnen Endpunkte Tod, VT-, ES- oder ICD-Schockrezidiv.
Im Falle einer erfolgreichen CA wurde der primäre Endpunkt signifikant häufiger erreicht (46,2% vs. 16,7%; p = 0,01; HR = 0,29; CI 0,11-0,75). Die Wahrscheinlichkeit das erste Jahr nach CA zu überleben war um 84% höher (88,5% vs. 50%; p = 0,01; HR = 0,16; CI 0,04-0,65).
Im Falle einer erfolgreichen CA ist die Wahrscheinlichkeit für das Überleben gegenüber einer Amiodarontherapie um 70% höher (88,5% vs. 64,3%; p= 0,07; HR = 0,30; CI 0,09-1,04).
Schlussfolgerung: Patienten mit einem ES können primär zu 81,3% mit einer CA erfolgreich behandelt werden. Wenn alle VT durch die CA eliminiert werden können, ist die CA einer konservativen Therapie mit Amiodaron in Hinblick auf das Überleben um 70% überlegen.
Background. Intervertebral disc degeneration (IDD) at the cervicothoracic junction of spine is clinically relevant, however, little attention had been paid. T2 mapping and magnetic transfer ratio (MTR) are useful magnetic resonance imaging (MRI) techniques to quantitatively evaluate IDD, revealing the biochemical changes within the intervertebral disc. To compare T2 mapping with MTR imaging regarding their accuracy to quantitatively diagnose intervertebral disc degeneration at the cervicothoracic junction, influences of anatomical level, gender, age, and Pfrrmann grade of T2 relaxation time values and MTR values were evaluated.
Methods. Sixty-seven patients with neck and upper back pain were included and examined with both T2 mapping andMTR imaging. Te Pfrrmann grade, T2 relaxation time values, and MTR value of each disc between C7 and T3 were measured. Diferences were investigated among diferent segmental levels, genders, age ranges, and Pfrrmann grades. Te diagnostic accuracy of both MRI techniques was compared using the receiver operating characteristic (ROC) curves.
Results. No signifcant diference was detected comparing T2 relaxation time values or MTR values among diferent anatomical levels, genders, and segmental levels. And we generally found that T2 relaxation time values decreased, while MTR value increased with increasing age. Importantly, we demonstrated the signifcant correlation between either T2 relaxation time values or MTR value and Pfrrmann grade.
Conclusion. We proved the better accuracy of T2 mapping over MTR imaging to quantitatively evaluate the intervertebral disc degeneration of the cervicothoracic junction.
The family of NADPH oxidases represents an important source of reactive oxygen species (ROS) within the cell. Nox4 is a special member of this family as it constitutively produces H2O2 and its loss promotes inflammation. A major cellular component of inflammation is the macrophage population, which can be divided into several subpopulations depending on their phenotype, with proinflammatory M(LPS+IFNγ) and wound-healing M(IL4+IL13) macrophages being extremes of the functional spectrum. Whether Nox4 is expressed in macrophages is discussed controversially. Here, we show that macrophages besides a high level of Nox2 indeed express Nox4. As Nox4 contributes to differentiation of many cells, we hypothesize that Nox4 plays a role in determining the polarization and the phenotype of macrophages. In bone marrow-derived monocytes, ex vivo treatment with LPS/IFNγ or IL4/IL13 results in polarization of the cells into M(LPS+IFNγ) or M(IL4+IL13) macrophages, respectively. In this ex vivo setting, Nox4 deficiency reduces M(IL4+IL13) polarization and forces M(LPS+IFNγ). Nox4-/- M(LPS+IFNγ)-polarized macrophages express more Nox2 and produce more superoxide anions than wild type M(LPS+IFNγ)-polarized macrophages. Mechanistically, Nox4 deficiency reduces STAT6 activation and promotes NFκB activity, with the latter being responsible for the higher level of Nox2 in Nox4-deficient M(LPS+IFNγ)-polarized macrophages. According to those findings, in vivo, in a murine inflammation-driven fibrosarcoma model, Nox4 deficiency forces the expression of proinflammatory genes and cytokines, accompanied by an increase in the number of proinflammatory Ly6C+ macrophages in the tumors. Collectively, the data obtained in this study suggest an anti-inflammatory role for Nox4 in macrophages. Nox4 deficiency results in less M(IL4+IL13) polarization and suppression of NFκB activity in monocytes.
A review will be presented on the algebraic extension of the standard Teory of Relativity (GR) to the pseudocomplex formulation (pc-GR). Te pc-GR predicts the existence of a dark energy outside and inside the mass distribution, corresponding to a modifcation of the GR-metric. Te structure of the emission profle of an accretion disc changes also inside a star. Discussed are the consequences of the dark energy for cosmological models, permitting diferent outcomes on the evolution of the universe.
This thesis is a summary of existing and upcoming publications, with a focus on high order methods in numerical relativity and general relativistic flows. The text is structed in five chapters. In the first three ones, the ADER-DG technique and its application to the Einstein-Euler equations is introduced. Novel formulations for both the Einstein equations in the 3+1 split as well as the general relativistic magnetohydrodynamics (GRMHD) had to be derived. The first order conformal and covariant Z4 formulation of Einstein equations (FO-CCZ4) is proposed and proven to be strongly hyperbolic. Together with the fluid equations of general relativistic magnetohydodynamics (GRMHD), a number of benchmark scenarios is presented to show both the correctness of the PDEs as well as the applicability of the numerical scheme.
As an application in astrophysics, a general-relativistic study of the treshold mass for a prompt-collapse of a binary neutron star merger with realistic nuclear equation of states has been carried out. A nonlinear universal relation between the treshold mass and the maximum compactness is found. Furthermore, by taking recent measurements of GW170817 into account, lower limits on the stellar radii for any mass can be given.
Furthermore, an (unpaired) work in quantum mechanical black hole engineering is presented. Higher dimensional extensions of generalized Heisenberg’s uncertainty principle (GUP) are studied. A number of new phenomenology is found, such as the existence of a conical singularity which mimics the effect of a gravitational monopole on short scale and that of a Schwarzschild black hole at a large scale, as well as oscillating Hawking temperatures which we call "lighthouse effect". All results are consistent with the self complete paradigm and a cold evaporation endpoint remnant.
Corneal topometric, aberrometric and biomechanical parameters in mucopolysaccharidosis patients
(2019)
Aims: To report corneal topometric and aberrometric values in mucopolysaccharidosis (MPS) and to investigate their correlation with biomechanical corneal parameters.
Methods: One randomly chosen eye of 20 MPS patients with no to moderate corneal clouding and one eye of 23 healthy controls with comparable age were prospectively included into this study. Corneal surface regularity was assessed by index of surface variance (ISV), -vertical asymmetry (IVA), -height asymmetry (IHA), -height decentration (IHD); keratoconus index (KI), central keratoconus index (CKI) and Zernike indices of anterior and posterior corneal surface using Scheimpflug imaging (Pentacam). Corneal resistance factor (CRF) and corneal hysteresis (CH) were assessed by Ocular Response Analyzer. Statistical analyses were performed using Mann-Whitney-Test and Spearman Correlation Coefficients.
Results: IVA, ISV, IHD, IHA, but not KI and CKI were significantly higher in MPS patients compared to age matched healthy controls. Spherical aberration and asphericity coefficients either at the anterior or at the posterior corneal surface differed significantly between both groups. The grade of the MPS-associated corneal opacity correlated significantly with ISV (rho = 0.52), IVA (rho = 0.54), IHA (rho = 0.57) and IHD (rho = 0.48). Density of the MPS-affected corneas correlated significantly with ISV (rho = 0.52), IVA (rho = 0.72), IHA (rho = 0.57), IHD (rho = 0.69), 3rd order horizontal trefoil aberration at the posterior (rho = 0.62) and anterior surface (rho = 0.48) as well as with CH (rho = 0.55) and CRF (rho = 0.57). Spherical aberration at the back surface correlated with CRF and CH in MPS and in healthy controls.
Conclusions: This is the first study analyzing shape of the corneal surface in MPS patients. Topometric indices of corneal asymmetry are significantly increased and correlate with MPS-related corneal opacity and density. Spherical aberration and asphericity coefficient at the front and at the back corneal surface differ significantly between MPS and healthy controls.
As central component of the peptide loading complex, the ABC transporter TAP is a key player in the adaptive immune response. By recognizing and translocating antigenic peptides derived from proteasomal degradation into the ER lumen it connects the processing of harmful intruders and the marking of an infected cell for elimination. This work focused mainly on the interaction between TAP and one of its viral inhibitors. Of the five known TAP inhibitors, ICP47 is the only one that is not anchored in the ER membrane and has a nonomolar affinity to TAP. These properties and its specific architecture make it an interesting protein engineering tool that can be used in a variety of ways to generate functionally arrested TAP complexes. Different lengths of ICP47 were chosen to map the optimal distance between the binding pocket and the N-terminal elbow helix of either TAP1 or TAP2. I demonstrated that the interaction of fused ICP47 with coreTAP inhibits antigen presentation via MHC I. Interestingly, the loss of MHC I surface expression only depended on the presence of the active domain and not on the length of the fused ICP47 fragments. Summarizing it can be said that TAP complexes containing an intact active domain of ICP47 successfully suppressed MHC I surface expression. Considering the MHC I surface expression in the use of free ICP47 fragments it was revealed that the active domain may not be sufficient. All free constructs, except the one that contains exclusively the active domain (1-35), were able to fully arrest peptide translocation, while the fragment 1-35 partially restored MHC I surface expression. This was the first evidence suggesting that more residues might be present in the ICP47 sequence that contribute to the interaction with TAP.
Further characterization of the ICP47-coreTAP fusion complexes comprised the determination of their thermostability and melting temperatures. The ICP47-coreTAP fusion complexes revealed a preferred orientation for ICP47. The ICP47(1-65) fragment led to a stable complex only if fused to TAP2, highlighting an interesting asymmetry at the TAP1/TAP2 interface, which suggests a shorter distance of the C-terminus of the stabilizing region to the elbow helix of TAP2 than of TAP1. The shorter fragments 1-35 and 1-50, and the ICP47 linker fragments, which inhibited, but did not trigger any thermostabilizing effects on TAP, revealed a second hint for the presence of other residues important for the ICP47/TAP interaction. To define the thermostability in more detail, the melting temperature of complexes with fused or freely bound ICP47 fragments was determined. Short fused fragments of ICP47 (residues 1-35 or 1-50) did not fully stabilize the TAP complex. Only ICP47 fragments longer than residues 1-50 raised the melting temperature to the full extent and led to a completely stabilized complex, suggesting that the critical melting temperature, which determines whether a complex is fully stabilized or not, is about 44-45°C. By comparing different ICP47 proteins from the herpesviral clade, I further noticed that the 21 residues following the active domain are highly conserved. The residues in this region were exchanged by glycines and alanines to study their impact on the thermostabilization of TAP. I demonstrated that several charged residues, an alanine rich, and a proline rich sequence were mainly responsible for the preservation of high melting temperatures. In summary, these findings reveal a dual inhibition mechanism of ICP47. While the active domain of ICP47 is wedged at the TAP1/2 interface and arrests the complex in an open-inward facing conformation, the highly conserved C-terminal region stabilizes the ICP47/TAP interaction and generates a thermostabilized TAP complex.
The second part of this thesis deals with two alternative expression and stabilization strategies for coreTAP, designed to provide a 1:1 ratio of TAP subunits during protein biosynthesis. Different glycine-serine (GS) linkers and a self cleaving 2A site were im- plemented into the TAP sequence and used for comparison with the classical coreTAP. Despite their functionality in antigen translocation, the utilization of GS linkers proved to be unsuitable due to low expression and scarce purification efficiency caused by the unfeasible orthogonal purification. In contrast, the use of a 2A site allowed orthogonal His10- and SBP-tag purification and yielded comparable amounts to the classical coreTAP. However, the ICP47/coreTAP interaction appeared to be hampered by the modified N-terminus of ICP47, due to the cleavage process.
The third and last part of this work deals with the Thermus thermophilus ABC trans- porter TmrAB, which was identified to be part of the same ABC subfamily as TAP. The structure of TmrAB is similar to that of coreTAP and includes a TMD and an NBD for each subunit. In comparison to TAP, TmrAB has a broader substrate range, but it can transport peptides, which are also transported by TAP. Since the natural substrate, and thus the actual function, of TmrAB has not yet been identified, it is counted among the multidrug resistance ABC transporters, from where it also takes its name. In this work, the question was investigated whether TmrAB can be utilized as a TAP substitute. To compare the function of TmrAB and TAP in a natural cell environment, the N-terminal domains of the TAP subunits called TMD0s were fused to the TmrAB subunits and subsequently expressed as different combinations. I found that especially the hybrid complexes containing a TMD0 of TAP2 were functional in terms of MHC I surface expression. Furthermore, TmrAB with TMD0 co-localized prevalently with the ER marker PDI while complexes without TMD0 did not co-localize. Interestingly, the analysis of the interaction with components of the PLC revealed that interaction with tapasin could only occur when a TMD0 was present. In turn, calreticulin, MHC I, and ERp57 were bound, regardless of the presence of a TMD0. It is remarkable that a bacterial protein, sharing only 27-30% sequence identity with human TAP is able to take over a key function of our adaptive immune system. Yet, TmrAB originates from a hyperthermophilic bacterium and may have assembly and folding difficulties that the human cell seeks to overcome by recruiting chaperones like calreticulin and ERp57. Although further experiments will be necessary to analyze the interaction of TmrAB with the PLC components in more detail, TmrAB appears to be homologous to coreTAP, not only in terms of sequence and structure, but also in terms of function.
We show that "quasi-dark" trading venues, i.e., markets with somewhat non-transparent trading mechanisms, are important parts of modern equity market structure alongside lit markets and dark pools. Using the European MiFID II regulation as a quasi-natural experiment, we find that dark pool bans lead to (i) volume spill-overs into quasi-dark trading mechanisms including periodic auctions and order internalization systems; (ii) little volume returning to transparent public markets; and consequently, (iii) a negligible impact on market liquidity and short-term price efficiency. These results show that quasi-dark markets serve as close substitutes for dark pools and consequently mitigate the effectiveness of dark pool regulation. Our findings highlight the need for a broader approach to transparency regulation in modern markets that takes into consideration the many alternative forms of quasi-dark trading.
We study the effects of market incompleteness on speculation, investor survival, and asset pricing moments, when investors disagree about the likelihood of jumps and have recursive preferences. We consider two models. In a model with jumps in aggregate consumption, incompleteness barely matters, since the consumption claim resembles an insurance product against jump risk and effectively reproduces approximate spanning. In a long-run risk model with jumps in the long-run growth rate, market incompleteness affects speculation, and investor survival. Jump and diffusive risks are more balanced regarding their importance and, therefore, the consumption claim cannot reproduce approximate spanning.
Die meisten Informationen, die uns über Frauen im Römischen Reich zur Verfügung stehen, wurden von Männern in literarischen Texten und Rechtsquellen aufgeschrieben. Ein Thema, mit dem das Leben von Frauen des Römischen Reichs näher beleuchtet werden kann, sind Rechtstexte, die sich mit Themen beschäftigen, in denen Frauen eine zentrale Rolle spielen.
Weite Teile der Bevölkerung des Römischen Reichs konnten im zweiten und dritten nach- christlichen Jahrhundert zwischen lokalen und römischen Rechtsangeboten wählen, um be- stimmte Probleme des Alltags zu lösen. Innerhalb des römischen Reichs entstanden zu dieser Zeit Rechtstexte unterschiedlicher Kulturen und verschiedene Rechtssysteme entwickelten unterschiedliche Lösungen für sich inhaltlich überschneidende Themenbereiche und Probleme.
In Rom verschriftlichten römische Juristen ihre Gedanken zu theoretischen Fallbeispielen und gewannen in großen Teilen des römischen Reichs Ansehen. Teile davon liegen uns heute als die im fünften und sechsten Jahrhundert zusammengetragenen Digesten vor. In der römischen Provinz Palaestina lebten jüdische Gelehrte, Rabbinen, die über Jahrhunderte mündlich weitergegebenes Wissen und entwickelte Rechtsbestimmungen aufschrieben, die als die Schriften der Mischna und Tosefta überliefert wurden.
In der Dissertation werden anhand der Lebensabschnitte einer Frau wie sie in der Mischna gezeichnet werden – die Kindheit und Jugend in der Familie des Vaters, das Leben als Ehefrau und das Leben als Witwe – untersucht, welche Handlungsspielräume sich für Frauen in den Texten ergeben und welche Erwartungen an Frauen gestellt werden. Die untersuchten Abschnitte der Mischna und Tosefta werden mit Texten aus den Digesten verglichen.
Obwohl die jüdischen und römischen Rechtstexte auf Traditionen beruhen, die unabhängig voneinander entstanden, beschäftigen sie sich mit den gleichen Themen, nämlich mit dem Erwachsenwerden von jungen Frauen, Fragen des Erbrechts, der Heirat und dem Ende von Ehen durch den Tod des Ehemannes oder eine Scheidung. Weiterhin wird deutlich, dass die Autoren der jüdischen Rechtstexte als Bewohner des Römischen Reichs sich mithilfe von Bestimmungen für das Verhalten verschiedener Mitglieder ihrer Gesellschaft zugleich als Teil der griechisch–römischen Welt sahen und sich von dieser durch eigene Traditionen abgrenzten. Aus der Sicht der Rabbinen konnte das Verhalten von Frauen ihre Gruppenzugehörigkeit nach außen sichtbar machen.
Uni-Highlights Februar 2019 : Einladungen zu ausgewählten Veranstaltungen der Goethe-Universität
(2019)
Uni-Highlights Januar 2019 : Einladungen zu ausgewählten Veranstaltungen der Goethe-Universität
(2019)
Uni-Highlights März 2019 : Einladungen zu ausgewählten Veranstaltungen der Goethe-Universität
(2019)
Uni-Highlights April 2019 : Einladungen zu ausgewählten Veranstaltungen der Goethe-Universität
(2019)
Uni-Highlights Juni 2019 : Einladungen zu ausgewählten Veranstaltungen der Goethe-Universität
(2019)
Numerous studies have described a correlation between smoking and reduced bone mass. This not only increases fracture risk but also impedes reconstruction/fixation of bone. An increased frequency of complications following surgery is common. Here, we investigate the effect of smoking on the clinical outcome following total joint arthroplasty (TJA). 817 patients receiving primary or revision (including clinical transfers) TJA at our level-one trauma center have been randomly interviewed twice (pre- and six months post-surgery). We found that 159 patients developed complications (infections, disturbed healing, revisions, thrombosis, and/or death). Considering nutritional status, alcohol and cigarette consumption as possible risk factors, OR was highest for smoking. Notably, mean age was significantly lower in smokers (59.2 ± 1.0a) than non-smokers (64.6 ± 0.8; p < 0.001). However, the number of comorbidities was comparable between both groups. Compared to non-smokers (17.8 ± 1.9%), the complication rate increases with increasing cigarette consumption (1–20 pack-years (PY): 19.2 ± 2.4% and >20 PY: 30.4 ± 3.6%; p = 0.002). Consequently, mean hospital stay was longer in heavy smokers (18.4 ± 1.0 day) than non-smokers (15.3 ± 0.5 day; p = 0.009) or moderate smokers (15.9 ± 0.6 day). In line with delayed healing, bone formation markers (BAP and CICP) were significantly lower in smokers than non-smokers 2 days following TJA. Although, smoking increased serum levels of MCP-1, OPG, sRANKL, and Osteopontin as well as bone resorption markers (TRAP5b and CTX-I) were unaffected. In line with an increased infection rate, smoking reduced 25OH vitamin D3 (immune-modulatory), IL-1β, IL-6, TNF-α, and IFN-γ serum levels. Our data clearly show that smoking not only affects bone formation after TJA but also suppresses the inflammatory response in these patients. Thus, it is feasible that therapies favoring bone formation and immune responses help improve the clinical outcome in smokers following TJA.
This is a randomized trial (ATHENA study) in de novo kidney transplant patients to compare everolimus versus mycophenolic acid (MPA) with similar tacrolimus exposure in both groups, or everolimus with concomitant tacrolimus or cyclosporine (CsA), in an unselected population. In this 12-month, multicenter, open-label study, de novo kidney transplant recipients were randomized to everolimus with tacrolimus (EVR/TAC), everolimus with CsA (EVR/CsA) or MPA with tacrolimus (MPA/TAC), with similar tacrolimus exposure in both groups. Non-inferiority of the primary end point (estimated glomerular filtration rate [eGFR] at month 12), assessed in the per-protocol population of 338 patients, was not shown for EVR/TAC or EVR/CsA versus MPA/TAC. In 123 patients with TAC levels within the protocol-specified range, eGFR outcomes were comparable between groups. The mean increase in eGFR during months 1 to 12 post-transplant, analyzed post hoc, was similar with EVR/TAC or EVR/CsA versus MPA/TAC. The incidence of treatment failure (biopsy proven acute rejection, graft loss or death) was not significant for EVR/TAC but significant for EVR/CsA versus MPA/TAC. Most biopsy-proven acute rejection events in this study were graded mild (BANFF IA). There were no differences in proteinuria between groups. Cytomegalovirus and BK virus infection were significantly more frequent with MPA/TAC. Thus, everolimus with TAC or CsA showed comparable efficacy to MPA/TAC in de novo kidney transplant patients. Non-inferiority of renal function, when pre-specified, was not shown, but the mean increase in eGFR from month 1 to 12 was comparable to MPA/TAC.
This paper investigates what we can learn from the financial crisis about the link between accounting and financial stability. The picture that emerges ten years after the crisis is substantially different from the picture that dominated the accounting debate during and shortly after the crisis. Widespread claims about the role of fair-value (or mark-to-market) accounting in the crisis have been debunked. However, we identify several other core issues for the link between accounting and financial stability. Our analysis suggests that, going into the financial crisis, banks’ disclosures about relevant risk exposures were relatively sparse. Such disclosures came later after major concerns about banks’ exposures had arisen in markets. Similarly, banks delayed the recognition of loan losses. Banks’ incentives seem to drive this evidence, suggesting that reporting discretion and enforcement deserve careful consideration. In addition, bank regulation through its interlinkage with financial accounting may have dampened banks’ incentives for corrective actions. Our analysis illustrates that a number of serious challenges remain if accounting and financial reporting are to contribute to financial stability.
We examine the degree to which competition amongst lenders interacts with the cyclicality in lending standards using a simple measure, the average physical distance of borrowers from banks’ branches. We propose that this novel measure captures the extent to which lenders are willing to stretch their lending portfolio. Consistent with this idea, we find a significant cyclical component in the evolution of lending distances. Distances widen considerably when credit conditions are lax and shorten considerably when credit conditions become tighter. Next, we show that a sharp departure from the trend in distance between banks and borrowers is indicative of increased risk taking. Finally, we provide evidence that as competition in banks’ local markets increases, their willingness to make loans at greater distance increases. Since average lending distance is easily measurable, it is potentially a useful measure for bank supervisors.
Behavior is characterized by sequences of goal oriented conducts, such as food uptake, socializing and resting. Classically, one would define for each task a corresponding satisfaction level, with the agent engaging, at a given time, in the activity having the lowest satisfaction level. Alternatively, one may consider that the agent follows the overarching objective to generate sequences of distinct activities. To achieve a balanced distribution of activities would then be the primary goal, and not to master a specific task. In this setting the agent would show two types of behaviors, task-oriented and task-searching phases, with the latter interseeding the former. We study the emergence of autonomous task switching for the case of a simulated robot arm. Grasping one of several moving objects corresponds in this setting to a specific activity. Overall, the arm should follow a given object temporarily and then move away, in order to search for a new target and reengage. We show that this behavior can be generated robustly when modeling the arm as an adaptive dynamical system. The dissipation function is in this approach time dependent. The arm is in a dissipative state when searching for a nearby object, dissipating energy on approach. Once close, the dissipation function starts to increase, with the eventual sign change implying that the arm will take up energy and wander off. The resulting explorative state ends when the dissipation function becomes again negative and the arm selects a new target. We believe that our approach may be generalized to generate self-organized sequences of activities in general.
Beauty is the single most frequently and most broadly used aesthetic virtue term. The present study aimed at providing higher conceptual resolution to the broader notion of beauty by comparing it with three closely related aesthetically evaluative concepts which are likewise lexicalized across many languages: elegance, grace(fulness), and sexiness. We administered a variety of questionnaires that targeted perceptual qualia, cognitive and affective evaluations, as well as specific object properties that are associated with beauty, elegance, grace, and sexiness in personal looks, movements, objects of design, and other domains. This allowed us to reveal distinct and highly nuanced profiles of how a beautiful, elegant, graceful, and sexy appearance is subjectively perceived. As aesthetics is all about nuances, the fine-grained conceptual analysis of the four target concepts of our study provides crucial distinctions for future research.
Visibility and digital accessibility of the School of Salamanca in a linked open-data environment
(2019)
This paper raises the bibliographic and technological approach to increasing visibility and accessibility of the work of the School of Salamanca in the current technological state of the web. The objective is to avoid the cultural effect of not acting in this field, for which authors draw an analogy with Plantin's privilege in 16th-Century Spanish printing. The Virtual Library of the School of Salamanca is described as a Linked Open-Data resource about the authors of this school and their digitized works, in which the relationships between authors and concepts are crucial. For this purpose, different properties of the DBpedia ontology are used, and the descriptions of the authors are systematically linked to other Linked Open-Data resources. All descriptions (authors, works and concepts) are offered in Europeana Data Model and MARC 21. Also discussed are the advantages of Wikipedia and Wikidata in increasing visibility.
A summary of this text was presented at the international conference organized by the Max Planck Institute for the History of European Law: "The School of Salamanca: A Case of Global Knowledge Production?", held in Buenos Aires from 24th to 26th October 2018.
In this exploratory article, we consider the future of Deutsche Bank and Commerzbank and develop a new approach to the topic: instead of a merger of DB and CB we propose to consider a partial merger of the IT and related back office functions in order to create the basis for an Open Banking platform in Germany. Such a platform would act as a cross-institutional infrastructure company in which the participating banks develop a common data and IT platform (while respecting the data protection regulations). Significant parts of the transaction processes would be pooled by the institutions and executed by the Open Banking platform. Moreover, the institutions remain legally independent and compete with each other at the level of products and services that are developed and produced using just this common data and IT platform – “national champions” would not be created.
But such an “Open Banking Platform” could become even the nucleus of a European Banking platform that could be competitive with existing global data platforms from the USA and China which are already offering financial services and are likely to expand their offerings in the foreseeable future. The proposed model of an open data platform for banks prevents the emergence of national champions and supports the main goal of the banking union: creation of a financial system, in which single banks can be resolved without provoking a systemic crisis and forcing taxpayers to finance bailouts.
Purpose: The purpose of this study was to report our initial experience of hyaluronic acid gel injection (HGI) in the vesicovaginal septum (VVS) for bladder dose reduction in brachytherapy (BT) for uterine cervical carcinoma.
Material and methods: Between September 2016 and May 2018, 15 uterine cervical cancer patients received HGI in the VVS as a part of their definitive radiotherapy (RT) treatment consisting of external beam radiation therapy (EBRT) with additional BT. Of those, 9 patients received BT both with and without HGI, and remaining 6 patients were excluded because these 6 patients received HGI in the VVS for all BT fractions. All 9 patients received HGI in the rectovaginal septum. For these patients, the dosimetric parameters bladder D2cc, HR-CTV D90, and rectum D2cc were selected, and two groups were generated (BT with vs. without HGI in the VVS) for dosimetric comparison.
Results: The median cumulative EQD2 for HR-CTV, rectum D2cc, and bladder D2cc for the 9 patients were 73.3, 52.8, and 67.1, respectively. While no statistical difference could be detected for rectal dose reduction, bladder dose was significantly less in the group with HGI in the VVS compared to that without (449 cGy [range, 416-566, 1SD = 66.1] vs. 569 cGy [range, 449-647, 1SD = 59.5], p = 0.033), with no compromising of target coverage. Although it did not reach statistically significance, there was a trend toward better HR-CTV D90 in the group with HGI compared to that without HGI in the VVS (713 cGy vs. 706 cGy, p = 0.085). No severe bleeding, hematuria, bladder wall injury, or urethral injury requiring hospitalization was experienced in association with HGI in the VVS.
Conclusions: HGI in the VVS can be performed safely and can effectively reduce the bladder dose in BT for uterine cervical cancer patients.
Bone marrow and plasma FGF‐23 in heart failure patients : novel insights into the heart–bone axis
(2019)
Aims: Fibroblast growth factor 23 (FGF‐23) is known to be elevated in patients with congestive heart failure (CHF). As FGF‐23 is expressed in the bone but can also be expressed in the myocardium, the origin of serum FGF‐23 in CHF remains unclear. It is also unclear if FGF‐23 expressed in the bone is associated with outcome in CHF. The aim of the present study was to investigate FGF‐23 levels measured in bone marrow plasma (FGF‐23‐BM) and in peripheral blood (FGF‐23‐P) in CHF patients to gain further insights into the heart–bone axis of FGF‐23 expression. We also investigated possible associations between FGF‐23‐BM as well as FGF‐23‐P and outcome in CHF patients.
Methods and results: We determined FGF‐23‐P and FGF‐23‐BM levels in 203 CHF patients (85% male, mean age 61.3 years) with a left ventricular ejection fraction (LVEF) ≤45% and compared them with those of 48 healthy controls (48% male, mean age 39.2 years). We investigated the association between FGF‐23‐BM and FGF‐23‐P with all‐cause mortality in CHF patients, 32 events, median follow‐up 1673 days, interquartile range [923, 1828]. FGF‐23‐P (median 60.3 vs. 22.0 RU/mL, P < 0.001) and FGF‐23‐BM (median 130.7 vs. 93.1 RU/mL, P < 0.001) levels were higher in CHF patients compared with healthy controls. FGF‐23‐BM levels were significantly higher than FGF‐23‐P levels in both CHF patients and in healthy controls (P < 0.001). FGF‐23‐P and FGF‐23‐BM correlated significantly with LVEF (r = −0.37 and r = −0.33, respectively), N terminal pro brain natriuretic peptide levels (r = 0.57 and r = 0.6, respectively), New York Heart Association status (r = 0.28 and r = 0.25, respectively), and estimated glomerular filtration rate (r = −0.43 and r = −0.41, respectively) (P for all <0.001) and were independently associated with all‐cause mortality in CHF patients after adjustment for LVEF, estimated glomerular filtration rate, New York Heart Association status, and N terminal pro brain natriuretic peptide, hazard ratio 2.71 [confidence interval: 1.18–6.20], P = 0.018, and hazard ratio 2.80 [confidence interval: 1.19–6.57], P = 0.018, respectively.
Conclusions: In CHF patients, FGF‐23 is elevated in bone marrow plasma and is independently associated with heart failure severity and all‐cause mortality. The failing heart seems to interact via FGF‐23 within a heart–bone axis.
Specialized de novo assemblers for diverse datatypes have been developed and are in widespread use for the analyses of single-cell genomics, metagenomics and RNA-seq data. However, assembly of large sequencing datasets produced by modern technologies is challenging and computationally intensive. In-silico read normalization has been suggested as a computational strategy to reduce redundancy in read datasets, which leads to significant speedups and memory savings of assembly pipelines. Previously, we presented a set multi-cover optimization based approach, ORNA, where reads are reduced without losing important k-mer connectivity information, as used in assembly graphs. Here we propose extensions to ORNA, named ORNA-Q and ORNA-K, which consider a weighted set multi-cover optimization formulation for the in-silico read normalization problem. These novel formulations make use of the base quality scores obtained from sequencers (ORNA-Q) or k-mer abundances of reads (ORNA-K) to improve normalization further. We devise efficient heuristic algorithms for solving both formulations. In applications to human RNA-seq data, ORNA-Q and ORNA-K are shown to assemble more or equally many full length transcripts compared to other normalization methods at similar or higher read reduction values. The algorithm is implemented under the latest version of ORNA (v2.0, https://github.com/SchulzLab/ORNA).