Refine
Year of publication
- 2019 (3305) (remove)
Document Type
- Article (1597)
- Part of Periodical (400)
- Book (265)
- Doctoral Thesis (211)
- Contribution to a Periodical (195)
- Part of a Book (182)
- Preprint (163)
- Review (141)
- Working Paper (96)
- Conference Proceeding (35)
Language
- English (1828)
- German (1314)
- Portuguese (67)
- French (31)
- Multiple languages (23)
- Turkish (16)
- Spanish (15)
- Italian (5)
- Ukrainian (4)
- mis (2)
Is part of the Bibliography
- no (3305) (remove)
Keywords
- Literatur (69)
- Deutsch (61)
- taxonomy (60)
- Experiment (47)
- Sprache (33)
- new species (32)
- Literarisches Experiment (30)
- Deutsch als Fremdsprache (27)
- Geschichte (25)
- Digitalisierung (23)
Institute
- Medizin (574)
- Präsidium (346)
- Physik (291)
- Frankfurt Institute for Advanced Studies (FIAS) (189)
- Informatik (159)
- Wirtschaftswissenschaften (144)
- Biowissenschaften (117)
- Sustainable Architecture for Finance in Europe (SAFE) (106)
- Gesellschaftswissenschaften (104)
- Neuere Philologien (90)
The development of multimodal sensor-based applications designed to support learners with the improvement of their skills is expensive since most of these applications are tailor-made and built from scratch. In this paper, we show how the Presentation Trainer (PT), a multimodal sensor-based application designed to support the development of public speaking skills, can be modularly extended with a Virtual Reality real-time feedback module (VR module), which makes usage of the PT more immersive and comprehensive. The described study consists of a formative evaluation and has two main objectives. Firstly, a technical objective is concerned with the feasibility of extending the PT with an immersive VR Module. Secondly, a user experience objective focuses on the level of satisfaction of interacting with the VR extended PT. To study these objectives, we conducted user tests with 20 participants. Results from our test show the feasibility of modularly extending existing multimodal sensor-based applications, and in terms of learning and user experience, results indicate a positive attitude of the participants towards using the application (PT+VR module).
The quest for new and improved therapies for glioblastoma (GB) has been mostly unsuccessful in more than a decade despite significant efforts. The few exceptions include the optimization of classical alkylating chemotherapy by including lomustine in the first line regimen for GB with a methylated MGMT promoter and tumor treating fields. The GB signaling network has been well-characterized and genetic alterations resulting in activation of receptor tyrosine kinases and especially epidermal growth factor receptor (EGFR) and downstream mammalian target of rapamycin complex 1 (mTORC1) signaling were found in the majority of GBs. ...
Dieses Zitat von Sperone Speroni aus dem "Dialogo d’Amore" (1542) beschreibt eindrücklich die herausragende Stellung des Malers Tizian. Die Hochachtung, die aus diesen Worten hervorgeht, spiegelt sich in der Ausstellung Tizian und die Renaissance in Venedig wieder, die vom 13. Februar bis zum 26. Mai 2019 im Frankfurter Städel Museum zu sehen ist. Die Sonderausstellung mit über 100 Meisterwerken widmet sich nicht nur Tizian, sondern auch anderen wichtigen Vertretern der venezianischen Malerei der Renaissance. So werden unter anderem Gemälde und Zeichnungen von Giovanni Bellini, Jacopo Palma il Vecchio, Sebastiano del Piombo, Lorenzo Lotto, Jacopo Tintoretto, Jacopo Bassano und Paolo Veronese gezeigt. In einer Folge von acht Kapiteln führt die Präsentation dieser Meisterwerke durch ausgewählte Themenfelder, die für die venezianische Malerei im 16. Jahrhundert charakteristisch sind. ...
Background: Obesity impairs a variety of cell types including adipose-derived mesenchymal stem cells (ASCs). ASCs are indispensable for tissue homeostasis/repair, immunomodulation, and cell renewal. It has been demonstrated that obese ASCs are defective in differentiation, motility, immunomodulation, and replication. We have recently reported that some of these defects are linked to impaired primary cilia, which are unable to properly convey and coordinate a variety of signaling pathways. We hypothesized that the rescue of the primary cilium in obese ASCs would restore their functional properties.
Methods: Obese ASCs derived from subcutaneous and visceral adipose tissues were treated with a specific inhibitor against Aurora A or with an inhibitor against extracellular signal-regulated kinase 1/2 (Erk1/2). Multiple molecular and cellular assays were performed to analyze the altered functionalities and their involved pathways.
Results: The treatment with low doses of these inhibitors extended the length of the primary cilium, restored the invasion and migration potential, and improved the differentiation capacity of obese ASCs. Associated with enhanced differentiation ability, the cells displayed an increased expression of self-renewal/stemness-related genes like SOX2, OCT4, and NANOG, mediated by reduced active glycogen synthase kinase 3 β (GSK3β).
Conclusion: This work describes a novel phenomenon whereby the primary cilium of obese ASCs is rescuable by the low-dose inhibition of Aurora A or Erk1/2, restoring functional ASCs with increased stemness. These cells might be able to improve tissue homeostasis in obese patients and thereby ameliorate obesity-associated diseases. Additionally, these functionally restored obese ASCs could be useful for novel autologous mesenchymal stem cell-based therapies.
Die Welt ist im Wandel, der Globalisierungsprozess weit fortgeschritten. Inwiefern spielen dann Kolonialismus und Unterdrückung noch eine Rolle? Sind diese Zeitgeschehnisse nicht wie man so schön sagt "Geschichte"? Dieser Frage gehen der britisch-ghanaische Künstler John Akomfrah und das Black Audio Film Collective im gemeinsamen Werk "Expeditions 1 – Signs of Empire" (1983) nach. Die zweiteilige Videoarbeit zeigt mithilfe dokumentarischer Fotografien, Textfragmenten und Tonaufzeichnungen des British Empire ein Bild, welches die Potenz heutiger nationalstaatlicher Strukturen des Okzidents in der Unterdrückung und Ausbeutung kolonialisierter Länder verortet – und so den Mythos der moralischen Überlegenheit des Westens dekonstruiert. ...
Der technische Fortschritt ermöglicht die Auswertung großer Datenmengen mittels Algorithmen zur Feststellung bislang unbekannter Korrelationen. Schlagwortartig werden solche Analysen unter dem Begriff Big Data zusammengefasst. Häufig sind personenbezogene Daten Gegenstand von Big-Data-Anwendungen, sei es als Grundlage oder Ergebnis einer Auswertung. In diesen Fällen ist das Datenschutzrecht zu beachten.
Der Zweckbindungsgrundsatz fordert die Angabe eines Verarbeitungszwecks bereits bei Erhebung der Daten und eine Bindung des weiteren Datenumgangs an diesen Zweck. Damit besteht ein Spannungsverhältnis zu Big-Data-Anwendungen, die zu Verarbeitungsbeginn den Zweck allenfalls unspezifisch anzugeben vermögen. Auf Grundlage des alten Bundesdatenschutzgesetzes mit einzelnen Ausblicken auf die Datenschutzgrundverordnung untersucht die Arbeit die datenschutzrechtlichen Anforderungen an die Zweckfestlegung und welche Bindungen aus ihr folgen. Zudem nimmt der Autor mögliche Lösungen des Konflikts zwischen Big-Data-Anwendungen und dem Zweckbindungsgrundsatz in den Blick.
The sphingolipid sphingosine-1-phosphate (S1P) is produced by sphingosine kinases to either signal through intracellular targets or to activate a family of specific G-protein-coupled receptors (S1PR). S1P levels are usually low in peripheral tissues compared to the vasculature, forming a gradient that mediates lymphocyte trafficking. However, S1P levels rise during inflammation in peripheral tissues, thereby affecting resident or recruited immune cells, including macrophages. As macrophages orchestrate initiation and resolution of inflammation, the sphingosine kinase/S1P/S1P-receptor axis emerges as an important determinant of macrophage function in the pathogenesis of inflammatory diseases such as cancer, atherosclerosis, and infection. In this review, we therefore summarize the current knowledge how S1P affects macrophage biology.
Canada’s geographic centre lies in the Territory Nunavut. From here the distance to the geographic North Pole is as far as to the US border. Nunavut takes up about 1/5 of the Canadian land mass but has by far the smallest population with currently about 38,000 residents. 85% of its population are Inuit whose culture dramatically changed within the last 70 years.
As a result, the territory is dealing with several generations of Inuit that are traumatized or at least severely affected by cultural and economic changes that started after World War 2 with the resettlement from the land into permanent communities. No matter if we are talking about the actual elders, mid-age adults or pre-teenagers, each of this generation experienced and still experiences various personal and cultural challenges of identity, financial and housing insecurity, food insecurity, substance abuse education, change of social values ranging from inter-generational and gender relationships to the introduction of a foreign political and legal system.
On the other side, a lot of the traditional societal values are still being practiced in Inuit families. Despite all the tragedies that several generations of Inuit have experienced by now, the society keeps generating the strength and cultural pride that allows many Inuit both, as individuals and as a collective under the umbrella of either Inuit Land Claims or not for profit organizations to advocate on behalf of Inuit culture, to fight for more acknowledgement of Inuit culture and to enhance pride in the historic and present day cultural achievements of Nunavut’s indigenous population.
The social issues, inter- and intra-cultural processes described in my thesis are not exclusive to the situation in Nunavut or to Inuit. Studies from other regions, in Canada or from around the world (LaPrairie 1987; Jensen 1986; Nunatsiaq News 6/30/2010) reveal similar challenges.
Though many structural similarities can be identified by comparing these studies with each other, e.g. marginalization of the indigenous local population, colonization, paternalism and resulting issues like personal and cultural identity loss, it is important to have a more in depth look into the single cases to determine which individual events and developments causes and maybe still cause such a devastating social situation as it is found among many indigenous peoples across the world. From my perspective effective improvements of the situation of a group, a respective community or region can only happen when particularities of socialization, communication and philosophy in the single cultural entities are being considered.
That is why my thesis will exclusively focus on developments in Nunavut and use various case studies of communities. The case studies shall help to identify local differences in historic and recent developments and thus provide starting points for explanations of different developments in different Nunavut communities.
The thesis is looking at both, historic and recent root causes for the many issues in Nunavut.
The data that my my thesis is based on are a combination of literature and about 60 formal and informal interviews that I conducted in three Nunavut communities (Iqaluit, Whale Cove, Kugluktuk) during my 18 months of field work between October 2008 and March 2010. Many more spontaneous unstructured conversations between me and community members added to the pool of first-hand information that I gathered.
Since my field work is limited to those three communities it has a very strong qualitative character. The quantitative side, which allows me to confidently apply my research analyses to entire Nunavut, comes from literature research as well as many informal conversations and a few formal interviews that I conducted with people who had some experience in other communities than Iqaluit, Kugluktuk and Whale Cove.
Furthermore, while I was living at the old residence of the Nunavut Arctic College in Iqaluit, I spend time with college students from across Nunavut. Through them, I obtained „case studies “from following communities: Iqaluit, Qikiqtarjuaq, Kimmirut, Pangnirtung, Clyde River, Pond Inlet, Igloolik, Repulse Bay, Cape Dorset, Chesterfield Inlet, Baker Lake, Rankin Inlet, Whale Cove, Arviat, Taloyoak, Kugluktuk.
My general categorization of “early contact period”, “contact”, “1st generation” and “2nd generation” is very similar to Damas’ terms of “early contact phase”, “contact – traditional”, “resettlement” that he uses to create a timeline that describes the major phases of impact for Inuit society (Damas 2002: 7, 17).
Chapters 2 is meant to provide an inventory of the key aspects of current social issues in Nunavut. In this context I am looking at the four major aspects that in my opinion shape Nunavut’s society:
1) violence and other forms of social dysfunctions
2) the associated services and delivering agencies that try to address those matters
3) Education
4) Inuit cultural particularities in communication and socialization
Those four areas are forming the foundation for the rest of my work. The following chapters will guide the reader through the historic transformation process of Inuit pre-colonial semi-nomadic society to a society that is living in permanent settlements, strongly influenced if not in many ways dominated by Euro-Canadian culture. Each of those chapters will be referring to the social and cultural changes that happened in the different time periods that I labeled with “Pre-settlement, First, Second, and Third Generation”. The relevance of violence and other social dysfunctions, their context and strategies how each generation dealt with those matters will be analyzed while I will be also referring to the impacts that non-Inuit, primarily Euro-Canadians and Euro-Americans had and have on Inuit society.
...
Introduction: The German PID-NET registry was founded in 2009, serving as the first national registry of patients with primary immunodeficiencies (PID) in Germany. It is part of the European Society for Immunodeficiencies (ESID) registry. The primary purpose of the registry is to gather data on the epidemiology, diagnostic delay, diagnosis, and treatment of PIDs.
Methods: Clinical and laboratory data was collected from 2,453 patients from 36 German PID centres in an online registry. Data was analysed with the software Stata® and Excel.
Results: The minimum prevalence of PID in Germany is 2.72 per 100,000 inhabitants. Among patients aged 1–25, there was a clear predominance of males. The median age of living patients ranged between 7 and 40 years, depending on the respective PID. Predominantly antibody disorders were the most prevalent group with 57% of all 2,453 PID patients (including 728 CVID patients). A gene defect was identified in 36% of patients. Familial cases were observed in 21% of patients. The age of onset for presenting symptoms ranged from birth to late adulthood (range 0–88 years). Presenting symptoms comprised infections (74%) and immune dysregulation (22%). Ninety-three patients were diagnosed without prior clinical symptoms. Regarding the general and clinical diagnostic delay, no PID had undergone a slight decrease within the last decade. However, both, SCID and hyper IgE- syndrome showed a substantial improvement in shortening the time between onset of symptoms and genetic diagnosis. Regarding treatment, 49% of all patients received immunoglobulin G (IgG) substitution (70%—subcutaneous; 29%—intravenous; 1%—unknown). Three-hundred patients underwent at least one hematopoietic stem cell transplantation (HSCT). Five patients had gene therapy.
Conclusion: The German PID-NET registry is a precious tool for physicians, researchers, the pharmaceutical industry, politicians, and ultimately the patients, for whom the outcomes will eventually lead to a more timely diagnosis and better treatment.
Die vorliegende Arbeit behandelt einen Rechtsvergleich zwischen dem Neutralitätsgebot in der Bundesrepublik Deutschland und die Laizität in der Türkei aus der Perspektive des Religionsverwaltungsrechts im Referenzgebiet Medienrecht. Der Schwerpunkt liegt in der Darstellung des Türkischen Rechts.
Zu Beginn werden die beiden Begriffe des Neutralitätsgebots und der Laizität als Analyseinstrumente näher erörtert. Insbesondere erfolgt eine historische Begriffsgenese der Laizität im türkischen Rechtssystem in Bezug auf die Verfassungen der Türkei von Kanun-i Esasi 1876 bis hin zur aktuellen Verfassung von 1982. Darüber hinaus wird sowohl in der Rechtsprechung als auch in der Literatur erforscht, welchen Wandel der Laizitätsbegriff seit seiner Aufnahme in die Verfassung erfahren hat.
Es wird festgestellt, dass beide Begriffe einer Begriffskategorie angehören, wobei sie sich überwiegend durch ihre Intensität bei der Trennung vom Sakralem und Säkularem gerade hinsichtlich Kooperationen derselben und der vorherrschenden Koexistenz unterscheiden.
Zusätzlich wird auf die Funktion und die Auswirkungen des Diyanet sowohl auf den Laizitätsbegriff selbst als auch auf das Medienrecht eingegangen.
Im Folgenden wird das Medienrecht in beiden Ländern aus der Perspektive der öffentlichen Medien, insbesondere der Rundfunkanstalten untersucht. Hierbei werden in der Bundesrepublik Deutschland alle öffentlich-rechtlichen Rundfunkanstalten, ihre Organisationsstruktur und Regelungen zur Vertretung der Religionsgemeinschaften behandelt, die gängigen Regelungen diesbezüglich ausführlich erörtert und aktuelle Unterschiede derselben bei der Vertretung der Religionsgemeinschaften im jeweiligen Rundfunkrat mitunter auch tabellarisch aufgezeigt. Durch die Behandlung der Vertretungsregelungen werden Mängel aufgewiesen. Diese ergeben sich beispielsweise in Hessen bei der Auswahl der vertretungsberechtigten Organisationen, da bei den parlamentarischen Überlegungen hierzu möglicherweise nicht hinreichend sachdienliche Gutachten herangezogen wurden. Eine andere Quelle für Fehler wird in der Anwendung von bestimmten Rechtsbegriffen als Parameter für die Eignung der Religionsgemeinschaften zur Vertretung gesehen, die ihrerseits auf christliche Religionsgemeinschaften zugeschnitten sind, jedoch gerade die innerhalb der Bevölkerung am stärksten vertretene Minderheitengruppe, nämlich die Muslime, mangels Körperschaftsstatus, außen vor lässt. Letztendlich werden auch gerade für die Bundesrepublik Deutschland Lösungsansätze herausgearbeitet.
Im türkischen Recht erfolgt eine ebensolche Darstellung, wobei als Besonderheit auch der TMSF als Einlagensicherungsfonds, sowie die These behandelt werden, dass durch die Eingriffe des TMSF öffentlich-rechtliche Printmedien vorhanden seien. Speziell werden die Entstehung und Entwicklung des Medienrechts, der Aufbau und die Kompetenzen der öffentlich-rechtlichen Medien und die Eingriffe auf diese dargestellt.
In der Türkei werden bereits in der verwaltungsrechtlichen Normierung der Kompetenzen einzelner Institutionen und erst Recht in der verwaltungsrechtlichen Praxis gravierende Mängel festgestellt.
Over the last years, many microRNAs (miRNAs) have been identified that regulate the formation of bioactive lipid mediators such as prostanoids and leukotrienes. Many of these miRNAs are involved in complex regulatory circuits necessary for the fine-tuning of biological functions including inflammatory processes or cell growth. A better understanding of these networks will contribute to the development of novel therapeutic strategies for the treatment of inflammatory diseases and cancer. In this review, we provide an overview of the current knowledge of miRNA regulation in eicosanoid pathways with special focus on novel miRNA functions and regulatory circuits of leukotriene and prostaglandin biosynthesis.
The lateralization of neuronal processing underpinning hearing, speech, language, and music is widely studied, vigorously debated, and still not understood in a satisfactory manner. One set of hypotheses focuses on the temporal structure of perceptual experience and links auditory cortex asymmetries to underlying differences in neural populations with differential temporal sensitivity (e.g., ideas advanced by Zatorre et al. (2002) and Poeppel (2003). The Asymmetric Sampling in Time theory (AST) (Poeppel, 2003), builds on cytoarchitectonic differences between auditory cortices and predicts that modulation frequencies within the range of, roughly, the syllable rate, are more accurately tracked by the right hemisphere. To date, this conjecture is reasonably well supported, since – while there is some heterogeneity in the reported findings – the predicted asymmetrical entrainment has been observed in various experimental protocols. Here, we show that under specific processing demands, the rightward dominance disappears. We propose an enriched and modified version of the asymmetric sampling hypothesis in the context of speech. Recent work (Rimmele et al., 2018b) proposes two different mechanisms to underlie the auditory tracking of the speech envelope: one derived from the intrinsic oscillatory properties of auditory regions; the other induced by top-down signals coming from other non-auditory regions of the brain. We propose that under non-speech listening conditions, the intrinsic auditory mechanism dominates and thus, in line with AST, entrainment is rightward lateralized, as is widely observed. However, (i) depending on individual brain structural/functional differences, and/or (ii) in the context of specific speech listening conditions, the relative weight of the top-down mechanism can increase. In this scenario, the typically observed auditory sampling asymmetry (and its rightward dominance) diminishes or vanishes.
The three major autoimmune diseases (ADs) of the liver are primary biliary cholangitis (PBC), primary sclerosing cholangitis (PSC), and autoimmune hepatitis (AIH). All of those diseases show an aggressive immune reaction resulting in the destruction of liver tissue and finally to the development of hepatic fibrosis.
PSC is an autoimmune mediated disease of unknown etiology. It is characterized by inflammation of intra- and extrahepatic bile ducts. The progressive destruction of the bile ducts can lead to liver cirrhosis and finally to liver failure. Clinical signs for PSC are increased alkaline phosphatase (AP) and gamma glutamyltransferase (GGT) levels, presence of perinuclear anti-neutrophil cytoplasmic antibodies (pANCA) and bile ducts with characteristic strictures and dilations of the biliary tree as well as onion skin fibrosis surrounding the damaged bile ducts. Currently, there is no established treatment for PSC patients. The administration of ursodeoxycholic acid (UDCA) is being use as a therapy. However, it merely serves a symptomatic treatment to reduce serum AP and GGT as well as the formation of gallstones. In the advanced stage of PSC, liver transplantation is the last therapeutic option. Mdr2-/- mice are an excepted mouse model for human PSC. Such mice show lymphocytes infiltration into the liver, bile duct lesions, as well as the presence of the typical onion skin-like pericholangitis and periductal fibrosis.
AIH is a rare chronic autoimmune disease of the liver that results from the loss of self-tolerance to hepatocytes and leads to destruction of the hepatic parenchyma with the onset of cirrhosis. Clinical signs for AIH are elevated alanine aminotransferase (ALT) and aspartate transaminase (AST) levels, hypergammaglobulinemia and different types of autoantibodies. In addition, interphase hepatitis with lymphocytic and plasmacellular infiltrates in the periportal field are characteristic for AIH. Two different subtypes of AIH exist and depending on their autoantibody profile they can be distinguished into AIH type 1 which is characterized by the presence of anti-nuclear (ANA) and/or anti-smooth muscular (SMA) autoantibodies, and AIH type 2 showing liver/kidney microsomal autoantibodies (LKM-1). LKM-1 recognizes the major autoantigen, the 2D6 isoform of the cytochrome P450 enzyme family (CYP2D6). One mouse model for AIH is the CYP2D6 model in which the injection of Ad-2D6 leads to a breakdown of the immune tolerance by the destruction of hepatocytes.
There are some patients with autoimmune diseases of the liver who have both cholestatic and hepatic liver enzymes and histological features suggestive of two different liver diseases. These patients are diagnosed with an overlap syndrome (OS).
In my thesis I generated an animal model with characteristics of both diseases, which would mimic features of human PSC-AIH OS. Mdr2-/- mice which spontaneously develop PSC were infected with Ad-2D6 to trigger the autoimmune-driven hepatic injury. Pathogenesis of PSC-AIH OS mice was compared to mice with solitary PSC or AIH. Naïve FVB wild type mice have been used as healthy controls. The characterization of the PSC-AIH OS model was done by analyzing serological parameters like ALT, AP, different antibodies like pANCA, LKM-1 like CYP2D6 and total IgG. Additionally, fibrosis and cholangitis were analyzed by immunohistochemistry and Western blotting. Moreover, cellular infiltrations of CD4+ and CD8+ T cells, dendritic cells (DCs), monocytes/macrophages and neutrophils were determined with immunohistochemistry. Finally, the overall immune balance in the liver and the frequency of CYP specific T cells were analyzed via flow cytometry. Our new mouse model indeed represents the characteristics of both PSC and AIH and mimics features of the human PSC-AIH OS. It allows studying the development of a PSC-AIH OS and how the two overlapping diseases are influencing one another. In a second approach I wanted to induce CYP2D6-specific tolerance in AIH mice. Therefore, I tried four different approaches, namely intranasal peptide administration, injection of tolerogenic DCs, antigen-coupled splenocytes, and Ag-coupled nanoparticles (NP) and evaluated their potential to induce CYP2D6 specific Treg with the capacity to prevent AIH in mice. Unfortunately, the intranasal peptide administration and also the injection of tolerogenic DCs did not increase the amount of CYP2D6 specific Treg which would lead to a reduction of the frequency of inflammatory T cells. Surprisingly, the injection of antigen-coupled splenocytes showed the opposite effect characterized by a very strong cytokine secretion in the tolerized mice. The use of NPs led to an increase in CYP2D6 specific Treg as well as in decrease in the frequency of inflammatory T cells and finally has the potential for a therapeutic approach.
In summary, the generated PSC-AIH OS model represents many clinical signs which can also be observed in PSC-AIH OS patients. This model can be used to study the etiology of this overlap syndrome and further to test potential therapeutic approaches. The different immune tolerance induction pathways which I tried in the AIH model show that NPs have to potential to induce immune tolerance but this approach has to be refined and the outcome has to be characterized in more detail.
The paper analyses the linkages from financial developments to public finances. It maps and discusses the transmission channels to fiscal variables. These channels include asset prices, financing conditions, balance sheets of banks, non-banks and central banks and international linkages. The study argues that the fiscal effects via each and all these channels can be very serious in magnitude and can put the sustainability of public finances at risk. However, there is an only limited in-depth analysis of these channels and risks.
Im Frühjahr 2018 wurde innerhalb des vom Bundesministerium für Bildung und Forschung geförderten Projektes „QuartierMobil“ eine Haushaltsbefragung im innenstadtnahen Stadtteil Frankfurt-Bornheim durchgeführt (N = 1027). Für die Stichprobenauswahl wurden das Random-Route-Verfahren und die Last-Birthday-Methode angewendet. Der Fragebogen wurde in Abstimmung mit den Projektpartner*innen, dem Referat Mobilitäts- und Verkehrsplanung der Stadt Frankfurt sowie dem Planungsbüro Planersocietät, entwickelt. Ziel der Befragung war es, die Dynamiken und Präferenzen der Bewohnenden des Quartiers hinsichtlich ihrer Alltagsmobilität, Verkehrsmittelnutzung und Einstellungen zu Konfliktsituationen zu erhalten. Der Schwerpunkt der Befragung lag auf dem Parken im urbanen Quartier und möglichen Gestaltungsoptionen des städtischen Parkraummanagements hin zu einer nachhaltigeren Mobilität und einer Erhöhung der Aufenthalts- und Lebensqualität im Quartier.
We present a model for the autonomous and simultaneous learning of active binocular and motion vision. The model is based on the Active Efficient Coding (AEC) framework, a recent generalization of classic efficient coding theories to active perception. The model learns how to efficiently encode the incoming visual signals generated by an object moving in 3-D through sparse coding. Simultaneously, it learns how to produce eye movements that further improve the efficiency of the sensory coding. This learning is driven by an intrinsic motivation to maximize the system's coding efficiency. We test our approach on the humanoid robot iCub using simulations. The model demonstrates self-calibration of accurate object fixation and tracking of moving objects. Our results show that the model keeps improving until it hits physical constraints such as camera or motor resolution, or limits on its internal coding capacity. Furthermore, we show that the emerging sensory tuning properties are in line with results on disparity, motion, and motion-in-depth tuning in the visual cortex of mammals. The model suggests that vergence and tracking eye movements can be viewed as fundamentally having the same objective of maximizing the coding efficiency of the visual system and that they can be learned and calibrated jointly through AEC.
Fährt man in den Urlaub, weiß man eigentlich schon vorab, dass man als Reisende ob der eigenen Unwissenheit mehr bezahlt als die ortskundigen Locals. Man weiß, dass die meisten europäischen Urlaubsorte vom Tourismus leben und drückt im Stillen sein Einverständnis damit aus, indem man überhaupt reist. Gelegentlich aber zahlt man nicht nur etwas mehr, sondern wird beim Rückweg zum Flughafen von einem Taxifahrer, der kein Englisch spricht oder auch nur so tut, um die halbe Insel gefahren, obwohl man vom Beifahrersitz in sein Handy schaut und einem Google Maps einen wesentlich kürzeren Weg angezeigt hat. Man könnte sich aufregen, mit Hand und Fuß mit dem Taxifahrer schimpfen, die Türen des Wagens zuknallen und so dem eigenen Unmut Ausdruck verschaffen. Man kann aber auch ruhig bleiben, dem Taxifahrer thank you for showing us the whole island zurufen, zurückfliegen und eine Ausstellung organisieren, wie Cemile Deniz Alibas, Dominika Bednarsky, Un-Zu Ha-Nul Lee und Lena Stewens es getan haben. ...
Hypomethylating agents decitabine and azacytidine are regarded as interchangeable in the treatment of acute myeloid leukemia (AML). However, their mechanisms of action remain incompletely understood, and predictive biomarkers for HMA efficacy are lacking. Here, we show that the bioactive metabolite decitabine triphosphate, but not azacytidine triphosphate, functions as activator and substrate of the triphosphohydrolase SAMHD1 and is subject to SAMHD1-mediated inactivation. Retrospective immunohistochemical analysis of bone marrow specimens from AML patients at diagnosis revealed that SAMHD1 expression in leukemic cells inversely correlates with clinical response to decitabine, but not to azacytidine. SAMHD1 ablation increases the antileukemic activity of decitabine in AML cell lines, primary leukemic blasts, and xenograft models. AML cells acquire resistance to decitabine partly by SAMHD1 up-regulation. Together, our data suggest that SAMHD1 is a biomarker for the stratified use of hypomethylating agents in AML patients and a potential target for the treatment of decitabine-resistant leukemia.
Causes of maladaptation
(2019)
Evolutionary biologists tend to approach the study of the natural world within a framework of adaptation, inspired perhaps by the power of natural selection to produce fitness advantages that drive population persistence and biological diversity. In contrast, evolution has rarely been studied through the lens of adaptation's complement, maladaptation. This contrast is surprising because maladaptation is a prevalent feature of evolution: population trait values are rarely distributed optimally; local populations often have lower fitness than imported ones; populations decline; and local and global extinctions are common. Yet we lack a general framework for understanding maladaptation; for instance in terms of distribution, severity, and dynamics. Similar uncertainties apply to the causes of maladaptation. We suggest that incorporating maladaptation‐based perspectives into evolutionary biology would facilitate better understanding of the natural world. Approaches within a maladaptation framework might be especially profitable in applied evolution contexts – where reductions in fitness are common. Toward advancing a more balanced study of evolution, here we present a conceptual framework describing causes of maladaptation. As the introductory article for a Special Feature on maladaptation, we also summarize the studies in this Issue, highlighting the causes of maladaptation in each study. We hope that our framework and the papers in this Special Issue will help catalyze the study of maladaptation in applied evolution, supporting greater understanding of evolutionary dynamics in our rapidly changing world.
Multitasking is ubiquitous in our everyday life. Accordingly, situations in which two or more tasks need to be handled concurrently or in close temporal succession have been studied intensely. Different paradigms have been developed in that context (Koch et al., 2018). Over the last decades, the psychological refractory period (PRP) paradigm has dominated dual-task research, because it allows quantitative predictions of reaction time increases coupled to stimulus onset asynchrony. Part of the success of this paradigm is grounded in the fact that most of the studies are run under strict experimental control with very elementary tasks, mostly characterized by a definite start and ending. However, it remains unclear whether these limited settings sufficiently reflect the range of eventualities we find in real life. Rather, there is accumulating evidence that important factors modulating multitask performance are not sufficiently captured by the PRP approach. Here we focus on evidence that motor responses that involve continuous interaction with the environment may engage processes that alter the coordination of concurrently performed tasks in fundamental ways. ...
Among the causality assessment methods used for the diagnosis of drug-induced liver injury (DILI), Roussel Uclaf Causality Assessment Method (RUCAM) remains the most widely used not only for individual cases but also for prospective and retrospective studies worldwide. This first place is justified by the characteristics of the method such as precise definition and classification of the liver injury, which determines the right scale in the scoring system, precise definition of the seven criteria, and the validation approach based on cases with positive rechallenge. RUCAM is used not only for any types of drugs but also for herbal medicines causing herb-induced liver injury, (HILI) and dietary supplements. In 2016, the updated RUCAM provided further specifications of criteria and instructions to improve interobserver variability. Although this method was criticized for criteria such as the age and alcohol consumption, recent consensus meeting of experts has recognized their value and recommended their incorporation into any method. While early studies searching for DILI in large databases especially in electronic medical records were based on codes of diseases or natural language without causality assessment, the recommendation is now to include RUCAM in the search for DILI/HILI. There are still studies on DILI detection or the identification of biomarkers that take into consideration the cases assessed as “possible,” although it is well known that these cases reduce the strength of the association between the cases and the offending compound or the new biomarker to be validated. Attempts to build electronic RUCAM or automatized application of this method were successful despite some weaknesses to be corrected. In the future, more reflections are needed on an expert system to standardize the exclusion of alternative causes according to the clinical context. Education and training on RUCAM should be encouraged to improve the results of the studies and the day-to-day work in pharmacovigilance departments in companies or in regulatory agencies. It is also expected to improve RUCAM with biomarkers or other criteria provided that the validation process replaces expert opinion by robust standards such as those used for the original method.
The lysosomal polypeptide transporter TAPL belongs to the superfamily of ATP-binding cassette transporters. TAPL forms a homodimeric transport complex, which translocates oligo- and polypeptides into the lumen of lysosomes driven by ATP hydrolysis. Although the structure and the function of ABC transporters were intensively studied in the past, details about the single steps of the transport cycle are still elusive. Therefore, we analyzed the coupling of peptide binding, transport and ATP hydrolysis for different substrate sizes. Although longer and shorter peptides bind with the same affinity and are transported with identical Km values, they differ significantly in their transport rates. This difference can be attributed to a higher activation energy for the longer peptide. TAPL shows a basal ATPase activity, which is inhibited in the presence of longer peptides. Uncoupling between ATP hydrolysis and peptide transport increases with peptide length. Remarkably, also the type of nucleotide determines the uncoupling. While GTP is hydrolyzed as good as ATP, peptide transport is significantly reduced. In conclusion, TAPL does not differentiate between transport substrates in the binding process but during the following steps in the transport cycle, whereas, on the other hand, not only the coupling efficiency but also the activation energy varies depending on the size of peptide substrate.
Exercise is a treatment option in peripheral artery disease (PAD) patients to improve their clinical trajectory, at least in part induced by collateral growth. The ligation of the femoral artery (FAL) in mice is an established model to induce arteriogenesis. We intended to develop an animal model to stimulate collateral growth in mice through exercise. The training intensity assessment consisted of comparing two different training regimens in C57BL/6 mice, a treadmill implementing forced exercise and a free-to-access voluntary running wheel. The mice in the latter group covered a much greater distance than the former pre- and postoperatively. C57BL/6 mice and hypercholesterolemic ApoE-deficient (ApoE-/-) mice were subjected to FAL and had either access to a running wheel or were kept in motion-restricting cages (control) and hind limb perfusion was measured pre- and postoperatively at various times. Perfusion recovery in C57BL/6 mice was similar between the groups. In contrast, ApoE-/- mice showed significant differences between training and control 7 d postoperatively with a significant increase in pericollateral macrophages while the collateral diameter did not differ between training and control groups 21 d after surgery. ApoE-/- mice with running wheel training is a suitable model to simulate exercise induced collateral growth in PAD. This experimental set-up may provide a model for investigating molecular training effects.
Protein SUMOylation is a dynamic post-translational modification which is involved in a diverse set of physiologic processes throughout the cell. Of note, SUMOylation also plays a role in the pathobiology of a myriad of cancers, one of which is glioblastoma (GBM). Accordingly, herein, we review core aspects of SUMOylation as it relates to GBM and in so doing highlight putative methods/modalities capable of therapeutically engaging the pathway for treatment of this deadly neoplasm.
Evaluation of INSTAND e.V.’s external quality assessment for C-reactive protein and procalcitonin
(2019)
Background: The purpose of this paper was to analyze the general diagnostic strength and performance of in vitro diagnostics for C-reactive protein and procalcitonin based on the results of external quality assessment schemes (EQAs).
Methods: We analyzed qualitative and quantitative data on both markers collected by the Society for Promotion Quality Assurance in Medical Laboratories (INSTAND e.V.) from 20 EQAs. The C-reactive protein evaluation was method-specific and the procalcitonin evaluation manufacturer-specific (pseudonymized). Coefficients of variation were determined in order to evaluate interlaboratory comparability and the performance of individual laboratories during the analyzed period was examined.
Results: Overall most of our participants were able to correctly distinguish the positive from the negative samples, but we occasionally observed also false-positive results for the immunological detection of C-reactive protein. For the semi-quantitative results of C-reactive protein we observed an overall median difference below 5% except for dry chemistry methods (≤ 21%). For procalcitonin two manufacturer collectives showed a good comparability, while one manufacturer detected up to 42% higher results. The coefficients of variation are promising for both analytes even though they surpass the manufacturer’s indication for some collectives. The performance of individual laboratories during the analyzed period was more stable for C-reactive protein than for procalcitonin.
Conclusion: In-vitro diagnostic testing for C-reactive protein and procalcitonin showed promising results in our EQAs but still further improvements are needed. We recommend stepping up research on reference measurement methods for both parameters to possibly enhancing the accuracy and diagnostic strength of such assays.
kurz und kn@pp news : Nr. 46
(2019)
Mit selbstbewusster Haltung wendet sich der gutaussehende John Taylor in seinem Porträt von William L. Denune und Richard Cooper dem Betrachter zu. Dass der englische Arzt ein gepriesener Okulist und versierter Mann von Welt war, wird in dem Kupferstich zum einen mittels der Inschriften des Sockels unter seinem Porträt betont, die ihn als den Augenarzt des Königs von Großbritannien und als Mitglied mehrerer medizinischer Universitäten betiteln, zum anderen durch die Zurschaustellung seiner wissenschaftlichen Abhandlungen. Sein Biograph George Coats, selbst ein englischer Augenarzt, beschreibt ihn als einen klugen und eleganten Mann, ausgestattet mit einer charismatischen Ausstrahlung, welche jenen imponierte, die außerstande waren, die prahlerische Oberfläche zu durchschauen, unter der s ich ein verlogener, unverfrorener Quacksalber verbarg. Die meisten von Taylors Zeitgenossen kritisierten seine wissenschaftlichen Schriften und Praktiken und er selbst gestand einmal, dass Hunderte von Patienten an den Folgen seiner Operationen erblindeten. Wie konnte es dazu kommen, dass dieser offensichtliche Scharlatan zum Hofokulisten von König George II. ernannt wurde und prominente Persönlichkeiten wie Edward Gibbon sowie Johann Sebastian Bach behandelte? ...
Background. Extracts from Viscum album L. (VE) are used in the complementary cancer therapy in Europe for decades. VE contain several compounds like the mistletoe lectins (MLs) 1-3 and viscotoxins and also several minor ingredients. Since mistletoe lectin 1 (ML-1) has been described as the main component of VE harboring antitumor activity, purified native or recombinant ML-1 has been recently used in clinical trials. MLs stimulate the immune system, induce cytotoxicity, are able to modify the expression of cancer-associated genes, and influence the proliferation and motility of tumor cells.
Objective. In this study our goal was to determine anticancer effects of the VE ISCADOR Qu, of recombinant ML-1 (Aviscumine), and of native ML-1 in the treatment of glioblastoma (GBM), the most common and highly malignant brain tumor in adults. Additionally we were interested whether these drugs, used in combination with a temozolomide-(TMZ)-based radio-chemotherapy, provide synergistic effects.
Methods. Cell culture assays, ex vivo murine hippocampal brain slice cultures, human GBM cryosections, and a xenograft orthotopic glioblastoma mouse model were used.
Results. In cells, the expression of the ML receptor CD75s, which is also expressed in GBM specimen, but not in normal brain, correlates with the drug-induced cytotoxicity. In GBM cells, the drugs induce cell death in a concentration-dependent manner and reduce cell growth by inducing cell cycle arrest in the G2/M phase. The cell cycle arrest was paralleled by modifications in the expression of cell cycle regulating genes. ML containing drugs, if combined with glioma standard therapy, provide synergistic and additive anticancer effects. Despite not reaching statistical significance, a single intratumoral application of Aviscumine prolonged the median survival of GBM mice longer than tumor irradiation. Moreover, intratumorally applied Aviscumine prolonged the survival of GBM-bearing mice if used in combination with irradiation and TMZ for further 6.5 days compared to the radio-chemotherapy.
Conclusion. Our results suggest that an adjuvant treatment of glioma patients with ML-containing drugs might be beneficial.
Diagnosing and treating acute severe and recurrent antivenom-related anaphylaxis (ARA) is challenging and reported experience is limited. Herein, we describe our experience of severe ARA in patients with neurotoxic snakebite envenoming in Nepal. Patients were enrolled in a randomised, double-blind trial of high vs. low dose antivenom, given by intravenous (IV) push, followed by infusion. Training in ARA management emphasised stopping antivenom and giving intramuscular (IM) adrenaline, IV hydrocortisone, and IV chlorphenamine at the first sign/s of ARA. Later, IV adrenaline infusion (IVAI) was introduced for patients with antecedent ARA requiring additional antivenom infusions. Preantivenom subcutaneous adrenaline (SCAd) was introduced in the second study year (2012). Of 155 envenomed patients who received ≥ 1 antivenom dose, 13 (8.4%), three children (aged 5−11 years) and 10 adults (18−52 years), developed clinical features consistent with severe ARA, including six with overlapping signs of severe envenoming. Four and nine patients received low and high dose antivenom, respectively, and six had received SCAd. Principal signs of severe ARA were dyspnoea alone (n=5 patients), dyspnoea with wheezing (n=3), hypotension (n=3), shock (n=3), restlessness (n=3), respiratory/cardiorespiratory arrest (n=7), and early (n=1) and late laryngeal oedema (n=1); rash was associated with severe ARA in 10 patients. Four patients were given IVAI. Of the 8 (5.1%) deaths, three occurred in transit to hospital. Severe ARA was common and recurrent and had overlapping signs with severe neurotoxic envenoming. Optimising the management of ARA at different healthy system levels needs more research. This trial is registered with NCT01284855.
According to a popular stereotype, women are better at multitasking than men, but empirical evidence for gender differences in multitasking performance is mixed. Previous work has focused on specific aspects of multitasking or has not considered gender differences in abilities contributing to multitasking performance. We therefore tested gender differences (N = 96, 50% female) in sequential (i.e., task switching) and concurrent (i.e., dual tasking) multitasking, while controlling for possible gender differences in working memory, processing speed, spatial abilities, and fluid intelligence. Applying two standard experimental paradigms allowed us to test multitasking abilities across five different empirical indices (i.e., performance costs) for both reaction time (RT) and accuracy measures, respectively. Multitasking resulted in substantial performance costs across all experimental conditions without a single significant gender difference in any of these ten measures, even when controlling for gender differences in underlying cognitive abilities. Thus, our results do not confirm the widespread stereotype that women are better at multitasking than men at least in the popular sequential and concurrent multitasking settings used in the present study.
Die vorliegende Dissertation untersucht die Nichtgleichgewichtsdynamik von relativistischen Schwerionenkollisionen ausgehend von der anfänglichen Produktion von Teilchen durch den Zerfall von Strings, der Bildung eines Quark-Gluon-Plasmas (QGP), dessen kinetische und chemische Äquilibrierung als Funktion der Zeit sowie seine Transporteigenschaften im Gleichgewicht bei endlicher Temperatur und endlichem chemischen Potential. Ein Verständnis der frühen Phase der Schwerionenkollisionen ist insbesondere von großen Interesse, da letztere eine Verbindung zwischen den ersten Nukleon-Nukleon Kollisionen und der Quark-Gluon-Plasma Phase herstellen, die zu einem späteren Zeitpunkt ein gewisses Maß an Thermalisierung zeigt. Allerdings können nur Nichtgleichgewichts-Theorien eine Verbindung zwischen dem anfänglichen QGP und seiner - zumindest partiellen - Thermalisierung herstellen. Um die Dynamik eines stark wechselwirkenden Mediums wie des Quark-Gluon-Plasmas zu beschreiben, reichen übliche Transportgleichungen (basierend auf der Boltzmann-Gleichung) nicht aus und es müssen komplexere Theorien, die auch für stark korrelierte Medien geeignet sind, angewendet werden. Hier kommen hydrodynamische Simulationen oder Transportrechnungen - basierend auf verallgemeinerten Transportgleichungen - zum Einsatz. Solche verallgemeinerte Transportgleichungen, wie die Kadanoff-Baym-Gleichungen, ergeben sich aus der quantenmechanischen Nichtgleichgewichts-Vielteilchentheorie, in der Green’s- Funktionen in Minkowski Raum-Zeit die interessierenden Größen sind, um die Dynamik des betrachteten Mediums zu beschreiben. Mit geeigneten Näherungen kann man so kinetische Transportgleichungen erhalten, die eine einheitliche Behandlung von stabilen und instabilen Teilchen auch außerhalb des Gleichgewichts ermöglichen. Diese Bestandteile bilden die Basis des Transportmodells Parton-Hadron-String Dynamics (PHSD), welches daher ein geeignetes ’Instrument’ ist um die verschiedenen Phasen einer Schwerionenkollision zu analysieren, egal ob die verschiedenen Formen der Materie im Gleichgewicht sind oder nicht.
In dieser Arbeit wird zunächst die Quantenchromodynamik (QCD) vorgestellt und erklärt, wie diese Theorie im Laufe der Jahre entwickelt wurde um ein wichtiger Bestandteil des Standardmodells der Teilchenphysik zu werden. Wir werden weiterhin die verbleibenden Herausforderungen in unserem Verständnis der QCD vorstellen, die sich primär auf das Phasendiagramm der stark wechselwirkenden Materie konzentrieren.
Im zweiten Kapitel untersuchen wir die Nichtgleichgewichts-Feldtheorie und die damit verbundenen Techniken - wie die Keldysh-Kontur - zur Beschreibung der Green’schen Funktionen als wesentlichen Freiheitsgrade. Wir leiten die Evolutionsgleichung für die Green’schen Funktionen her, d. h. die Kadanoff Baym-Gleichungen am Beispiel einer skalaren Feldtheorie.
Im nächsten Kapitel wird das Transportmodell Parton-Hadron-String Dynamics (PHSD), welches die Anwendung der verallgemeinerten Transportgleichungen zur Beschreibung relativistischer Schwerionenkollisionen darstellt, vorgestellt.
Wir beginnen im Kapitel 4 mit der Untersuchung der Nichtgleichgewichtseigenschaften des Quark-Gluon-Plasmas, welches bei relativistischen Schwerionenkollisionen erzeugt wird. Zu diesem Zweck vergleichen wir die Quark-Gluon-Plasmaentwicklung aus dem PHSD mit einem viskosen hydrodynamischen Modell, bei dem ein lokales kinetisches und chemisches Gleichgewicht angenommen wird.
Im Kapitel 5 konzentrieren wir uns auf das frühe Vorgleichgewichtsstadium ultra-relativistischer Schwerionenkollisionen und insbesondere auf die Freiheitsgrade der QGP-Phase in diesem Stadium. Wir untersuchen die Auswirkungen eines QGP, welches anfänglich entweder aus einem System aus massiven Gluonen (Szenario I) oder alternativ aus Quarks und Antiquarks (Szenario II) besteht. Das nächste Kapitel wird ebenfalls die Produktion von Teilchen im Frühstadium von Schwerionenkollisionen behandeln, jedoch bei niedrigeren Kollisionsenergien. Hier wird eine mikroskopische Beschreibung des K+/pi+-Verhältnisses im Vordergrund stehen, d. h. die Erklärung des Maximums in diesem Verhältnis bei etwa 30 A GeV ("Horn") in zentralen Au+Au (oder Pb+Pb) Kollisionen. Insbesonders werden wir die Modifikation des String-Fragmentierungsprozesses (über den Schwinger-Mechanismus) in einer Umgebung mit hoher hadronischer Dichte aufgrund der teilweisen Wiederherstellung der chiralen Symmetrie untersuchen.
In Kapitel 7 erweitern wir das Parton-Hadron-String Dynamics (PHSD)-Transportmodell im partonischen Sektor, indem wir explizit die totalen und differentiellen partonischen Streuungsquerschnitte als Funktion der Temperatur T und des baryochemischen Potentials μB berechnen auf der Basis der effektiven Propagatoren und Kopplungen des Dynamical QuasiParticle Models (DQPM), welches auch die generelle Zeitentwicklung der partonischen Freiheitsgrade beschreibt. Wir finden nur eine sehr bescheidene Änderung von n/s mit dem baryonchemischen Potential μB in Abhängigkeit von der skalierten Temperatur T/Tc(μB). Dies gilt auch für eine Vielzahl von hadronischen Observablen aus zentralen A+A Kollisionen im Energiebereich von 5 GeV < vsNN < 200 GeV bei der Implementierung der differentiellen Querschnitte in das PHSD-Modell. Da wir in Schwerionen-Observablen nur kleine Spuren einer μB-Abhängigkeit finden - obwohl die effektiven Partonenmassen und Kollisionsbreiten sowie deren Partonenquerschnitte eindeutig von μB abhängen - impliziert dies, dass man eine beträchtliche Partonendichte und ein großes Raum-Zeit-QGP-Volumen zur Untersuchung der Dynamik in der partonischen Phase benötigt. Diese Bedingungen sind nur bei hohen Kollisionsenergien erfüllt, bei denen μB jedoch eher niedrig ist. Wenn andererseits die Kollisionsenergie verringert und somit μB erhöht wird, wird die hadronische Phase dominant und dementsprechend wird es zunehmend schwieriger, Signale aus der Partonendynamik auf der Basis von "Bulk"-Observablen zu extrahieren.
Wer im mittelalterlichen Frankfurt von "Hibbdebach" nach "Dribbdebach" wollte, also von Sachsenhausen in die Innenstadt, der war auf die Alte Brücke angewiesen – denn eine andere Möglichkeit den Main zu überqueren gab es bis 1868 nicht. Die Verbindung der Mainufer war bereits seit dem 11. Jahrhundert ein wichtiges Wegkreuz zwischen Nord und Süd und trug wohl dazu bei, dass sich Frankfurt nicht nur zum Krönungsort von Königen und Kaisern entwickelte, sondern auch zur Messestadt; es ist also keinesfalls übertrieben die Alte Brücke Ausgangspunkt der Frankfurter Stadtentwicklung zu nennen. ...
Das Museum Giersch scheint manchmal weit ab vom Schuss, gerät es doch im Schatten der großen Frankfurter Galerien ein ums andere Mal in Vergessenheit. Umso wichtiger ist es, diesem Umstand entgegenzuwirken – denn derzeit präsentiert das Ausstellungshaus am Museumsufer mit der Schau Frobenius – Die Kunst des Forschens ein Stück Frankfurts kultureller Identität. Konträr zum vielbesuchten Städel, erwartet das villenartige Museum den Besucher mit gedimmtem Licht und warmem Holz: Eine ruhige Stimmung breitet sich aus, die nicht nur der Konzentration beim Lesen der ausführlichen Erklärtexte, sondern der Wirkung von mehr als 200 gezeigten Werken zuträglich ist. ...
Autophagy, meaning “self-eating”, is an important cellular waste disposal mechanism. Thereby, damaged proteins, lipids and organelles are enclosed by autophagosomes and subsequently transported to the lysosomes for degradation into basic, cellular building blocks. Under basal conditions autophagy prevents the accumulation of defective and harmful material and generally promotes cell survival. However, several studies reported that hyperactivated autophagy, e.g. during developmental processes in lower eukaryotes, or during chemotherapeutic treatment of cancer cells, can also trigger cell death.
In recent years, autophagic cell death (ACD) has been considered as an alternative cell death pathway for tumor therapy, especially for solid tumors with high apoptosis resistance such as glioblastoma. Glioblastoma (GBM) is a very aggressive, malignant primary brain tumor with a median survival of ~ 15 months despite surgery and chemoradiotherapy. Accordingly, there is a great interest in improving GBM therapy through alternative cell death mechanisms. Interestingly, it has been shown that various substances, e.g. AT 101, cannabinoids and the combination of imipramine and ticlopidine (IM+TIC), induce ACD in GBM cells.
The aim of this project was to identify the underlying mechanisms of stress- and drug-induced ACD and its therapeutic potential for glioblastoma treatment. For detailed investigation of ACD, a CRISPR/Cas9-based approach was used to generate ATG5 and ATG7 knockouts as genetic models of autophagy deficiency. In a previous study of our lab it was demonstrated that administration of AT 101 triggers ACD in glioblastoma cells, which was associated with early mitochondrial fragmentation but no signs of apoptosis. Since mitochondrial fragmentation often precedes mitophagy, the first part of this thesis explored the potential role of mitophagy in AT 101-induced cell death.
ATG5-depleted cells confirmed that AT 101 induces ACD. In addition, treatment with AT 101 resulted in a pronounced mitochondrial depolarization, which was at least partly caused by the opening of the mitochondrial permeability pore. Global proteome analysis of AT 101-treated GBM cells revealed a robust decrease in mitochondrial protein clusters as well as a strong increase in the enzyme heme oxygenase-1 (HMOX1). Subsequent experiments for detailed investigation of mitophagy following AT 101 treatment (western blot, flow cytometric MTG and mt-mKeima, qRT-PCR of mitochondrial vs nuclear DNA) consistently indicated strong mitophagy induction by AT 101, which could be reduced by genetic or pharmacological inhibition of autophagy. Furthermore, siRNA-mediated knockdown experiments revealed that the selective mitophagy receptors BNIP3 and BNIP3L and the HMOX1 enzyme play an essential role in AT 101-induced mitophagy and subsequent cell death. Taken together, these data demonstrate that AT 101-induced mitochondrial dysfunction and HMOX1 induction synergize to promote excessive mitophagy with a lethal outcome in glioma cells.
The second part of this thesis focused on the identification of new substances that cause ACD and the investigation of the underlying cell death pathways. Using a cell death screen of the ENZO Screen-Well™ autophagy library in MZ-54 wild-type vs ATG5 and ATG7-depleted cells, loperamide, pimozide, and STF-62247 were identified as ACD-inducing agents. The increase of the autophagic flux and the induction of ACD by these substances was confirmed by using different ATG5 and ATG7 knockout cell lines and the already established positive control IM+TIC.
In contrast to AT 101, IM+TIC, STF-62247, loperamide and pimozide produced neither mitochondrial dysfunction nor mitophagy. Interestingly, it has been described that imipramine, loperamide and pimozide inhibit the lysosomal enzyme acid sphingomyelinase, which is associated with impaired lipid transport. Global proteome analysis and cholesterol staining confirmed that all four substances, but especially loperamide and pimozide, inhibit cellular lipid transport, leading to massive lipid accumulation in the lysosomes. In the further course of the experiments, the connection between defective lipid transport and autophagy was investigated in more detail. On the one hand, the defective lipid transport contributed to the induction of autophagy, on the other hand the massive accumulation of lipids led to lysosomal membrane damage, inhibition of lysosomal degradation at later time points and finally to a lysosomal cell death. Remarkably, it has been shown that hyperactivated autophagy by IM+TIC, loperamide and pimozide massively promotes lysosomal membrane damage. This result highlights the difficulties of a clear distinction between autophagic and lysosomal cell death.
In summary, two new signaling pathways that induce autophagic cell death in GBM cells and may be relevant for glioblastoma therapy were investigated in this study.
Die französische Künstlerin Bettina Rheims zeigte im Château de Vincennes bei Paris unter dem Ausstellungstitel DÉTENUES über sechzig Fotografien von in Frankreich inhaftierten Frauen. Détenues, so heißen die weiblichen Häftlinge auf Französisch. Mit der Themenwahl schließt Rheims an frühere Fotografieprojekte an. In den 1990er Jahren wurde die Fotografin aufgrund einfühlsamer Portraits bekannt, die sie von Prostituierten am legendären Place Pigalle machte. Auch in ihrem Projekt DÉTENUES beweist Rheims eine solche Einfühlsamkeit. Sie nähert sich ihren Modellen in erster Linie als Frauen, die ein Gesicht, einen Körper und Augen haben, die Geschichten erzählen. Erst in zweiter Linie zeigt Rheims inhaftierte Verbrecherinnen, in deren Vergangenheit ein Mord, ein Raub, Drogenmissbrauch oder eine andere Straftat stand. ...
Depressed demand and supply
(2019)
We investigate the implications of experienced-based learning on consumption-saving and labor supply, two fundamental decisions in business cycle models. Using the Dutch Household Survey, we find that individuals who have experienced higher national unemployment rates over their lifetime save more, borrow less, and work less, after controlling for aggregate shocks, income, wealth, and demographics. Possibly explaining these behavioral responses, these individuals find it more important to save for retirement and to cover unexpected expenses, are more worried about losing their job, and dislike their job more. These results have implications for business cycle models and stabilization policies.
In early July 2019, Christian Sewing, the CEO of Deutsche Bank, proclaimed a fundamental shift of the bank’s strategy after finally obtaining the approval of the Supervisory Board, which the management seems to have requested for quite some time. The essential point of the reorientation is a deep cut into the bank’s investment banking activities. At the same time, those parts of the bank’s activity portfolio that had been the mainstay of Deutsche Bank’s business 20 to 25 years ago, in particular lending to large and mid-sized German and European corporate clients, shall be strengthened in spite of a simultaneous reduction of the bank’s staff by 18,000 FTEs over the next three years.
The bank’s CEO, who has only been in office since about one year, was reported to have called this shift of strategy a “return to the roots of Deutsche Bank” at the press conference at which it was announced, without, however, making it clear to which roots he was referring: those of some 40 years ago, when Deutsche Bank was essentially a Germany-focused commercial bank, or even those from the late 19th century, when the bank had been founded with the mission to become an international bank with a strong capital market-orientation. In any event, the press was impressed and keeps repeating these words, that deserve to be taken seriously and irrespective of their vagueness may be justified. If it were successfully implemented, this change of strategy would indeed be fundamental and imply undoing what Deutsche Bank’s former management teams had aspired to do in the last 20 or 25 years.
The newly announced strategy shift raises two questions. Can it be successful, and what does it mean for the bank itself and its shareholders, for its staff and for its clients? And what does it imply for the German financial system? This note focuses on the latter question. What makes it interesting is the fact that the last fundamental change of Deutsche Bank’s strategy of two decades ago, which aimed at transforming Deutsche Bank from a Germany-centered commercial bank into a leading international investment bank, had a profound – and in my view clearly negative - effect on the entire German financial system.
Die Europäische Zentral Bank hat am 6. Juni 2019 beschlossen, die Nullzinspolitik bis Mitte 2020 beizubehalten, obwohl mit dieser das Inflationsziel von 2% seit Jahren, in Japan seit Jahrzehnten, verfehlt wird. Nach dem Neo-Fisher-Effekt sollte, gegeben dieses Ziel, der Zins nicht gesenkt, sondern gehoben werden, weil die Inflationsrate der Differenz von Nominal- und langfristig stabilem Realzins entspricht. Zwar senken rasche Zinserhöhungen Nachfrage und Preise, aber daraus folgt nicht notwendig, dass niedrige Zinsen die Nachfrage anregen. Gemäß neueren Untersuchungen werden langsam durchgeführte Zinserhöhungen bei rationalen Erwartungen dagegen das Preisniveau heben. Der Aufsatz untersucht die begleitenden Verteilungswirkungen und stützt die These mit Überlegungen aus dem 19. Jahrhundert, wonach die gestiegenen Preise durch die Erhöhung der Zinskosten erklärt werden können.
The financial crisis of 2007-08 has stressed the importance of a sound financial system. Unlike other studies weighing the pros and cons of market versus bank-based systems, this paper investigates whether the main elements of the German financial system can be regarded as complementary and consistent. This assessment refers to the idea that there is a potential for positive interaction between different elements in the system that is actually used to make it more valuable to economy and society and more robust to crises. It is shown that the old German bank-based system, where the risk of long-term lending by large private commercial banks was limited by the membership in supervisory boards and strong personal ties between all stakeholders, was a consistent system of well-adjusted complementary elements. After reunification, a hybrid system has emerged where, on the one hand, public savings banks and cooperative banks maintain their role as lenders, but on the other, large private banks have withdrawn from their former dominant role in financing and corporate governance. It is argued that this transition to stronger capital-market and, accordingly, shareholder value orientations has occurred at the expense of consistency.
This paper aspires to provide an overview of the issue of diversity of banking and financial systems and its development over time from a positive and a normative perspective. In other word: how different are banks within a given country and how much do banking systems and entire financial systems differ between countries and regions, and do in-country diversity and between-country diversity change over time, as one would be inclined to expect as a consequence of globalization and increasingly global standards of regulation?
As the first part of this paper shows, the general answer to these questions is that there is still today a surprisingly high level of diversity in finance. This raises the two questions addressed in the second part of the paper: How can the persistence of diversity be explained, and how can it be assessed? In contrast to prevailing views, the author argues that persistent diversity should be regarded as valuable in a context in which there is no clear answer to the question of which structures of banking and financial systems are optimal from an economic perspective
It has been documented that vertical customer-supplier links between industries are the basis for strong cross-sectional stock return predictability (Menzly and Ozbas (2010)). We show that robust predictability also arises from horizontal links between industries, i.e., from the fact that industries are competitors or offer products, which are substitutes for each other. These horizontally linked industries exhibit positively correlated fundamentals. The signal derived from this type of connectedness is the basis for significant alpha in sorted portfolio strategies, and informed investors take the related information into account when they form their portfolios. We thus provide evidence of return predictability based on a new type of economic links between industries not captured in previous studies.
In the course of the crisis, the European System of Central Banks (ESCB) has acted several times to support the EU Member States and banking systems in financial distress by purchasing debt instruments: Covered Bonds Programmes (CBP), Securities Market Programmes (SMP), Long Term Refinancing Operations (LTRO), and Targeted Long Term Refinancing Operations (TLTRO), followed by the Outright Monetary Transactions (OMT) and then the Extended Asset Purchase Programmes (EAPP) – colloquially labelled as Quantitative Easing (QE).
Initially, the support measures of the ESCB might have to be judged as monetary policy but the selectivity of OMT and – even more – SMP in conjunction with the transfer of risks to the ESCB speak against it.
Introduction: When developing bio-enabling formulations, innovative tools are required to understand and predict in vivo performance and may facilitate approval by regulatory authorities. EMEND® is an example of such a formulation, in which the active pharmaceutical ingredient, aprepitant, is nano-sized. The aims of this study were 1) to characterize the 80 mg and 125 mg EMEND® capsules in vitro using biorelevant tools, 2) to develop and parameterize a physiologically based pharmacokinetic (PBPK) model to simulate and better understand the in vivo performance of EMEND® capsules and 3) to assess which parameters primarily influence the in vivo performance of this formulation across the therapeutic dose range.
Methods: Solubility, dissolution and transfer experiments were performed in various biorelevant media simulating the fasted and fed state environment in the gastrointestinal tract. An in silico PBPK model for healthy volunteers was developed in the Simcyp Simulator, informed by the in vitro results and data available from the literature.
Results: In vitro experiments indicated a large effect of native surfactants on the solubility of aprepitant. Coupling the in vitro results with the PBPK model led to an appropriate simulation of aprepitant plasma concentrations after administration of 80 mg and 125 mg EMEND® capsules in both the fasted and fed states. Parameter Sensitivity Analysis (PSA) was conducted to investigate the effect of several parameters on the in vivo performance of EMEND®. While nano-sizing aprepitant improves its in vivo performance, intestinal solubility remains a barrier to its bioavailability and thus aprepitant should be classified as DCS IIb.
Conclusions: The present study underlines the importance of combining in vitro and in silico biopharmaceutical tools to understand and predict the absorption of this poorly soluble compound from an enabling formulation. The approach can be applied to other poorly soluble compounds to support rational formulation design and to facilitate regulatory assessment of the bio-performance of enabling formulations.
Ein Pianist in dunklem Jackett betritt die Bühne. Er nimmt Platz an einem offenen Flügel. Der schwarze Klavierlack glänzt im Scheinwerferlicht, sonst ist der große Konzertsaal dunkel. Das Publikum in der New Yorker Maverick Concert Hall verfällt in gespannte Stille, wie sie üblicherweise den ersten Klängen eines klassischen Konzertes vorausgeht. Der weißhaarige Mann am Flügel öffnet den Deckel, entblößt die Klaviatur, wie eine Reihe weißer Zähne durchschneiden sie im Licht der Scheinwerfer die Dunkelheit. Der Pianist richtet seine Notenblätter, seine Finger ruhen auf den Tasten und dann – wird 4 Minuten und 33 Sekunden nichts zu hören sein, bis auf das erwartungsvolle Räuspern und Rascheln des um sein Konzert betrogenen Publikums. Es ist der 29. August 1952: John Cage zwingt die Zuhörer durch eine Inszenierung der Stille über die etablierte Auffassung von Musik nachzudenken und legt mit 4’33 einen Grundstein der Neuen Musik. ...
Offensichtlich spielte das Urheberrecht im öffentlichen sowie privaten Sammlungswesen des 18. Jahrhunderts keine besondere Rolle. Davon zeugt das Titelblatt jenes Klebebandes, in dem 1923/25 rund 1250 druckgrafische Porträts aus dem Erbe der Frankfurter Patrizierfamilie von Holzhausen in den Besitz der damaligen Stadt- und heutigen Universitätsbibliothek Frankfurt kamen. Bei der physischen Untersuchung des Titelblattes wird deutlich, dass es sich um eine Art frühes ready-made handelt, bei dem zwei ältere Kupferstiche kombiniert und mit einer erläuternden Inschrift versehen wurden. ...
Wellness und Brutalismus – eine ungewöhnliche Kombination: Steht Ersteres doch für das Wohlbefinden, während Letzteres bei vielen Menschen das Gegenteil auslöst, und doch, das Kurbad Königstein lässt sich wohl am besten so beschreiben. Obwohl seine Wulstformen, sein Material sowie die ausladenden Terrassen typische Stilelemente des architektonischen Brutalismus sind, ist eines ungewöhnlich: Die grellen orange-blauen Komplementärfarben, in welchen der Betonbau bestrichen ist. ...
Ein Geigenbogen streicht im bedrohlichen Gleichmaß über eine Saite, synthetische Beats treiben pulsierend nebenher, dann setzt der leiernde Klang eines Theremins ein. Stöhnen, Flüstern, Rascheln. Noch bevor der Besucher Nathalie Djurbergs bizarren Fiebertraum aus Perversion und Lust, Märchen und Urangst, Verdrängtem und Begehrtem zu Gesicht bekommt, nimmt ihn die bedrückende Geräuschkulisse Hans Bergs gefangen. ...
Bei einem Gang durch die Ausstellung Victor Vasarely – Im Labyrinth der Moderne im Frankfurter Städel-Museum hört man neuerdings wieder ein Geschmacksurteil, von dem wohl viele geglaubt hatten, dass dieses überholt sei, wenn es um die Beurteilung von Kunstwerken der Moderne geht. Vega Pal, Reytey, Cheyt-Pyr, gänzlich abstrakt und bestechend polychrom, das Urteil: Schön. Vasarelys großformatige Öl- und Acrylwerke scheinen als unanstößige Dekorstücke das Wohlgefallen der Betrachter auf sich zu ziehen. Einfache, geometrische Formen verband der ungarische Künstler zu komplexen Kompositionen, dessen Form-Askese zumeist mit einem ekstatischen Einsatz von Farben einhergeht. ...
Using a novel regulatory dataset of fully identified derivatives transactions, this paper provides the first comprehensive analysis of the structure of the euro area interest rate swap (IRS) market after the start of the mandatory clearing obligation. Our dataset contains 1.7 million bilateral IRS transactions of banks and non-banks. Our key results are as follows:
1) The euro area IRS market is highly standardised and concentrated around the group of the G16 Dealers but also around a significant group of core “intermediaries"(and major CCPs).
2) Banks are active in all segments of the IRS euro market, whereas non-banks are often specialised.
3) When using relative net exposures as a proxy for the “flow of risk" in the IRS market, we find that risk absorption takes place in the core as well as the periphery of the network but in absolute terms the risk absorption is largely at the core.
4) Among the Basel III capital and liquidity ratios, the leverage ratio plays a key role in determining a bank's IRS trading activity.
We build a search-and-matching algorithm of network dynamics with decision-making under incomplete information, seeking to understand the determinants of the observed gradual downgrading of expert opinion on complicated issues and the decreasing trust in science. Even without fake news, combining the internet’s ease of forming networks with (a) individual biases, such as confirmation bias or assimilation bias, and (b) people’s tendency to align their actions with those of peers, produces populist and polarization network dynamics. Homophily leads to actions with more weight on biases and less weight on expert opinion, and such actions lead to more homophily.
Coccolith mass is an important parameter for estimating coccolithophore contribution to carbonate sedimentation, organic carbon ballasting and coccolithophore calcification. Single coccolith mass is often estimated based on the ks model, which assumes that length and thickness increase proportionally. To evaluate this assumption, this study compared coccolith length, thickness, and mass of seven Emiliania huxleyi strains and one Gephyrocapsa oceanica strain grown in 25, 34, and 44 salinity artificial seawater. While coccolith length increased with salinity in four E. huxleyi strains, thickness did not increase significantly with salinity in three of these strains. Only G. oceanica showed a consistent increase in length with salinity that was accompanied by an increase in thickness. Coccolith length and thickness was also not correlated in 14 of 24 individual experiments, and in the experiments in which there was a positive relationship r2 was low (<0.4). Because thickness did not increase with length in E. huxleyi, the increase in mass was less than expected from the ks model, and thus, mass can not be accurately estimated from coccolith length alone.
Die folgende Arbeit handelt von einem Human Computer Interaction Interface, welches es gestattet, mit Hilfe von Gesten zu schreiben. Das System ermöglicht seinen Nutzern, neue Gesten hinzuzufügen und zu verwenden. Da Gesten besser erkannt werden können, je genauer die Darstellung der Hände ist, wird diese durch Datenhandschuhe an den Computer übertragen. Die Hände werden einerseits in der Virtual Reality (VR) dargestellt, damit sie der Nutzer sieht. Andererseits werden die Daten, die die Gestenerkennung benötigt, an das Interface weitergeleitet. Die Erkennung der Gesten wird mit Hilfe eines Neuronales Netz (NN) implementiert. Dieses ist in der Lage, Gesten zu unterscheiden, sofern es genügend Trainingsdaten erhalten hat. Die genutzten Gesten sind entweder einhändig oder beidhändig auszuführen. Die Aussagen der Gesten beziehen sich in dieser Arbeit vor allem auf relationale Operatoren, die Beziehungen zwischen Objekten ausdrücken, wie beispielsweise „gleich“ oder „größer gleich“. Abschließend wird in dieser Arbeit ein System geschaffen, das es ermöglicht, mit Gesten Sätze auszudrücken. Dies betrifft das sogenannte gestische Schreiben nach Mehler, Lücking und Abrami 2014. Zu diesem Zweck befindet sich der Nutzer in einem virtuellen Raum mit Objekten, die er verknüpfen kann, wobei er Sätze in einem relationalen Kontext manifestiert.
115 mittelalterliche Handschriften werden in diesem Katalog präsentiert. Sie stammen aus Luzerner Kloster- und Privatbibliotheken, die über Jahrhunderte gewachsen sind, und reichen von Fragmenten aus dem 8. Jahrhundert bis zu Diebold Schillings 1513 fertiggestellter Schweizer Chronik. Enthalten sind theologische, liturgische, kirchenrechtliche und -geschichtliche, historische, literarische, rhetorische, medizinische und juristische Texte aus dem Franziskanerkloster St. Maria in der Au Luzern und den kleinen Provenienzen in der Zentral- und Hochschulbibliothek Luzern sowie dem Staatsarchiv Luzern, dem Provinzarchiv der Schweizer Kapuziner Luzern und den Kapuzinerbibliotheken Luzern und Sursee. Der Katalog beschreibt im Detail Inhalt, materielle Beschaffenheit, Entstehung und Geschichte der Handschriften. Erschlossen sind die Inhalte durch Register der Verfasser, Namen, Orte und Sachen sowie durch zwei Initienregister. Eine ausführliche bibliotheksgeschichtliche Einleitung stellt die beschriebenen Handschriften in den Kontext der Luzerner Kultur- und Geistesgeschichte.
Für Nietzsche sind die metaphysischen Orientierungspunkte des menschlichen Selbstbewusstseins unter Generalverdacht geraten, ebenso wie die für ewig gehaltenen Werte, aus denen der Mensch den Glauben an seine Würde bezog. Angesichts der Unwürdigkeit des Menschen erhebt die Selbstverkleinerung der Moderne die Scham zum bestimmenden Grundgefühl, und das schambestimmte Bewusstsein richtet sich letztlich gegen die Moral selbst. Der damit angezeigte Immoralismus wagt einen freien Blick auf die Selbstherabsetzung des modernen Menschen und einen tapferen Ausblick auf einen möglichen Gegenentwurf zur modernen Selbstverkleinerung. Das Verhältnis des Menschen zu sich selbst neu zu bestimmen, diesen Versuch unternimmt Nietzsche anhand der Frage nach der Vornehmheit. Der Vornehme ist ohne jene Scham vor dem Menschen, zeichnet sich zugleich aber durch einen 'Instinkt der Ehrfurcht' und Ehrfurcht vor sich aus.
Der Band bietet erstmalig eine umfassende Analyse der Schlüsselbegriffe Scham und Würde bei Nietzsche. So schließt er zugleich an gegenwärtige ethische Debatten an.
Sprache und Schrift steuern Handlungen und Wahrnehmungen von Adressaten. Dabei praktizieren Texte eine Führungsmodalität, die sich im Spannungsfeld von Vorschreiben und Offenlassen bewegt. Gegenstand der Publikation sind vier Theaterstücke ohne Figurenreden von John von Düffel, Peter Handke und Franz Xaver Kroetz. Im Textraum der Regiebemerkungen reflektieren die Autoren die entmaterialisierenden Wirkungen in Bezug auf die Transformation des literarischen Textes ins Aufführungsmedium. Sie machen auf den Status des Schriftlichen im Umfeld von Regietheater und beginnendem digitalen Zeitalter aufmerksam.
Allesamt in der zweiten Hälfte des 20.Jahrhunderts entstanden, transportieren die Dramentexte ein verändertes Verständnis von Führung und 'Leadership'. Dieses verabschiedet sich von hierarchisch strukturierten Organisationsprinzipien sowie determinierenden Planbarkeits- und Kontrollvorstellungen.
During my PhD, I was applying the clumped isotope technique to modern brachiopods and fossil belemnites, and I conducted methodological work. Carbonate clumped isotope thermometry is a tool to reconstruct carbonate precipitation temperatures. In contrast to oxygen isotope thermometry, i.e., the δ18O-thermometer, the carbonate clumped isotope thermometer does not require an estimate for the oxygen isotope composition of the seawater, as it considers the fractionation of isotopes exclusively amongst carbonate isotopologues. The ∆47 value of a carbonate expresses the abundance of the 13C–18O bond bearing carbonate isotopologue, within the carbonate, relative to its random distribution. In thermodynamic equilibrium, the ∆47 value of a given carbonate is solely a function of the carbonate precipitation temperature. However, kinetic isotope fractionations, i.e., vital effects, driven by diffusion, pH or incomplete oxygen isotope exchange between water and dissolved inorganic carbonate species can cause the carbonate to be precipitated with isotopic compositions that are offset from those predicted for thermodynamic equilibrium.
Brachiopods serve as important geochemical archives of past climate conditions. To investigate the nature and significance of kinetic controls on brachiopod shell δ18O and ∆47 values, in collaboration with the BASE-LiNE Earth ITN, I analysed the bulk and clumped isotope compositions of eighteen modern brachiopod shells, collected from different geographic locations and water depths that cover a substantial range of growth temperatures. Growth temperatures and seawater δ18O values for each brachiopod were independently determined. Most of the analysed brachiopods exhibit combined offsets from clumped and oxygen isotope equilibrium, and there is a significant negative correlation between the offset values. The observed correlation slope between offset ∆47 and offset δ18O point to the importance of kinetic effects associated with Knudsen diffusion and incomplete hydration and hydroxylation of CO2 (aq), occurring during biomineralisation. The correlations between the growth rates of the analysed brachiopods and both the offset ∆47 and the offset δ18O values provide further arguments for the presence of kinetic effects. In conclusion, the oxygen and clumped isotope composition of modern brachiopod shells are affected by growth rate-induced kinetic effects that hinder their use for palaeoceanography.
Forschen und Kuratieren sind Kerntätigkeitsbereiche von KunsthistorikerInnen. Genau das tun gerade junge NachwuchswissenschaftlerInnen am Kunstgeschichtlichen Institut der Goethe-Universität. In dem auf zwei Jahre angelegten Forschungs- und Ausstellungsprojekt "Die Porträtsammlung der Frankfurter Patrizierfamilie Holzhausen aus kunst- und kulturhistorischer Sicht" haben Masterstudierende der Kunstgeschichte und des Masterstudiengangs Curatorial Studies die Gelegenheit, am Puls der Forschung mitzuarbeiten. Unter der Leitung von Prof. Dr. Jochen Sander erlernen sie in einer Serie von drei Hauptseminaren, worauf es in der wissenschaftlichen Praxis und beim Ausstellungsmachen ankommt. ...
Kleine Details und feine Unterschiede machen, wie wir alle wissen, bisweilen handfeste Gegensätze. Großflächige Konflikte entfachen sich an zunächst nebensächlichen Ereignissen und Umständen. Gerade in religiösen Fragen spielen häufig vermeintliche Nebensächlichkeiten eine zentrale Rolle oder werden zur Grundlage jahrhundertelanger Diskussionen und heftiger Auseinandersetzungen; verschiedenartigste Glaubensströmungen und dogmatische Lehren entwachsen ihnen.
Background: Many women suffer from anemia during their pregnancy. Austria, a central European country, has an instituted mandatory prenatal care system and therein two anemia screening tests (before end of week 16 and in weeks 25-28) are scheduled. Epidemiological data on the prevalence of anemia in pregnant women in Austria are missing.
Methods: We analysed data from Styria, an Austrian federal state, to determine the prevalence of anemia diagnosed in pregnant women aged 15-45 years with at least one examination in the first and second time period using the cut-off hemoglobin (Hb) concentration of 11 g/dl as recommended by the World Health Organisation (WHO). Sensitivity analyses for cut-off values with 10.5 and 7 g/dl (severe anemia) were performed. The STROBE checklist was applied for this retrospective cohort study.
Results: The study included anemia screening tests from 25,922 women during 31,429 pregnancies from 2006-2014. Anemia was diagnosed in either time period in 13.7% (95% confidence interval (CI) 13.4-14.1) of pregnancies, in the first time period in 2.2% (95% CI 2.0-2.2), and in the second time period in 13.0% (95% CI 12.6-13.4). The annual age-adjusted anemia prevalence showed no change over time. Reducing the cut-off value to 10.5 g/dl resulted in an anemia prevalence in either time period of 5.6% (95% CI 5.3-5.8). The pattern of a higher prevalence in the second time period remained unchanged. Severe anemia (Hb <7 g/dl) was diagnosed in four pregnancies (0.01%).
Conclusion: The estimated anemia prevalence of around 14% in pregnant women in Styria (Austria) is stable over the observed time window (2006-2014) and almost all are diagnosed in the second test period (in weeks 25-28). It seems that in a developed country like Austria the first examination (before week 16) is not mandatory for pregnancy care. However, in other countries where a high prevalence of anemia is common due to risk factors such as malaria and HIV, early screening in pregnancy might be very important.
Programmable hardware in the form of FPGAs found its place in various high energy physics experiments over the past few decades. These devices provide highly parallel and fully configurable data transport, data formatting, and data processing capabilities with custom interfaces, even in rigid or constrained environments. Additionally, FPGA functionalities and the number of their logic resources have grown exponentially in the last few years, making FPGAs more and more suitable for complex data processing tasks. ALICE is one of the four main experiments at the LHC and specialized in the study of heavy-ion collisions. The readout chain of the ALICE detectors makes use of FPGAs at various places. The Read-Out Receiver Cards (RORCs) are one example of FPGA-based readout hardware, building the interface between the custom detector electronics and the commercial server nodes in the data processing clusters of the Data Acquisition (DAQ) system as well as the High Level Trigger (HLT). These boards are implemented as server plug-in cards with serial optical links towards the detectors. Experimental data is received via more than 500 optical links, already partly pre-processed in the FPGAs, and pushed towards the host machines. Computer clusters consisting of a few hundred nodes collect, aggregate, compress, reconstruct, and prepare the experimental data for permanent storage and later analysis. With the end of the first LHC run period in 2012 and the start of Run 2 in 2015, the DAQ and HLT systems were renewed and several detector components were upgraded for higher data rates and event rates. Increased detector link rates and obsolete host interfaces rendered it impossible to reuse the previous RORCs in Run 2.
This thesis describes the development, integration, and maintenance of the next generation of RORCs for ALICE in Run 2. A custom hardware platform, initially developed as a joint effort between the ALICE DAQ and HLT groups in the course of this work, found its place in the Run 2 readout systems of the ALICE and ATLAS experiments. The hardware fulfills all experiment requirements, matches its target performance, and has been running stable in the production systems since the start of Run 2. Firmware and software developments for the hardware evaluation, the design of the board, the mass production hardware tests, as well as the operation of the final board in the HLT, were carried out as part of this work. 74 boards were integrated into the HLT hardware and software infrastructure, with various firmware and software developments, to provide the main experimental data input and output interface of the HLT for Run 2. The hardware cluster finder, an FPGA-based data pre-processing core from the previous generation of RORCs, was ported to the new hardware. It has been improved and extended to meet the experimental requirements throughout Run 2. The throughput of this firmware component could be doubled and the algorithm extended, providing an improved noise rejection and an increased overall mean data compression ratio compared to its previous implementation. The hardware cluster finder forms a crucial component in the HLT data reconstruction and compression scheme with a processing performance of one board equivalent to around ten server nodes for comparable processing steps in software.
The work on the firmware development, especially on the hardware cluster finder, once more demonstrated that developing and maintaining data processing algorithms with the common low-level hardware description methods is tedious and time-consuming. Therefore, a high-level synthesis (HLS) hardware description method applying dataflow computing at an algorithmic level to FPGAs was evaluated in this context. The hardware cluster finder served as an example of a typical data processing algorithm in a high energy physics readout application. The existing and highly optimized low-level implementation provided a reference for comparisons in terms of throughput and resource usage. The cluster finder algorithm could be implemented in the dataflow description with comparably little effort, providing fast development cycles, compact code and at, the same time, simplified extension and maintenance options. The performance results in terms of throughput and resource usage are comparable to the manual implementation. The dataflow environment proved to be highly valuable for design space explorations. An integration of the dataflow description into the HLT firmware and software infrastructure could be demonstrated as a proof of concept. A high-level hardware description could ease both the design space exploration, the initial development, the maintenance, and the extension of hardware algorithms for high energy physics readout applications.
HADES (High Acceptance DiElectron Spectrometer), located at GSI, is a versatile detector for precise spectroscopy of e+ e- pairs and charged hadrons produced on a fixed target in a 1 to 3.5 AGeV kinetic beam energy region. The main experimental goal is to investigate properties of dense nuclear matter created in heavy ion collisions and learn about in-medium hadron properties.
In the HADES set-up 24 Mini Drift Chambers (MDC) allow for track reconstruction and determining the particle momentum by exploiting charged particle deflection in a magnetic field. In addition, the drift chambers contribute to particle identification by measuring the energy loss. The read-out concept foresees each sensing wire to be equipped with a preamplifier, analog pulse shaper and discriminator. In the current front-end electronics, the ASD-8 ASIC comprises the above modules. Due to limitations of the current on-board time to digital converters (TDC), especially regarding higher reaction rates expected at the future FAIR facility (HADES at SIS-100), the electronics need to be replaced by new board featuring multi-hit TDCs. Whereas ASD-8 chips cannot be procured anymore, a promising replacement candidate is the PASTTREC ASIC, developed by JU Krakow, which was tested w.r.t. suitability for MDC read-out in a variety of set-ups and, where possible, in direct comparison to ASD-8.
The timing precision, being the most crucial performance parameter of the joint system of detector and read-out electronics, was assessed in two different set-ups, i.e. a cosmic muon tracking set-up and a beam test at the COSY accelerator at Juelich using a minimum ionizing proton beam.
The beam test results were reproduced and can thus be quantitatively explained in a three dimensional GARFIELD simulation of a HADES MDC drift cell. In particular, the simulation is able to describe the characteristic dependence of the time precision on the track position within the cell.
A circuit simulation (SPICE) was used to closely model the time development of a raw drift chamber pulse, measured as a response to X-rays from a 55 Fe source. The insights gained from this model were used for attributing realistic charge values to the time over threshold values measured with the read-out ASICs in a charge calibration set-up. Furthermore, a high-level circuit simulation of the PASTTREC shaper is implemented to serve as a demonstration of the effect of the individual shaping and tail cancellation stages which are present in both ASICs.
Variation in enclitic possessive constructions in Southern Italian dialects: a syntactic analysis
(2019)
This thesis investigates enclitic possessive constructions (EPCs) that are a widespread and frequently used construction among Southern Italian dialects (SIDs). In general, EPCs display the structure N-EP where the N is a (singular) kinship noun and the EP the enclitic possessive directly attached to the kinship noun. However, there is a huge variation among SIDs as well as within the system of a specific dialect. The aim of the present work is twofold. The empirical part contributes new data to this topic as well as a detailed and organized overview of (micro-) variational observations from data of different sources including for example the linguistic maps of the AIS (Atlante Italo-Svizzero). The main aspects of variation are (a) the presence or absence of an obligatory article (D – N-EP vs. N-EP), (b) the possibility of plural kinship noun-EPCs and (c) the compatibility of a specific person-EP with a specific kinship noun within a dialect. Based on the empirical findings, the syntactic part proposes a syntactic analysis for EPCs focusing on the following research questions: 1) In some dialects, singular kinship noun-EPCs display an obligatory article with the 3SG.EP. What is the reason for this article-based person split (1st and 2nd vs. 3rd)? And further, how are both structures, with and without an article, represented in the syntax, i.e. in DP and PossP? 2) In some dialects, plural kinship nouns are allowed to occur in EPCs, and in others, they are disallowed. With respect to this dichotomy, what is the role of NumP? 3) Kinship nouns are relational and express inalienability. How can this property be captured in the syntax? I argue that the article-based person split is due to the deictic properties of the possessor-persons, meaning that 1SG.EPs and 2SG.EPs need to be bound by the speaker’s coordinates in the left periphery of the clause, whereas 3SG.EPs do not. As a consequence, 1SG and 2SG EPCs move to the highest position, i.e. to D°, and 3SG EPCs can stay lower in the structure, i.e. in Poss°. Based on this dichotomy, I argue that both D° and Poss° can host EPCs. In order to capture the (im)possibility of plural kinship nouns-EPCs, I argue that NumP, as a parametrised position, can block or allow further movement of the kinship noun to Poss° (and to D°). With respect to the relational nature of kinship nouns I propose that they are base-generated within the complement position of a relator phrase (RP), and EPs in Poss°. In order to derive EPCs, the kinship nouns must move out of their position. The kinship noun lands in NumP, the position where further movement is probably blocked. If further movement is allowed, the kinship noun merges to the left of the EP, resulting in a complete EPC in Poss°. The last leg of the movement to D° depends on the presence of absence of an obligatory article. The phenomenon of EPCs displays a huge variation among SIDs and needs to be investigated from different perspectives and different linguistic areas. The present work contributes to the puzzle of EPCs new data and a syntactic analysis.
Vor der Bundestagswahl 2017 zeichnete der Bonner Politikwissenschaftler Frank Decker das Bild einer dramatischen Ausgangslage:
"Eine neue Ära der Unsicherheit und Instabilität scheint in Europa und der westlichen Welt angebrochen zu sein, die bisherige Gewissheiten in Frage stellt. Dass rechtspopulistische Parteien in Kernländern der Europäischen Union wie Frankreich oder Österreich in die Nähe der Mehrheitsfähigkeit gelangen könnten, hätte vor zwei oder drei Jahren kaum jemand für möglich gehalten – ebenso wenig wie einen Sieg des 'Nichtpolitikers' Donald Trump bei der US-amerikanischen Präsidentschaftswahl oder den von populistischen EU-Gegnern befeuerten 'Brexit' in Großbritannien."
Im Ergebnis der Bundestagswahl 2017 zogen sieben Parteien in den derzeitigen 19. Deutschen Bundestag ein. Lediglich nach seiner ersten Wahl 1949 waren mehr Parteien in den Bundestag eingezogen. Die 1962 von Ossip Kurt Flechtheim formulierte These, beim Rückgang der Parteien habe man es "nicht mit einem Intermezzo, sondern mit einem irreversiblen Trend zu tun", dürfte damit als widerlegt gelten.
Diese Anzahl an Parteien beschwor sogleich eine Angst vor "Weimar"; so waren bei der Reichstagswahl am 6. November 1932, der letzten vor der Ernennung Adolf Hitlers zum Reichskanzler, 13 Parteien in das deutsche Parlament eingezogen.
Horst Möller, der frühere Direktor des Münchener Instituts für Zeitgeschichte, sah sich angesichts der Umfragen im Vorfeld der Wahl 2017 in einem Beitrag für die Frankfurter Allgemeine zu der Frage veranlasst: "Ist Berlin schon deshalb in Gefahr, Weimar zu werden, nur weil die Zahl der im Bundestag vertretenen Parteien steigt?"
Michael Stürmer, der 1986 im "Historikerstreit" als Gegenpol zu Jürgen Habermas für eine heute erneut in der Diskussion stehende positive Besetzung der Begriffe "Patriotismus" und "Nation" geworben hatte, nahm sein Urteil zu der Frage im an Fritz René Allemann angelehnten Titel seines Beitrags "Bonn war nicht Weimar – und Berlin ist es auch nicht" vorweg. So hielt Ernst Forsthoff bereits 1950 fest, dass "das Grundgesetz wirksame Vorkehrungen getroffen hat, um verfassungsfeindliche Parteien zu unterdrücken und von der Wahlbewerbung fernzuhalten".
Als eine "Lehre aus den Weimarer Verhältnissen" gilt dennoch die explizite Sperrklausel von fünf Prozent der Gesamtstimmenzahl zur Begrenzung der Parteienanzahl, die zur Bundestagswahl 1949 bezogen auf die einzelnen Bundesländer eingeführt und 1953 auf das Bundesgebiet ausgeweitet worden war. 1956 wurde zusätzlich die Zahl der Grundmandate, die es einer Partei ermöglichen, unabhängig von der Sperrklausel in das Parlament einzuziehen, von einem auf drei erhöht.
Der hohe Stellenwert der "Sicherstellung eines 'gut geordneten' arbeitsfähigen Parlaments" wird daran deutlich, dass bei der Bundestagswahl 2017 die Nichtberücksichtigung von 2,3 Millionen Wählerstimmen, die auf nicht in den Bundestag eingezogenen "seltsamen Politikphantasten" entfielen, in Kauf genommen wurde.
In Diskrepanz hierzu stehen die Urteile des Bundesverfassungsgerichts (BVerfG), welches im November 2011 eine Fünfprozent- und im Februar 2014 eine Dreiprozenthürde für die Europawahlen als verfassungswidrig verwarf.
Auch bei Kommunalwahlen gelten solche Regelungen "heute nach der Rechtsprechung des BVerfG als unzulässig", wie zuletzt im November 2017 für Nordrhein-Westfalen bestätigt wurde.
Angesichts der Diskrepanz in der Behandlung der Kleinparteien und ausgehend von der These Ossip Kurt Flechtheims, "auch eine kleinere Partei kann das politische Leben bereichern und anregen", und beflügelt von der Voraussicht Uwe Kranenpohls und Oskar Niedermayers, dass "Klein- und Kleinstparteien in Zukunft an Bedeutung gewinnen", fragt diese Arbeit nach den Möglichkeiten und dem Willen der Kleinparteien, das Politikgeschehen zu beeinflussen, was an der Stadtverordnetenversammlung (StVV) der Stadt Frankfurt am Main untersucht wird.
Nach einer Skizze der Forschungslage wird zunächst der Untersuchungsgegenstand inhaltlich und terminologisch verortet, um eindeutig festzulegen, welchen Bereich der Parteienforschung diese Arbeit betrachtet.
Hierzu werden die untersuchten Parteien sowie die im weiteren Verlauf betrachteten als auch nicht betrachteten Forschungsaspekte genannt und aufgezeigt, wie der Parteibegriff juristisch als auch politikwissenschaftlich verstanden wird, um daraus eine Nominaldefinition für diese Arbeit abzuleiten. Anschließend werden die in der Forschung unterschiedlichen Begrifflichkeiten für kleine Parteien rezipiert und der für die Zwecke dieser Arbeit geeignete Begriff herausgearbeitet. Solche Begriffsdefinitionen sind für die sozialwissenschaftliche Forschung unerlässlich: "Sie ermöglichen die Kommunikation über Gegenstände und dienen der Klassifikation." Es folgt eine Darstellung einiger Konzepte von Parteitypologien, die auf ihre Anwendbarkeit bezüglich des Untersuchungsgegenstandes diskutiert werden.
Anschließend werden Ansätze zur Aufgabe von Parteien, Oppositionsparteien und Kleinparteien rezipiert. Ziel dieses Abschnittes der Arbeit ist es, herauszustellen, inwieweit Kleinparteien auf den Politikbetrieb Einfluss nehmen können und Forschungshypothesen für die Rolle der betrachteten Kleinparteien zu formulieren.
Im weiteren Abschnitt der Arbeit werden die betrachteten Kleinparteien knapp vorgestellt, um dem Leser eine kurze Übersicht zu geben, ohne eine vertiefende inhaltliche Analyse der Parteiprogramme anzustreben.
Im Analyseabschnitt der Arbeit werden zunächst die institutionellen Rahmenbedingungen analytisch-deskriptiv betrachtet. Dies ist notwendig, da diese rechtlichen Bedingungen die Eckpfeiler der Arbeit der Parteien vorgeben. Dem schließt eine empirische-quantitative Auswertung von Sitzungen der StVV an, in der die Arbeit der Parteien analysiert wird, sowie eine Auswertung der Wahlergebnisse der auf den betrachteten Untersuchungszeitraum folgenden Stadtverordnetenwahl, um Veränderungen der Wählerstimmen auswerten zu können.
Der Untersuchungsteil wird mit einer Auswertung der Ergebnisse und einem Versuch, die betrachteten Parteien einer Typologie zuzuordnen, abgeschlossen. Eine Verallgemeinerung der Beobachtungen mittels Inferenzstatistik wird nicht angestrebt. Daher soll auch keine allgemein gültige Aussage am Ende dieser Arbeit stehen, sondern durch Falsifikation oder Verifikation der Forschungshypothesen die Beantwortung der genau umrissenen Forschungsfrage: Haben die in der Frankfurter StVV vertretenen U-Fünf-Prozent-Parteien Einfluss auf die politische Willensbildung der Stadt?
Background: Persistent antiphospholipid antibodies (aPL) constitute the serological hallmark of the antiphospholipid syndrome (APS). Recently, various new assay technologies for the detection of aPL better suited to multiplex reaction environments than ELISAs emerged. We evaluated the diagnostic performance of such a novel line immunoassay (LIA) for the simultaneous detection of 10 different aPL.
Methods: Fifty-three APS patients and 34 healthy controls were investigated for criteria (antibodies against cardiolipin [aCL], β2-glycoprotein I [aβ2-GPI]) and non-criteria aPL (antibodies against phosphatidic acid [aPA], phosphatidyl-choline [aPC], -ethanolamine [aPE], -glycerol [aPG], -inositol [aPI], -serine [aPS], annexin V [aAnnV], prothrombin [aPT]) IgG and IgM by LIA. Criteria aPL were additionally determined with the established Alegria (ALE), AcuStar (ACU), UniCap (UNI), and AESKULISA (AES) systems and non-criteria aPL with the AES system. Diagnostic performance was evaluated with a gold standard for criteria aPL derived from the results of the four established assays via latent class analysis and with the clinical diagnosis as gold standard for non-criteria aPL.
Results: Assay performance of the LIA for criteria aPL was comparable to that of ALE, ACU, UNI, and AES. For non-criteria aPL, sensitivities of the LIA for aPA-, aPI-, aPS-IgG and aPA-IgM were significantly higher and for aPC-, aPE-, aAnnV-IgG and aPC- and aPE-IgM significantly lower than AES. Specificities did not differ significantly.
Conclusions: The LIA constitutes a valuable diagnostic tool for aPL profiling. It offers increased sensitivity for the detection of aPL against anionic phospholipids. In contrast, ELISAs exhibit strengths for the sensitive detection of aPL against neutral phospholipids.
Background: Downy mildews are the most speciose group of oomycetes and affect crops of great economic importance. So far, there is only a single deeply-sequenced downy mildew genome available, from Hyaloperonospora arabidopsidis. Further genomic resources for downy mildews are required to study their evolution, including pathogenicity effector proteins, such as RxLR effectors. Plasmopara halstedii is a devastating pathogen of sunflower and a potential pathosystem model to study downy mildews, as several Avr-genes and R-genes have been predicted and unlike Arabidopsis downy mildew, large quantities of almost contamination-free material can be obtained easily.
Results: Here a high-quality draft genome of Plasmopara halstedii is reported and analysed with respect to various aspects, including genome organisation, secondary metabolism, effector proteins and comparative genomics with other sequenced oomycetes. Interestingly, the present analyses revealed further variation of the RxLR motif, suggesting an important role of the conservation of the dEER-motif. Orthology analyses revealed the conservation of 28 RxLR-like core effectors among Phytophthora species. Only six putative RxLR-like effectors were shared by the two sequenced downy mildews, highlighting the fast and largely independent evolution of two of the three major downy mildew lineages. This is seemingly supported by phylogenomic results, in which downy mildews did not appear to be monophyletic.
Conclusions: The genome resource will be useful for developing markers for monitoring the pathogen population and might provide the basis for new approaches to fight Phytophthora and downy mildew pathogens by targeting core pathogenicity effectors.
In der vorliegenden Arbeit wurde ein neuer optischer Aufbau für das Laserlabor der Abteilung Kristallographie im FB 11 an der Goethe-Universität Frankfurt beschrieben. Mit Hilfe dieses Aufbaus konnten verschiedene spektroskopische Methoden genutzt werden, um die - von Druck und Temperatur abhängige - Phasenstabilität von Calcium- und Eisencarbonaten zu untersuchen. Mit Hilfe von Raman-Spektroskopie konnte das Phasendiagramm von Calciumcarbonat (CaCO3) teilweise neu bestimmt werden. Fluoreszenzuntersuchungen an dotierten CaCO3 Proben ergaben, dass sich Europium-dotierter Calcit zunächst in eine amorphe Form umwandelt, bevor er bei ca. 15 GPa in eine amorphe 'aragonitische' Form umgewandelt wird. Die Umwandlung ist nicht reversibel. Laserheizexperimente bei 18.5 GPa an dotiertem Siderit (FeCO3) führten zur Bildung eines neuen Hochdruck-Hochtemperatur FeCO3 -Polymorphs. Die Strukturlösung erfolgte mit Hilfe von Röntgendaten, die am Deutschen Elektronen-Synchrotron (DESY) in Hamburg gewonnen wurden. Schließlich wurde eine neue Methode zur Bestimmung von Temperaturen in Laserheizexperimenten beschrieben. Sie beruht auf der Abschwächung eines Fluoreszenzsignals durch die Temperatur, welche durch die Wechselwirkung eines Heizlasers mit der Probe erzeugt wird.
Das Wissen über die Wolkenmikrophysik und die Wechselwirkung zwischen Niederschlag und Aerosol ist ein wichtiger Baustein zur Optimierung von Klima- und Wettermodellen. Ein Großteil des Niederschlags in den mittleren Breiten fällt aus Mischphasenwolken, die aus unterkühlten Tröpfchen und Eispartikeln bestehen. Die Eispartikel bilden sich an speziellen Aerosolpartikeln, die als Eiskeime (INP) wirken können. Die Wahrscheinlichkeit eines Aerosols als Eiskeim zu wirken, nimmt mit abnehmender Temperatur und steigender Wassersättigung zu. Mineralstaubpartikel sind die häufigsten Eiskeime, die ab Temperaturen ≤−15°C aktiv sind, biologische Partikel wirken schon bei wärmeren Bedingungen. Große Wissenslücken bestehen noch bei der globalen Konzentration von Eiskeimen, inklusive deren geographischer und jahreszeitlicher Variabilität.
Im Zentrum der Experimente, die für diese Arbeit durchgeführt wurden, steht der Eiskeimzähler FRIDGE (Frankfurt Ice Deposition Freezing Experiment). Je nach Aufbau und Anwendung des Instruments werden zwei verschiedene Ansätze zur Aktivierung von Eiskeimen verfolgt. Die ursprüngliche und namensgebende Methode in Form einer Vakuum-Diffusionskammer wurde zur Untersuchung von Eisnukleation via Depositionsgefrieren (an INP_D) entwickelt (Klein et al., 2010). Danielczok (2015) nutzte einige Bestandteile des Analysegeräts, um auch Immersionsgefrieren (an INP_I) in Form von Tröpfchengefrieren à la Vali (1971) zu studieren. In der vorliegenden Arbeit wurde diese Anwendungsmöglichkeit von FRIDGE weiterentwickelt. Ein zentraler Schritt war dabei die präzise Charakterisierung des Gefrierverhaltens von Tröpfchen aus Reinstwasser ohne zusätzliches Aerosol. Die Einbeziehung dieses sogenannten Hintergrundgefrierens, das für jedes Instrument und Messverfahren spezifisch ist, ermöglichte es, die Minimaltemperatur, für die zuverlässige Ergebnisse produziert werden können, von −22°C auf −29°C herabzusetzen. Der dadurch hinzugewonnene Temperaturbereich ist für Eisnukleation in Mischphasenwolken äußerst relevant.
Beide Anwendungsmethoden wurden im Rahmen des Fifth International Workshop on Ice Nucleation – Phase 2 (FIN-02) sowie bei einer weiteren Kampagne zur Messung von Eisnukleation an Cellulosepartikeln mit über zwanzig anderen Eiskeimzählern verglichen. Mit FRIDGE als Diffusionskammer wurde für die Mehrheit der untersuchten Aerosoltypen eine zufriedenstellende Übereinstimmung mit den anderen Instrumenten beobachtet. Die Experimente mit gefrierenden Tröpfchen in FRIDGE erzielten ausnahmslos Ergebnisse, die inmitten der Werte der anderen Instrumente lagen. Die erfolgreiche Validierung – besonders der neuen Anwendungsmethode – war das erste Ziel dieser Arbeit und die notwendige Voraussetzung für die anschließenden Feldmessungen.
Atmosphärische Eiskeimkonzentrationen wurden in mehrwöchigen Feldmesskampagnen an drei sehr unterschiedlichen Orten und atmosphärischen Bedingungen untersucht: an der Hochalpinen Forschungsstation Jungfraujoch (JFJ), am Storm Peak Laboratory (SPL) in den Rocky Mountains und am Cyprus Atmospheric Observatory (CAO) in Zypern. Am JFJ wurde eine INP-Konzentration beobachtet, die um den Faktor 20 niedriger als an den anderen beiden Stationen war. Der Grund dafür war, dass sich das Jungfraujoch die meiste Zeit der Messungen in der freien Troposphäre befand. Dementsprechend waren die Bedingungen an der Station von aerosolpartikelarmer Luft mit wenigen Eiskeimen geprägt. An zwei Standorten wurde Mineralstaub als ein Parameter, der die lokale INP-Konzentration positiv beeinflusst, identifiziert. Sowohl am JFJ als auch am CAO erhöhte ferntransportierter Saharastaub die INP-Konzentration.
Die Kombination der zwei Analysemethoden, die Aerosolproben aus derselben Luft entweder in trockenem Ausgangszustand oder in Tröpfchen suspendiert untersuchen, offenbarte eine interessante Eigenschaft der INP. Es herrschte eine offensichtliche Parallelität von INP_D- und INP_I- Konzentrationen. Bei fast allen Messungen waren INP_I etwa 10-mal häufiger als INP_D. Die Aussage trifft gleichermaßen auf sehr niedrige Konzentrationen am JFJ wie auch auf hohe Konzentrationen am SPL und CAO zu. Die einzige Ausnahme bilden Cellulosepartikel. Daraus lässt sich schließen, dass INP_D und INP_I dieselben Partikel sind, die je nach Aktivierungskonditionen Eisnukleation unterschiedlich effektiv hervorrufen.
Der Protestantismus ist die Konfession des Wortes, Bilder bzw. bildliche Darstellungen als Visualisierungen von Glaubensinhalten haben deshalb per definitionem weder im Calvinismus noch im Luthertum Bedeutung. Mit dieser vereinfachten Charakterisierung, die sich im Fachpublikum ebenso wie unter interessierten Laien lange gehalten hat, setzt sich das Buch von Bridget Heal, Reformationshistorikerin an der Universität St. Andrews, in einer beeindruckenden Analyse der Entwicklungen für das Luthertum auseinander. ...
It is a rare and wonderful thing when a book of 383 pages leaves a reader wanting to read more, much more in fact. That is certainly the case with this intriguing collection of thirteen assorted essays on the Rhine economy from 1815 to the present, organized in six broad topical sections: origins, enterprises, sectors and clusters, infrastructures, transport, and environment. ...
Exploiting heterogeneity in U.S. firms' exposure to an unconventional monetary policy shock that reduced debt financing costs, I identify the impact of financing conditions on firms' toxic emissions. I find robust evidence that lower financing costs reduce toxic emissions and boost investments in emission reduction activities, especially capital-intensive pollution control activities. The effect is stronger for firms in noncompliance with environmental regulation. Examining the ability of regaining regulatory compliance by implementing pollution control activities I find that only capital-intensive activities help firms regaining compliance. These findings underscore the impact of firms' financing conditions for emissions and the environment.
"Nicht nur Geschichte, auch Geschichtsschreibung wird gemacht", stellte Carola Sachse 2014 in einem Literaturbericht fest, in dem sie die zeithistorische Menschenrechtsforschung der letzten Jahrzehnte kritisch durchleuchtete und eine große Leerstelle konstatierte. Über Frauenrechte, Menschenrechtsaktivistinnen oder Geschlechterverhältnisse fand sich wenig in diesen Studien. Angesprochen auf diese Lücke meinte ein prominenter Experte lapidar: "Man kann nicht alles machen" – eine Antwort, die Sachse mitnichten zufriedenstellte. Dass sie daraufhin mit Roman Birke den vorliegenden Sammelband zu Menschenrechten und Geschlecht konzipierte, ist vor diesem Hintergrund nur folgerichtig. Und die Ergebnisse geben ihr recht: Die Vielgestaltigkeit der Beiträge bestätigt zwar einerseits, dass man wahrlich nicht alles machen kann. Doch wird andererseits auch deutlich, dass die Kategorie Geschlecht bei der Erforschung der Menschenrechtsgeschichte nicht ausgeklammert werden darf. ...
Background and aims: Although combined antiretroviral treatment (cART) has improved overall survival of HIV infected patients, liver fibrosis and liver related-mortality still constitute major challenges in HIV positive patients. Collagen accumulates in the liver during fibrogenesis. Recent studies showed that circulating levels of extracellular matrix (ECM) fragments might reflect degree of portal hypertension and fibrosis stage in liver disease. In this study, we analyzed the correlation between liver fibrosis assessed by Fibroscan and levels of the formation and degradation markers of type III and IV collagen in HIV positive patients receiving cART.
Methods: 116 HIV positive patients (82.7% male, median age 47 years) were enrolled into the study. Liver stiffness and liver fat content were determined using a Fibroscan with integrated CAP function. We quantified ECM formation and degradation fragments of collagen III and IV: PRO-C3, PRO-C4, C3M and C4M. These fragments were measured in peripheral serum by using specific ELISAs.
Results: Fifteen (12.9%) out of the 116 HIV positive patients had relevant fibrosis with a liver stiffness ≥ 7.1 kPa, and 79 patients had relevant steatosis with a CAP value > 248 dB/m. Circulating PRO-C3 levels significantly correlated with increasing degree of liver fibrosis assessed by Fibroscan (p = 0.0005), as well as with APRI score (p = 0.015). Interestingly, circulating PRO-C3 levels were significantly correlated with bilirubin (p = 0.022), reduced platelet count (p = 0.0008) and low albumin levels (p = 0.001), suggesting the association of type III collagen deposition with impaired liver function. None of the other measured ECM components significantly correlated with fibrosis or steatosis.
Conclusion: The formation marker of type III collagen, PRO-C3 not only reflects liver fibrosis, but might also mirror liver dysfunction in HIV positive patients receiving cART. Therefore, the circulating levels of PRO-C3 might be suitable to monitor progression of liver fibrosis and deterioration of liver function in HIV positive patients receiving cART.
Die CXCR4-CXCL12-Signalachse gilt als eines der bislang am besten studierten Signalsysteme in der Hämatopoese. Allerdings stammt unser Wissen über diesen kritischen Signalweg maßgeblich aus subtraktiven Studien, wie z.B. knock-out Modellen oder pharmakologischer Inaktivierung. Zwar können aus diesen Modellen wichtige Erkenntnisse über die physiologische Rolle dieses Signalwegs abgeleitet werden, aber dennoch bleiben einige Phänomene ungeklärt. So konnte gezeigt werden, dass es sowohl bei CXCR4-Defizienz als auch bei Patienten mit dem WHIM-Syndrom (ausgelöst durch eine überaktive CXCR4-Mutante) zu einer ausgeprägten B-Zellaplasie kommt. Dies scheint intuitiv nicht vereinbar. Daher wurde in der vorliegenden Arbeit ein Modell mit einer überaktiven CXCR4- Mutante (CXCR41013/1013) hinsichtlich der (un)reifen Hämatopoese systematisch untersucht.
Zunächst wurden hämatopoetische Stamm- und Vorläuferzellen (HSPC) hinsichtlich der aberranten CXCR4-Signalweiterleitung ex vivo analysiert. Die CXCR4-Überaktivierung konnte sowohl in frühen Effekten nach Aktivierung des Rezeptors (F-Aktinpolymerisierung, Aktivierung des MAPK- Signalweges), als auch in späten, zellfunktionellen Effekten (Migrationsassay) nachgewiesen werden. Die veränderte CXCR4 Signalintegration hatte auch bereits in der Homöostase organismische Konsequenzen im Mausmodell. So konnte eine massiv vergrößerte HSPC-Population in der Milz von CXCR41013/1013-Tieren detektiert werden, im Sinne einer extramedullären Hämatopoese. Knochenmarks-HSPC aus CXCR41013/1013-Tiere zeigten ein massiv eingeschränktes (serielles) Repopulationspotenzial. Kombiniert mit der oben genannten ausgeprägten extramedullären Hämatopoese in diesen Tiere interpretieren wir diese Beobachtung als starken Hinweis auf eine dysfunktionelle Interaktion der Stammzellen mit der hämatopoetischen Stammzellnische im Knochenmark. In diesem Zusammenhang besonders interessant ist die Tatsache, dass auch ein Kompetitorknochenmark das Überleben einer Sekundärtransplantation nicht sichert. Dabei ist zu diskutieren, ob dieser Effekt durch eine effizientere Besetzung von Stammzellnischen durch CXCR41013/1013-Zellen, eine Akkumulation von CXCL12 in der Knochenmarkflüssigkeit (siehe unten) oder eventuell sogar ein vesikelabhänginger Transport von mutiertem CXCR4 in Kompetitorzellen ausgelöst wird. Ein weiteres Merkmal dieser Dysfunktion könnte ebenfalls die gezeigte Akkumulation von CXCL12 in der Knochenmarkflüssigkeit von CXCR41013/1013-Tiere darstellen. Diese Akkumulation könnte die Suppression co-transplantierter wildtypischer Hämatopoese sowie die verminderte Effizienz der G-CSF-induzierten Stammzellmobilisierung funktionell erklären. Zusätzlich konnte gezeigt werden, dass die Mobilisierung von Stammzellen aus dem Knochenmark durch einen CXCR4- Inhibitor in CXCR41013/1013-Tieren ebenfalls erheblich hinter der in Wildtypmäusen zurückbleibt.
Analog zu Patienten mit WHIM-Syndrom zeichnen sich CXCR41013/1013-Mäuse weiterhin durch eine ausgeprägte Leukopenie, insbesondere durch einen schweren B-Zell-Mangel, aus. Aus diesem Grund wurde die B-Lymphopoese und humorale Immunfunktion genauer analysiert. Eine grundsätzliche humorale Immunkompetenz von CXCR41013/1013-Tieren konnte nachgewiesen werden, jedoch ist die B-Memory-Funktion erheblich eingeschränkt. Durchflusszytometrisch und funktionell konnte eine reduzierte preB/pro-B Population im Knochenmark bei einer gleichzeitig vergrößerten preB/pro-B Population in der Milz (vgl. extramedulläre Hämatopoese) nachgewiesen werden. Ebenfalls konnten wir in dieser Zellpopulation eine stark erhöhte CXCR4-Oberflächenexpression im Vergleich zu wildtypischen Zellen nachweisen. Da diese unreifen B-Zellen keine verstärke Apoptoserate aufweisen, gehen wir derzeit davon aus, dass der Differenzierungsstopp nicht durch selektiven Zelltod, sondern durch aberrante Retention der preB/proB-Zellen in einer primitiven B-Vorläufer- Nische im Knochenmark zustande kommt, beziehungsweise durch eine gestörte Migration in differenzierende Nischen im Knochenmark. Alternativ könnte die Überdosis CXCR4-Signal differenzierenden Signalen entgegenstehen. Beide Hypothesen können das eingangs erwähnte Paradoxon bezüglich einer B-Zellaplasie in CXCR4-defizienten und CXCR4-überaktiven Zellen hinreichend erklären.